관리 메뉴

PC Geek's

오픈AI 챗 GPT 사용법에 관한 간단소개기사 (동아일보), 그리고 '국어공부해라' 본문

학습, 공개강의/읽기와 쓰기

오픈AI 챗 GPT 사용법에 관한 간단소개기사 (동아일보), 그리고 '국어공부해라'

오픈AI의 chatGPT 는 3.5버전이 무료가입자에게 공개됐고, 최신버전인 4는 유료플랜 구독자에게 공개.

간단 사용법 소개
웹에서 가입해 이용하기
스마트폰 앱을 이용하기

(앱은 일부러 혼동하게 만들어 올린 유사앱, 범죄앱을 잘못 알고 깔지 않도록 조심. 사이트도 유사한 이름이나 주소 주의)



기사 자체는 술술 읽히니까 한 번 볼 만하다.

[생성 AI 길라잡이] 챗GPT, PC·스마트폰 설치와 활용

https://www.donga.com/news/It/article/all/20240222/123642645/1

[생성 AI 길라잡이] 챗GPT, PC·스마트폰 설치와 활용

※생성 인공지능이 세계를 뜨겁게 달굽니다. 사람만큼, 더러는 사람보다 더 그림을 잘 그리고 글을 잘 쓰는 생성 인공지능. 생성 인공지능을 설치하고 활용하는 방법과 최신 소식을 매…

www.donga.com



소감.

ㅡ 국어를 잘 하든 영어를 잘 하든, 언어를 잘 해야 대화형 AI를 잘 이용할 수 있겠다.

AI는 표준화돼있을 테고, 인터페이스가 재래식 코딩이 아니라 자연어라고 해도, 표준적인 인간이 교육받는 문법과 표현 방식을 따를 것이다.

그럼, 횡설수설하는 사람보다는 조리있게 말하는 사람, 말 잘 하고 글 잘 쓰는 사람이 유리할 것은 자명하다. 아, 궤변늘어놓는 데'만' 도가 튼 사람은 제외.

AI의 수준이 앞으로 더 좋아지더라도, 우문현답보다는 현문현답이 많을 것은 당연하다.


ㅡ 상대가 사람비슷하게 말하지만 기계

라는 것을 항상 인식하고, 그런 전제하에서 채팅해야 한다.
당연한 이야기인데..


ㅡ 요즘은 논거를 주석으로 붙여주는 챗AI도 나왔고, 그 응용으로 아예 논문형식 글을 써주는 AI도 나왔지만, 얘들이 틀린 내용을 사실인 양 적었다가[각주:1] 지적해주면 "예 그렇습니다"하고 그 부분만 다르게(맞으리란 보장이 없다) 고치는 식으로, 장난치는 것처럼 보일 때도 있다는 보고가 있다. 즉,

모든 결과물은 검증대상이다.



ㅡ 만약 챗GPT를 일종의 "떠먹여주는 위키백과"로 이용하겠다면,

배경지식을 가진 사람이 더 잘 이용할 것이다.

즉, 이용자는 여전히 공부해야 한다.


ㅡ 요즘 온라인 서점의 전자책 코너는 "날로먹기 대회"라도 열린 듯한 분위기다.

챗GPT가 써준 내용을 정리하거나(아예 책을 써주는 AI가 출시됐다는 글도 본 것 같다), 짜깁기해놓고는 저자를 chatGPT라고 적어놓고 1인출판한 책들이다. 테스트용인 것 같은 0원짜리도 있고, 낙전을 노리는 것 같은 1천원짜리도 있고,  무슨 용기인지 사람이 쓴 책만큼 비싼 것도 있다.


ㅡ 사람하고 싸우지 않고(= "키보드배틀"을 하지 않고) 오해받지 않고 카톡을 잘 하는 사람이 기계하고도 채팅(?)을 잘 할 것 같다. 기계는 맞붙어 욕하지는 않(도록 제작자가 정한 규칙을 따르거나, 내부 학습로직은 어찌됐든 간에 적어도 챗창에 욕설을 출럭하지는 않도록 필터링지시받)지만 결과물의 질이 나빠지면 내 손해다.


(업데이트)
ㅡ 그리고

AI를 다루든 그런 직종에 종사하지 않는 일반인이든  발음교정은 필수다.

예를 들어, 우리은행 AI 음성인식 ARS같은 것이 보험사와 관공서에 퍼져갈 것이며, 나중에는 예/아니오말고도 콜센터의 업무 중 간단한 것부터 대체해갈 것이다.

그때

사투리를 쓰는 사람은 불리할 것이다.

발음이 분명하고 또렷하지 않은 사람은 불리할 것이다.

다시 말해 표준적인 서울발음을 사용하지 않는 사람, 시스템이 지방말씨도 학습하더라도 그 지방 중심지의 표준발음에서 벗어난 말씨를 사용하는 사람은 불리할 것이다.

말하기(발음)에 장애가 있는 사람은 불리할 것이다.

사람도 AI TTS의 문형과 말씨를 학습해야 할 것이다.


  1. 주장과 논거(레퍼런스)를 둘 다 날조하기도 한다는 모양이다. 이게 과거 사고사례처럼 다른 이용자가 고의나 과실로 잘못 학습시킨 것인지, 아니면 웹에서 엉터리 문서를 학습한 것인지, 이도 저도 아니면 로직 자체가 어떤 트리거에 따라 거짓말을 스스로 생성해 대화하는 게(= 속이는 게) 가능한지 여부는 나는 모르겠다. [본문으로]
이 글과 같은 분류글목록으로 / 최신글목록 이동
Comments
Viewed Posts
Recent Comments
Recent Posts