제보
주요뉴스 오피니언

[기고] 슬기로운 챗GPT 생활

기사등록 : 2023-03-06 14:27

※ 뉴스 공유하기

URL 복사완료

※ 본문 글자 크기 조정

  • 더 작게
  • 작게
  • 보통
  • 크게
  • 더 크게
하민회 이미지21대표(코가로보틱스 마케팅자문)

"아직도 챗GPT 안 해 봤어?" 최근 세계적으로 급부상하고 있는 스타는 단연 챗GPT, 사람이 아닌 대화형 인공지능(AI) 모델이다. 출시된 지 채 두 달이 되기도 전에 이용자 수 1억명을 넘겼다니 IT 역사상 가장 빠른 성장세이다. 사용자 1억명을 모으는데 틱톡은 9개월, 인스타그램은 2년 반이 걸렸다.

사용 후기도 다양하다. 글 쓰는 사람 밥줄 다 끊기겠다는 반응부터 수학에는 오류가 많다, 최신 시사는 잘 모르더라, 잘못된 정보도 그럴듯하게 지어낸다 까지 분분한 의견은 대중적인 뜨거운 관심을 보여준다.

한달 째 주말마다 챗GPT와 놀고 있다. 한글 사용이 가능하지만 챗GPT는 아직 한국어에 능숙하지는 않다. 한국어로 물으면 제대로 답변하지 못하거나 영어를 섞어 엉성하게 답하는 경우가 많아 질문은 주로 영어를 사용했다.

처음 던졌던 질문은 챗GPT 알고리즘에 대한 설명. 변환기라는 딥 러닝 알고리즘을 사용하여 입력 프롬프트를 기반으로 텍스트를 생성하는 일종의 언어 모델로 사전교육-미세조정-인코딩-생성-출력의 단계를 거친다는 답을 했다. 같은 질문을 중학생 수준에 맞추어 설명해달라고 했더니 동일한 내용을 전문용어를 거의 쓰지 않고 쉽게 풀어서 또박또박 설명했다.

챗GPT는 수준과 분량, 형식에 맞춰 답할 줄 안다. 기대보다 똑똑했다. 전문가 수준의 줄글을 몇 초 만에 작성해낸다. 전 세계 교육계에 챗GPT경고등이 켜질 만하다. 리포트나 논문에 챗GPT 사용 금지령을 내리기도 하고 챗GPT 활용 적발용 애플리케이션(앱)까지 등장했다. 일각에선 화이트칼라 노동자가 챗GPT로 대체되는 게 아닌가하는 두려움 섞인 푸념도 나온다.

하민회 이미지21 대표.

어떤 질문에도 그럴듯한 대답을 내놓는 챗GPT의 몇 가지 약점도 알려졌다.

우선 2021년 이후의 시사문제에는 오답을 한다. 대표적인 예가 '2023년 대한민국 대통령은 누구인가?' 라는 질문이다. 챗GPT는 '저는 2021년에 학습되었기 때문에, 2023년 대한민국 대통령에 대한 정보를 알지 못합니다.' 라고 답한다. 검색엔진처럼 실시간 정보를 수집하는 것이 아니라 사전에 학습된 데이터셋만 가지고 답변을 하기 때문이다.

거짓말을 하고 심지어 가짜 출처로 우기는 경우도 있다. 이런 현상은 생성 알고리즘이 가진 태생적 한계에 가깝다. 챗GPT에서 GPT는 'Generative Pre-trained Transformer'의 약자다. 우리말로는 '사전에 훈련된 생성변환기' 쉽게 말해 해당되는 정보를 추려 정확한 답을 '찾는' 게 아니라 관계성을 분석해 답을 '만드는' 형태라는 의미다.

예를 들어 '고속도로에 (  )가 달린다'는 문장이 있다면 자동차, 자전거, 오토바이, 마차 등 빈칸에 들어갈 단어를 예측해 완전한 문장을 구성하는 방식이다. 개발자들은 챗GPT가 내놓는 여러가지 답변에 점수를 매겨가며 답변의 적절성을 학습시키는 데 이때 적절성은 내용의 진실성을 포함해 유용성, 무해함 등 다양한 기준을 적용한다. 그렇게 학습된 챗GPT는 '납득이 되는' 문장을 만들어낸다.

챗GPT는 책, 위키피디아, 웹사이트 등에서 추출한 570GB(단어 3000억 개) 규모의 언어 데이터를 학습했다고 알려졌다. 하지만 학습데이터 전부가 확실한 출처와 진실성이 검증되었다고 볼 수는 없다. 챗GPT가 내놓는 그럴듯한 답의 진위여부를 전적으로 신뢰할 수 없는 이유기도 하다.

그 외에도 챗GPT가 스스로 말한 단점은 이렇다.

1. 데이터 편향 - 인종, 성별, 출신 국가 등과 같은 속성에 따라 데이터가 불균형 할 수 있으며, 이는 모델이 불공정한 결정을 내리거나 일부 그룹을 차별하는 경향을 가질 수 있다.

2. 이해능력의 한계 - 인간언어를 모사하나 인간처럼 이해하지 못한다. 언어모델은 통계적 패턴을 기반으로 언어를 생성하는 것으로 특정 단어나 문장을 실제로 이해하는 건 아니다.

3. 지식 및 상식 부족 - 문맥에서 발생하는 언어의 모호성을 이해하지 못하며 학습되지 않은 지식과 성식이 없는 경우에는 답을 생성하지 못할 수도 있다

4. 데이터 및 컴퓨터 리소스 요구- 엄청난 양의 데이터와 컴퓨팅 리소스를 필요로 하므로 학습 및 배포에 많은 비용이 들며, 개인이나 작은 기업에서는 이러한 모델을 사용하기가 어려울 수 있다.

여러가지 단점에도 불구하고 챗GPT 열풍은 한동안 계속될 것 같다. 꽤나 말 통하는 사람과 대화한 듯한 기분 들 만큼 충분히 매력적이고 흥미로운 경험을 줄 뿐 더러 활용하는 방법에 따라 업무효율성 향상에 대한 기대감도 생기기 때문이다.

"이젠 AI하고까지 경쟁해야 하나?" 한숨부터 쉴 일은 아니다. 챗GPT를 경쟁자로 여기면 피곤하다. 하지만 어시스턴트로 생각하면 기운이 난다.

챗GPT는 반복적이고 정형화된 서류작업을 빠르게 마치도록 돕는다. 방대한 자료를 요약 정리하는 데 탁월하므로 업무의 배경지식을 얻거나 유사한 사례를 신속하게 찾아내는 데도 활용할 수 있다. 그 과정에서 색다른 관점의 아이디어를 얻을 기회도 생긴다. 챗GPT는 질문이 구체적이고 명확할수록 용도에 적합한 답을 낸다. 다소 두루뭉실한 언어습관을 가졌다면 챗GPT사용이 명료하고 경제적인 화법으로 바꾸는 훈련이 될 수도 있다.

슬기로운 챗GPT생활을 만드는 건 챗GPT가 아니라 챗GPT 사용자다. 챗GPT는 얼핏 만능처럼 보이지만 사람이 만든 것과 구별할 수 없는 콘텐츠를 만드는 것을 목표로 하는 생성형 AI모델일 뿐이다. 챗GPT의 답은 결코 정답이라 확신할 수 없을 뿐 더러 보조적으로 활용됨이 마땅하다.

주변 세계를 이해하고 해석하며 타인과 공감하고 참신한 아이디어를 만들어 내는 독특한 능력은 여전히 인간 고유의 능력이다. 경험을 통해 배우며 적응하고 즉흥적으로 행동할 수 있기에 인간은 능력을 확장하고 발전해왔다.

기술은 중립적이다. 과거엔 수십 개의 전화번호를 외웠지만 스마트폰을 쓰면서 가족 번호도 헷갈려 한다. 편리성만 추구하다 보면 자칫 가지고 있던 본연의 능력까지 잃어버릴 수 있다. 챗GPT로 일상에 훅 들어와버린 AI기술은 인간의 능력을 키우고 잠재력을 확장시키기 위해 신중하고 영리하게 써야한다. 과신하거나 과용하거나 중독되서는 안된다.

슬기로운 챗GPT 생활은 의존이 아닌 활용에 있다. AI가 인간을 대체하지는 못하겠지만 AI를 잘 활용하는 사람이 그렇지 못한 사람을 대체할 것은 누구라도 예상할 수 있는 일이다.

◇하민회 이미지21대표(코가로보틱스 마케팅자문) =△경영 컨설턴트, AI전략전문가△ ㈜이미지21대표, 코가로보틱스 마케팅자문△경영학 박사 (HRD)△서울과학종합대학원 인공지능전략 석사△핀란드 ALTO 대학 MBA △상명대예술경영대학원 비주얼 저널리즘 석사 △한국외대 및 교육대학원 졸업 △경제지 및 전문지 칼럼니스트 △SERI CEO 이미지리더십 패널 △KBS, TBS, OBS, CBS 등 방송 패널 △YouTube <책사이> 진행 중 △저서: 쏘셜력 날개를 달다 (2016), 위미니지먼트로 경쟁하라(2008), 이미지리더십(2005), 포토에세이 바라나시 (2007) 등

<저작권자© 글로벌리더의 지름길 종합뉴스통신사 뉴스핌(Newspim), 무단 전재-재배포 금지>