제보
주요뉴스 오피니언

[기고] 챗GPT에게 아이들의 읽고 쓰기를 맡긴다구요?

기사등록 : 2023-05-08 08:27

※ 뉴스 공유하기

URL 복사완료

※ 본문 글자 크기 조정

  • 더 작게
  • 작게
  • 보통
  • 크게
  • 더 크게
하민회 이미지21대표(코가로보틱스 마케팅자문)

글 쓰고 그림 그리고 무슨 대화든 척척 받아주는 챗GPT. 그런데 알면 알수록 쓰면 쓸수록 달콤씁쓸한 맛이 느껴지는 건 무슨 이유일까?

GPT-4는 미국 로스쿨 모의시험에서 상위 10% 수준의 성적으로 합격하며 4개월 만에 놀라운 성능향상을 입증했다. 최근 미국 샌디에이고 캘리포니아대(UCSD)는 내과 분야 질문에 대한 의사와 챗GPT의 답변을 의료전문가들이 평가하는 실험에서 응답의 품질과 공감도 모두 챗GPT가 훨씬 우수한 것으로 평가됐다는 연구결과를 발표했다. 보스턴컨설팅그룹은 2027년에는 생성형 AI 시장 규모가 1210억 달러(약 160조 원)에 이를 것으로 전망했다. 2022년 대비 13배 이상의 성장 예측이다.

챗GPT가 압도적인 성능과 잠재력을 증명할수록 규제와 견제에 대한 목소리도 높아지고 있다. '딥러닝의 대부'로 불리는 AI선구자 제프리 힌튼 교수는 최근 구글을 퇴사했다. 더 자유롭게 AI의 위험성을 경고하기 위함이라 사직이유를 밝힌 힌튼교수는 AI 기술 발전이 초래하는 위협이 기후변화보다 더 시급하다며 "어떻게 대처해야 할지 해결법이 명확치 않기"에 기술이 악용되지 않도록 더욱 유념해야 한다고 주장했다.

챗GPT로 대표되는 생성형AI는 대규모 언어학습을 하고 사람의 피드백 강화학습을 거쳐 주어진 질문에 대해 최대한 자연스러운 답을 생성하도록 만들어진 모델이다. 때문에 태생적으로 아는 것과 모르는 것을 구분하지 못한다. 마치 사람과 대화하듯 그럴듯한 문장을 만들어내는 능력은 동전의 앞 뒷면처럼 쉽게 해결되기 어려운 환각(Hallucination)현상을 일으키는 원인이기도 하다.

하민회 이미지21 대표.

한국은 챗GPT 열풍 속에 있다. 정부는 물론 지자체까지 질세라 챗GPT관련 교육을 진행하고 부서별 도입방안을 모색 중이다. IT강국다운 발빠른 대응이다.

챗GPT를 생산성 향상과 개인의 역량 강화가 검증된 분야나 영역에 도입하는 건 당연하지만 모든 산업, 모든 조직과 영역에 '일단 도입하고 보자'식은 곤란하다. 업무의 어떤 분야, 어떤 과정에 어떤 문제가 있는지 면밀히 조사하고 챗GPT를 도입하면 어떤 점이 어느 정도까지 개선될 수 있을지 예측해보고 도입 전에 어떤 것들을 준비해야 하는지 사전 검토과정을 거쳐야 한다. 물론 부작용이나 위험성 여부를 확인하고 만일 있다면 어떻게 예방하고 완화할지 구체적이고 신중한 계획까지 준비되어야 한다.

특히 교육이나 의료, 채용 등 인간에게 직접적이고 결정적인 영향을 미치는 분야에 챗GPT도입은 시간을 두고 조심스럽고 신중하게 고려될 필요가 있다.

얼마 전 MS 창업자 빌 게이츠는 에듀테크 컨퍼런스에서 "생성형AI가 아이들에게 읽기와 쓰기 능력을 키우는 교사의 주요 역할을 할 것"이라고 주장했다. 전통적인  글쓰기, 읽기 교육에 들어가는 비용에 비해 AI기술이 훨씬 저렴할 뿐더러 콘텐츠가 다양하고 개인 맞춤이 가능하다는 이유였다.

위험천만하고 불쾌하게 느껴지는 발언이었다.

어린이 교육, 그것도 가장 기본적이고 핵심적인 인간 역량인 읽고 쓰는 교육에 챗GPT 교사라니. 단지 비용절감과 편리성이라는 이유로 챗GPT에게 읽고 쓰는 것을 배우게 하는 것이 과연 옳은 일일까? 빌 게이츠의 주장이 교사를 AI로 대체하자는 건 아니지만 아이들의 읽고 쓰는 교육을 맡길 만큼 생성형AI를 충분히 신뢰할 수 없는 현실에서 윤리보다 수익을 우선하는 빅테크의 속내가 불편할 수 밖에 없다.

교육, 특히 인간의 기본 역량을 익히고 사회 구성원으로서의 역할을 배우는 어린이 교육에 있어 챗GPT같은 생성형 AI 도입이 신중해야 할 이유는 다음과 같다.

첫째, 기술에 대한 과한 의존. 유년기의 경험은 살아가는 방식의 토대가 된다. 즉각적이고 쉬운 AI기술에 의한 교육에 익숙해지면 스스로 생각하는 법을 배우기 어려워질 수 있다. 비판적이고 개성적인 사고방식을 형성하거나 독립적인 문제 해결력에 방해가 될 수 있다. 이미 스마트폰을 제2의 뇌처럼 의존하고 있는 우리의 일상만 돌아봐도 부작용을 쉽게 알 수 있다. 언젠가부터 전화번호, 도로, 노래가사를 외우는 사람을 쉽게 찾아볼 수 없다.

둘째, 사회적 소통능력 감소. AI와의 대화는 사람 간의 소통보다 쉽다. 배려나 조율 같은 상호적 맥락을 고려하지 않아도 되고 감정적 에너지 소모도 없다. 일방적이고 지시에 가까운 AI와의 대화에 익숙해지면 오감을 활용하는 상호작용과 대인관계에 어려움을 겪을 수 있다. 특히 AI에 의한 읽고 쓰기 교육은 행간을 읽어내는 맥락을 파악하는 능력을 키우고 감성적 발달을 기대하기엔 역부족이다.

셋째, 부정확한 정보. 챗GPT는 답변을 제공하기 위해 알고리즘과 데이터에 의존하므로 때로 환각에 의한 부정확한 정보를 제공할 수 있다. 이는 미디어 리터러시가 구축되어 있지 않은 어린이들에게 잠재적 인식 혼란을 일으키거나 판단 오류의 원인이 될 수 있다.

넷째, 윤리적 문제. 방대한 양의 데이터로 훈련된 AI는 편견 및 차별, 데이터 프라이버시 등으로부터 완전히 자유로울 수 없다. 뜻하지 않은 편견이나 차별 인식이 생기지 않도록 지속적인 모니터링과 별도의 윤리학습이 필요하다.

다섯째, 개인별 격차. 아이들은 발달 수준이 저마다 다르며 언어 능력 또한 나이와 경험에 따라 크게 다를 수 있다. 인간교사가 할 수 있는 상대의 감정을 읽거나 개인 성장 수준에 맞춘 적절한 피드백은 결코  AI에게 기대하기 어렵다.

아무리 유용하고 혁신적인 기술이라도 그 본질과 목적을 훼손하지 않아야 가치가 있다. 인간의 읽고 쓰는 역량은 생각하는 힘을 만드는 원천이다. 그리고 상호작용을 통해 그 힘은 더욱 발달하고 확장된다. 교사가 결코 AI에 의해 대체될 수 없는 가장 큰 이유다.

정보 획득을 위해 교육하는 시대는 갔다. AI시대에는 믿을만한 정보인지 아닌지 스스로 가려낼 수 있는 능력과 흩어져 있는 조각정보들을 모아 세상에 대한 큰 그림을 그려내는 능력이 필요하다. 끊임없이 생각하고 소통하고 변화하는 능력, AI시대 인간의 진정한 경쟁력이다.

◇하민회 이미지21대표(코가로보틱스 마케팅자문) =△경영 컨설턴트, AI전략전문가△ ㈜이미지21대표, 코가로보틱스 마케팅자문△경영학 박사 (HRD)△서울과학종합대학원 인공지능전략 석사△핀란드 ALTO 대학 MBA △상명대예술경영대학원 비주얼 저널리즘 석사 △한국외대 및 교육대학원 졸업 △경제지 및 전문지 칼럼니스트 △SERI CEO 이미지리더십 패널 △KBS, TBS, OBS, CBS 등 방송 패널 △YouTube <책사이> 진행 중 △저서: 쏘셜력 날개를 달다 (2016), 위미니지먼트로 경쟁하라(2008), 이미지리더십(2005), 포토에세이 바라나시 (2007) 등

<저작권자© 글로벌리더의 지름길 종합뉴스통신사 뉴스핌(Newspim), 무단 전재-재배포 금지>