[편집자] 5년 전 전 세계를 충격에 빠뜨렸던 알파고. 그리고 현재, 이같은 인공지능(AI) 기술은 '초거대 AI'라는 산업계의 새로운 'AI 혁명'으로 이어지고 있습니다. 전문가들은 인간의 뇌를 닮은 초거대 AI가 바둑만 잘 두던 알파고와는 비교할 수 없을 만큼 우리 삶을 바꿔나갈 것이라고 합니다. 초거대 AI가 가져올 삶의 변화를 상상해 보셨습니까. 뉴스핌이 초거대 AI를 향한 우리 기업들의 움직임을 따라가 봤습니다.
[서울=뉴스핌] 나은경 기자 = # Q. 음악의 어머니가 누구야?
A. 헨델입니다.
Q. 헨델이 여자야?
A. 아니에요. 헨델은 남자입니다.
Q. 남자인데 왜 음악의 어머니라고 불러?
A. 헨델의 음악은 화려하고 자유롭고 아름다워서 그의 음악을 듣고 있으면 마치…(중략)
[서울=뉴스핌] 나은경 기자 = 네이버 하이퍼클로바와 이용자의 대화 [자료=네이버] 2021.07.06 nanana@newspim.com |
음악 전공자와 학생 사이 대화가 아니다. 지난 5월 네이버가 '네이버 AI 나우'라는 행사에서 공개한 사람과 네이버의 초대형 언어모델 '하이퍼클로바(HyperCLOVA)' 사이 대화다. 인공지능(AI)은 정확하게 질문의 맥락을 파악해낼 뿐만 아니라 앞선 대화를 기억해 연계된 답변까지 해낸다.
AI 개발에 열중인 건 네이버만이 아니다. LG그룹은 AI연구원에서 '초거대 AI'를 만들어 하반기 중 공개하겠다고 선포했고, KT도 한국전자통신연구원(ETRI), 카이스트 등과 함께 초거대 AI의 기반이 되는 '극대용량 AI 모델' 개발을 추진하겠다고 밝혔다.
국내·외 기업들을 분발하게 만든 건, 일론 머스크의 후원과 마이크로소프트의 대규모 투자를 받은 미국의 '오픈AI'가 지난해 공개한 GPT-3다. '생성형 사전훈련 트랜스포머(Generative Pretrained Transformer)'의 앞글자를 따 이름 붙인 GPT-3는 영국 일간지 가디언에 칼럼도 싣고, 셰익스피어처럼 소설도 썼으며, 심지어 스스로 코딩하는 모습까지 보여줬다. '사람처럼 말하고 글 쓰는' AI의 등장이다.
◆한국 AI 인재 1만명, 구글에만 1000명...글로벌 기업보다 부족한 인재·데이터
GPT-3는 영어 데이터를 기반으로 알고리즘을 만들었을테고, 우리는 한국어로 된 AI가 필요하니 외국 기업에 종속될 일은 없는 거 아니냐고? 아니다. 말하고 글쓰는 AI를 가능케 하는 알고리즘은 언어가 달라도 크게 바뀌지 않는다. 기본적인 언어 알고리즘 위해 각 언어별 특성을 덧붙이는 개념이어서다. 심지어 이 같은 언어장벽은 점점 낮아지는 추세다. 대용량 언어모델도 마찬가지다. 반대로 말하면 우리가 한국어를 기반으로 열심히 초거대 AI를 만들어도 글로벌로 언제든 수출할 수 있다는 얘기다.
하지만 이는 먼 이야기다. 지금은 글로벌 기업이 초거대 AI 플랫폼을 독식하지 않도록 자체 기술을 확보하고, 일상에서 초거대 AI를 이용할 수 있도록 하드웨어를 경량화·효율화하는 것이 시급하다. 이 목표로 가는 여정에서 ICT업계는 구글, 마이크로소프트와 같은 글로벌 기업보다 인력이나 데이터가 부족한 것이 우리나라 기업의 한계라고 짚었다.
KT에서 음성언어 AI 핵심기술을 개발하는 장두성 KT AI연구소 Core2 담당(상무)은 "기본적인 연구 능력이나 기술은 우리나라 기업들이 글로벌 기업과 비교해도 크게 뒤쳐지지 않는다"면서도 "국내에서 AI 연구 인력을 전부 합쳐도 1만명이 안 되고 고급 인력은 1000명에도 미치지 못하는 데 반해 구글에서는 한 회사가 1000명의 인력을 갖고 있으니 아쉬운 면이 있다"고 말했다.
일각에서는 국내 기업이 보유한 서로 다른 장점이 상호보완되지 않고 AI 연구가 경쟁일변도로 흐르는 데 대한 자성의 목소리도 나온다. 예컨대 국내 시장에서 콜센터, AI스피커 점유율 1위를 차지하고 있는 KT는 음성언어 AI 분야에 강점이 있고, 국내 1위 포털사업자 네이버는 블로그, 지식인 등을 통해 얻은 데이터가 많아 텍스트에 강하지만 양사는 초거대 AI 개발을 위해 각자의 진영을 구축한 상태다.
네이버에서 AI와 인간 사이 상호작용을 연구하는 장민석 네이버 AI랩 AI 리서치팀 TL은 "데이터나 인프라에 대한 공격적인 투자가 어렵고 인력도 충분하지 않다면 경쟁보다 상생이 필요한데 이 점이 안타깝다"고 했다.
◆"어려운 일은 쉽고 쉬운 일은 어렵다"
[서울=뉴스핌] 나은경 기자 = 인공지능 챗봇 이루다 [자료=이루다 페이스북] 2021.07.07 nanana@newspim.com |
로봇이나 AI를 연구하는 이들은 '인간에게 어려운 일은 컴퓨터에 쉽고 인간에게 쉬운 일은 컴퓨터에 어렵다'는 말을 자주 한다. 이른바 '모라벡의 역설'이다. 명령어에 따라 복잡한 수학계산을 하는 것은 쉬울 수 있어도 대화 상대방의 기분과 상황을 파악해 적정 수준의 농담을 던지는 것은 AI에 어려운 일이다.
AI가 인간처럼 생각을 할 수 없기에 AI 윤리를 정립하는 것도 과제다. 연초 IT업계를 뜨겁게 달군 AI 챗봇 '이루다' 사례가 대표적이다. 이루다는 이용자와의 채팅 과정에서 혐오를 학습해 성소수자나 장애인을 언급하면 "완전 혐오해", "싫어"라고 답했다. 논란 끝에 서비스는 중단됐지만 이루다가 일으킨 파장은 현재진행형이다. 지난달에는 국회에서 AI의 비윤리적인 학습과 활용을 막는 '이루다 방지법'이 발의되기까지 했다.
이처럼 AI를 오염시키지 않으려면 양질의 학습데이터가 필요하다. 장 상무는 "KT는 윤리에 위반되지 않은 데이터, 어느정도 질이 담보된 데이터를 위주로 AI 연구에 활용하고 있고 내부적으로도 문제가 될 수 있는 데이터는 별도 취급해 관리하고 있다"고 설명했다.
하지만 윤리와 비윤리의 선을 가르는 것이 무 자르듯 명확하기 어려워 문제다. 그는 "정부에서도 AI 윤리기준을 만들어야 하는 것은 물론, 대중과 정부의 생각이 다를 수 있으니 연구자들도 이런 부분을 함께 고민해야 한다"고 힘 주어 말했다.
nanana@newspim.com