미래 예측이 점점 어려워지고 있다. 거대언어모델(LLM) 챗GPT가 나왔을 때만 해도 지시어(프롬프트) 몇 줄로 그림까지 그려 주리라 기대하지 못했다. 채 1년 반이 되기 전에 몇 마디 말이면 영상이 뚝딱 만들어지는 AI모델 '소라'가 등장했다.
어제는 '먹을 것'을 달라는 말에 사과를 건내 주고 쓰레기를 주워담으며 "테이블에서 먹을 수 있는 게 사과 밖에 없었다"며 자기 행동을 설명하는 피규어 AI(Figure AI)의 휴머노이드 로봇 영상이 공개됐다. 압권은 할 일을 다 해치운 로봇의 자화자찬. "나 꽤 잘한 것 같은데. 사과는 새 주인을 찾았고 쓰레기를 치웠고, 식기는 원래 있어야 할 곳으로 갔잖아."
기특하면서도 사람 당황하게 만드는 이 로봇은 피규어 AI의 신속하고 섬세한 로봇 기술에 오픈AI의 시각적 추론과 언어 이해 기술이 결합된 시제품이다. 피규어 AI는 로봇이 언어적 이해를 통해 스스로 모든 행동을 했다는 점을 강조했다. 아직은 시제품이지만 보고 듣고 말하고 힘까지 갖춘 휴머노이드의 등장이라니. 미래가 다가오는 속도가 두려울 뿐이다.
하민회 이미지21 대표. |
AI의 대부로 불리는 제프리 힌튼 토론토대학 교수는 최근 니혼게이자이 신문과의 인터뷰에서 "앞으로 10년 안에 자율적으로 인간을 죽이는 로봇 무기가 등장할 수 있다"는 섬뜩한 경고를 했다. 힌튼 교수는 AI기술을 핵전쟁에 비유하며 "아무도 AI가 지배하는 미래를 원하지 않는다"며 서둘러 국제적인 AI 규제 합의가 이루어져야 한다고 강조했다.
AI가 인간을 위협할 존재가 될 가능성도 거론했다. AI에게 목표를 주면 인간에게는 나쁜 해결책을 찾아낼 수 있다는 것인데 예컨대 AI에게 기후 변화를 막으라고 지시하면 AI가 목적달성을 위해 인간을 배제(제거)하는 것이 필요하다고 판단할 수 있으며 이를 실행하려는 위험성이 생긴다는 말이다.
힌튼 교수는 향후 서로 다른 AI가 경쟁하는 과정에서 데이터센터 등 자원 쟁탈전이 벌어질 수 있고 이는 생물계와 마찬가지로 진화 촉진의 과정으로 작용할 수 있다며 경쟁을 거쳐 훨씬 똑똑해진 AI에게 인류가 뒤쳐질 것을 우려했다.
AI의 진화속도가 빨라지면서 경고의 목소리도 커지는 추세다. 최근 미 국무부로부터 의뢰를 받아 연구를 수행한 '글래드스톤 AI'는 "최악의 경우, 최첨단 AI시스템이 인류를 멸종시킬 수준의 위협이 될 수 있다"는 보고서를 제출했다.
[라스베이거스 로이터=뉴스핌] 최원진 기자= 영국의 로봇 개발사 '엔지니어드 아츠'(Engineered Arts)의 휴머노이드 로봇 '아메카'(Ameca)가 미국 네바다주 라스베이거스에서 열린 세계 최대 IT·가전박람회 'CES 2022'에서 방문객들과 대화를 나누고 있다. 2022.01.06 wonjc6@newspim.com |
보고서는 AI의 핵심 위험을 2가지로 정리했다. AI가 무기화되어 잠재적으로 돌이킬 수 없는 피해를 입히는 경우 그리고 통제력을 상실하는 상황이다. 기업들이 안전과 보안을 뒤로하고 AI 개발의 가속화에만 힘을 쏟으면 자칫 가장 앞선 미국 AI시스템이 '도난' 당하거나 '무기화'될 수 있다는 점도 지적했다. 최근 우크라이나전에 동원되고 있는 AI드론 등의 무기만 봐도 이 같은 경고가 단순한 기우는 아닌 듯 보인다.
국가차원의 규제도 본격화되기 시작했다. 유럽연합(EU)이 세계 첫 인공지능(AI) 기술규제 법안인 'AI법(AI Act)'을 통과시켰다. 골자는 AI를 활용하는 과정에서 발생할 수 있는 위험을 범주화해 엄격하게 관리하겠다는 것. 허용할 수 없는 위험, 고위험, 저위험, 최소한의 위험 등 4단계로 구분했다.
허용할 수 없는 위험에는 사람의 의사결정 능력을 손상시키거나 취약성을 활용하는 AI 기술부터 특정인 혹은 단체에 불공정한 처우, 개인의 사회적 신용 점수를 매기는 소셜 스코어링, 학교나 직장에서 사람들의 감정을 해석하기 위한 AI기술 등이 해당되며 전면 금지된다. 또 특정 범죄를 수사하는 등의 용도가 아니면 실시간 원격 생체정보를 탐지하는 등의 기술도 허용되지 않는다.
고위험 AI의 범주에는 사람의 건강과 안전, 기본권을 해칠 중대한 위험(Significant Risk)을 초래하는 기술이 해당된다. 고위험 AI를 개발하는 기업은 시장 출시 전 반드시 적합성 평가 절차를 거치도록 했으며 이미 평가를 받았더라도 시스템이 실질적으로 수정될 경우엔 새롭게 적합성 평가를 받도록 함으로써 속도 전 양상을 보이는 AI 서비스 개발과 출시에 일종의 제동 역할을 할 것으로 보인다.
[사진 = 유비텍 공식 홈페이지] 유비텍의 대표적인 휴머노이드 로봇 모델인 '워커(Walker)' |
오픈AI의 챗GPT나 구글의 제미나이 같은 생성형 AI 모델에 대해선 반드시 AI가 제작한 콘텐츠임을 명시하도록 했다. AI 학습을 위해 사용된 데이터를 투명하게 공개해야 한다는 내용도 눈길을 끈다. 현재 세계 각국에서 진행되고 있는 AI 기업과 데이터 저작권자의 갈등에 직결되는 문제이자 AI 기업들에겐 해명하기 쉽지 않은 약점이기 때문이다.
이상의 법 위반시 기업은 전 세계 매출의 7%에 해당하는 무거운 과징금을 물게 된다. EU의 AI법은 27개 회원국의 서명을 거쳐 오는 6월 EU 관보에 게재된 뒤 내년 초 발효되고 단계적으로 도입돼 2026년 이후에 전면 시행된다. 국제 AI규제법의 주요 이정표가 될 전망이다.
한참 발전 중인 AI 기술인데 벌써부터 발목을 잡는 게 옳은 지 궁금해하는 이들이 있다.
모든 혁신은 예측하기 어렵고 동시에 과소평가하기 쉽다. 기술의 탄생에서 대중화까지 이르는 길은 대단히 복잡하고 수많은 변수와 다양한 상황이 영향을 미치기도 한다. 때로 전혀 예상치 못한 지점에 도착하기도 하고 예측하지 못한 쓰임으로 보편화되기도 한다.
1900년대 초 비행기가 막 실용화되었을 때 사람들은 이 새로운 발명품이 우편물 수송과 비행기 레이싱에 쓰일 것이라 예측했다. 여객기라는 개념은 상상 밖에 있었다. 대학생들이 프로필과 사진을 공유하는 용도로 시작된 페이스북은 10년만에 정치적으로 가장 영향력 있는 수단이 되었다.
[사진=인튜이티브 서지컬 홈페이지] |
AI도 마찬가지다. 우리의 예측대로 고분고분 진화할 것으로 기대하는 건 어리석고 위험하다. AI가 전 분야에 영향을 미치며 기하급수적인 성장을 보일 땐 더 그렇다. 잠재력이 큰 기술일수록 위험성도 크기 마련이다.
경이로우면서 안전한 미래를 원한다면 최소한 AI에게 올바른 방향 정도는 제시해야 하며 그것이 곧 규제다.
"우리는 자신이 모르는 무언가가 자신이 믿는 모든 것을 무효화할 수도 있다는 생각을 아예 하지 못한다." 지금은 심리학자 다니엘 카너만의 말을 새겨들어야 할 때다.
◇하민회 이미지21대표(코가로보틱스 마케팅자문) =△경영 컨설턴트, AI전략전문가△ ㈜이미지21대표, 코가로보틱스 마케팅자문△경영학 박사 (HRD)△서울과학종합대학원 인공지능전략 석사△핀란드 ALTO 대학 MBA △상명대예술경영대학원 비주얼 저널리즘 석사 △한국외대 및 교육대학원 졸업 △경제지 및 전문지 칼럼니스트 △SERI CEO 이미지리더십 패널 △KBS, TBS, OBS, CBS 등 방송 패널 △YouTube <책사이> 진행 중 △저서: 쏘셜력 날개를 달다 (2016), 위미니지먼트로 경쟁하라(2008), 이미지리더십(2005), 포토에세이 바라나시 (2007) 등