제보
주요뉴스 글로벌

챗GPT 개발사 "AI 위험 줄이기 위해 IAEA 같은 국제 기구 필요"

기사등록 : 2023-05-23 14:12

※ 뉴스 공유하기

URL 복사완료

※ 본문 글자 크기 조정

  • 더 작게
  • 작게
  • 보통
  • 크게
  • 더 크게

[서울=뉴스핌] 최원진 기자= 생성형 인공지능(AI) 챗봇 '챗GPT'를  개발한 오픈AI가 AI 기술의 위험을 줄이려면 국제원자력기구(IAEA)와 같은 국제 규제 기구가 필요하다고 제언했다.

오픈AI의 샘 올트먼 창업자 겸 최고경영자(CEO)와 그레그 브로크먼 회장 겸 공동창업자, 일리야 수츠케버 수석 과학자는 22일(현지시간) 자사 블로그에 올린 '초지능의 거버넌스(Governance of Superintelligence)' 제하의 글에서 "AI 시스템은 향후 10년 안에 대부분의 부문에서 전문가 기술 수준을 넘어설 것으로 예상된다"며 "초지능은 인류가 과거에 다뤄온 다른 기술들보다 더 강력해질 것"이라고 주장했다.

오픈AI가 언급한 초지능이란 인간과 똑같은 사고가 가능한 범용인공지능(AGI)을 초월하는 AI 시스템으로, 인간의 능력을 뛰어넘는다. 

이들은 AI 기술의 위험성과 잠재성을 핵 에너지, 인공생물학 등에 비유하며 "우리는 반드시 오늘날 AI 기술의 위험성을 경감시켜야 하지만 초지능은 특수 조치와 조정을 요구할 것"이라고 강조했다.

업체는 초지능이 초래할 위험을 줄이는 방안들을 제시했다. 

우선 전 세계 정부는 연간 AI 기술 개발 속도 조절에 합의를 도출하고 각 기업들은 책임감 있는 AI 개발을 위해 극도로 높은 기준을 적용해야 한다는 것이다.

둘째로 초지능 개발 노력은 궁극적으로 IAEA와 같은 국제 규제 기구가 필요하다고 올트먼 CEO 등은 주장했다. AI 개발자들에 안전 기준을 제시하고 이를 잘 준수하고 있는지 테스트하며 감사를 요구하고 시스템을 감시할 체계가 필요하다는 설명이다. 

당장은 AI 산출물과 전력 사용량을 일일히 추적하진 못하겠지만 실제로 도입할 수 있는 아이디어이길 바란다며, 기업들이 자발적으로 국제 기구가 요구하는 기준 요소들을 도입하고 국가들도 국제 기준을 도입한다면 어느 정도 실행 가능성이 있을 수 있다는 조언이다. 

마지막으로 초지능을 안전하게 개발하기 위한 기술적인 능력도 필요하다고 이들은 덧붙였다. 

앞서 지난 16일 미 상원 청문회에 출석한 올트먼은 정부 차원의 AI 개발 규제가 필요하다고 언급한 바 있다. 당시에 그는 AI모델 개발과 출시를 승인하는 일종의 라이선스를 발급하는 정부 기관 설립을 아이디어로 제시한 바 있다.

마이크로소프트(MS) 빙 행사에 참석한 샘 올트먼 오픈AI 최고경영자(CEO). 2023.02.07 [사진=블룸버그]

wonjc6@newspim.com

CES 2025 참관단 모집
<저작권자© 글로벌리더의 지름길 종합뉴스통신사 뉴스핌(Newspim), 무단 전재-재배포 금지>