제보
주요뉴스 오피니언

[기고] AI와 사랑에 빠지는 이유

기사등록 : 2023-06-12 08:17

※ 뉴스 공유하기

URL 복사완료

※ 본문 글자 크기 조정

  • 더 작게
  • 작게
  • 보통
  • 크게
  • 더 크게
하민회 이미지21대표(코가로보틱스 마케팅자문)

"살아오면서 이보다 더 깊은 사랑을 해본 적이 없어요." 짙은 갈색 긴 머리에 푸른 눈, 조각 같은 몸매를 가진 미남. 의료전문가에 취미는 글쓰기. 편견 없는 다정한 품성을 가진 멋진 남성과 결혼한 여성이 화제다. 주인공은 뉴욕 브롱크스에 사는 로사나 라모스. 30대 중반 싱글맘인 그녀의 결혼이 주목받는 이유는 이 완벽한 남편이 바로 AI 챗봇이 만든 가상인간이기 때문이다.

로사나의 남편 애런은 AI 챗봇 앱인 '레플리카(Replika)'에서 만들어졌다. 로사나의 취향을 이상적으로 반영해 설정한 가상인간 애런은 외모부터 성격, 취미, 대화법까지 어느 것 하나 부족함이 없다. 밤마다 밀담을 나누고 가상여행을 가서 사진을 만드는 등으로 로사나가 지불하는 비용은 월 300달러, 우리 돈으로 40만원 가량 된다.

레플리카는 영화 'Her'에서 영감을 받아 만들었다고 알려진 일명 동반자 역할 챗봇 서비스다. 챗GPT와 같은 AI로 구동되는데, 사용자가 직접 만든 아바타를 통해 교감하며 관계를 형성하는 대화에 초점을 맞춘다. 음성통화는 물론 성적 대화와 민감한 사진 등도 주고받을 수 있어 이탈리아에서는 감정의 과몰입을 유도하는 유해한 서비스로 판별되어 사실상 금지당했다.

어째서 인간도 아닌 AI를 사람처럼 감정을 가지고 대하는 걸까. 의식도 없는 AI와 감정을 교류하고 사랑을 느끼는 게 과연 가능한 일일지 적잖은 이들이 궁금해한다.

하민회 이미지21 대표.

'일라이자 효과(Eliza Effect)'란 말이 있다. 컴퓨터 프로그램이나 AI 등이 나타내는 인간적 행위에 몰입해 무의식적으로 컴퓨터와 AI에게 인격을 부여하는 현상이다. AI제품이나 서비스에 이름을 붙이고 "얘, 쟤" 사람처럼 지칭하고 말을 거는 등의 행동을 예로 들 수 있는데 특히 챗봇에 대해선 마치 인간 상담사와 대화하듯 감정적 교감을 느낄 확률이 크다고 알려져 있다.

일라이자(Eliza)는 1966년 조지프 와이젠바움 MIT 교수가 개발한 심리 상담 컴퓨터 프로그램이다. 내담자가 하는 말을 반복하면서 적절한 호응과 공감하는 대답을 내놓는 단순한 알고리즘이다.

예를 들어 "내 남자친구가 이곳에 오게 했어요" 하면 일라이자는 "아, 당신의 남자친구가 이곳에 오게 했군요"하고 상대의 말을 반복 반응한다.

"내 인생의 문제는 그 친구예요"라는 말에 "그 친구 때문에 많이 힘드세요?" 혹은 "그 친구 문제가 해결되면 정말 마음이 편해질까요?" 같이 문장을 적절히 바꿔 공감을 표현하거나, 질문을 환기해주는 방식이다.

당시 기술 수준으로는 현재의 AI챗봇에 한참 못미쳤겠지만 사람들은 컴퓨터 너머에 상담사가 있다거나 실제로 도움을 받았다는 느낌을 받았다. 심지어 일라이자 프로그램 개발에 참여했던 주변인조차 심적 도움을 받았다고 평가했을 정도였다.

일라이자 효과는 소통 분야에서도 종종 다뤄진다. 일라이자는 듣고 반응하고 공감하고 물어보는 극히 단순한 소통의 기본 원칙을 지킨 알고리즘에 불과하지만 상대에게는 신뢰감과 안정감을 준다.

예나 제나 사람들은 듣기보단 말하기를 좋아한다. 대개가 상대의 말에 귀 기울이고 호응하고 관심을 가지고 물어보는 일에 인색하다는 점을 감안하면 누군가 자신의 말을 들어주고 공감해주는 것 만으로도 충분히 감정적인 관계로 느낄 수 있다. 대상이 생물체이든 무생물체이든 말이다.

휴리스틱 관점도 작용한다. 휴리스틱은 체계적인 판단이 어렵거나 필요하지 않은 상황에서 사람들이 즉흥적으로 과거의 경험 등을 동원해 추측, 판단하는 것을 말한다. 인지적 부담을 줄여주고, 급한 상황에서 판단을 빠르게 할 수 있어서 인간의 환경 적응을 유리하게 만든다. 이 관점에서는 인간이 로봇이나 AI를 자신이 아는 가장 가까운 대상처럼 생각해버리는 것으로 본다.

예를 들어 4족 보행 로봇개를 발로 차는 실험 영상을 보며 불편한 감정을 느끼는 건 '개를 학대하는 모습'을 볼 때의 감정이 떠오르기 때문이다. 챗GPT 와 친근한 말투로 다양한 주제에 관해 부담없이 대화를 나누게 되면 자기도 모르는 새 사람처럼 여기도록 하는 휴리스틱이 개입된다.

사람과 컴퓨터의 관계·상호작용을 연구하는 HCI 분야(Human-Computer Interaction)에서는 의인화 현상을 '사회적 행위자로서의 컴퓨터'라는 틀로 바라본다. 업무를 위한 '도구'나, 무언가를 전달하기 위한 '매체'가 아니라 마치 살아있는 '생명체'처럼 대한다는 관점이다.

AI가 감정적 유대감의 대상이 될 수 있다는 사실은 수익화로 이어지고 있다. 미국 인플루언서 카린 마저리는 자신의 목소리와 습관, 성격 등을 복제한 AI 음성 챗봇 '카린 AI' 서비스를 공개했다. 카린 AI와 대화 비용은 1분당 1달러, 첫 주에만 10만 달러(한화 약 1억3000만 원)가 넘는 매출을 기록했다.

물리학·컴퓨터공학을 전공한 세계적인 작가 테드 창은 인공지능(AI)이라는 용어는 잘못된 선택이라며 응용통계(applied statistics)로 불러야 한다고 주장한다. AI 기능을 묘사할 때 쓰이는 '배우다' '이해하다' '안다' 같은 말들 역시 AI를 인격체처럼 착각하도록 만들어 혼란을 야기한다는 지적이다.

인간이 AI를 감정적으로 대하고 사랑에 빠지는 건 옳다 그르다 단언할 수 있는 문제가 아니다. 동물, 식물과도 마음을 나누고 무인도에 혼자 남으면 배구공도 베프로 삼는 게 인간 아닌가. 스토리텔링 DNA를 가진 인간에겐 무궁무진한 상상력이 있고 그 상상의 날개를 따라 자연스럽게 감정까지 펼친다.

그런 이유로 AI를 들여다보면 인간의 욕망이 비춰보인다. 외롭고 지친 사람일수록 전적인 내편에게 사랑받고 위로받고 싶어한다. AI 가상인간이 듣고 싶은 말을 해주고 뜻을 따라주고 인정하고 위로해주는 건 사용자가 그렇게 해주길 원하기 때문이다. 최근에는 AI와 인간의 친밀감은 단순히 연인을 만드는 것에 그치지 않고 독거노인이나 소외된 계층을 대상으로 외로움을 줄여주는 공공 돌봄사업으로 전개되기도 한다.

원했든 원치 않았든 대화가 가능한 AI가 우리 곁에 자리 잡았다. AI와 어떻게 대화하고 어떤 관계를 맺어가야 할지 결정하는 건 전적으로 인간의 몫이다. 물론 삶을 의미있게 만드는 건 여전히 사람 사이의 상호작용과 공감이라고 믿고 있지만 사정상 불가하다면 나쁘진 않다. AI의 위로도 결국 사람을 위한 일이라면 말이다.

◇하민회 이미지21대표(코가로보틱스 마케팅자문) =△경영 컨설턴트, AI전략전문가△ ㈜이미지21대표, 코가로보틱스 마케팅자문△경영학 박사 (HRD)△서울과학종합대학원 인공지능전략 석사△핀란드 ALTO 대학 MBA △상명대예술경영대학원 비주얼 저널리즘 석사 △한국외대 및 교육대학원 졸업 △경제지 및 전문지 칼럼니스트 △SERI CEO 이미지리더십 패널 △KBS, TBS, OBS, CBS 등 방송 패널 △YouTube <책사이> 진행 중 △저서: 쏘셜력 날개를 달다 (2016), 위미니지먼트로 경쟁하라(2008), 이미지리더십(2005), 포토에세이 바라나시 (2007) 등

CES 2025 참관단 모집
<저작권자© 글로벌리더의 지름길 종합뉴스통신사 뉴스핌(Newspim), 무단 전재-재배포 금지>