제보
주요뉴스 글로벌

GPT-4, 美 의사시험 '90점 이상' 합격...선천성 희귀병도 맞춰

기사등록 : 2023-04-07 09:53

※ 뉴스 공유하기

URL 복사완료

※ 본문 글자 크기 조정

  • 더 작게
  • 작게
  • 보통
  • 크게
  • 더 크게
GPT-4, 평균 60점이었던 이전 모델에서 향상
검진표 보고 발병 10만분의 1 선천성 희귀병도 맞춰
"내가 여태 봐온 많은 의사들 보다도 낫다"

[서울=뉴스핌] 최원진 기자= 대화형 인공지능(AI) 챗GPT의 유료 서비스인 챗GPT플러스(+)에서 지난달부터 서비스하고 있는 최신 거대언어모델(LLM) 'GPT-4'에 미국 의사면허시험(USMLE) 문제를 출제했더니 높은 점수로 '합격'했다는 결과가 나왔다.

미 경제전문 매체 인사이더가 오는 13일(현지시간) 출판될 '의료계의 AI 혁명: GPT-4와 그 너머'(The AI Revolution in Medicine: GPT-4 and Beyond) 신간을 입수해 6일 보도한 바에 따르면 현직 의사이자 하버드대학교에서 컴퓨터를 활용해 생물학을 연구하는 생물정보학 교수인 아이잭 코핸 박사는 두 명의 동료 연구원들과 GPT-4의 의학 지능 탐구에 나섰다.

코핸 박사와 연구진이 GPT-4에 미 의사면허시험 출제 문제들을 물어보니 무려 90% 이상의 정답률을 보여 '합격'했다.

진료실 책상에 놓인 청진기. 사진은 본 기사 내용과 무관하다. [사진=블룸버그]

이는 지난 2월 이전 LLM 버전인 GPT-3와 GPT-3.5를 대상으로 진행한 연구 결과 때보다 월등히 향상된 점수다. 지난 2월 9일 미국공공과학도서관(PLOS)에서 발행하는 학술전문지 'PLOS 디지털 헬스'에 실린 미 캘리포니아 의료기관 '앤시블헬스'의 연구에서 GPT-3와 GPT-3.5는 평균 60%에 가까운 정답률을 보였는데 의사면허 취득을 위한 최하 점수는 60%여서 당시의 챗GPT는 매우 근소한 차이로 합격하지 못했다.

GPT-4는 '훌륭한 수험생'일 뿐만 아니라 엄청난 의료전문 번역가라고 연구진은 말한다. 포르투갈 환자를 위한 퇴원 수속 정보 안내부터 복잡하고 어려운 의학용어를 초등 6학년이 이해할 만한 수준으로 해석해 설명해주는 등 일반 의사들도 해내기 어려운 환자 응대를 GPT-4는 훌륭히 해낸다는 설명이다.

GPT-4는 든든한 의사 조수 역할도 한다. 예시로 해당 모델은 입원환자들을 대할 때 적절한 태도를 조언해주는 데, '최대한 명확한 언어로 열정적이고 친절하게' 환자를 응대할 수 있는 말들을 추천해준다. 장문의 의학논문도 '눈 깜짝할 사이에' 요약해주기도 하며 심지어 논문과 각종 보고서에서 발췌한 정보들을 바탕으로 직접 인간지능처럼 분석해낸다.

코핸 박사는 GPT-4가 임상진단 능력도 있는지 시험해봤다. 그가 과거에 실제로 진단했던 신생아 환자 사례를 갖고 GPT-4에 환자의 각종 호르몬 수치와 초음파 등 신체검진 기록을 알려줬더니 발병률이 10만분의 1로 희귀질환인 '선천성 부신 과형성'을 완벽히 진단해냈다.

선천성 부신 과형성은 부신 피질에서 나오는 호르몬의 생합성에 관여하는 효소가 선천적으로 결핍되어 나타나는 질환으로, 희귀병이어서인지 단번에 해당 질환을 짚어내는 의사가 많지 않다고 코핸은 말한다.

그는 "내가 다년간의 공부와 연구, 경험에서 비롯해 진단했던 그대로였다"며 매우 인상깊었다면서도 한편으로는 "소름이 끼쳤다"고 말했다.

이어 코핸은 "내가 이런 말을 하게 될줄은 몰랐다. GPT-4는 내가 여태 봐온 많은 의사들 보다도 낫다"고 발언했다.

그는 "언젠가 수많은 가정에서 이 놀라운 가상 의료전문가를 만날 수 있다는 생각에 한편으로는 불안하다"며 "GPT-4의 의료 권고들이 안전하고 효과적일 것이란 검증과 보장은 어떻게 할지 현재 나로선 모르겠다"고 말했다.

GPT-4 등 언어 모델이 존재하지 않는 정보를 팩트처럼 답하거나 답변에 사실적 오류를 범하는 현상을 인공지능 용어로 '할루시네이션'(hallucination·환각 현상)이라고 일컫는다.

구글이 지난 2월 6일 공개한 챗봇 '바드'의 시연영상에서 역사적 사실에 틀린 답변을 한 것도 할루시네이션의 한 예이다. 챗GPT 개발사인 오픈AI조차 챗봇이 종종 틀린 답변을 할 수 있다며, 아직은 할루시네이션에서 자유로울 수 없다고 밝혔다.

코핸은 실제 의료상황에서 발생할 수 있는 할루시네이션과 관련해 "의사들도 불완전하고 부정확한 데이터를 바탕으로 잘못된 추정을 하거나 실수를 범한다. 나 역시 인간 의사와 간호사들에게 요구하는 임상적 판단과 도덕적 책임 기준은 없다"고 말했다.

wonjc6@newspim.com

 

<저작권자© 글로벌리더의 지름길 종합뉴스통신사 뉴스핌(Newspim), 무단 전재-재배포 금지>