[서울=뉴스핌] 김수진 기자 = A씨는 얼마 전부터 한 회사에서 데이터 구축 아르바이트를 하고 있다. 대부분 이미지나 동영상을 기준에 맞춰 라벨링 하는 작업이어서 업무가 어렵지 않았다. 하지만 '적당한 자료를 찾아달라', '입력 시 특정 단어(그림)만 들어가게끔 해달라' 등 작업 기준이 불명확한 경우도 있어 당혹스러웠다고 한다.
A씨는 "지시를 내리는 담당자도 잘 모르는 것 같아 나만의 가이드를 만들어 작업했다"라며 "물론 회사 자체 검증을 거치긴 했지만 통과된 데이터가 제대로 AI에 활용될 수 있을지 걱정"이라고 토로했다.
인공지능(AI) 교육용 데이터의 철저한 품질 검증이 시급하다는 주장이 업계 안팎에서 제기되고 있다. 정부가 내년부터 본격적으로 관련 사업을 확대할 계획이고 중장기 사업으로 진행할 예정인 만큼 검증 시스템 확보가 시급하다는 지적이다.
현재 데이터 구축 사업 중 상당수가 AI 교육을 목적으로 한다. 과학기술정보통신부는 AI 개발을 위한 양질의 데이터를 구축하기 위해 20개의 'AI 학습용 데이터 구축 사업'을 지난 7월 확정했다.
텍스트와 영상, 이미지 등 다양한 분야의 AI 개발을 위해 총 21종 4650만 건에 이르는 AI 학습용 데이터를 구축하는 사업으로 국민 누구나 참여할 수 있다.
[서울=뉴스핌] 김수진 기자 = 과학기술정보통신부가 진행한 '데이터 주간' 데이터댐 구축 성과보고회에서 민기영 한국데이터산업진흥원장이 주요 혁신 성장 우수사례를 발표하고 있다. [사진=과학기술정보통신부 공식 유튜브 화면 캡쳐] 2020.12.22 nn0416@newspim.com |
일단 정부의 적극적인 지원으로 짧은 시간에도 성과는 상당한 것으로 나타났다.
지난 15일 과기정통부가 주최한 '데이터 댐' 사업 성과보고회에 따르면, 올해 구축된 AI 학습용 데이터 종류와 누적 구축 수는 지난해 21종 4650만종에서 8배 증가한 170종 3억 7500만건에 달했다.
정부는 내년도 AI 학습용 데이터 구축 사업에 2925억원을 투입해 헬스케어 및 농·축·수산 등 주요 분야에서 AI 학습용 데이터 150종을 새롭게 개방한다. 다년도 중장기 프로젝트를 활성화하고 활용성 측면도 갖춘다.
문제는 이렇게 구축된 데이터를 제대로 검증하지 못한다는 것이다.
국회 우상호(더불어민주당) 의원실에 따르면 사업을 담당하는 한국지능정보사회진흥원 등이 데이터 품질 검증을 제대로 하지 못한 것으로 밝혀졌다.
지난 10월 국정감사에서 우 의원은 문용식 한국지능정보사회진흥원장에게 "저품질의 데이터가 납품되고 있어도 담당기관이 이에 대한 검증을 못하고 있다"라며 "제대로 된 데이터를 납품했는지를 확인하는 검증 시스템이 없다보니 질 낮은 데이터를 납품하고 다시 사업에 참여하는 경우도 발생하고 있는 걸로 아는데 대책이 필요하다"고 지적했다.
이에 문 원장은 "지금까지 데이터 품질 인증을 못한 건 사실"이라며 "향후 관련 기준을 세우겠다"고 입장을 밝혔다.
플랫폼 데이터 품질 저하도 문제로 지목되고 있다.
국회 윤영찬(더불어민주당) 의원실에 따르면 지난해 공공 데이터 품질관리 수준이 중앙행정기관은 76점, 지자체는 56점에 각각 그친 것으로 나타났다.
윤 의원은 "현 구축된 데이터를 보면 통계 등 정형 데이터가 대부분인데 공공 및 민간에서 필요로 하는 비정형(그림, 동영상 등) 데이터는 부족한 실정"이라며 "기관들이 일회성으로 데이터를 모으는 데만 집착하지 말고 실제 활용할 수 있는 질 높은 데이터를 확보할 수 있도록 품질 검증 및 향상에 힘써야 할 것"이라고 강조했다.
[서울=뉴스핌] 김수진 기자 = 인공지능 학습용 데이터 구축 시 검증이 필요하다는 목소리가 높아지고 있다. [사진=픽사베이] 2020.12.22 nn0416@newspim.com |
업계는 데이터 품질 이슈가 언제든 수면 위로 올라올 수 있는 문제라고 보고 있다. 이미 전부터 관련 문제가 제기된 상황이다.
특히 올해 많은 사업들이 8월에서 10월 사이에 발표되면서 현장에서는 실제 데이터 구축 시간이 부족했다는 볼멘소리가 나왔다.
적게는 수천 개에서 많게는 수억 개의 제출된 데이터를 담당기관이 전수 조사하는 것은 사실상 불가능한 만큼 품질 이상이 발생할 가능성이 높을 수밖에 없다는 지적이다.
한 업계 관계자는 "'어느 회사가 대충 수집한 데이터를 납품했는데 문제없이 통과되고 거기에 더해 추가 사업까지 받았다더라'는 이야기가 시장에서 파다하다"라며 "구축 과정부터 검수 전반으로 품질 검증없이 사업을 계속 진행할 경우 세금낭비가 될 가능성이 높지 않겠느냐"고 꼬집었다.
문제는 낮은 품질 데이터로 인해 AI 정확성이 떨어질 수 있다는 점이다.
업계 한 연구원은 "관련 없는 정보(데이터)는 AI를 혼동하게 만들어 정확도를 떨어뜨릴 수 있고, 데이터가 누락되거나 중복된 데이터로 양을 채우고 정작 필요한 데이터는 수집하지 못할 경우 AI가 부정확하게 동작할 가능성이 높다"라며 "만약 처리해야 할 내용과 전혀 무관한 데이터가 입력될 경우 AI가 학습할 특징값이 희석되기 때문에 심할 경우 학습 자체가 되지 않을 가능성이 높다"고 설명했다.
또한 "데이터 품질을 검증하고 높이기 위해 빠르게 대안을 찾지 못하면 기하급수 속도로 구축되고 있는 AI 학습용 데이터들이 쓸모없는 '빅쓰레기'가 될 수도 있다"라고 지적했다.
정부 또한 데이터 품질 확보 중요성을 인지하고 이에 대한 대책 마련에 나서고 있다. 사실 AI 데이터 품질에 대한 가이드라인은 전 세계 어느 국가에서도 확립하지 못한 상황이다. 구글이나 마이크로소프트 등 세계적인 기업이 구축한 데이터 정확도도 43~83%에 불과한 것으로 알려졌다.
정부는 향후 구축될 데이터 품질을 확보하기 위해 지난 9월 AI 학습용 데이터 품질관리를 대폭 강화하는 내용을 발표했다.
하지만 "구축단계에서의 품질검증이 어려워 사후 활용단계에서 유지보수 및 업데이트를 한다"는 내용이 담기는데 그쳐 소극적 대응에 불과하다는 비판을 받고 있다.
이에 최근 데이터 구축 전 설계 단계에서부터 데이터 다양성을 확보하는 방법으로 품질 관리에 나서야 한다는 주장이 힘을 얻고 있다.
한국정보통신기술협회 로고 [사진=한국정보통신기술협회] 2020.12.22 nn0416@newspim.com |
한국정보통신기술협회(TTA)는 데이터 검증 및 품질 확보를 위해 지난 10일 6가지 지표를 담은 '데이터밸런스' 기술을 단체표준으로 제정했다.
데이터 댐에 모인 데이터가 실제 현장에서 유용한지, 해당 데이터로 훈련받은 AI이 오작동 가능성이 있는지를 검증하는 프로그램이다.
설계 단계에서 데이터 수집 기준을 잡을 수 있는데 이는 사실상 국내 첫 데이터 가이드라인에 가깝다.
협회 측은 "정확하면서도 다양한 데이터를 통해 데이터 품질 저하를 막고 AI 정확성을 높이기 위해 해당 기술을 단체표준으로 제정했다"고 밝혔다.
기술을 개발한 씽크포비엘 박지환 대표는 "데이터 댐의 궁극적 목적은 다양성과 정확성을 바탕으로 구축된 AI를 실제 산업현장에서 활용하는 것인데 아직 다양성 수준을 평가하는 공인 기준이 없다보니 현장에서 어려움을 겪는 것이 현실"이라며 "데이터 댐 사업이야 말로 AI 기술 분야를 빠르게 성장할 수 있는 기회인만큼, 데이터 품질을 위한 다양성을 확보할 수 있는 가이드 마련 등 정부의 현실적인 정책 마련이 시급하다"고 강조했다.
nn0416@newspim.com