제보
주요뉴스 산업

과기부, 생성형 AI 사이버 보안 토론회 개최…"사이버위협 대응 역량 갖춰야"

기사등록 : 2023-06-13 14:30

※ 뉴스 공유하기

URL 복사완료

※ 본문 글자 크기 조정

  • 더 작게
  • 작게
  • 보통
  • 크게
  • 더 크게
생성형 AI 보안 위협 대응 필요성 강조

[세종=뉴스핌] 이경태 기자 = 정부와 민간이 초거대 인공지능(AI) 시대를 맞아 생성형AI 서비스의 사이버보안을 강화하기 위한 방안 찾기에 머리를 맞댔다.

과학기술정보통신부는 13일 오후 2시 30분 서울 송파구 ㈜이글루코퍼레이션에서 박윤규 2차관을 비롯해 정보보호기업 및 학계, 유관기관 전문가 등이 참석한 가운데 챗지피티(ChatGPT) 등 생성형 인공지능(AI)의 보안 위협 대응방향 모색을 위한 토론회를 가졌다.

[서울=뉴스핌] 김학선 기자 = 박윤규 과학기술정보통신부 2차관 2022.09.14 yooksa@newspim.com

이날 토론회는 최근 급부상하고 있는 챗GPT 등 생성형 AI 서비스의 이용 확산에 따른 국내외 보안 위협 동향과 산업적 파급 효과 등을 공유하고 국가 차원의 보안 위협 대응방향을 논의하기 위해 마련됐다.

챗GPT는 언어 처리 인공지능 모델을 기반으로 하는 대화형 인공지능 서비스로 지난해 11월 출시됐다. 출시 이후 2달만에 월간 이용자가 1억명을 돌파하는 전례 없는 급격한 성장세를 보였다.

그러나 최근 챗GPT를 악용해 악성코드, 랜섬웨어, 피싱메일 제작 등 사이버공격에 활용할 가능성도 높다. 이용 과정에서 개인정보 및 기업의 영업 기밀 정보가 유출되는 등 크고 작은 보안 문제도 드러났다.

미국, 유럽연합(EU) 등 해외 주요국에서는 챗GPT 등 인공지능 기술에 대한 위험성을 우려하며 안전한 사용과 신뢰 환경 구축을 위한 규제 방안 논의에 착수하고 있는 상황이다. 

과기부도 생성형 인공지능 서비스의 안전한 활용과 보안 위협에 대한 현장의 생생한 의견을 듣고 향후 정책 대응 방향을 논의하는 자리를 마련했다.

챗GPT [사진=블룸버그]

이날 토론회에는 외부의 다양한 의견을 폭넓게 수렴하기 위해 인공지능 기술을 정보보안에 접목하고 있는 정보보호기업을 비롯해 인공지능 관련 산업계, 학계, 유관기관 등이 참여했다. 각 분야 전문가의 주제 발표와 심층토론도 진행됐다.

첫 주제발표에 나선 이상근 고려대 교수는 '챗GPT 기술의 진화, 그리고 사이버보안'을 주제로 ▲챗GPT 등 생성형 인공지능 기술의 발전 동향 ▲생성형 인공지능의 한계와 보안 위협 분석 ▲생성형 인공지능 기술의 발전에 대비한 심층 연구 필요성 등을 발표했다.

정일옥 이글루코퍼레이션 기술위원은 '챗GPT 등 인공지능이 보안 산업에 미치는 영향'을 주제로 ▲국내외 인공지능 활용한 사이버보안 산업 동향 분석 ▲인공지능을 접목한 사이버보안 위협·탐지 기술의 성장 가능성을 발표했다. 그는 자체 개발한 인공지능 모델과 챗GPT를 연계해 사이버 위협 정보를 판단하는 보안 솔루션을 시연했다.

김정희 한국인터넷진흥원 미래정책연구실장은 '챗GPT의 보안위협 동향분석 및 대응방향'을 주제로 ▲디지털 패러다임 변화에 따른 보안 위협 대응 현황 ▲생성형 인공지능을 통한 보안위협 현황 및 사례분석 ▲생성형 인공지능의 보안위협 예방을 위한 대응방안 등을 발표했다.

이날 전문가들은 생성형 인공지능의 보안 위협 대응 필요성에 공감하며, 생성형 인공지능의 안전한 이용과 인식제고, 생성형 인공지능을 악용한 사이버공격에 대한 예방·대응체계, 인공지능을 활용한 사이버보안 대응역량 제고 방안 등을 논의했다.

박윤규 2차관은 "챗GPT 등 생성형 인공지능 기술은 앞으로 더욱 발전해 우리 일상에 폭 넓게 보편적으로 사용될 것인 만큼 보안 위협 우려에 적극적으로 대응해 나갈 필요가 있다"며 "정부는 생성형 인공지능 서비스를 국민이 안심하고 이용하도록 안전한 사이버환경을 조성하고 갈수록 지능화‧고도화되는 사이버위협에 대한 대응역랑을 갖추기 위해 최선을 다할 것"이라고 말했다.

biggerthanseoul@newspim.com

CES 2025 참관단 모집
<저작권자© 글로벌리더의 지름길 종합뉴스통신사 뉴스핌(Newspim), 무단 전재-재배포 금지>