상단영역

UPDATED. 2024-04-29 03:45 (월)

본문영역

AI는 인간처럼 대화할 수 있지만 진실만 말하는 것은 아니다

대화형 AI가 제시한 답에서 오정보 계속...허위 정보 연구자들, 대화형 AI에 우려 표해
EU, 디지털서비스법에 오정보 확산 방지를 위한 조항 포함

  • 기자명 HARRY GUINNESS & 신희승 기자
  • 입력 2023.02.13 10:00
  • 수정 2024.04.23 16:03
글씨크기
마이크로소프트의 검색 엔진 빙은 이제 챗GPT와 함께한다. [이미지 출처=마이크로소프트] 
마이크로소프트의 검색 엔진 빙은 이제 챗GPT와 함께한다. [이미지 출처=마이크로소프트] 

대화형 인공지능(AI) 기반 도구가 주류로 편입되면서 많은 허위 정보 연구자들이 우려하고 있다. 이번 주 구글은 파리에서 오픈AI(OpenAI)의 챗GPT(ChatGPT)에 대적할 대화형 AI 바드(Bard)의 시연회를 열었다. 그리고 핵심 제품들의 AI 강화 기능을 공개에 힘을 쏟았다. 마이크로소프트는 챗GPT가 자사의 검색 엔진인 빙(Bing)과 통합될 것이라고 발표했다. 앞으로 몇 달 동안 더 많은 사람들이 이러한 대화형 AI 도구를 이용하겠지만 문제점은 이미 나타나기 시작했다.

대화형 AI는 ‘대규모 언어 모델(large language models, LLMs)’이라는 신경망 네트워크 프레임워크를 통해 구축되며 문법적으로 일관성이 있고 인간이 작성한 것과 유사한 그럴듯한 텍스트를 생성하는 데 매우 뛰어나다. 이것이 가능한 이유는 LLMs가 인간이 작성한 수백 기가바이트의 텍스트로 훈련을 받았기 때문이다. 대부분의 학습용 텍스트는 인터넷에서 가져왔다. LLMs는 토큰(단어나 복합적인 단어의 조각) 시퀀스가 주어지면 다음에 올 토큰을 예측하여 새로운 텍스트를 생성한다. 많은 연구자들은 이 방식을 우리가 학교에서 하던 ‘빈칸 채우기’ 연습과 비교했다.

예를 들어 챗GPT에 파퓰러사이언스에 대한 글을 써 달라고 요청했을 때 그 대답은 “파퓰러사이언스는 1872년에 처음 출판된 과학기술 잡지이다.”라고 시작했다. 챗GPT는 이 문장을 생성하기 위해 파퓰러사이언스 홈페이지의 소개글과 위키피디아 같은 곳에서 정보를 가져와 “파퓰러사이언스는...” 뒤에 올 만한 단어가 무엇인지 계산했을 것이다. 이 대화형 AI가 만든 단락은 거의 같은 맥락 안에서 계속되며 각 문장은 자연스럽게 챗GPT가 학습한 콘텐츠 종류를 따른다.

불행하게도 다음에 이어질 그럴듯한 단어와 문장을 예측하는 이 방법은 대화형 AI가 종종 틀린 사실을 말할 수 있다는 것을 의미한다. 사용자가 이미 정보의 진위에 대해 알고 있지 않다면 대화형 AI가 마치 스스로 무슨 말을 하는지 이해하는 것처럼 보이기 때문에 쉽게 현혹될 수 있다. 파퓰러사이언스는 기술적으로 더 이상 잡지가 아니기 때문에 챗GPT의 답변은 부정확하다. 이와 같은 오류는 구글이 바드를 출시하면서 더 잘 보여주었다. (이것은 또한 특별한 방지책이 적용되지 않은 LLMs가 음모론이나 다른 공격적인 콘텐츠를 제공할 수 있는 이유이기도 하다.)

구글은 바드를 시연하면서 “내가 9살짜리 아이에게 말해 줄 만한 제임스 웹 우주 망원경(JWST)의 새로운 발견은 무엇인가?”라는 질문을 던졌다. 바드는 “JWST는 처음으로 태양계 밖에 있는 행성의 사진을 찍었다.”라는 내용을 포함한 세 가지 요점을 제시했다.

바드의 답을 보면 세계에서 가장 큰 광학 망원경인 JWST가 정말 그 일을 해냈을 것이라는 생각이 든다. 실제로 JWST가 외계 행성 사진을 촬영하기는 하지만 첫 번째로 촬영에 성공한 것은 아니다. 로이터와 미 항공우주국(NASA, 나사)에 따르면 그 영광은 2004년 유럽 남부천문대의 초대형 망원경이 가져갔다. 이 일은 공개적인 시연회에서 일어났기 때문에 수십 명의 천문학 전문가가 개입하여 잘못을 지적하고 수정해 주었다. 하지만 만약 누군가 정말로 바드에게서 답을 구하려고 했다면 그때는 바드의 답이 오정보라는 사실을 알려 줄 천문학 전문가들이 없었을 것이다.

마이크로소프트는 보다 적극적인 접근법을 취하고 있다. 미국 뉴스 웹사이트 더 버지에 따르면 빙의 새로운 FAQ에는 “AI가 실수할 수 있다. 빙은 발견한 정보를 때때로 잘못 전달할 것이며 설득력 있게 들리더라도 불완전하거나 부정확하거나 부적절한 반응을 제공할 가능성이 있다.”라는 언급이 있다. 여기에는 사용자들에게 스스로 판단력을 발휘하고 AI가 제공하는 사실을 재확인할 것을 요구하며 빙에게 이러한 답을 생성하기 위해 어떤 출처에서 정보를 가져왔는지 물어볼 수 있다는 내용도 포함되어 있다.

이것은 여전히 마이크로소프트가 문제를 회피하는 것 같은 느낌을 준다. 물론 사람들은 온라인에서 읽는 정보에 회의적이어야 하지만 마이크로소프트에는 수백만 명의 사용자에게 제공하는 도구가 그저 허위 정보를 사실인 것처럼 꾸며내고 제시하는 게 아니라는 점을 명확히 해야 할 책임이 있다. 빙과 같은 검색 엔진은 사람들이 사실을 확인하기 위해 사용하는 최고의 도구 중 하나이다. 검색 엔진은 잘못된 정보의 양을 늘려서는 안 된다.

그리고 그 책임은 법적으로 집행될 수도 있다. 2024년 시행이 예정된 EU의 디지털서비스법에는 구체적인 오보 확산 방지 조항이 들어 있다. 새로운 법을 준수하지 않으면 회사 연간 매출액의 최대 6%가 벌금으로 부과될 수 있다. 최근 EU가 미국 기술기업에 거액의 벌금을 부과한 일과 검색 엔진이 부정확하다고 증명될 수 있는 특정한 종류의 정보를 반드시 삭제해야 한다는 기존 조항을 고려하면 27개 EU 국가가 구글과 빙에서 두드러지게 나타나는 AI 생성 오정보에 대해 강경한 태도를 취할 가능성이 커 보인다. EU는 이미 딥페이크 및 가짜 소셜 미디어 계정과 같은 다른 형태의 오정보에 대해 더 강경한 입장을 취해야 한다는 압박을 받고 있다.

사용자들은 곧 무료로 광범위하게 제공되는 대화형 AI의 적절한 사용에 대한 논의를 더 많이 보게 될 것이다. 특히 권위 있는 정보 출처가 있다고 주장하는 도구에 대해서는 더욱 그렇다. 그 전에 먼저 이러한 종류의 AI가 질문을 받았을 때 적절한 방법으로 사실 검증이 된 답을 하는 것보다 문법적으로 일관성 있는 헛소리를 만들기가 훨씬 쉽다는 것을 명심해야 한다.

 

※이 기사는 popsci.com 원문을 바탕으로 작성됐으며, 번역은 파퓰러사이언스코리아 소속 기자가 도왔습니다. 

/글 HARRY GUINNESS & 신희승 기자

저작권자 © 파퓰러사이언스 무단전재 및 재배포 금지
이 기사를 공유합니다

개의 댓글

0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400

내 댓글 모음

당신만 안 본 뉴스

하단영역

매체정보

  • 서울특별시 서대문구 경기대로 15 (엘림넷 빌딩) 1층
  • 대표전화 : 02-6261-6148
  • 팩스 : 02-6261-6150
  • 발행·편집인 : 김형섭
  • 법인명 : (주)에이치엠지퍼블리싱
  • 제호 : 파퓰러사이언스
  • 등록번호 : 서울중 라 00673
  • 등록일 : 2000-01-06
  • 발행일 : 2017-11-13
  • 청소년보호책임자 : 박노경
  • 대표 : 이훈, 김형섭
  • 사업자등록번호 : 201-86-19372
  • 통신판매업신고번호 : 2021-서울종로-1734
ND소프트