UPDATED. 2018-09-21 13:35 (금)
베라시티 인공지능으로 가짜뉴스 분별하기
베라시티 인공지능으로 가짜뉴스 분별하기
  • 이동훈 기자
  • 승인 2018.04.17 08:46
  • 댓글 0
이 기사를 공유합니다

작년 한 해 동안 8,164건의 가짜 뉴스가 생성됐다

<서울경제 파퓰러사이언스 이동훈 기자>

서울경제 파퓰러사이언스 이동훈 기자
서울경제 파퓰러사이언스 이동훈 기자

 

작년 한 해 동안 8,164건의 가짜 뉴스가 나왔다.

인공지능이 인터넷 상의 가짜 정보 문제를 해결해 줄 수 있을 것인가?

가짜 뉴스에 대한 연례 보고서는 없다. 그러나 가짜 뉴스를 추적하는 베라시티 AI는 인터넷 상 가짜 뉴스 사이트 1,200개와 가짜 뉴스 기사 40만 건을 발견했다.

-BB

8,164라는 숫자를 고른 이유는 레이아웃 상에서 영어 단어 good과 비슷하게 보이기 때문이다.

-ED

이미 알고 있겠지만 현대는 사실(팩트)이 살아남기 힘든 시대다. 물론 진실이 사라진 시대에도 사실 자체는 여전히 남아 있다. 그러나 가짜 정보, 선전, 뉴스의 수렁에서 사실을 발견하기가 너무나 힘들어지는 것도 사실이다. 진통제에 바이러스가 들어 있다. 2016년 대통령 선거 때 부정 투표가 300만 표나 있었다. 어린이용 전자 담배가 나왔다. 이런 거짓 정보들이 인터넷을 도배하고 있다.

사실 확인자들과 언론인들은 사실만을 다루기 위해 온 힘을 기울인다. 그러나 거짓말은 너무 많고 그걸 감별할 사람은 너무 적다. 평균적인 일반인들이 가짜 뉴스에 얼마나 자주 속아 넘어가는지는 알 수 없다. 그러나 가짜 뉴스에 접촉할 기회는 엄청나게 많다. 퓨 연구센터가 작년에 보고한 바에 따르면 미국 성인 중 2/3 이상이 거짓 정보가 풍부한 소셜 미디어에서 뉴스를 본다. 그것은 우리들도 느끼고 있다. 작년 12월 프린스턴 대학, 다트머스 대학, 엑세터 대학의 정치학자들의 발표에 따르면 2016년 대통령 선거 시기에 미국인 1/4이 가짜 뉴스 사이트를 방문했다고 한다. 그 중 대부분은 페이스북을 통해서였다.

정치인과 전문가 심지어 정부에서도 정보를 무기로 사람들 사이의 지역적, 성별, 민족적 차이를 이용하려 하고 있다. 그리고 페이스북, 구글, 트위터 등의 거대 기술 기업들은 이에 맞설 수밖에 없다. 신생기업이건 대기업이건 알고리즘과 인공 지능을 사용하여 디지털 뉴스의 사실 확인을 하려고 시도하고 있다. 스마트 소프트웨어를 만들고 열심히 생각하여 진실을 찾아낸다. 듀크 대학의 언론학 교수로 <듀크 기술 확인 협력단>에서 이러한 일을 지휘하고 있는 빌 아데어는 과거에는 뉴스 매체에서 부정확하고 말도 안 되는 정보들을 걸러 내었다. 그러나 지금은 그런 필터가 없다. 소비자들은 무엇이 옳고 그른지를 알게 해 줄 새로운 도구가 필요하다고 말한다.

이 협력단은 120만 달러의 기금(20만 달러는 페이스북 저널리즘 프로젝트에서 주었다)을 가지고 가상 사실 확인 도구 개발을 지원하고 있다. 현재 이러한 도구 중에는 디지털 뉴스 기사나 연설문 내용을 기존에 알려진 사실들의 데이터베이스와 대조하는 <클레임버스터>, 정치인들 및 전문가의 주장을 찾아내는 화제 추적기, 신뢰성 있는 정보를 편향된 독자들도 받아들이기 쉽게 해 주는 <트루스 구글> 등이 있다. 그 외의 여러 그룹들이 비슷한 도구를 만들려고 시도하고 있다.

가짜 뉴스라는 용어에는 논란의 여지가 있다. 가짜 뉴스는 독자의 오독을 유도하거나 경제적 또는 정치적 이익을 얻기 위해 허위 사실, 오해된 사실, 조작된 사실에 기초하여 제작된다. 그러나 정당인들은 명성과 전통이 있는 뉴스 매체를 공격할 때도 가짜 뉴스라는 말을 사용한다.

알고리즘이 최상의 해결책이 되기를 바란다. 물론 지금도 알고리즘의 도움을 받을 수는 있지만 개인적으로는 회의적이다. 로봇에게 내 일자리를 뺏길까봐 두려워서가 아니다. 로봇이 경쟁력을 가질 수 있는 분야가 어디인지를 알고 있기 때문이다. 나는 사실 확인에 대한 책을 썼다. 제목은 <The Chicago Guide to Fact-Checking> 이다. 나는 팟캐스트 <메서즈(Methods)>도 진행한다. 여기서는 언론인, 과학자, 기타 직업적으로 진실을 탐구하는 사람들이 일하는 모습을 다루고 있다. 나는 이러한 경험을 토대로, 진실이란 복잡하고 실체를 확실히 알기 어렵다는 것을 알게 되었다. 인간 두뇌는 맥락과 의미를 인식할 수 있다. 이들은 정보를 인증하는 데 매우 중요하다. 인간은 빈정거림을 알아챌 수 있고 역설도 알아챌 수 있다. 근본 메시지가 변하지 않은 채로 구문이 변할 수 있음도 알고 있다. 그래도 가끔씩 잘못 받아들이기도 한다. 과연 기계가 인간의 이런 능력 근처라도 올 수 있을까?

언론에서는 인공지능이 가짜 뉴스에 사람들이 속지 않게 해 줄 것이라는 희망적인 기사를 내 놓았다. 그러나 이들 디지털 두뇌 속에는 무엇이 들어 있는가? 알고리즘은 자신들의 임무를 어떻게 해낼 것인가? 무엇보다도 인공지능은 엄격한 규칙에 따를 때 최상의 성능을 발휘한다. 때문에 컴퓨터에게 체스나 바둑을 가르칠 수 있는 것이다. 그러나 진실은 게임의 룰처럼 칼로 잰 듯이 확실한 것이 아니다. 그래서 데이터 과학자이자 책 <대량살상 수학무기(Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy)>의 저자인 캐시 오닐은 인공지능을 낙관하지 않는다. “발언 내용과 진실로 알려진 것들을 비교하는 것이야 말로 사실 확인 알고리즘의 적어도 대략적인 개념이다. 그러나 진실을 찾는 인공 알고리즘 모델이 없기 때문에 사실 확인 알고리즘은 작동할 수 없다.”

따라서 컴퓨터공학자들은 그런 알고리즘 모델을 만들어야 한다. 그렇다면 수많은 가상 사실 확인자들을 무슨 수로 조직할 것인가? 이들이 사용할 진실 모델은 어떤 것인가? 그리고 얼마나 더 기다리면 이런 알고리즘에게 가짜 뉴스를 쳐내는 일을 맡길 수 있을 것인가? 답을 얻기 위해 본지의 편집자들은 나에게 자동화된 사실 확인자로 가짜 뉴스를 검사하고 나 역시 같은 가짜 뉴스를 검사한 다음 그 절차를 비교할 것을 요청했다. 그 결과는 복잡했다. 그러나 독자 여러분이나 내가 생각하는 이유 때문은 아니었을지도 모른다.

쳉카이 리는 텍사스 대학 알링턴 캠퍼스의 컴퓨터 공학자다. 그는 <클레임버스터>의 수석 연구자다. 기사가 집필되는 시점에서는 <클레임버스터>야말로 일반인이 사용할 수 있는 유일한 인공지능 사실 확인 도구다. 물론 아직 개발 중이다. 다른 자동화 사실 확인자의 개발 시기에 맞추어 리와 그의 팀은 2014년부터 클레임버스터를 만들기 시작했다.

이거 정말 사실인가?

사실 확인자는 15시간을 들여 이 페이지를 검사했고, 인쇄 전 34개의 오류를 발견했다.

BY  브루크 보렐

[이동훈 기자 - leedonghoon@hmgp.co.kr]


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.