상단영역

UPDATED. 2024-04-28 15:50 (일)

본문영역

역사적 인물 흉내 낸 AI 챗봇..."부정확할 뿐만 아니라 위험할 수도"

  • 기자명 ANDREW PAUL & 신희승 기자
  • 입력 2023.01.30 10:00
  • 수정 2024.04.23 15:59
글씨크기
챗GPT 기반 앱은 알버트 아인슈타인과의 실제 대화를 대체하기 어려울 것이다. [이미지 출처=클립아트코리아] 이미지는 기사 및 보도와 직접적 관련이 없음. 
챗GPT 기반 앱은 알버트 아인슈타인과의 실제 대화를 대체하기 어려울 것이다. [이미지 출처=클립아트코리아] 이미지는 기사 및 보도와 직접적 관련이 없음. 

혐오스러운 아이디어를 적은 길고 장대한 목록에서 AI 히틀러와 ”재미있게 상호작용하는“ 대화에 참여하기 위해 대가를 지불하는 일은 1순위에 오르지는 못할지라도 분명 상위권에 속할 것이다.

그럼에도 불구하고 수많은 사람들이 이미 챗봇(chatbot) 앱 ‘히스토리컬 피규어(Historical Figures, 역사적 인물)’를 통해 그것을 시도했다. 현재 애플 앱스토어에서 이용 가능한 이 프로젝트는 지난주에 AI(인공지능) 프로필 목록 때문에 입소문이 났다. 총망라된 그 프로필에는 흔히 논란이 되는 것들도 포함되어 있었기 때문이다. AI 프로필 목록에는 간디, 아인슈타인, 다이애나 왕세자비, 찰스 맨슨 등이 올라 있다. 9세 이상 누구에게나 적합한 교육용 앱이자 글쓰기 부문에서 76번째로 인기 있는 앱으로 꼽혔음에도 평론가들은 빠르게 이 앱은 성급하게 만들어졌고 좋게 보더라도 종종 틀린 내용이 포함된 관심 끌기용 장치이며 나쁘게 보면 이미 논란이 된 기술인 챗GPT(ChatGPT) 급증의 부정적인 영향이라고 조롱했다.

앱 개발자는 25세의 아마존 소프트웨어 개발 엔지니어 시드한트 차다이다. 그조차도 지난주 롤링스톤지에 챗GPT의 자신감과 부정확성은 제시된 사실들이 출처가 있다고 오해할 수 있는 사용자들에게 ”위험한 조합“이라는 것을 인정했다. 앱의 홈페이지에는 ”이 앱은 진짜처럼 보이는 대화를 가장 잘 추측하기 위해 제한적인 데이터를 사용합니다.“라는 글이 쓰여 있다. 차다는 파퓰러사이언스의 논평 요청에 응하지 않았다.

퍼듀대학교 기술사 조교수인 에카테리나 바빈체바 등 일부 역사학자들은 이와 같은 생각에 강하게 동의했다. 바빈체바는 역사 교육에 챗GPT를 사용하려는 시도는 천박할 뿐만 아니라 근본적인 해로움을 잠재하고 있다고 생각한다.

그녀는 줌(zoom)을 통해 ”챗GPT가 만들어졌을 때 가장 먼저 생각한 것은 ‘아, 이건 실제로 위험하겠구나.’였다.“라고 말했다. 바빈체바에게 위험은 학문적 표절에 대한 우려보다는 AI가 사회문화적으로 더 큰 영향을 끼치는 데 있다. ”챗GPT는 정보에 비판적으로 개입하는 능력과 지식이 어떻게 구성되는지 이해하는 능력을 없애는 하나의 방식일 뿐이다.“라고 말한 바빈체바는 자신들의 지적 재산에 대해 엄격하게 수익성을 통제하려는 민간 기업들 때문에 현재 주요 AI 개발이 모호한 특성을 지닌다고 지적한다. 또한 ”챗GPT는 심지어 이러한 지식이 어디에서 왔는지 설명하지도 않는다. 그것은 출처를 ‘알 수 없는 블랙박스’로 만든다.“라고 말한다.

챗GPT의 개발사인 OpenAI와 히스토리컬 피규어와 같은 파생물을 만드는 제3자가 누구든지 그들의 기초 설계와 연구의 대부분을 검토할 수 있게 만들었다는 점에 주목하는 것은 중요하다. 그러나 AI를 훈련시키는 데 사용된 방대한 인터넷 텍스트 저장소를 자세히 이해하는 것은 굉장히 난해한 일이다. 챗GPT에 그것의 출처를 인용하도록 요구해도 ”아마도“ 위키피디아와 같은 ”공개적으로 이용 가능한 출처“에서 얻은 것보다도 구체적인 것을 제공하지 못한다.

이와 같이 차다의 히스토리컬 피규어 앱과 같은 프로그램은 왜곡되고 때로는 완전히 잘못된 내러티브(narratives)를 제공하는 동시에 애초에 그 내러티브가 어떻게 해서 구성된 것인지도 설명하지 못한다. 그에 비해 역사적인 학술 논문과 일간 보도는 출처 인용, 각주 및 참고 문헌으로 가득하다. 바빈체바는 ”역사는 있다. 그러나 유일한 내러티브는 없다.“라고 말한다. ”유일한 내러티브는 전체주의 국가에만 존재한다. 왜냐하면 그들은 유일한 내러티브의 생산과 정당이 승인한 노선에서 벗어나려는 사람들이 생산하는 내러티브를 줄이는 데 투자하기 때문이다.“

AI 연구의 방향성이 항상 이렇지는 않았다. 90년대 후반까지 AI 연구는 심리학자, 유전학자, 의사와 같은 인간 전문가들이 어떻게 결정을 내리는지에 초점을 두고 ”설명할 수 있는 AI“ 중심으로 이루어졌다. 그러나 1990년대 말까지 AI 개발자들은 이것을 그들의 실제 목표와 크게 관련이 없는 것으로 여겨 이 철학에서 벗어나기 시작했다. 대신에 그들은 신경망으로 옮겨 갔는데 종종 신경망을 설계한 사람조차 자신들이 다다른 결론에 대해 설명해 내지 못했다.

바빈체바와 동료 과학 기술 연구자들은 적어도 인간의 삶과 행동에 실질적인 영향을 미치는 시스템에 대해 설명할 수 있는 AI 모델로 돌아가기를 촉구한다. 그녀는 AI 인간의 연구와 사고를 대체하는 것이 아니라 그것을 도와야 한다고 말한다. 그리고 미국 국립과학재단과 같은 기관들이 펠로십(fellowships)을 추진하고 이러한 방향의 연구에 도움이 되는 프로그램을 승인하기 바란다.

그때까지는 스스로를 새롭고 혁신적인 교육 대안이라고 광고하는 모호한 논리와 불분명한 출처에 기반한 히스토리컬 피규어와 같은 앱은 계속해서 나올 것이다. 설상가상으로 챗GPT와 같은 프로그램은 이러한 목소리에 귀를 기울이지 않고 계속해서 지식 기반 생산을 위한 인간의 노동력 부족에 의존할 것이다. 바빈체바는 ”그것은 지식을 다수의 복잡한 인간 경험과 이해의 산물이 아니라 독특하고 이상한 AI의 목소리로 나타낸다.“라고 전했다.

결론적으로 전문가들은 히스토리컬 피규어가 최신의 말뿐인 디지털 속임수에 지나지 않는다고 봐야 한다고 경고한다. 저명한 미래학자인 더글러스 러쉬코프는 파퓰러 사이언스에 보낸 이메일에서 이 앱의 희망적인 면을 발견하려고 ”노력했다“. 그는 ”나는 AI를 살아있는 사람들 대체하기는 데 쓰기 보다는 죽은 사람들에 대한 아이디어를 시도하는 데 사용하는 것이 낫다고 본다. 적어도 그것은 우리가 다른 방식으로 할 수 없는 것이다. 하지만 (이 앱에서) 선택된 캐릭터들은 사용자에게 히틀러에 대한 직접적인 경험을 제공하기보다는 화제가 되기 위해 고안된 것 같다.“라면서 ”그리고 앱 리뷰를 보니 그 전략이 효과가 있었던 것 같다.“라고 썼다.

 

※이 기사는 popsci.com 원문을 바탕으로 작성됐으며, 번역은 파퓰러사이언스코리아 소속 기자가 도왔습니다. 

/글 ANDREW PAUL & 신희승 기자

저작권자 © 파퓰러사이언스 무단전재 및 재배포 금지
이 기사를 공유합니다

개의 댓글

0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400

내 댓글 모음

당신만 안 본 뉴스

하단영역

매체정보

  • 서울특별시 서대문구 경기대로 15 (엘림넷 빌딩) 1층
  • 대표전화 : 02-6261-6148
  • 팩스 : 02-6261-6150
  • 발행·편집인 : 김형섭
  • 법인명 : (주)에이치엠지퍼블리싱
  • 제호 : 파퓰러사이언스
  • 등록번호 : 서울중 라 00673
  • 등록일 : 2000-01-06
  • 발행일 : 2017-11-13
  • 청소년보호책임자 : 박노경
  • 대표 : 이훈, 김형섭
  • 사업자등록번호 : 201-86-19372
  • 통신판매업신고번호 : 2021-서울종로-1734
ND소프트