상단영역

UPDATED. 2024-04-29 00:20 (월)

본문영역

노암 촘스키 "ChatGPT가 가져올 '악의 평범함'"

"도덕·이성적 사고의 결여로 진실 외면"

  • 기자명 공인호 기자
  • 입력 2023.03.10 11:20
글씨크기
미국 언어학자이자 철학자인 노암 촘스키가 인공지능은 인간과 같아질 수 없다며 우려를 표했다. [이미지 출처=셔터스톡] 
미국 언어학자이자 철학자인 노암 촘스키가 인공지능은 인간과 같아질 수 없다며 우려를 표했다. [이미지 출처=셔터스톡] 

*본 기사는 포춘코리아(Fortune Korea)에서 확인하실 수 있습니다. 

세계적인 좌파 지식인으로 알려진 노암 촘스키(Noam Chomsky)는 챗봇이 '기계 학습의 경이로움'이라면서도 '악의 평범함'의 재부팅 사례일 수 있다고 경고했다.

미 포춘지에 따르면, 지난해 말 ChatGPT(챗GPT) 등장 이후 구글(Google) 및 마이크로소프트(Microsoft)의 AI(인공지능) 기반 챗봇은 사용자를 공포에 떨게 하기도 했고, 혼란스럽고 부정확한 정보를 제공하기도 했다.

그러나 AI의 가장 큰 한계는 신경학자들이 오랫동안 경고해 온 것일 수 있다. 바로 인간의 두뇌 작동 방식을 완벽히 복제할 수 없다는 것이다.

ChatGPT와 같은 지능형 챗봇은 코드를 작성하고 여행을 계획하는 데 유용할 수 있지만, 이 기술은 동시대 철학자들 사이에서 잠재적으로 논쟁의 여지가 있는 토론을 결코 할 수 없다는 것이 촘스키의 주장이다.

그는 "OpenAI(오픈AI)의 ChatGPT, 구글의 바드(Bard) 및 MS의 시드니(Sydney)는 기계 학습의 경이로움"이라면서도 "ChatGPT는 초기 단계로 간주될 수 있지만 인간 지능과 동등하거나 능가할 수 있는 AI는 아직 멀었다"고 지적했다.

특히 촘스키는 AI의 도덕성과 이성적 사고의 결여로 인해 '악의 진부함', 즉 프로그래밍에 명시된 동작을 단순 수행하면서 현실과 진실에 무관심하게 만든다고 썼다. 이러한 한계는 AI가 인간의 생각을 모방하는 데 극복할 수 없는 장애물이 될 수 있다.

촘스키는 "우리는 언어학의 과학과 지식 철학을 통해 그것이 인간이 언어를 추론하고 사용하는 방식과 크게 다르다는 것을 알고 있다"며 "이러한 차이점은 프로그램이 수행할 수 있는 작업에 상당한 제한을 둔다"고 꼬집었다.

그는 "실제로 그러한 프로그램은 인지 진화의 이전 인간, 또는 인간이 아닌 단계에 갇혀 있다"며 "진정한 지능은 있을 법하지 않지만 통찰력 있는 것을 생각하고 표현하는 능력에서 나타난다"고 설명했다.

AI가 인간의 뇌에 도달할 수 없는 곳

OpenAI의 ChatGPT는 많은 양의 데이터를 파헤쳐 일관된 대화를 생성하는 기능으로 사용자에게 깊은 인상을 남겼다. 이 기술은 지난달 역사상 가장 빠르게 성장하는 앱이 되었으며 빅테크(BigTech)의 자체 AI 제품 출시를 가속화했다.

AI 기반 챗봇은 테라바이트의 데이터를 깊이 파고들어 텍스트 형식으로 자세한 정보를 생성하는 대규모 언어 모델에 의존한다. 그러나 AI는 방금 언급한 내용이 사실인지 거짓인지, 또는 사용자가 듣고 싶어하는 내용인지 구분할 수 없는 상태에서 다음 단어를 생성하기 위해 문장에서 가장 의미 있는 것이 무엇인지 예측한다.

이는 정확성을 식별할 수 없기 때문에 눈에 띄는 실수와 노골적인 잘못된 정보로 이어졌다. 챗봇 개발자들은 실수가 AI 학습 과정의 일부이며 시간이 지나면서 기술이 향상될 것이라고 주장한다. 그러나 AI의 추론 부족은 인류의 삶을 개선하는 데 가장 큰 걸림돌이 될 수 있다.

촘스키는 현재 AI 프로그램에 대해 "그들의 가장 큰 결점은 지능의 가장 중요한 능력이 없다는 것"이라며 "무엇이 사실이고, 무엇이 사실이 될 것인지 뿐만 아니라 무엇이 사실이 아니고 사실일 수 있는지 없는지도 말하는 것이다. 그것들은 예측 요소들이며 진정한 지성의 표시이다"라고 말했다.

특히 사용 가능한 정보를 기반으로 추론하고 새롭고 통찰력 있는 결론에 도달하는 능력은 인간 두뇌의 특징이다. 반면, AI의 경우 신경학자들이 오랫동안 인간의 추론을 복제할 수 있는 것과는 거리가 멀다고 지적했다.

이에 대해 촘스키는 "'인간의 마음'은 소량의 정보로도 작동하는 놀랍도록 효율적이고 우아한 시스템"이라고 표현했다.

AI의 한계 '악의 평범성'

촘스키에 따르면 현재의 AI는 비판적으로 사고할 수 없고 자주 자신의 의견을 제시하는 것을 검열하므로 과학, 문화, 철학의 주요 돌파구로 이어진 어려운 대화를 할 수 없다. 그는 "ChatGPT가 유용하려면 참신한 결과를 생성할 수 있어야 한다. 대부분의 사용자가 받아들일 수 있으려면 도덕적으로 불쾌한 콘텐츠를 피해야 한다"고 공동 저자와 함께 썼다.

이에 ChatGPT 및 기타 챗봇이 자유로운 결정을 내리지 못하도록 하는 것이 최선이며, 기술 문제를 고려할 때 전문가들은 사용자에게 의학적 조언이나 과제를 위해 그것에 의존하지 말 것을 촉구했다. AI가 '궤도'를 벗어난 사례로는 지난달 뉴욕타임즈(New York Times) 기자와 Microsoft의 Bing(빙) 사이의 대화에서 사용자가 아내를 떠나도록 설득하려는 내용이 공개돼 논란이 되기도 했다.

AI의 부정확성은 '음모론' 확산을 부추길 수 있으며, 사용자가 자신이나 다른 사람에게 위험한 결정을 내리도록 강요할 위험성도 있다. 촘스키에 따르면 '불량 AI'에 대한 두려움은 결코 합리적인 결정을 내리지 못하고 도덕적 논쟁에 무게를 둘 수 없다는 것을 의미할 수 있다. 그렇다면 기술은 우리 삶의 중요한 부분이 아니라 장난감이자 가끔 사용하는 도구로 남을 수 있다.

그는 "ChatGPT는 악의 진부함을 보여준다. 표절, 무관심, 회피 등 그것은 일종의 자동 완성으로 문헌의 표준 주장을 요약하고, 어떤 것에 대해서도 입장을 취하지 않으며, 단순히 무지가 아니라 지능의 부족을 호소하고 궁극적으로는 책임을 제작자에게 전가한다"고 지적했다.

촘스키는 "도덕적 원칙에서 추론할 수 있는 능력이 없는 상황에서 ChatGPT는 프로그래머에 의해 논쟁의 여지가 있는 즉, 중요한 토론에 새로운 것을 기여하는 것을 조잡하게 제한했다"며 "그것은 일종의 비도덕성을 위해 창의성을 희생한 것"이라고 꼬집었다.

저작권자 © 파퓰러사이언스 무단전재 및 재배포 금지
이 기사를 공유합니다

개의 댓글

0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400

내 댓글 모음

당신만 안 본 뉴스

하단영역

매체정보

  • 서울특별시 서대문구 경기대로 15 (엘림넷 빌딩) 1층
  • 대표전화 : 02-6261-6148
  • 팩스 : 02-6261-6150
  • 발행·편집인 : 김형섭
  • 법인명 : (주)에이치엠지퍼블리싱
  • 제호 : 파퓰러사이언스
  • 등록번호 : 서울중 라 00673
  • 등록일 : 2000-01-06
  • 발행일 : 2017-11-13
  • 청소년보호책임자 : 박노경
  • 대표 : 이훈, 김형섭
  • 사업자등록번호 : 201-86-19372
  • 통신판매업신고번호 : 2021-서울종로-1734
ND소프트