신뢰는 인간관계에서 중요하다. 코넬대학 연구진이 4일 사이언티픽 리포트에 발표한 논문은 인공지능이 상호 관계를 만드는 데 도움이 된다고 밝힌다. 문자 메시지를 주고받을 때 자동응답 문자가 한 예시다. 그러나 교류에 인공지능이 개입하고 있다는 걸 안다면 오히려 관계가 악화되었다.
연구진은 실험자가 문자 대화 중에 AI로부터 추천 답변을 받도록 했다. 그 결과 AI를 활용하면 대화 분위기와 사회적 관계를 향상시키고 의사소통 속도를 높였다. AI는 주로 밝은 느낌의 단어를 사용하였다. 하지만 답변이 AI으로 만들어졌다고 의심하면 상대를 더 불신했다.
실험자 438명을 모아 서로 쌍을 이뤄 대화시켰다. 이들에게 스마트 응답 기능인 구글 알로와 유사한 시스템을 제공했다. 실험자들은 다음 세 가지 조건에서 정책 토론을 나누었다. 둘 다 기계 답변을 사용하거나, 한쪽만 이용하거나, 둘 다 스스로 생각해 낸 말만 말해야 했다. 지원을 받으면 보통 약 7개 메시지 중 1개꼴로 인공지능 답변을 보냈다. 연구 결과 기계 도움을 받으면 더 유용한 토론을 했고 상대도 더 좋아했다. 그러나 상대가 스마트 응답을 사용한다고 의심하기 시작하면 더 부정적으로 평가했다.
사람들은 대화 과정에서 속도와 편의를 위해 주관성을 희생하는 모습도 보였다. 다른 연구에서 참가자들에게 보통 기계 응답, 긍정적 기계 응답, 부정적 기계 응답, 그리고 기계 응답을 전혀 사용하지 않는 네 가지 경우를 실험했다. 긍정적인 기계 응답은 전반적으로 긍정적인 말을 더 많이 수신하게 만들었다.
제스 호헨스타인 코넬대학교 연구원은 "AI가 문자 쓸 때 도움이 될지 몰라도 사용자가 인식하지 못한 채로 대화 언어를 바꾸고 있다"며 "텍스트 생성 인공지능으로 개인적인 주관성이 일부 희생된다는 것을 의미한다"고 말했다.
논문의 공동저자 말테 정 코넬대학교 정보과학과 부교수는 AI 알고리즘을 제어하는 회사들가 서비스 이용자들의 언어와 상호작용에 쉽게 영향을 미칠 수 있음을 암시한다고 밝혔다.
현재 기술기업들은 대형 언어 모델 프로그램을 빠르게 상용화하고 있다. 마이크로소프트의 챗GPT 기반 빙 검색 엔진과 구글 바드 같은 챗봇이 대표적이다.
정은 "기술 회사들은 업무를 빠르고 완벽하게 끝내도록 도와주는 인공지능의 유용성을 강조하는 경향이 있다"며 "하지만 사회적 여파에 대해선 관심이 덜하다"고 지적한다. 이어"우리는 단절된 삶을 살지 않는다"며 "우리가 사용하는 시스템은 타인과 관계에 영향을 미친다"고 강조했다.
※이 기사는 popsci.com 원문을 바탕으로 작성됐으며, 번역은 파퓰러사이언스코리아 소속 기자가 도왔습니다.
/ 글 Andrew Paul 기자 & 육지훈 기자