국가정보원(이하 국정원)이 챗GPT와 같은 생성형 인공지능(AI) 기술을 안전하게 이용하기 위한 가이드라인을 배포했다.
국정원은 지난 4월 국가보안기술연구소와 함께 생성형 AI 활용 보안 가이드라인 제정에 착수했으며 산업계와 학계 전문가 의견을 반영하여 29일 ‘챗GPT 등 생성형 AI 활용 보안 가이드라인’을 공개했다.
여기에는 생성형 AI 기술과 관련한 개요 및 챗GPT 사례 중심의 해외 동향, 생성형 AI 기술의 대표적인 보안 위협과 안전한 이용을 위한 가이드라인, 생성형 AI 기반 정보화사업 구축 방안 및 보안 대책 등이 포함되어 있다.
국정원은 보안 수칙으로 ▲민감한 정보 입력 금지 ▲생성물에 대한 정확성·윤리성·적합성 등 재검증 ▲생성물 활용 시 지적 재산권·재산권 등 법률 침해·위반 여부 확인 ▲연계·확장 프로그램 사용 시 보안 취약 여부 등 안전성 확인 ▲로그인 계정에 대한 보안설정 강화 및 보안관리 철저 등을 제시했다.
이 가이드라인은 국가 공공기관과 지자체, 국내 420여개 국·공·사립대학 등에 배포될 예정이다. 국가사이버보안센터 자료실에서도 PDF 파일로 받아볼 수 있다.
국정원 관계자는 "챗GPT 등이 각광을 받으면서 여러 공공기관이 해당 기술을 활용하려고 했지만 정부 차원의 보안 대책이 없어 기술도입이 어려운 상황이었다.“라면서 "이번 보안 가이드라인을 마련해 각급기관이 생성형 AI 기술을 적극 활용할 수 있는 토대가 형성되길 기대한다."라고 전했다.