생성형 인공지능(AI) 챗GPT의 등장으로 기업들의 기밀정보와 보안에 우려가 커지고 있다.
실제로 삼성전자(005930)는 최근 정보 유출 문제가 불거지자 사용을 일부제한하기로 했다. 이통3사는 활용 지침을 만들거나 정보가 외부로 유출되지 않는 서비스를 이용하는 등 자구책 마련에 나섰다.
10일 통신업계에 따르면 이통3사는 지난달부터 사내에 챗GPT 활용 가이드라인을 마련해 직원들에게 안내하고 있다.
이달 초 SK텔레콤(017670)은 사내 공지를 통해 직원들에게 업무용 챗GPT를 이용할 것을 안내했다. 해당 서비스는 일반 무료 서비스와는 달리 사내망을 이용해 입력한 정보가 외부로 유출되지 않는다.
이는 챗GPT 활용 과정에서 기밀정보가 유출될 수 있다는 우려가 커지자 SK텔레콤이 내놓은 방책이다.
SK텔레콤 관계자는 "회사 정보가 외부로 유출되는 것을 막기 위해 사내에 업무용 챗GPT를 마련했다"며 "챗GPT가 내부 정보를 학습하는 것을 막기 위함"이라고 설명했다.
LG유플러스(032640)도 지난달 말 사내에 챗GPT 활용 가이드라인을 공지했다. 가이드라인에 따르면 직원들은 공개된 정보와 익명화된 사용 패턴, 통계 데이터만 활용할 수 있다.
가이드라인은 챗GPT를 이용한 서비스 활용 시 기술적 한계로 인한 답변 오류 가능성에 대해 안내해달라고 당부했다. 또 서비스에 활용 시 법무 검토를받을 것을 권고했다.
KT(030200) 또한 지난달 초 전직원에게 챗GPT 활용 주의사항을 공지했다. 업무에서 활용 시 보안에 유의해 기밀 및 개인정보 사용을 지양하라는 내용이
KT 관계자는 "챗GPT 등 생성형 인공지능을 임직원들이 업무에 활용할 때더욱 안전하게 이용할 수 있도록 가이드라인을 사내 공지하고 시행 방법을 전파해 실천하고 있다"고 밝혔다.
공직 사회에도 챗GPT 정보 유출 주의보가 발령됐다. 국가정보원은 지난 2일전부처에 '챗GPT 등 언어모델 AI 활용 시 보안 유의 사항 안내'라는 제목의공문을 전달했다.
개인정보·비공개 업무자료 등 민감 정보 유출 주의, 국정원 사전 보안성 검토안내 등이 주요 내용이다. 이에 따라 앞으로 부처에서 대형 언어모델(LLM) 기반의 AI 기술을 활용한 사업을 추진할 경우 국정원의 검토를 거쳐야 한다.