미국 인공지능(AI) 회사 오픈AI가 개발한 AI 채팅로봇 '챗GPT' © 로이터=뉴스1 © News1
미국 인공지능(AI) 회사 오픈AI가 개발한 AI 채팅로봇 '챗GPT' © 로이터=뉴스1 © News1

챗GPT 등 초거대·생성형 인공지능(AI) 확산에 대응하기 위해 정부가 AI 윤리와 신뢰성을 확보하기 위한 사회적 논의를 시작했다.

과학기술정보통신부는 7일 정보통신정책연구원(KISDI), 한국정보통신기술협회(TTA)와 서울 서초구 엘타워에서 '제2기 인공지능 윤리정책 포럼' 출범식을 열었다.

포럼위원장은 김명주 서울여대 정보보호학과 교수가 맡았다. AI, 철학, 교육, 법, 행정 등 분야별 전문가, AI 산업계 종사자 등 총 30명으로 포럼위원이 구성됐다.

포럼은 △AI 윤리 체계 확산(윤리분과) △AI 신뢰성 확보 기술 기반 마련(기술분과) △AI 리터러시 및 윤리교육 강화(교육분과) 등 3개 전문분과 위원회로 꾸려졌다.

이날 포럼에서는 지난해 의견 수렴을 거친 'AI 윤리 기준 실천을 위한 자율점검표'와 신뢰할 수 있는 AI 개발안내서를 공개했다.

이어 초거대·생성형 AI 대중화에 따른 가짜뉴스 확산, 알고리즘 편향성, 사생활 침해 등의 문제에 대응해 AI 윤리 정책 방향에 대한 토론을 진행했다.

과기정통부는 지속적인 포럼을 통해 AI 윤리 정책 방향을 제시할 계획이다. 또 신뢰성 검·인증 체계 구축 등 주요 정책 과제에 대한 의견 수렴을 진행할 예정이다.

엄열 과기정통부 인공지능기반정책관은 "초거대·생성형 AI가 산업과 우리 일상 속으로 빠르게 확산되고 있는 상황에서 무엇보다도 기술의 개발부터 활용의 전 단계에서 사회적 신뢰를 확보하는 것이 선행돼야 한다"며 "포럼이 AI 윤리 정책의 방향에 관한 사회적 합의를 마련하는데 기여하고, 관련 기술·산업 기반을 조성하는데 중추적 역할을 수행해주기 바란다"고 당부했다.

저작권자 © AI라이프경제 무단전재 및 재배포 금지