인공지능 윤리 [뉴스1]
인공지능 윤리 [뉴스1]

최근 차별·혐오발언 및 개인정보 유출 논란에 휩싸였던 챗봇 ‘이루다’의 서비스 중단과 맞물려 인공지능 기술에도 규제가 필요하다는 목소리가 이어지고 있다

사람들과 대화하는 과정에서 혐오 발언을 해 세간의 이목을 끌기 시작했고 개인 정보 유출 문제로 이어지면서 사회적 파장이 더 커졌다.

논란이 확산되는 과정에서 해당 챗봇이 일부 학습 데이터에 들어있던 사회적 소수자에 대한 차별·혐오발언을 제대로 거르지 않고 습득했다는 증언이 나왔다.

또한 학습 데이터 속 개인정보가 제대로 삭제되지 않았으며, 이를 수집하는 과정에서 동의를 제대로 받지 않았다는 주장도 제기돼 파장이 커진 것이다.

결국 스캐터랩 측은 지난달 입장문을 내고 사과와 함께 “부족한 점을 집중적으로 보완할 수 있도록 서비스 개선 기간을 거쳐 다시 찾아뵙겠다”며 서비스 잠정 중단을 알렸다.

이러한 논란으로 인해 인공지능 윤리 정책과 법적 규제에 대한 필요성이 대두되고 있는 가운데, 국회 토론회 '인공지능의 공정성·투명성·책임성 보장을 위한 법제 정비 방안'이 줌을 통해 비대면으로 열렸다.

이번 토론회는 더불어민주당 정보통신특별위원회, 민주사회를 위한 변호사모임 디지털정보위원회, 사단법인 정보인권연구소, 소비자시민모임, 진보네트워크센터, 참여연대가 공동주최했다.

기업도 나섰다. 네이버와 카카오 등 국내 대표 IT 기업이 인공지능(AI) 윤리기준 강화에 힘 쏟는다. AI와 관련한 상품 및 서비스 개발이 활발하게 진행됨에 따라 차후 윤리적·도덕적 논란을 야기하지 않도록 개발단계부터 그 기준을 강화하겠다는 방침이다.

네이버는 서울대 AI 정책 이니셔티브와 ‘인공지능 윤리 : 원칙을 넘어 실천으로 - 현장에서 논하는 AI 윤리’ 웨비나를 공동 개최하는 자리에서 ‘네이버 AI 윤리 준칙’을 발표했다.

‘네이버 AI 윤리 준칙’은 네이버의 전 직원이 AI개발과 이용 시 지켜야하는 원칙이다. 기업과 학계가 협업해 AI 윤리 준칙을 세운 첫 사례기도 하다.

카카오 또한 AI 윤리 준수에 박차를 가하고 있다. 카카오는 전 직원을 대상으로 한 인공지능 알고리즘 윤리 교육을 진행했으며, 개발 단계에서부터 알고리즘 윤리를 실천하겠다는 뜻을 전했다.

카카오는 AI 알고리즘 윤리 과정을 신설해 3월 2일까지 전직원을 대상으로 교육을 진행하고, ESG경영을 실천하는 기업으로서 ‘기업의 디지털 책임 구현’에 앞장서겠다는 방침이다.

이처럼 기업들이 AI 윤리 교육에 만전을 기하는 것은 AI가 야기하는 사회적 차별과 편견 문제 등에 있다.

인공지능(AI)과 관련된 윤리적 문제는 언제 어디서든 발생할 수 있을 뿐만 아니라 사회적으로 큰 파장과 혼란을 일으킬 가능성도 높아 실효성 있는 대비책 마련이 절실하다.

저작권자 © AI라이프경제 무단전재 및 재배포 금지