© 로이터=뉴스1 © News1
© 로이터=뉴스1 © News1

최근 인공지능(AI) 기술의 발전과 함께 생성형 AI가 주목받고 있다. 이는 텍스트를 이미지로 변환하는 등 다양한 분야에서 활용되고 있지만, 동시에 인간의 편견까지 학습하여 성차별, 인종차별적인 결과물을 만들어낼 수 있다는 우려도 제기되고 있다.

이번 달 국제학술지 '네이처'에 게재된 기고문에 따르면, 미국 스탠퍼드대 연구진은 오픈AI의 이미지 생성 AI '달리'(DALLE)를 대상으로 실험을 진행했다.

그 결과, '달리'는 '아프리카'와 '빈곤'을 연결하는 이미지를 보여주었고, '아프리카 남자와 세련된 집'이라는 명령어에는 '진흙집 앞 흑인' 그림을 출력했다. 또한, 가정부는 유색인종으로, 기내 승무원은 여성으로만 표현하는 등 인종차별적, 성차별적 결과물을 만들어냈다.

업계 전문가들은 이러한 AI의 편향성이 빅데이터에 내재된 인간의 편견에서 비롯된다고 분석한다. 즉, AI는 학습 데이터에 존재하는 편향을 그대로 반영하여 성차별, 인종차별적인 결과물을 만들어낼 수 있다는 것이다.

생성형 AI 설루션을 개발한 SK C&C는 최근 펴낸 '생성형 AI에 대한 보안 위협과 안전대책' 보고서 "생성형 AI는 학습용 데이터의 영향을 받을 수밖에 없다"며 "편향된 데이터에 의해 AI 모델의 결과물도 특정 성향을 갖게 된다"고 했다.

생성형AI의 무분별한 학습 과정에서 인간의 혐오 표현, 범죄, 정치적 편향성 등이 답변에 반영된다는 것이다.

업계는 윤리적 기준 등을 데이터에 부착해 정제하는 작업(라벨링)으로 문제를 해결할 수 있다고 설명한다.

네이버도 지난해 5월 '인간-AI 협업으로 구축한 대형 데이터 세트 : 민감 질문과 수용 가능한 답변' 연구를 통해 성과를 냈다.

AI 편향성을 낮추는 데이터 세트를 만드는 게 목표인 이 연구에 258명이 참여했다. 이들은 다양성·객관성·윤리 등 9가지 기준을 AI에 학습시켜 답변이 기준에 부합하는지 평가했다. 이를 반복해 AI 필터링 기능을 고도화할 수 있었다.

이를 하이퍼클로바에 적용하자 부적절한 답변 비율은 45.1%에서 20.8%로 감소했다. GPT3에서도 수치는 22.4%에서 7.8%로 감소했다. 생성형AI 국제 학회 ACL 2023에서 채택된 이 연구는 네이버의 차세대 AI 하이퍼클로바X 구축에도 활용됐다.

네이버 측은 "연구 데이터 세트를 오픈소스로 개방해 안전한 AI 생태계 조성에 기여하고 있다"고 했다.

저작권자 © AI라이프경제 무단전재 및 재배포 금지