자동차의 AI는 사이버 공격과 위협에 취약할 수 있다. [게티이미지뱅크]
자동차의 AI는 사이버 공격과 위협에 취약할 수 있다. [게티이미지뱅크]

자동차 제조업체 폭스바겐은 인공 지능(AI)의 힘을 활용하여 현대 자동차를 혁신하고자 하는 의지를 표명했다.

폭스바겐은 2024년 1월 라스베이거스에서 열린 CES에서 향후 운전자가 챗GPT를 탑재한 차량과 대화를 나눌 수 있게 될 것이라고 발표했다. 또한 2024년 2분기부터 일부 자동차 모델에 오픈AI 플랫폼을 표준 기능으로 탑재할 계획이라고 강조했다.

챗GPT는 매력적인 대화를 촉진하고, 문의 사항을 해결하며, 차량별 정보를 제공하고, 운전자를 위한 추가 기능을 제공할 것이라고 언급하면서, 폭스바겐은 챗GPT를 표준 기능으로 제공하는 최초의 대량 생산업체가 될 것이라고 밝혔다.

2023년 챗GPT 개발사인 오픈AI는 특정 사용 사례에 맞는 맞춤형 버전의 챗봇을 제작할 수 있는 플랫폼을 출시할 예정이라고 밝혔다. 회사에서 GPT라고 부르는 이 AI 에이전트는 GPT 스토어를 통해 액세스할 수 있다.

또한, 2023년 9월에는 챗GPT에 새로운 음성 및 이미지 기능을 출시하기 시작한다고 밝혔다. 이러한 기능은 사용자가 음성으로 대화할 수 있도록 하여 보다 직관적인 인터페이스를 제공하거나 사용자가 말하는 내용을 챗GPT에 보여줄 수 있도록 설계되었다.

폭스바겐이 제안한 챗GPT 통합은 기존의 음성 제어를 뛰어넘는 다양한 기능을 제공할 것으로 기대된다. 폭스바겐이 발표한 주목할 만한 기능 중 하나는 IDA 음성 어시스턴트로, 사용자는 "헬로 IDA"라고 말하거나 스티어링 휠 버튼을 누르는 것만으로 내비게이션을 명령하고, 에어컨을 조절하고, 일반적인 지식에 대한 질문에 대한 답을 찾고, 인포테인먼트 시스템을 관리할 수 있게 된다.

자동차 업계는 자동차 사용자 경험을 개선하기 위해 지속적으로 노력해 왔다. 특히 AI의 경우와 마찬가지로 제조업체들은 자동차가 자연어 요청을 통해 경험을 개선하기 위해 대화하는 동반자가 될 수 있는 방법을 모색하기 시작했다.

하지만 이러한 시스템은 일반적으로 도어 잠금 해제와 같은 특정 명령을 지원하는 데 국한되어 있다. 하지만 폭스바겐과 같은 AI 개발은 향후 운전자가 자동차를 사용하고 이해하는 방식을 혁신할 수 있는 엄청난 잠재력을 지니고 있다.

이러한 발전에 대해 시놉시스(Synopsys) 소프트웨어 무결성 그룹의 수석 자동차 보안 전략가인 데니스 켄고 오카는 "강력한 AI 기술의 발전으로 자동차 업계가 포착할 수 있는 새로운 기회가 생겨나고 있다“며, ”자동차 제조업체는 이러한 강력한 AI 언어 모델을 기반으로 자체 디지털 비서를 구축하고 자동차 관련 정보로 AI 모델을 학습시킬 수 있다“고 말했다.

또한 “자동차 제조업체가 자동차 사용 설명서의 정보 뿐만 아니라 경로 계획, 스마트 홈 및 디바이스와의 통합, 충전 등 일반적인 사용 사례를 지원하는 방법에 대한 정보로 디지털 비서를 훈련시켜, 사용자가 방대한 사용 설명서를 뒤적거릴 필요 없이 쉽게 질문할 수 있다”고 덧붙였다.

차량 내 대화형 AI의 분명한 이점에도 불구하고 제조업체와 개발자가 해결해야 할 위험도 있다. 특히 자동차의 AI는 사이버 공격과 위협에 취약할 수 있다. AI 시스템이 대량의 데이터에 의존한다는 점을 고려할 때, 데이터 무결성이 손상되거나 손실되면 사용자에게 심각한 결과를 초래할 수 있다.

폭스바겐은 자사의 챗GPT 차량에서 사용된 데이터를 오픈AI가 보유하지 않을 것이라고 밝혔다. AI 환각 또한 이러한 차량 개발에 영향을 미칠 수 있는 또 다른 챗봇 리스크다. 여기서 환각이란 챗봇이 질문에 대한 답을 모를 경우 허위 또는 오해의 소지가 있는 정보를 생성하는 것을 의미하며, 이는 자동차 상황에서 심각한 문제를 일으킬 수 있다.

켄고 오카는 자동차 AI가 보안에 미칠 수 있는 영향에 대해 “어떤 유형의 학습 데이터를 사용할지 고려하고 어떤 유형의 정보로 어떤 응답을 허용할지 정의하는 정책을 적용하는 것이 매우 중요”하다고 말했다.

또한 그는 “차량의 디지털 비서가 악용되어 특정 유해한 정보를 얻을 수도 있다”며, “차량에 디지털 비서를 배치하면 많은 이점을 제공하고 사용자 경험을 확실히 개선할 수 있지만 위험도 고려하는 것이 중요하다”고 강조했다.

이어 “자동차 조직은 악의적인 의도를 가진 남용이나 행동을 방지하기 위해 어떤 교육 데이터가 사용되는지 고려하고 응답 콘텐츠에 대한 제한을 고려하는 것이 중요하다”고 설명했다.

관련기사

저작권자 © AI라이프경제 무단전재 및 재배포 금지