이종호 과학기술정보통신부 장관(왼쪽)이 19일 양재 더케이호텔에서 열린 ‘2023 인공지능반도체 미래기술 컨퍼런스’에서 네이버·삼성전자 부스를 찾아 김유원 네이버클라우드 대표에게 AI반도체 관련 설명을 듣고 있다. (과학기술정보통신부 제공)
이종호 과학기술정보통신부 장관(왼쪽)이 19일 양재 더케이호텔에서 열린 ‘2023 인공지능반도체 미래기술 컨퍼런스’에서 네이버·삼성전자 부스를 찾아 김유원 네이버클라우드 대표에게 AI반도체 관련 설명을 듣고 있다. (과학기술정보통신부 제공)

삼성전자와 네이버가 최근 1년 동안 공동으로 개발한 인공지능(AI) 반도체가 공개됐다. 이 반도체는 엔비디아 등의 경쟁 기업 제품에 비해 디램(DRAM) 크기가 크며, 전력 효율면에서도 약 8배의 우수성을 자랑한다. 이러한 혁신은 국내 데이터센터에서 국산 반도체로의 전환을 촉진할 뿐만 아니라, 국내 AI 반도체의 해외 수출에도 기대를 모으고 있다.

19일 과학기술정보통신부는 양재 더케이호텔에서 열린 제4차 ‘인공지능 반도체 최고위 전략대화’에서 국내 AI 반도체 기업들의 성과를 발표했다. 

이 자리에서 삼성전자와 네이버가 공동으로 개발 중인 AI 반도체가 프로그래머블 반도체(FPGA) 형태로 공개됐다. FPGA는 설계를 개발자가 변경할 수 있는 반도체로, 양산 전 시제품 제작에 주로 활용되고 있다.

해당 반도체는 AI 모델의 ‘추론’ 단계에 특화되어 있어, 모델이 ‘학습’을 완료하고 새로운 데이터로 논리적 결과물을 생성하는 데 뛰어난 성능을 발휘한다. 현재는 학습을 위한 반도체 수요가 높지만, 업계는 AI 시장의 고도화로 인해 결국 추론에 특화된 반도체 수요가 크게 증가할 것으로 예측하고 있다.

삼성전자와 네이버가 만든 AI 반도체는 엔비디아 등 경쟁 제품보다 8배 높은 전력 효율을 갖춘 게 특징이다. 전력 효율이 높을수록 더 적은 전력으로 동일한 연산 성능을 낼 수 있다. 즉, 하이퍼클로바 같은 거대언어모델(LLM)을 한 번 구동할 때 드는 비용이 줄어드는 것이다. 

현재 가장 저렴하면서도 전력 효율이 좋은 AI 반도체를 만드는 곳은 엔비디아다. 이제 삼성전자와 네이버의 AI 반도체가 양산을 시작하면 엔비디아의 시장도 가져올 수 있다는 기대가 나온다. 디램 크기도 128GB로 현존하는 AI 반도체 중 가장 크다. 

또 고대역폭메모리(HBM)가 아닌 저전력더블데이터레이트(LPDDR)를 택했다는 점에서 가격 경쟁력은 물론 대량 양산도 가능하다. 더이상 반도체 쇼티지(재고부족)를 걱정하지 않아도 된다. LPDDR은 저전력, 소형 D램이다.

이동수 네이버클라우드 이사는 "LLM 시장이 폭발적으로 성장하면서 메모리가 적게는 1000만개, 많게는 2000만개 넘게 필요한데, HBM은 기껏해야 한 달에 20만~30만개 만든다"면서 "LLM이 일상에 들어가면 어떤 반도체보다도 많은 수량을 써야하는데 LPDDR은 대량 양산이 가능하다"고 설명했다. 

AI 반도체의 연구·개발은 거의 마무리 단계에 진입했지만 양산까지는 1년여의 시간이 더 소요될 것으로 보인다. 네이버클라우드는 상황에 따라 더 짧아질 수도, 길어질 수도 있다고 말했다.

해당 AI 반도체는 우선 네이버 데이터센터에 들어가 하이퍼클로바X 구동에 쓰일 전망이다. 전력 소모가 적고 추론에 특화된 만큼 향후 로봇, 자율주행 등에도 이용할 수 있다. 해외 수출도 기대되는 부분이다. 

이 이사는 "처음에는 데이터센터에서 이용하겠지만 네이버랩스를 비롯해 많은 시장을 개척해 보려고 한다"고 말했다.

저작권자 © AI라이프경제 무단전재 및 재배포 금지