중국의 AI 스타트업 딥시크(DeepSeek)가 챗GPT의 아성을 흔들며 전 세계 AI 업계의 주목을 받고 있다. 뉴욕타임스(NYT)와 파이낸셜타임스(FT) 등 서방 언론들은 딥시크가 상대적으로 저사양 그래픽처리장치(GPU)를 활용해 효율적인 대형언어모델(LLM)을 개발했다고 보도했다. 이는 미국의 AI 칩 수출 규제의 한계를 보여준다는 평가를 받고 있다.
딥시크가 개발한 '딥시크-V3'는 챗GPT와 비슷한 성능을 자랑하며, 일부 성능 테스트에서는 오픈AI와 구글의 챗봇을 앞서는 결과를 냈다. 특히 개발 비용은 약 78억8000만 원(557만6000달러)에 불과했다. 딥시크는 엔비디아의 'H800 GPU'를 시간당 2달러에 대여해 2개월 동안 훈련을 진행했다. 이는 메타의 최신 AI 모델 라마(Llama)3 훈련 비용의 10분의 1 수준이며, 미국의 수출 규제로 성능이 제한된 H800 GPU를 사용한 점도 주목받고 있다.
NYT는 딥시크가 2000개의 GPU만으로 개발에 성공했음을 강조하며, 이는 1만6000개 이상의 GPU를 사용한 기존 AI 선도 기업들과 대조적이라고 전했다. 오픈AI 공동창업자인 안드레이 카르파티는 딥시크의 기술 보고서를 "훌륭하고 상세하다"고 평가하며, "저예산으로도 선도적인 AI 모델을 구현할 수 있음을 보여줬다"고 언급했다.
또한 딥시크는 '추론 AI' 모델 'R1'을 통해 성능 경쟁력을 입증했다. 딥시크-R1은 미국 수학경시대회 AIME 2024 벤치마크 테스트에서 79.8%의 점수를 기록, 오픈AI의 모델 'o1'(79.2%)을 앞섰다. 코딩 부문에서도 딥시크의 AI는 65.9%의 정확도를 기록해 챗GPT(63.4%)를 넘어섰다.
서방 언론들은 딥시크의 성과가 AI 칩 수출 규제의 무력화를 보여준다고 지적했다. FT는 "수출 규제가 의도치 않게 혁신을 촉진했다"며 딥시크의 AI 모델이 효율성과 비용 면에서 큰 진전을 이루었다고 평가했다. 포브스는 딥시크가 최신 칩 의존도를 낮추고 효율성을 높인 혁신 기술을 주목하며, AI 업계의 가격 인하 경쟁이 글로벌 확산될 가능성을 전망했다.
딥시크는 자체 아키텍처 개발에서도 강점을 보였다. 'MoE(Mixture of Experts)' 기술을 활용해 LLM 모델의 매개변수 6710억 개 중 370억 개만 선별적으로 활성화, 성능 최적화를 이뤘다. 이는 AI 기술 개발이 더 이상 고성능 칩에만 의존하지 않아도 된다는 점을 시사하며, 중국 AI 산업의 경쟁력을 강화하고 있다.
딥시크의 행보는 미국과 중국 간 AI 패권 경쟁에서 중국의 역량을 입증하는 사례로 평가되며, 향후 글로벌 AI 기술 발전과 산업 경쟁 구도에 큰 영향을 미칠 전망이다.