中国のAIスタートアップDeepSeekは、今年初めにそのコスト効率が高いR1 V3搭載のAIモデルでAIシーンに急速に現れました。この成功は投資家の懸念を引き起こしました。特に、DeepSeekがOpenAIのO1推論モデルを超えたとされる報告があり、数学、科学、プログラミングの幅広いベンチマークで低コストでの達成を謳っています。
DeepSeekは約600万ドルをこのAIモデルの訓練に費やしたと主張していますが、複数の報道によると、彼らはOpenAIやMicrosoftの著作権で保護されたコンテンツを利用してモデルを訓練した可能性が指摘されています。さらに、報告によると、同社は50,000のNVIDIA Hopper GPUを用いて最大16億ドルをハードウェアに費やしているとのことです。OpenAIは、DeepSeekが「蒸留」という手法を用いてR1モデルを訓練したと主張しています。
蒸留とは、既存のモデルの出力を利用して新しいモデルを訓練するプロセスであり、これによりAIモデルの開発や訓練にかかる高額なコストを削減することができるのです。新たな研究では、AI検出企業CopyleaksがDeepSeekのAI生成コンテンツがOpenAIのChatGPTと74.2%の類似性を持つことを示しました。