DeepSeekは随分と話題になっていますが、その理由は単純です。
アメリカがAI向けの高性能チップの対中輸出を制限したら、 GPUに負荷のかからない「DeepSeek」という安くて高性能の化け物AIが生まれてしまったのです。
しかもオープンソースであり誰でも自由に使用することができ、しかもローカルでも実行可能と来ています。
これにより、勝ち組だったNVIDIA株はDeepSeekの影響で株価が一時的に下落したようです。
投資家が高性能機器の必要性を再評価せざるを得なくなり、さらにはAI開発のエネルギー要求についても根本的に考え直す必要が出てきました。
OpenAIのサム・アルトマン氏はDeepSeekを称賛しつつ対抗リリースを予告する事態となっています。
CEOのLiang Wenfeng氏は、オープンソースの人材の必要性について触れており、この新しいアプローチによって、技術的なエコシステムがより強力になることを目指しています。
そして、特筆すべき点はトレーニングコストです。
DeepSeekは、OpenAIのモデルに比べてトレーニングコストが約3%程度で済むとのことで、大規模なAI開発を夢見ていた人々にとっては夢のような話です。
発表の中でも「人間フィードバック強化学習」ではなく、強化学習ベースのアプローチを取っているため、均質な学習が期待されています。
要するに、DeepSeekのオープンソース化は、データセットのスケーリングの限界を超える可能性を秘めており、これまでのAI開発に革新をもたらすものです。
プログラマーとしては、こうした進展が自分たちの開発環境やツールにどのように影響を及ぼすのか、非常に気になるところです。
新たな技術の誕生は、競争を激化させ、それがまた新しいアイデアやインスピレーションを生むきっかけになりますから。