Anthropicが引用機能を追加し、Claudeモデルのハルシネーションを低減
### Anthropicが新機能を発表、Claudeモデルの引用機能による精度向上
AI技術が進化する中、Anthropicが新たなAPI機能「Citaciones」を発表しました。この機能は、Claudeモデルが回答を生成する際に特定のソース文書を直接参照できるようにするもので、いわゆるハルシ
### Anthropicが新機能を発表、Claudeモデルの引用機能による精度向上
AI技術が進化する中、Anthropicが新たなAPI機能「Citaciones」を発表しました。この機能は、Claudeモデルが回答を生成する際に特定のソース文書を直接参照できるようにするもので、いわゆるハルシネーション(虚偽の情報を生成する現象)を低減することを目的としています。これにより、開発者はClaudeモデルのコンテキストウィンドウに文書を追加でき、モデルが使用する特定の文を自動的に引用できるようになります。
Anthropicは、引用機能がユーザーが提供したソース文書(PDFやプレーンテキストファイル)を文に分割し、それに基づいてモデルが問い合わせに応じて回答を生成するプロセスを説明しています。「引用機能が有効になった場合、APIはユーザー提供のソース文書を処理し、それをモデルとユーザーのクエリとともに渡します」と述べています。この機能は、ケースファイルの要約や金融文書の質問に対する回答、特定の製品文書を引用するサポートシステムの強化など、多くの用途が考えられています。
社内テストにおいて、この機能はカスタム引用の実装に比べてリコール精度を最大15%向上させることができたと報告されています。この改善は一見すると小さく感じるかもしれませんが、AI研究者たちの関心を引く要素となっています。AI技術に関する著名な研究者であるサイモン・ウィリソン氏は、自身のブログでこの引用機能が持つ重要性について詳しく説明しています。彼によると、Retrieval Augmented Generation(RAG)のコアコンセプトは、ユーザーの質問に対して関連性がありそうな文書の一部を取得し、それを回答に含めることにあるそうです。
ウィリソン氏は、「通常はうまく機能しますが、モデルがトレーニングデータに基づいて他の情報から回答するリスクがある」と警告しています。引用元の記載が正確性を確認する助けとなる一方で、質の高いシステムを構築するのは難しいと指摘しています。しかし、引用機能はRAG機能を直接モデルに組み込むことで、前進の一歩となったようです。
また、Anthropicのアレックス・アルバート氏は、Claudeがソースを引用するように訓練されていることを知らせ、この機能によって開発者にその能力が開放されることを強調しました。引用機能を使用するには、APIを通じて送信する任意の文書に「citations: {enabled:true}」という新しいパラメータを渡す必要があります。
現在、AnthropicはClaude 3.5 SonnetおよびClaude 3.5 Haikuモデルに対して引用機能をリリースしており、Google CloudのVertex AIプラットフォームでも利用可能です。すでに実際の業務での使用も開始されており、トムソン・ロイター社は、この機能を活用することでAIが生成するコンテンツの信頼性を高めることができると期待を寄せています。また、フィンテック企業のEndexによると、引用機能を使用することでソースのハルシネーション率を10%から0%に減少させ、回答あたりの参照数を20%増やすことに成功したとのことです。
このような進展が見られる一方で、LLM(大規模言語モデル)を利用して正確な参照情報を伝えることには依然としてリスクが存在します。これはより深い研究と実証が必要です。Anthropicは、ユーザーに対して標準的なトークンベースの料金を課金する予定であり、引用されたテキストは出力トークンコストにカウントされないとのことです。例えば、100ページの文書を参照として使用する場合、Claude 3.5 Sonnetでは約0.30ドル、Claude 3.5 Haikuでは約0.08ドルのコストがかかります。
この新しい引用機能はAI技術のさらなる進化を促進し、より正確で信頼性の高い顧客対応が可能になることが期待されます。
