<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>AIモデル &#8211; デジタル未来 (Dejitaru Mirai)</title>
	<atom:link href="https://dejitarumirai.com/tag/ai%E3%83%A2%E3%83%87%E3%83%AB/feed" rel="self" type="application/rss+xml" />
	<link>https://dejitarumirai.com</link>
	<description></description>
	<lastBuildDate>Tue, 22 Apr 2025 02:56:15 +0000</lastBuildDate>
	<language>ja</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.1</generator>
	<item>
		<title>OpenAIの最新AIモデルは画像で思考し、ツールを統合する</title>
		<link>https://dejitarumirai.com/archives/3957</link>
					<comments>https://dejitarumirai.com/archives/3957#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Tue, 22 Apr 2025 02:56:15 +0000</pubDate>
				<category><![CDATA[記事]]></category>
		<category><![CDATA[AIモデル]]></category>
		<category><![CDATA[o3モデル]]></category>
		<category><![CDATA[o4-mini]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[技術進化]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/?p=3957</guid>

					<description><![CDATA[今週、OpenAIは最新のAIモデル「o3」と「o4-mini」を発表しました。これらのモデルは、同社が今までに開発した中で最も賢く、能力の高いモデルとされています。また、画像に基づいて推論を行う初めてのモデルでもあります。

この新技術により、AIモデルは写真やスケッチといった画像を分析に用いるこ]]></description>
										<content:encoded><![CDATA[<p>今週、OpenAIは最新のAIモデル「o3」と「o4-mini」を発表しました。これらのモデルは、同社が今までに開発した中で最も賢く、能力の高いモデルとされています。また、画像に基づいて推論を行う初めてのモデルでもあります。</p>
<p>この新技術により、AIモデルは写真やスケッチといった画像を分析に用いることができ、画像を調整、ズームイン、回転させながら推論を行うことができます。</p>
<p>OpenAIは今回、「o3」と「o4-mini」の発表に関して、「私たちの推論モデルが初めて、すべてのツールを統合的に使用し、組み合わせることができる」と述べています。これには、ウェブ検索、Pythonプログラミング、画像分析、ファイル解釈、画像生成が含まれます。</p>
<p>これらのモデルは、ChatGPT Plus、Pro、およびTeamの有料ユーザー向けに提供され、従来のモデルであるo1、o3-mini、o3-mini-highは削除されました。OpenAIは、Proユーザー向けにさらに強力な「o3-pro」モデルを数週間内にリリースする予定です。</p>
<p>このような進展は、AI技術の進化を示しており、今後の応用が期待されます。OpenAIの技術は、ビジュアルデータを利用して、より深い洞察を提供することができるようになるでしょう。<br />
画像を生成し、解析する能力によって、ビジネス、クリエイティブ業界、教育などの様々な分野での利用が考えられます。今後、｢o3｣と｢o4-mini｣がもたらす可能性には大きな注目が集まっています。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3957/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>xAIがGrok 3のAPIを発表、エロン・マスクの新しいプラットフォーム</title>
		<link>https://dejitarumirai.com/archives/3920</link>
					<comments>https://dejitarumirai.com/archives/3920#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Thu, 10 Apr 2025 06:41:19 +0000</pubDate>
				<category><![CDATA[記事]]></category>
		<category><![CDATA[AIモデル]]></category>
		<category><![CDATA[APIサービス]]></category>
		<category><![CDATA[Grok 3]]></category>
		<category><![CDATA[xAI]]></category>
		<category><![CDATA[エロン・マスク]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/?p=3920</guid>

					<description><![CDATA[エロン・マスクのAI企業xAIが、其の主力AIモデルGrok 3のAPIを発表しました。数か月前に公開されたこのモデルは、OpenAIのGPT-4oやGoogleのGeminiに対抗する形で開発されたものです。Grok 3は画像分析が可能で、質問に対する応答が行える特性を持ち、マスクのソーシャルネッ]]></description>
										<content:encoded><![CDATA[<p>エロン・マスクのAI企業xAIが、其の主力AIモデルGrok 3のAPIを発表しました。数か月前に公開されたこのモデルは、OpenAIのGPT-4oやGoogleのGeminiに対抗する形で開発されたものです。Grok 3は画像分析が可能で、質問に対する応答が行える特性を持ち、マスクのソーシャルネットワークXでも活用されています。APIを通じて提供されるGrok 3には、「推論」機能を搭載したGrok 3 Miniもあり、ユーザーは用途に応じてこれらのバージョンを選択できます。具体的には、Grok 3は1ミリオントークンあたり3ドル、生成したトークンについては15ドルの料金設定です。一方、Grok 3 Miniは0.30ドルと0.50ドルに設定されています。また、スピード重視のバージョンも用意されていますが、これらの価格は競合他社と比較してやや高めです。実際、Grok 3の料金はAnthropicのClaude 3.7 Sonnetに匹敵しており、GoogleのGemini 2.5 Proとは異なり高価です。加えて、Grok 3のAPIは、開発者が提供したとされる最大131,072トークンのコンテキストウィンドウに制約されており、xAIが以前に主張していた100万トークンには及びません。</p>
<p><img src='https://dejitarumirai.com/wp-content/uploads/2025/04/xaigrok-3api-2.webp' alt='xAIがGrok 3のAPIを発表、エロン・マスクの新しいプラットフォーム' /></p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3920/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Googleの新しい実験的AIモデルGemini 2.5 Proが一般ユーザーにも解放</title>
		<link>https://dejitarumirai.com/archives/3907</link>
					<comments>https://dejitarumirai.com/archives/3907#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Mon, 31 Mar 2025 02:07:22 +0000</pubDate>
				<category><![CDATA[AIモデル]]></category>
		<category><![CDATA[Gemini]]></category>
		<category><![CDATA[Google Chrome]]></category>
		<category><![CDATA[人工知能]]></category>
		<category><![CDATA[技術革新]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/archives/3907</guid>

					<description><![CDATA[Googleは最新の実験的AIモデル、Gemini 2.5 Proを無料で利用できるようにしたと発表した。この発表は今週末に行われ、これまで有料プランのユーザーのみに提供されていた同モデルが、非契約者にも解放されることとなった。ただし、非契約者はより厳しい利用制限が設けられる。Gemini 2.5 ]]></description>
										<content:encoded><![CDATA[<p>Googleは最新の実験的AIモデル、Gemini 2.5 Proを無料で利用できるようにしたと発表した。この発表は今週末に行われ、これまで有料プランのユーザーのみに提供されていた同モデルが、非契約者にも解放されることとなった。ただし、非契約者はより厳しい利用制限が設けられる。Gemini 2.5 Proは先週に初めてお披露目され、Googleが「最も知的なAIモデル」と称するもので、まずはGemini Advancedユーザーにロールアウトされた。現在、Google AI Studio及びGeminiアプリで使用可能だ。</p>
<p><img src='https://dejitarumirai.com/wp-content/uploads/2025/03/googleaigemini-25-pro-2.webp' alt='Googleの新しい実験的AIモデルGemini 2.5 Proが一般ユーザーにも解放' /></p>
<p>非課金ユーザーもこの新機能を試すことができるようになったが、Googleは「Gemini Advancedユーザーは拡張されたアクセス権と大幅に大きな文脈ウィンドウを持つ」と説明している。Gemini 2.5 Proは、GoogleのGemini 2.5「思考」モデルの一つであり、より正確な結果を提供するための推論能力が強化されているとされる。Googleのブログ投稿によれば、これは「情報を分析し、論理的な結論を導き出し、文脈やニュアンスを考慮して、情報に基づいた意思決定を行う能力」を指しているという。</p>
<p>この新モデルが示す意味は、AIの進化を一層加速させる可能性が高いということだ。特に、非課金ユーザーに対する開放は、ユーザーの反応やフィードバックを通じてさらなる改善に繋がると期待されている。Googleは、今後もAI技術の進化に拍車をかけ、ユーザーが異なるシナリオでAIを活用できるようにしていく考えだ。AIモデルのアップデートは、エンターテインメント、ビジネス、教育、さらには日常生活のあらゆる側面において、新しい価値を提供することが期待されている。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3907/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Gemini 2.5 ProはGoogleの最もインテリジェントなAIモデル、思考機能を内蔵と発表</title>
		<link>https://dejitarumirai.com/archives/3889</link>
					<comments>https://dejitarumirai.com/archives/3889#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Wed, 26 Mar 2025 10:23:05 +0000</pubDate>
				<category><![CDATA[記事]]></category>
		<category><![CDATA[AIモデル]]></category>
		<category><![CDATA[Gemini 2.5 Pro]]></category>
		<category><![CDATA[Google Chrome]]></category>
		<category><![CDATA[分析能力]]></category>
		<category><![CDATA[技術革新]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/?p=3889</guid>

					<description><![CDATA[GoogleのGemini 2.5 Proが発表され、これは「最もインテリジェントなAIモデル」とされています。この新モデルは、特に高度なユーザーや開発者向けに設計され、思考機能を内蔵しています。従来のモデルからの明確な改良が見られ、すべてのGemini 2.5ファミリーモデルは、考える能力を備えて]]></description>
										<content:encoded><![CDATA[<p>GoogleのGemini 2.5 Proが発表され、これは「最もインテリジェントなAIモデル」とされています。この新モデルは、特に高度なユーザーや開発者向けに設計され、思考機能を内蔵しています。従来のモデルからの明確な改良が見られ、すべてのGemini 2.5ファミリーモデルは、考える能力を備えており、応答する前に思考を経て結果を導き出すことで、パフォーマンスと精度が向上しています。Googleでは、これらの思考能力をすべてのモデルに組み込むことを目指し、より複雑な問題に対応し、コンテキスト意識を持ったエージェントをサポートするための進化を果たしています。</p>
<p>Gemini 2.5は、従来の2.0 Flash Thinkingに比べて、特に思考という概念が強層化されています。従来は「Thinking」というラベルを付けていましたが、新モデルではこのラベルを使わず、ユーザーはGeminiアプリ内で「思考の表示」を選ぶことで思考過程を見ることが可能です。AIにおける「推論」の能力は単なる分類や予測を超え、情報分析から論理的結論を引き出し、文脈とニュアンスを取り込みながら、有益な選択を行うことを意味します。</p>
<p>Gemini 2.5 Proは、「大幅に向上したベースモデル」による新たなパフォーマンスレベルを実現し、数学と科学のベンチマークにおいても高評価を得ています。特にLMArenaリーダーボードにおいて、「significant marginでトップに立つ」とされ、大量データセットの処理能力においても人気を博しています。</p>
<p>新モデルはまた、1百万トークンのコンテキストウィンドウを持ち、将来的には2百万トークンにスケーリングされる予定です。この拡張された能力により、テキスト、音声、画像、動画、そして全体のコードリポジトリからの情報を取り込みながら、複雑な問題を解決することが可能です。</p>
<p>現在、Gemini 2.5 Proは、Gemini AdvancedのユーザーとGoogle AI Studioで最初に展開されており、数週間以内にVertex AIに拡大される予定です。今後はこのモデルの価格も発表される見込みで、高速生産利用のための利用制限も設けられるかもしれません。新しい機能により、ユーザーはGoogleのアプリやファイルアップロードにもアクセスできるようになります。</p>
<p>結論として、Gemini 2.5 Proは、AIモデルの新たなスタンダードを確立し、より複雑な課題に対しても的確な回答を提供する能力を備えています。Googleの意図する思考型AIの未来に期待が高まります。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3889/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>GoogleがGemini 2.5 AIモデルを発表し、複雑な思考を実現</title>
		<link>https://dejitarumirai.com/archives/3870</link>
					<comments>https://dejitarumirai.com/archives/3870#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Wed, 26 Mar 2025 01:56:29 +0000</pubDate>
				<category><![CDATA[記事]]></category>
		<category><![CDATA[AIテクノロジー]]></category>
		<category><![CDATA[AIモデル]]></category>
		<category><![CDATA[DeepMind]]></category>
		<category><![CDATA[Gemini]]></category>
		<category><![CDATA[Google Chrome]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/?p=3870</guid>

					<description><![CDATA[GoogleはAI開発を加速させており、数ヶ月前に発表されたGemini 2.0に続き、新たにGemini 2.5を発表しました。この最新のAIモデルは、特にコーディング、数学、科学における能力が大幅に向上しているとされています。Gemini 2.5の最初のモデルはPro Experimentalで]]></description>
										<content:encoded><![CDATA[<p>GoogleはAI開発を加速させており、数ヶ月前に発表されたGemini 2.0に続き、新たにGemini 2.5を発表しました。この最新のAIモデルは、特にコーディング、数学、科学における能力が大幅に向上しているとされています。Gemini 2.5の最初のモデルはPro Experimentalであり、このモデルは従来の分類モデルや予測モデルよりも、より深い推論、分析、文脈に基づく応答を提供することを目的としています。このアプローチは、より効率的かつコスト効果の高いFlashバージョンから始まったGemini 2.0シリーズとは異なります。</p>
<p><img src='https://dejitarumirai.com/wp-content/uploads/2025/03/googlegemini-25-ai-2.webp' alt='GoogleがGemini 2.5 AIモデルを発表し、複雑な思考を実現' /></p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3870/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Googleの新AIモデルで画像の透かしを削除する人々</title>
		<link>https://dejitarumirai.com/archives/3843</link>
					<comments>https://dejitarumirai.com/archives/3843#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Mon, 17 Mar 2025 03:56:00 +0000</pubDate>
				<category><![CDATA[記事]]></category>
		<category><![CDATA[AIモデル]]></category>
		<category><![CDATA[Gemini]]></category>
		<category><![CDATA[Google Chrome]]></category>
		<category><![CDATA[著作権問題]]></category>
		<category><![CDATA[透かし削除]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/?p=3843</guid>

					<description><![CDATA[Googleは最近、Gemini 2.0 Flashモデルの画像生成機能へのアクセスを拡大しました。この技術は画像内容を生成・編集できる強力な能力を持っていますが、利用制限がほとんどないため、ユーザーは透かしを簡単に削除できるようになっています。

このGemini 2.0 Flashは、ソーシャル]]></description>
										<content:encoded><![CDATA[<p>Googleは最近、Gemini 2.0 Flashモデルの画像生成機能へのアクセスを拡大しました。この技術は画像内容を生成・編集できる強力な能力を持っていますが、利用制限がほとんどないため、ユーザーは透かしを簡単に削除できるようになっています。</p>
<p>このGemini 2.0 Flashは、ソーシャルメディアで特に注目を浴びており、多くのユーザーがGetty Imagesなどの著名なストックメディアの透かしを消去する事例を報告しています。Gemini 2.0 Flashは、削除された透かしの部分を埋める機能も備えており、他のAIツールと同様の機能を持っているものの、その精度は非常に高いと評されています。</p>
<p>ただし、注意が必要です。Gemini 2.0 Flashは「実験的」なもので、現段階では商用利用には適しておらず、特定の半透明の透かしや大きな部分を カバーする透かしの削除には課題を抱えています。それでも、多くの著作権者はこの機能を懸念材料として捉え、著作権侵害のリスクが高まる可能性があります。</p>
<p>著作権法によれば、元の所有者の同意なしに透かしを削除することは違法と見なされるため、これに対してGoogleも迅速にコメントを出していません。特に、同業他社のAIモデルは透かしの削除を厳に禁じているため、業界内での倫理的な議論が急増することが予想されます。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3843/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>QwQ-32bが登場、DeepSeekに新たな競争相手が現れた</title>
		<link>https://dejitarumirai.com/archives/3798</link>
					<comments>https://dejitarumirai.com/archives/3798#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Fri, 07 Mar 2025 03:55:30 +0000</pubDate>
				<category><![CDATA[記事]]></category>
		<category><![CDATA[AIモデル]]></category>
		<category><![CDATA[Alibaba]]></category>
		<category><![CDATA[Deepseek]]></category>
		<category><![CDATA[Qwen Chat]]></category>
		<category><![CDATA[QwQ-32b]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/?p=3798</guid>

					<description><![CDATA[Alibabaが最新の推論モデル「QwQ-32b」を発表した。これにより、DeepSeekやOpenAIに新たな競争相手が登場した。QwQ-32bはオープンソースで利用でき、無料で試すことが可能だ。モデルは、少ないパラメータで運用されており、リソースを節約しつつ、DeepSeekやOpenAIのo1]]></description>
										<content:encoded><![CDATA[<p>Alibabaが最新の推論モデル「QwQ-32b」を発表した。これにより、DeepSeekやOpenAIに新たな競争相手が登場した。QwQ-32bはオープンソースで利用でき、無料で試すことが可能だ。モデルは、少ないパラメータで運用されており、リソースを節約しつつ、DeepSeekやOpenAIのo1-miniと同レベルのパフォーマンスを発揮するとされている。<br />
DeepSeekのR1モデルは、671億のパラメータを必要とし、そのうち370億がアクティブだ。これに対し、QwQ-32bは320億のパラメータで、動作に必要なGPUメモリは1600GB対24GBだ。これにより、求められる計算力が大幅に軽減され、より多くのユーザーが利用できる可能性が高まる。最新のNVIDIA GeForce RTX 4090や5090であれば、必要なメモリをサポートできる。<br />
QwQ-32bは、Apache 2.0ライセンスのもとで利用可能で、企業や研究者が活用できる。特に、Alibabaの「Qwen Chat」も使用することができ、実際の試用において、迅速に答える能力を持ちつつも、利用者が求めていないコンテキストを意図せず提供することがある。政治的な質問には不適切とフラグを立てる機能も搭載されている。これにより、特定のトピックに関しての議論が限定されている。<br />
将来については、Alibabaの主張が真実であるかはまだ不明だが、ChatGPTやDeepSeekは新たな競争相手の出現によって、さらなる進化が求められることとなりそうだ。AIの将来はますます興味深いものとなるだろう。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3798/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>DeepSeekのAIはChatGPTの模造品？74％の一致率を示す新たな研究</title>
		<link>https://dejitarumirai.com/archives/3786</link>
					<comments>https://dejitarumirai.com/archives/3786#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Thu, 06 Mar 2025 09:46:06 +0000</pubDate>
				<category><![CDATA[記事]]></category>
		<category><![CDATA[AIモデル]]></category>
		<category><![CDATA[AI技術]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[Deepseek]]></category>
		<category><![CDATA[米国著作権局]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/?p=3786</guid>

					<description><![CDATA[中国のAIスタートアップDeepSeekは、今年初めにそのコスト効率が高いR1 V3搭載のAIモデルでAIシーンに急速に現れました。この成功は投資家の懸念を引き起こしました。特に、DeepSeekがOpenAIのO1推論モデルを超えたとされる報告があり、数学、科学、プログラミングの幅広いベンチマーク]]></description>
										<content:encoded><![CDATA[<p>中国のAIスタートアップDeepSeekは、今年初めにそのコスト効率が高いR1 V3搭載のAIモデルでAIシーンに急速に現れました。この成功は投資家の懸念を引き起こしました。特に、DeepSeekがOpenAIのO1推論モデルを超えたとされる報告があり、数学、科学、プログラミングの幅広いベンチマークで低コストでの達成を謳っています。</p>
<p>DeepSeekは約600万ドルをこのAIモデルの訓練に費やしたと主張していますが、複数の報道によると、彼らはOpenAIやMicrosoftの著作権で保護されたコンテンツを利用してモデルを訓練した可能性が指摘されています。さらに、報告によると、同社は50,000のNVIDIA Hopper GPUを用いて最大16億ドルをハードウェアに費やしているとのことです。OpenAIは、DeepSeekが「蒸留」という手法を用いてR1モデルを訓練したと主張しています。</p>
<p>蒸留とは、既存のモデルの出力を利用して新しいモデルを訓練するプロセスであり、これによりAIモデルの開発や訓練にかかる高額なコストを削減することができるのです。新たな研究では、AI検出企業CopyleaksがDeepSeekのAI生成コンテンツがOpenAIのChatGPTと74.2％の類似性を持つことを示しました。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3786/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Claude 3.7 Sonnetが発表、複雑な問題に取り組む「拡張思考」を搭載</title>
		<link>https://dejitarumirai.com/archives/3724</link>
					<comments>https://dejitarumirai.com/archives/3724#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Tue, 25 Feb 2025 03:18:05 +0000</pubDate>
				<category><![CDATA[記事]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[AIモデル]]></category>
		<category><![CDATA[anthropic]]></category>
		<category><![CDATA[Claude 3.7]]></category>
		<category><![CDATA[拡張思考]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/?p=3724</guid>

					<description><![CDATA[2025年2月24日、Anthropicが新たなAI言語モデル「Claude 3.7 Sonnet」を発表した。このモデルは、段階を追った問題解決を実現する「拡張思考」というシミュレーション推論(SR)機能を搭載している。デベロッパー向けには「Claude Code」という命令ラインAIエージェント]]></description>
										<content:encoded><![CDATA[<p>2025年2月24日、Anthropicが新たなAI言語モデル「Claude 3.7 Sonnet」を発表した。このモデルは、段階を追った問題解決を実現する「拡張思考」というシミュレーション推論(SR)機能を搭載している。デベロッパー向けには「Claude Code」という命令ラインAIエージェントも発表されている。</p>
<p><img src='https://dejitarumirai.com/wp-content/uploads/2025/02/claude-37-sonnet-2.webp' alt='Claude 3.7 Sonnetが発表、複雑な問題に取り組む「拡張思考」を搭載' /></p>
<p>Claude 3.7 Sonnetは市場初の「ハイブリッド推論モデル」と銘打たれており、ユーザーは応答の迅速さと、オープンAIのモデルに類似した詳細な思考過程を選択できる。モデルをAPIで使用する際は、最大128,000トークンの出力制限内で、思考に使用するトークン数を指定することが可能だ。 </p>
<p>新モデルの提供はすべてのClaudeサブスクリプションプランで利用可能だが、拡張思考モードは無料プランを除く全プランで利用できる。API料金は変更されておらず、入力トークンは100万トークンあたり3ドル、出力トークンは100万トークンあたり15ドル。思考トークンは、モデルが考慮するコンテキストの一部として出力料金に含まれている。</p>
<p>3.5 Sonnetからの改善点として、3.7 Sonnetは不要な拒否を45%削減したとされ、ユーザーの要求に対してより協力的な姿勢を見せている。新しいモデルは、特にコーディングタスクにおいて卓越した性能を示しており、SWE-bench Verifiedでは最高スコアを獲得、TAU-benchでも高いパフォーマンスを記録している。</p>
<p>更に、Claude 3.7 Sonnetは、すべてのClaudeプランにおいてGitHubとの統合を拡張しており、開発者はコードリポジトリをClaudeに直接接続し、バグ修正や機能開発を行えるようになっている。過去6か月において、3.5 Sonnetを使用してプロトタイピングを行った経験では、充実した支持が得られたが、使用制限に直面することが多かったため、3.7 Sonnetへの移行は期待される。</p>
<p>Anthropicは、コードベースを検索し、ファイルを読み書きし、テストを実行し、GitHubリポジトリへとコミット・プッシュすることができる自律型コーディングアシスタント「Claude Code」をも発表した。現在、「限定研究プレビュー」として利用されているが、ユーザーからのフィードバックに基づいて時間とともに改善する予定である。3.7 SonnetはClaudeのウェブサイトやアプリを通じて提供され、Amazon BedrockやGoogle CloudのVertex AIでも利用可能だ。こうした進歩は、デベロッパーに対するAnthropicのアプローチを強化し、新しいAIツールの可能性を広げるものである。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3724/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Sam AltmanがOpenAIの待望のGPT-5モデルのロードマップを発表</title>
		<link>https://dejitarumirai.com/archives/3608</link>
					<comments>https://dejitarumirai.com/archives/3608#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Fri, 14 Feb 2025 02:43:10 +0000</pubDate>
				<category><![CDATA[記事]]></category>
		<category><![CDATA[AIモデル]]></category>
		<category><![CDATA[GPT-5]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[Sam Altman]]></category>
		<category><![CDATA[技術革新]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/?p=3608</guid>

					<description><![CDATA[OpenAIのCEO、Sam Altman氏が水曜日に、長らく待たれていたAI言語モデルGPT-5のリリースに関するロードマップを発表しました。Altman氏はX上の質問に対して、GPT-5は「数ヶ月以内に」登場すると述べており、2025年の後半にはリリースされる見込みです。彼はまず、GPT-4.5]]></description>
										<content:encoded><![CDATA[<p>OpenAIのCEO、Sam Altman氏が水曜日に、長らく待たれていたAI言語モデルGPT-5のリリースに関するロードマップを発表しました。Altman氏はX上の質問に対して、GPT-5は「数ヶ月以内に」登場すると述べており、2025年の後半にはリリースされる見込みです。彼はまず、GPT-4.5（以前は「オリオン」と内部で呼ばれていた）が「数週間以内」に公開され、OpenAIの最後の非シミュレーション推論モデルであることを明らかにしました。シミュレーション推論（SR）モデルは、ユーザーからの提示された問題に対してより深く処理する技術を使用していますが、GPT-4などの従来の大規模言語モデル（LLM）よりも遅く、全てのタスクには最適ではありません。 </p>
<p><img src='https://dejitarumirai.com/wp-content/uploads/2025/02/sam-altmanopenaigpt-5-2.webp' alt='Sam AltmanがOpenAIの待望のGPT-5モデルのロードマップを発表' /></p>
<p>続いて、GPT-5はOpenAIの現在のAIモデルラインナップからの要素を組み合わせたシステムとなる予定です。Altman氏は、「ChatGPTと私たちのAPIの両方で、GPT-5を多くの技術を統合したシステムとしてリリースします」と語り、従来のML、SRモデル、およびウェブ検索やリサーチなどの特化されたモデルを含む構成になるとしています。  </p>
<p>また、Altman氏は、ChatGPTの無料ユーザーが「標準の知性設定でのGPT-5に無制限にアクセスできる」一方で、ChatGPT Plusの購読者は「より高い知性レベルでGPT-5を実行できる」と述べています。さらに、Proの購読者は「さらに高いレベルの知性でGPT-5を実行できる」としています。これらの統合されたAIモデルは、Advanced Voice ModeやCanvas、Search、Deep ResearchなどのOpenAIの拡張機能を活用出来るようになるとしています。 </p>
<p>過去には、Altman氏は「GPT-5」と呼んだ場合の恣意的な性質についてコメントしており、同社が昨年投入したAIモデルのいくつかにはその名前が付けられてもおかしくないという理由を挙げています。104年3月、Altman氏はLex Friedmanとのインタビューで、その年に大規模なAIモデルを投入する準備があると述べており、それはGPT-4oや「o1」と呼ばれるものである可能性が高いと考えられます。しかし、最終的な名称はまだ未定でした。彼は当時、GPT-5に類似したモデルについて、「それを呼ぶかどうか、期待されるものと比較して少し劣るかどうか、または少し良いかどうかを話す前に、他の重要なリリースがあると考えています」と述べました。  </p>
<p>これからのOpenAIは新モデルへのブランディングにより、さまざまな機能を一つの統一されたインターフェースに集約することを目指していると見られます。Altman氏は、「私たちは、私たちの計画したロードマップをより良く共有し、製品の提供を簡素化する必要があることを理解しています」と述べています。現在、ChatGPTにプロアカウントでログインすると、GPT-4o、GPT-4o with search、GPT-4o with deep research、o1、o3-miniなど、最低でも10のAIモデルから選択可能です。  </p>
<p>Altman氏は、AIモデルを「従来型LLM」と「シミュレーション推論」モデルに分け、ユーザーが選択する負担を軽減することを目指しています。誰もが複雑なオプションを理解するのは現実的ではないと認識しているのです。競合他社、DeepSeek、Anthropic、Meta、Googleなどは、OpenAIの後を追って各自のAIモデルを迅速に発展させています。今後のGPT-4.5とGPT-5の確定したリリース日についての情報更新を期待しましょう。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3608/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
