<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>o4-mini &#8211; デジタル未来 (Dejitaru Mirai)</title>
	<atom:link href="https://dejitarumirai.com/tag/o4-mini/feed" rel="self" type="application/rss+xml" />
	<link>https://dejitarumirai.com</link>
	<description></description>
	<lastBuildDate>Tue, 22 Apr 2025 02:56:15 +0000</lastBuildDate>
	<language>ja</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.1</generator>
	<item>
		<title>OpenAIの最新AIモデルは画像で思考し、ツールを統合する</title>
		<link>https://dejitarumirai.com/archives/3957</link>
					<comments>https://dejitarumirai.com/archives/3957#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Tue, 22 Apr 2025 02:56:15 +0000</pubDate>
				<category><![CDATA[記事]]></category>
		<category><![CDATA[AIモデル]]></category>
		<category><![CDATA[o3モデル]]></category>
		<category><![CDATA[o4-mini]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[技術進化]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/?p=3957</guid>

					<description><![CDATA[今週、OpenAIは最新のAIモデル「o3」と「o4-mini」を発表しました。これらのモデルは、同社が今までに開発した中で最も賢く、能力の高いモデルとされています。また、画像に基づいて推論を行う初めてのモデルでもあります。

この新技術により、AIモデルは写真やスケッチといった画像を分析に用いるこ]]></description>
										<content:encoded><![CDATA[<p>今週、OpenAIは最新のAIモデル「o3」と「o4-mini」を発表しました。これらのモデルは、同社が今までに開発した中で最も賢く、能力の高いモデルとされています。また、画像に基づいて推論を行う初めてのモデルでもあります。</p>
<p>この新技術により、AIモデルは写真やスケッチといった画像を分析に用いることができ、画像を調整、ズームイン、回転させながら推論を行うことができます。</p>
<p>OpenAIは今回、「o3」と「o4-mini」の発表に関して、「私たちの推論モデルが初めて、すべてのツールを統合的に使用し、組み合わせることができる」と述べています。これには、ウェブ検索、Pythonプログラミング、画像分析、ファイル解釈、画像生成が含まれます。</p>
<p>これらのモデルは、ChatGPT Plus、Pro、およびTeamの有料ユーザー向けに提供され、従来のモデルであるo1、o3-mini、o3-mini-highは削除されました。OpenAIは、Proユーザー向けにさらに強力な「o3-pro」モデルを数週間内にリリースする予定です。</p>
<p>このような進展は、AI技術の進化を示しており、今後の応用が期待されます。OpenAIの技術は、ビジュアルデータを利用して、より深い洞察を提供することができるようになるでしょう。<br />
画像を生成し、解析する能力によって、ビジネス、クリエイティブ業界、教育などの様々な分野での利用が考えられます。今後、｢o3｣と｢o4-mini｣がもたらす可能性には大きな注目が集まっています。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3957/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>OpenAIが新しいAI推論モデルo3とo4-miniを発表</title>
		<link>https://dejitarumirai.com/archives/3946</link>
					<comments>https://dejitarumirai.com/archives/3946#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Thu, 17 Apr 2025 02:37:26 +0000</pubDate>
				<category><![CDATA[記事]]></category>
		<category><![CDATA[AI推論モデル]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[o3モデル]]></category>
		<category><![CDATA[o4-mini]]></category>
		<category><![CDATA[OpenAI]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/?p=3946</guid>

					<description><![CDATA[OpenAIは、AI推論モデルのo3とo4-miniを発表した。これらのモデルは、ユーザーからの質問に対して、回答を出す前に考える能力を備えている。o3は、従来のモデルを上回る数学、コーディング、推論、科学、視覚理解の能力を示しており、一方でo4-miniは価格、速度、性能のバランスを重視し、開発者]]></description>
										<content:encoded><![CDATA[<p>OpenAIは、AI推論モデルのo3とo4-miniを発表した。これらのモデルは、ユーザーからの質問に対して、回答を出す前に考える能力を備えている。o3は、従来のモデルを上回る数学、コーディング、推論、科学、視覚理解の能力を示しており、一方でo4-miniは価格、速度、性能のバランスを重視し、開発者がAIモデルを選ぶ際の重要な要素となっている。<br />
これらの新しいモデルは、ChatGPT内でのウェブ閲覧やPythonコードの実行、画像処理、画像生成など、ツールを使用して回答を生成することができる。OpenAIは、これらのモデルと、より高い信頼性を持つ回答を作成するために時間を多くかける「o4-mini-high」と呼ばれるバリエーションを、Pro、Plus、Teamプランの購読者向けに提供している。<br />
新モデルは、GoogleやMeta、xAIなどとの激しい競争を勝ち抜くためのOpenAIの取り組みの一環として位置づけられている。以前の推論モデルの発表後、他の企業も同様の機能を持つモデルを迅速にリリースし、性能としてはOpenAIのモデルに匹敵またはそれを超えるものとなっている。特に、推論モデルがAIシステムの性能を引き出すための主導的要因として作用しており、業界全体の動向が変わりつつある。<br />
OpenAIによると、o3はコーディング能力を測定するSWE-benchのテストにおいて69.1%という最高のスコアを記録している。また、o4-miniも68.1%のスコアを達成しており、次に優れたモデルのo3-miniは49.3%であり、外部競合のClaude 3.7 Sonnetは62.3%を記録している。<br />
新しい能力として、o3とo4-miniは「画像を使って考える」ことができ、ユーザーがアップロードした画像を分析してから回答を作成する。この能力により、ぼやけた画像や低品質な画像でも理解でき、ズームや回転などの操作を行うことができる。<br />
また、o3とo4-miniは、ChatGPTのCanvas機能を利用してブラウザ内でPythonコードを実行し、現在のイベントに関する問い合わせをウェブ検索できる。<br />
すべてのモデルは、OpenAIの開発者向けAPIであるChat Completions APIとResponses APIを通じて利用可能である。開発者にとってo3は、性能の向上を考慮しつつ、1百万トークンあたり10ドルという比較的低価格で提供される。o4-miniの料金はo3-miniと同じく、1百万トークンあたり1.10ドルとなる。<br />
さらに、オープンAIは今後数週間以内に、他のリソースをより多く活用して回答を生成するo3のPro版を、ChatGPT Pro購読者向けに発表する予定である。CEOのサム・アルトマン氏は、o3とo4-miniがChatGPTにおける立ち下がりのモデルになる可能性があることを示唆しており、今後のGPT-5モデルに統合される可能性を他の情報とともに伝えた。<br />
最新のo3とo4-miniは、OpenAIのAI推論技術の新たな局面を示しており、今後も注目が集まるだろう。</p>
<p><img src='https://dejitarumirai.com/wp-content/uploads/2025/04/openaiaio3o4-mini-2.webp' alt='OpenAIが新しいAI推論モデルo3とo4-miniを発表' /></p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3946/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
