<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>OpenAI &#8211; デジタル未来 (Dejitaru Mirai)</title>
	<atom:link href="https://dejitarumirai.com/tag/openai/feed" rel="self" type="application/rss+xml" />
	<link>https://dejitarumirai.com</link>
	<description></description>
	<lastBuildDate>Wed, 23 Apr 2025 05:11:39 +0000</lastBuildDate>
	<language>ja</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.1</generator>
	<item>
		<title>OpenAIがCursorを買収しなかった理由とWindsurfの急成長</title>
		<link>https://dejitarumirai.com/archives/3965</link>
					<comments>https://dejitarumirai.com/archives/3965#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Wed, 23 Apr 2025 05:11:39 +0000</pubDate>
				<category><![CDATA[記事]]></category>
		<category><![CDATA[AIコーディングツール]]></category>
		<category><![CDATA[AIスタートアップ]]></category>
		<category><![CDATA[Cursor]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[Windsurf]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/?p=3965</guid>

					<description><![CDATA[OpenAIは安定した成長を見せるAIコーディングアシスタント「Cursor」の買収を検討したが、最終的には急成長する「Windsurf」に注目を移した。情報筋によると、Cursorを開発するAnysphereの年次定期収入（ARR）は約3億ドルに達し、毎月の売上が平均して倍増している。この成長率は]]></description>
										<content:encoded><![CDATA[<p>OpenAIは安定した成長を見せるAIコーディングアシスタント「Cursor」の買収を検討したが、最終的には急成長する「Windsurf」に注目を移した。情報筋によると、Cursorを開発するAnysphereの年次定期収入（ARR）は約3億ドルに達し、毎月の売上が平均して倍増している。この成長率は業界内で注目される要素となっている。</p>
<p><img src='https://dejitarumirai.com/wp-content/uploads/2025/04/openaicursorwindsurf-2.webp' alt='OpenAIがCursorを買収しなかった理由とWindsurfの急成長' /></p>
<p>AnysphereはOpenAIからの初期の買収提案を断った。Cursorは人気のあるAIツールであるため、同社は独立を維持したい意向があった。一方でAnysphereは、約100億ドルの評価での資金調達を模索中であり、他の買収提案も無視したという。</p>
<p>OpenAIはCursorの買収に再度挑むことはなかったが、市場での競争を考えると新たなAIコーディングツールの買収を目指している。最近、OpenAIは急成長を遂げているWindsurfに目を向けているという。この会社は、ARRが1億ドルに達し、今年初めの4千万円から急成長したと報告されている。</p>
<p>Windsurfは開発者コミュニティから支持を受けており、レガシー企業向けのシステムとの互換性が特徴だ。現在、OpenAIは世界の競合他社による圧力が高まる中、成長の道筋を探っている。特に、Googleや沖縄のDeepSeekなどの競合が急増しており、それに対抗するためにもWindsurfのようなツールが必要だ。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3965/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>OpenAIがChromeの買収を希望、Googleの独占に影響</title>
		<link>https://dejitarumirai.com/archives/3968</link>
					<comments>https://dejitarumirai.com/archives/3968#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Wed, 23 Apr 2025 04:32:02 +0000</pubDate>
				<category><![CDATA[Acer Chromebook Plus 516 GE]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[Google AI Studio]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[独占タイトル]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/archives/3968</guid>

					<description><![CDATA[Googleは、昨年の裁判所の判決によりオンライン検索での独占状態を指摘され、今後のデジタルサービスの未来が不透明になっている。最近、司法省はGoogleがChromeブラウザを売却する必要があると示唆しており、その場合、オファーを出すのは少なくないだろう。<br><br>昨日の公聴会で、ChatG]]></description>
										<content:encoded><![CDATA[<p>Googleは、昨年の裁判所の判決によりオンライン検索での独占状態を指摘され、今後のデジタルサービスの未来が不透明になっている。最近、司法省はGoogleがChromeブラウザを売却する必要があると示唆しており、その場合、オファーを出すのは少なくないだろう。</p>
<p>昨日の公聴会で、ChatGPTの責任者であるニック・ターレイ氏が、OpenAIがChromeの買収を希望すると強調した。「もちろん、我々は興味を持っています。多くの他の関係者も同様です」と述べた。ユーザーは現在、Chromeのプラグインを通じてChatGPTのAIアシスタントを利用できるが、OpenAIがブラウザを所有すれば、より深い統合が実現する可能性がある。OpenAIの所有下において、Chromeは「AIファーストの体験への導入」を果たすことができると彼は考えを示した。</p>
<p>ChromeはGoogleが失う可能性のある資産の一つである。別の裁判官は、Googleがオンライン広告技術において反競争的行動を取っていると認定した。多くの主要なテクノロジー企業が、Googleが長年にわたって開発した多くの人気サービスのいずれかを取得したいと望むことは驚くべきことではない。しかし、どの企業が購入しても新たな独占を生むことにならないかが真の問題だろう。現在、司法省はGoogleにAI投資を続けるように許可しているが、ブラウザをOpenAIが所有することは新たな懸念を引き起こす可能性がある。正義の実現には時間がかかることが多いため、最近のGoogleに関する判断の結果が分かるまでにはしばらく時間がかかるだろう。</p>
<p><img src='https://dejitarumirai.com/wp-content/uploads/2025/04/openaichromegoogle-2.webp' alt='OpenAIがChromeの買収を希望、Googleの独占に影響' /></p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3968/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>ChatGPTの新機能「メモリーで検索」でウェブ検索を個人化</title>
		<link>https://dejitarumirai.com/archives/3960</link>
					<comments>https://dejitarumirai.com/archives/3960#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Tue, 22 Apr 2025 03:33:55 +0000</pubDate>
				<category><![CDATA[記事]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[ウェブ検索]]></category>
		<category><![CDATA[メモリ機能]]></category>
		<category><![CDATA[人工知能]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/?p=3960</guid>

					<description><![CDATA[OpenAIは、ChatGPTに「メモリーで検索」という新機能を追加した。これは、ChatGPTが過去の会話から得た情報をもとに、ウェブ検索のクエリを最適化する機能である。更新は、OpenAIの公式サイトの変更履歴やサポートページで発表され、ユーザーの食の好みや趣味を考慮した検索が行えるようになる。]]></description>
										<content:encoded><![CDATA[<p>OpenAIは、ChatGPTに「メモリーで検索」という新機能を追加した。これは、ChatGPTが過去の会話から得た情報をもとに、ウェブ検索のクエリを最適化する機能である。更新は、OpenAIの公式サイトの変更履歴やサポートページで発表され、ユーザーの食の好みや趣味を考慮した検索が行えるようになる。たとえば、ChatGPTがあるユーザーがサンフランシスコに住むビーガンであることを記憶している場合、「近くのレストランは？」というリクエストを「サンフランシスコのビーガンレストランは？」と再構築する。これにより、よりパーソナライズされた情報が提供される。メモリーで検索機能は、ChatGPTの設定メニューからオフにすることが可能だが、現在どのユーザーがこの機能を試せるかは不明である。一部のユーザーは、最近この機能を利用し始めたとの報告もある。この機能の導入は、OpenAIが競合となる他のAIチャットボット、例えばAnthropicのClaudeやGoogleのGeminiとの差別化を図る一環と見られている。過去のチャット履歴を引き合いに出せる機能が強化されたことで、ユーザーはさらに一貫性のあるやり取りが可能となっている。</p>
<p><img src='https://dejitarumirai.com/wp-content/uploads/2025/04/chatgpt-2.webp' alt='ChatGPTの新機能「メモリーで検索」でウェブ検索を個人化' /></p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3960/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>OpenAIの最新AIモデルは画像で思考し、ツールを統合する</title>
		<link>https://dejitarumirai.com/archives/3957</link>
					<comments>https://dejitarumirai.com/archives/3957#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Tue, 22 Apr 2025 02:56:15 +0000</pubDate>
				<category><![CDATA[記事]]></category>
		<category><![CDATA[AIモデル]]></category>
		<category><![CDATA[o3モデル]]></category>
		<category><![CDATA[o4-mini]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[技術進化]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/?p=3957</guid>

					<description><![CDATA[今週、OpenAIは最新のAIモデル「o3」と「o4-mini」を発表しました。これらのモデルは、同社が今までに開発した中で最も賢く、能力の高いモデルとされています。また、画像に基づいて推論を行う初めてのモデルでもあります。

この新技術により、AIモデルは写真やスケッチといった画像を分析に用いるこ]]></description>
										<content:encoded><![CDATA[<p>今週、OpenAIは最新のAIモデル「o3」と「o4-mini」を発表しました。これらのモデルは、同社が今までに開発した中で最も賢く、能力の高いモデルとされています。また、画像に基づいて推論を行う初めてのモデルでもあります。</p>
<p>この新技術により、AIモデルは写真やスケッチといった画像を分析に用いることができ、画像を調整、ズームイン、回転させながら推論を行うことができます。</p>
<p>OpenAIは今回、「o3」と「o4-mini」の発表に関して、「私たちの推論モデルが初めて、すべてのツールを統合的に使用し、組み合わせることができる」と述べています。これには、ウェブ検索、Pythonプログラミング、画像分析、ファイル解釈、画像生成が含まれます。</p>
<p>これらのモデルは、ChatGPT Plus、Pro、およびTeamの有料ユーザー向けに提供され、従来のモデルであるo1、o3-mini、o3-mini-highは削除されました。OpenAIは、Proユーザー向けにさらに強力な「o3-pro」モデルを数週間内にリリースする予定です。</p>
<p>このような進展は、AI技術の進化を示しており、今後の応用が期待されます。OpenAIの技術は、ビジュアルデータを利用して、より深い洞察を提供することができるようになるでしょう。<br />
画像を生成し、解析する能力によって、ビジネス、クリエイティブ業界、教育などの様々な分野での利用が考えられます。今後、｢o3｣と｢o4-mini｣がもたらす可能性には大きな注目が集まっています。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3957/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>OpenAIが新しいAI推論モデルo3とo4-miniを発表</title>
		<link>https://dejitarumirai.com/archives/3946</link>
					<comments>https://dejitarumirai.com/archives/3946#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Thu, 17 Apr 2025 02:37:26 +0000</pubDate>
				<category><![CDATA[記事]]></category>
		<category><![CDATA[AI推論モデル]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[o3モデル]]></category>
		<category><![CDATA[o4-mini]]></category>
		<category><![CDATA[OpenAI]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/?p=3946</guid>

					<description><![CDATA[OpenAIは、AI推論モデルのo3とo4-miniを発表した。これらのモデルは、ユーザーからの質問に対して、回答を出す前に考える能力を備えている。o3は、従来のモデルを上回る数学、コーディング、推論、科学、視覚理解の能力を示しており、一方でo4-miniは価格、速度、性能のバランスを重視し、開発者]]></description>
										<content:encoded><![CDATA[<p>OpenAIは、AI推論モデルのo3とo4-miniを発表した。これらのモデルは、ユーザーからの質問に対して、回答を出す前に考える能力を備えている。o3は、従来のモデルを上回る数学、コーディング、推論、科学、視覚理解の能力を示しており、一方でo4-miniは価格、速度、性能のバランスを重視し、開発者がAIモデルを選ぶ際の重要な要素となっている。<br />
これらの新しいモデルは、ChatGPT内でのウェブ閲覧やPythonコードの実行、画像処理、画像生成など、ツールを使用して回答を生成することができる。OpenAIは、これらのモデルと、より高い信頼性を持つ回答を作成するために時間を多くかける「o4-mini-high」と呼ばれるバリエーションを、Pro、Plus、Teamプランの購読者向けに提供している。<br />
新モデルは、GoogleやMeta、xAIなどとの激しい競争を勝ち抜くためのOpenAIの取り組みの一環として位置づけられている。以前の推論モデルの発表後、他の企業も同様の機能を持つモデルを迅速にリリースし、性能としてはOpenAIのモデルに匹敵またはそれを超えるものとなっている。特に、推論モデルがAIシステムの性能を引き出すための主導的要因として作用しており、業界全体の動向が変わりつつある。<br />
OpenAIによると、o3はコーディング能力を測定するSWE-benchのテストにおいて69.1%という最高のスコアを記録している。また、o4-miniも68.1%のスコアを達成しており、次に優れたモデルのo3-miniは49.3%であり、外部競合のClaude 3.7 Sonnetは62.3%を記録している。<br />
新しい能力として、o3とo4-miniは「画像を使って考える」ことができ、ユーザーがアップロードした画像を分析してから回答を作成する。この能力により、ぼやけた画像や低品質な画像でも理解でき、ズームや回転などの操作を行うことができる。<br />
また、o3とo4-miniは、ChatGPTのCanvas機能を利用してブラウザ内でPythonコードを実行し、現在のイベントに関する問い合わせをウェブ検索できる。<br />
すべてのモデルは、OpenAIの開発者向けAPIであるChat Completions APIとResponses APIを通じて利用可能である。開発者にとってo3は、性能の向上を考慮しつつ、1百万トークンあたり10ドルという比較的低価格で提供される。o4-miniの料金はo3-miniと同じく、1百万トークンあたり1.10ドルとなる。<br />
さらに、オープンAIは今後数週間以内に、他のリソースをより多く活用して回答を生成するo3のPro版を、ChatGPT Pro購読者向けに発表する予定である。CEOのサム・アルトマン氏は、o3とo4-miniがChatGPTにおける立ち下がりのモデルになる可能性があることを示唆しており、今後のGPT-5モデルに統合される可能性を他の情報とともに伝えた。<br />
最新のo3とo4-miniは、OpenAIのAI推論技術の新たな局面を示しており、今後も注目が集まるだろう。</p>
<p><img src='https://dejitarumirai.com/wp-content/uploads/2025/04/openaiaio3o4-mini-2.webp' alt='OpenAIが新しいAI推論モデルo3とo4-miniを発表' /></p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3946/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>OpenAIがDeep Research機能を無料提供へ、競争への応答</title>
		<link>https://dejitarumirai.com/archives/3913</link>
					<comments>https://dejitarumirai.com/archives/3913#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Thu, 03 Apr 2025 14:09:03 +0000</pubDate>
				<category><![CDATA[AI技術]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[Deep Research]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[無料提供]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/archives/3913</guid>

					<description><![CDATA[OpenAIはその深いリサーチ機能をChatGPTの無料ユーザーにも提供する計画を明らかにしました。この機能は、2月の初めからPlus、Pro、Enterprise、Eduのサブスクリプションを利用しているユーザー向けに提供されており、AI会社はこの機能の利用を有料ユーザー以外にも拡大する予定です。]]></description>
										<content:encoded><![CDATA[<p>OpenAIはその深いリサーチ機能をChatGPTの無料ユーザーにも提供する計画を明らかにしました。この機能は、2月の初めからPlus、Pro、Enterprise、Eduのサブスクリプションを利用しているユーザー向けに提供されており、AI会社はこの機能の利用を有料ユーザー以外にも拡大する予定です。Deep Researchは、標準的なクエリ結果を超えた詳細なリサーチタスクをAIが人間の助けなく実行できる能力を持っています。この機能は、選択したテーマに関して、5分から30分で詳細なレポートを生成することができます。 OpenAIの技術スタッフのIsa Fulfordは、Xのウェブキャストでこの機能が今後他の tiers にも展開されると発言しましたが、具体的なリリーススケジュールについては明言を避けました。</p>
<p>現在、Deep ResearchはChatGPT Plusのサブスクリプションの一部として利用でき、月額20ドルで提供されています。ChatGPT Proは月額200ドルで、より多くのAIモデルと研究能力を提供しています。OpenAIは、過去にいくつかの高額な機能を無料で提供した経験があります。無料のMicrosoftアカウントを持つユーザーは、Copilotのウェブチャットやダウンロード可能なCopilotアプリを介して、無償で「Think Deeper」機能を使用できます。この機能は、OpenAIのo1推論モデルを使用したもので、Deep Researchの前段階にあたります。また、OpenAIは最近、無料のChatGPTユーザーに対して、3つのモックアップ制限を持つ4o画像生成機能も提供しました。</p>
<p>OpenAIがDeep Research機能を無料化する決定を下したのは、競合AIブランドがより多くのオプションを提供している状況を受けた可能性があります。最近、GoogleもGeminiのDeep Research機能を無料化したことで、ChatGPTに対する競争が一層激化しています。これに加え、Perplexity AIも無料でDeep Research機能を提供していますが、使用制限が設けられています。OpenAIは、ユーザーが積極的に利用できるよう、容易にアクセス可能な機能の展開を急いでいると考えられます。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3913/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>OpenAIのo3モデルは当初の予想よりも高コストになる可能性がある</title>
		<link>https://dejitarumirai.com/archives/3916</link>
					<comments>https://dejitarumirai.com/archives/3916#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Thu, 03 Apr 2025 12:44:20 +0000</pubDate>
				<category><![CDATA[AI技術]]></category>
		<category><![CDATA[ARC-AGI]]></category>
		<category><![CDATA[o3モデル]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[計算コスト]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/archives/3916</guid>

					<description><![CDATA[OpenAIが2025年12月に発表したo3「推論」AIモデルは、ARC-AGIという高度なAIをテストするためのベンチマークの作成者と提携し、その能力を示しました。しかし数ヶ月後、結果は初期の期待よりもやや控えめなものに見直されています。先週、ARC-AGIを管理するArc Prize Found]]></description>
										<content:encoded><![CDATA[<p>OpenAIが2025年12月に発表したo3「推論」AIモデルは、ARC-AGIという高度なAIをテストするためのベンチマークの作成者と提携し、その能力を示しました。しかし数ヶ月後、結果は初期の期待よりもやや控えめなものに見直されています。先週、ARC-AGIを管理するArc Prize Foundationは、o3の計算コスト見積もりを更新しました。最初はo3の最も高性能な構成が単一のARC-AGI問題を解くのに約3,000ドルと見積もられましたが、現在はそのコストが大幅に高く、1つのタスク当たり約30,000ドルになる可能性があるとされています。この見直しは、今日の最も洗練されたAIモデルが特定のタスクでどれほど高価になるかを示しています。OpenAIは依然としてo3の価格を発表しておらず、正式なリリースも行われていませんが、Arc Prize Foundationはo1-proモデルの価格を参考にしています。o1-proはこれまでのOpenAIのモデルの中で最も高価とされています。Arc Prize Foundationの共同創設者であるマイク・クノップは、「o1-proは本当のo3のコストに近い比較であると考えています。これは、使用されたテスト時間に基づいています」と述べました。o3の計算リソースの多さを考慮すると、o3 highの高価格が避けられない可能性があります。ARC-AGIに対処するために、o3 highはo3 lowよりも172倍多くの計算リソースを使用しました。また、OpenAIがエンタープライズ顧客向けに高額プランを導入する計画についての噂も広がっています。最近、The Informationは、専門的なAIエージェントに関して、月額最大20,000ドルを請求する可能性があると報じました。高額なモデルも、一般的な契約者や職員に比べればコストが低いと一部の人は考えるかもしれません。しかし、AI研究者のトビー・オードが指摘するように、これらのモデルが効率的かどうかは疑問です。たとえば、o3 highはARC-AGIで最高のスコアを達成するために、各タスクで1,024回の試行が必要でした。これらの要因から、o3モデルがどのように進展するのか、またその価格設定がどのように行われるのかが、テクノロジー業界で注目されています。今後の発表が待たれる中、o3の動向に関する関心は高まり続けています。</p>
<p><img src='https://dejitarumirai.com/wp-content/uploads/2025/04/openaio3-2.webp' alt='OpenAIのo3モデルは当初の予想よりも高コストになる可能性がある' /></p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3916/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>OpenAIのDeep Researchが無料プランでも利用可能に</title>
		<link>https://dejitarumirai.com/archives/3911</link>
					<comments>https://dejitarumirai.com/archives/3911#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Tue, 01 Apr 2025 00:51:34 +0000</pubDate>
				<category><![CDATA[AI技術]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[Deep Research]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[機械学習]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/archives/3911</guid>

					<description><![CDATA[OpenAIはその強力なAIエージェント「Deep Research」を無料ユーザー向けにも近日中に展開すると発表しました。この機能は現在、PlusおよびEnterprise顧客のみが利用できる状態ですが、全てのユーザー、特にChatGPTの非課金プランの利用者向けに準備を進めています。OpenAI]]></description>
										<content:encoded><![CDATA[<p>OpenAIはその強力なAIエージェント「Deep Research」を無料ユーザー向けにも近日中に展開すると発表しました。この機能は現在、PlusおよびEnterprise顧客のみが利用できる状態ですが、全てのユーザー、特にChatGPTの非課金プランの利用者向けに準備を進めています。OpenAIの技術者Isa Fulfordによると、Deep Researchの機能は、無料プランのユーザーにも試用されているとのことです。具体的な展開時期はまだ明らかにされていません。</p>
<p><img src='https://dejitarumirai.com/wp-content/uploads/2025/04/openaideep-research-2.webp' alt='OpenAIのDeep Researchが無料プランでも利用可能に' /></p>
<p>Deep Researchとは何か。これは、ユーザーが指示を与えることで独自に作業をするAIエージェントであり、情報の収集、理解、分析、そしてインターネット上の数百万のウェブサイトを通じた報告のクロス検証が行えます。この機能にアクセスすると、chatgpt.comを開いて新しい会話を開始し、メッセージ作成画面に表示されるDeep Researchのトグルを使って操作します。例として、「肥満とその原因または影響に関するレポートを作成して」と入力することで、Deep Researchツールが必要なキーワードをすべて検索し、結果を提供します。</p>
<p>現在のところ、Deep ResearchのクエリはPlusプランのユーザーには月10回まで制限されています。このため、新しいタスクを作成することができ、フォローアップメッセージや修正は新しいタスクとしてカウントされない仕組みになっています。無料プランのユーザーには、月に10タスク以下が提供されるかどうかは、OpenAIからの公式な発表を待たねばなりません。</p>
<p>AI技術の進化は急速であり、このDeep Researchが多くのユーザーにどのように役立つか、期待が寄せられています。OpenAIは、AIの機能をより多くの人々に届けるための取り組みを続けており、その進展に注目が集まっています。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3911/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>GPT-4o、ほぼ完璧なテキストで画像を生成</title>
		<link>https://dejitarumirai.com/archives/3901</link>
					<comments>https://dejitarumirai.com/archives/3901#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Sat, 29 Mar 2025 04:45:44 +0000</pubDate>
				<category><![CDATA[記事]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[AI画像生成]]></category>
		<category><![CDATA[ChatGPT-4o]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[テキスト描画]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/?p=3901</guid>

					<description><![CDATA[最近、OpenAIのGPT-4oが大きなアップグレードを受け、テキストをほぼ完璧に描画した画像生成機能が実装されました。この新機能により、ユーザーは言語プロンプトから詳細で高品質な画像を生成し、自分の想像に合わせて会話形式で調整することができるようになりました。過去のAIモデルで見られた不可解なサイ]]></description>
										<content:encoded><![CDATA[<p>最近、OpenAIのGPT-4oが大きなアップグレードを受け、テキストをほぼ完璧に描画した画像生成機能が実装されました。この新機能により、ユーザーは言語プロンプトから詳細で高品質な画像を生成し、自分の想像に合わせて会話形式で調整することができるようになりました。過去のAIモデルで見られた不可解なサインや文字ではなく、クリアなテキストを画像内で確保できる点が特徴です。GPT-4oのアプローチは、従来の画像生成と異なり、基本的なリクエストをもとに動的に進化させます。ユーザーは例えば「猫」という基本的なリクエストから始め、探偵帽やモノクルなどの要素を追加しながら自分の思い描くビジョンに近づけることができます。OpenAIが提供する例では、ユーザーがシーンを段階的に構築・修正する様子が示されており、複数の画像から要素を組み合わせて一本の連続した結果を作り出すことが可能です。特に、看板や物体上に視認性の高いテキストを描く能力は、これまでのAI画像生成モデルの雑音の多い出力に比べて大きな進歩をもたらしました。OpenAIは、一部の画像が「2作品中のベスト」や「8作品中のベスト」に選ばれていることを認めつつ、その結果は依然として印象的であり、シンプルなインターフェースでも使いやすい点が高く評価されています。GPT-4oは、ユーザーの写真からスタートし、変更を加えることも可能で、10から20のオブジェクトを扱う能力を持っていますが、競合モデルは通常5から8にとどまります。たとえば、最近『モンテ・クリスト伯』のエンディングシーンを再現してみたところ、従来の方法では非常に難しかったのですが、GPT-4oの画像生成を使うことで、生成された画像には読みやすいテキストが含まれ、想像を現実にするのが格段に容易になりました。もちろん、完璧ではなく、OpenAIは画像の下部がトリミングされる、幻想が残っている、非ラテン文字での苦労、20以上のオブジェクトを超える際の問題などの quirks があることも指摘しています。しかし、単純な英語によって複雑でテキストが豊富な画像を作り出す能力は、GPT-4oを他のツールと区別する要素となっています。ポスターをデザインする際、このツールは過去のモデルでは実現できなかった精度と柔軟性を提供するのです。</p>
<p><img src='https://dejitarumirai.com/wp-content/uploads/2025/03/gpt-4o-2.webp' alt='GPT-4o、ほぼ完璧なテキストで画像を生成' /></p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3901/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>ChatGPTの新しい画像生成ツールは感動的な能力を持ち、グラスワインを満たせるが、白い画像やセクシーな女性を生成するのに苦労している</title>
		<link>https://dejitarumirai.com/archives/3893</link>
					<comments>https://dejitarumirai.com/archives/3893#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Thu, 27 Mar 2025 01:45:06 +0000</pubDate>
				<category><![CDATA[AI技術]]></category>
		<category><![CDATA[AI画像生成]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[ChatGPT-4o]]></category>
		<category><![CDATA[OpenAI]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/archives/3893</guid>

					<description><![CDATA[OpenAIは最近、チャットインターフェースから直接画像を生成できる新機能をChatGPTに追加した。この機能は、従来のテキストベースの応答に加え、ユーザーが具体的な画像を作成または変換できる能力を提供する。新たに発表されたこの機能は、ユーザーがイメージに命を吹き込み、創造力を発揮する手助けをするも]]></description>
										<content:encoded><![CDATA[<p>OpenAIは最近、チャットインターフェースから直接画像を生成できる新機能をChatGPTに追加した。この機能は、従来のテキストベースの応答に加え、ユーザーが具体的な画像を作成または変換できる能力を提供する。新たに発表されたこの機能は、ユーザーがイメージに命を吹き込み、創造力を発揮する手助けをするものである。OpenAIのCEO、サム・アルトマン氏は、この技術の洗練度に驚きを隠せず、ユーザーが生成する作品は極めて素晴らしくなると述べている。</p>
<p><img src='https://dejitarumirai.com/wp-content/uploads/2025/03/chatgpt-2-1.webp' alt='ChatGPTの新しい画像生成ツールは感動的な能力を持ち、グラスワインを満たせるが、白い画像やセクシーな女性を生成するのに苦労している' /></p>
<p>新しい画像生成機能は、すべてのFree、Plus、Team、およびProユーザーに段階的に提供されており、エンタープライズおよび教育ユーザーにも近いうちに広がる予定である。ユーザーはOpenAIのテキストから動画生成ツールであるSoraを通じても、画像生成機能を如実に体験できる。画像生成の機能は、GPT-4oモデルによって駆動されている。このモデルは、画像を生成する際により詳細で、正確な結果を提供するために計算量が増加している。 </p>
<p>しかし、新機能にはいくつかの問題も抱えている。特に、簡単な白い画像を生成できないという制限が注目されている。AIツールはその柔軟性を欠き、ユーザーが創造的な結果を求めても、センサーリングの影響を受ける場面が多々見られる。実際、ユーザーからの報告では、AIが画像生成の際にセクシーな男性を描くことはできるが、同様の女性の画像を生成することに困難を抱えるケースが見受けられた。この差異は、コンテキストと画像がどのように解釈されるかに関連している。</p>
<p>この問題は重大ではないとOpenAIの代表者は述べており、近々修正される見込みである。ユーザーの反応は全体的に好意的であり、その技術の進化に期待を寄せる声が多い。OpenAIは、ユーザーの創造力をもっと自由に発揮させるため、このツールを更に発展させる計画を持っている。特に、クリエイティブな自由を尊重しつつ、社会が求める倫理基準にも耳を傾けるスタンスをとっている。</p>
<p>総じて、ChatGPTの新しい画像生成機能は、技術的な進化の象徴ともいえるもので、多くのユーザーにとって画期的な体験を提供するものとなっている。しかし、AIが人間の感情や感覚をいかに理解し、反映するかという課題は依然として残されており、今後の改善と発展が期待される。最終的に、ユーザーが求める理想的な画像を生成できるよう、さらなる進化が求められるだろう。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3893/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
