<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>AIテクノロジー &#8211; デジタル未来 (Dejitaru Mirai)</title>
	<atom:link href="https://dejitarumirai.com/tag/ai%E3%83%86%E3%82%AF%E3%83%8E%E3%83%AD%E3%82%B8%E3%83%BC/feed" rel="self" type="application/rss+xml" />
	<link>https://dejitarumirai.com</link>
	<description></description>
	<lastBuildDate>Wed, 16 Apr 2025 12:35:39 +0000</lastBuildDate>
	<language>ja</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.1</generator>
	<item>
		<title>Grokが文書やアプリ制作のためのキャンバス代わりの機能を獲得</title>
		<link>https://dejitarumirai.com/archives/3939</link>
					<comments>https://dejitarumirai.com/archives/3939#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Wed, 16 Apr 2025 12:35:39 +0000</pubDate>
				<category><![CDATA[記事]]></category>
		<category><![CDATA[AIチャットボット]]></category>
		<category><![CDATA[AIテクノロジー]]></category>
		<category><![CDATA[GROK]]></category>
		<category><![CDATA[xAI]]></category>
		<category><![CDATA[イーロン・マスク]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/?p=3939</guid>

					<description><![CDATA[Grokは、イーロン・マスクが設立したAI企業xAIのチャットボットであり、最近、文書を編集したり基本的なアプリを作成したりするための新しい機能を獲得しました。これにより、ユーザーはGrokと協力してコンテンツを作成できるようになります。この機能はGrok Studioと呼ばれ、Grok.com上で]]></description>
										<content:encoded><![CDATA[<p>Grokは、イーロン・マスクが設立したAI企業xAIのチャットボットであり、最近、文書を編集したり基本的なアプリを作成したりするための新しい機能を獲得しました。これにより、ユーザーはGrokと協力してコンテンツを作成できるようになります。この機能はGrok Studioと呼ばれ、Grok.com上で無料及び有料のユーザーが利用可能です。また、Grokは文書、コード、レポート、ブラウザゲームを生成できると公式のアカウントは述べています。Grok Studioは、コンテンツを別ウィンドウで開くことで、ユーザーとGrokが一緒にコラボレーションできる環境を提供します。</p>
<p><img src='https://dejitarumirai.com/wp-content/uploads/2025/04/grok-2.webp' alt='Grokが文書やアプリ制作のためのキャンバス代わりの機能を獲得' /></p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3939/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>GeminiアプリでVeo 2により8秒の動画を生成する準備が整う</title>
		<link>https://dejitarumirai.com/archives/3885</link>
					<comments>https://dejitarumirai.com/archives/3885#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Wed, 26 Mar 2025 08:39:26 +0000</pubDate>
				<category><![CDATA[AIテクノロジー]]></category>
		<category><![CDATA[AI動画生成器]]></category>
		<category><![CDATA[Geminiアプリ]]></category>
		<category><![CDATA[Google Chrome]]></category>
		<category><![CDATA[Veo 2]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/archives/3885</guid>

					<description><![CDATA[先月、GoogleはGemini Advancedの次に来る機能を予告し、GeminiアプリユーザーがVeo 2を使って動画を生成できるようになる準備が進められていることが明らかになった。最近リリースされたGoogleアプリのベータ版16.11には、動画生成に関する明確な文言が含まれており、「Veo]]></description>
										<content:encoded><![CDATA[<p>先月、GoogleはGemini Advancedの次に来る機能を予告し、GeminiアプリユーザーがVeo 2を使って動画を生成できるようになる準備が進められていることが明らかになった。最近リリースされたGoogleアプリのベータ版16.11には、動画生成に関する明確な文言が含まれており、「Veo 2を使って高品質の動画を作成する」との宣伝がされている。Googleは2024年のI/OでVeo 2について紹介し、12月にもその詳細が公開された。ユーザーは「アイデアを説明し、Veo 2がそのアイデアを8秒の動画として実現する」形をとる。動画生成には1~2分かかる見通しだ。現在、動画生成には日次及び月次の制限がある。Veo 2は現状Google Labsの待機リストにあり、Geminiアプリのアクセス権は「Advanced tier」から始まる見込みだ。最終的には動画プレーヤーが用意され、生成した動画のダウンロードやリンクを通じたシェア機能も搭載される予定だ。Geminiアプリ内でのこの機能は数週間にわたって開発されており、コードネーム「toucan」で進められている。リリースに向けた準備が整いつつあり、Googleが動画生成の特性を明示していることから、正式リリースが近い可能性が高い。2月にはGoogleが「主要な動画、画像、音声生成ツールを用いた新しいクリエイティブ方法」を発表しており、現在すべてのGeminiユーザーはImagen 3を用いた画像生成の機能にもアクセス可能だ。一方、オーディオ生成に関する機能も紹介されており、音楽生成の可能性も問われている。Googleが提供するツールがもたらす変化は、クリエイティブ業界に新たな波を引き起こす可能性がある。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3885/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>GoogleがGemini 2.5 AIモデルを発表し、複雑な思考を実現</title>
		<link>https://dejitarumirai.com/archives/3870</link>
					<comments>https://dejitarumirai.com/archives/3870#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Wed, 26 Mar 2025 01:56:29 +0000</pubDate>
				<category><![CDATA[記事]]></category>
		<category><![CDATA[AIテクノロジー]]></category>
		<category><![CDATA[AIモデル]]></category>
		<category><![CDATA[DeepMind]]></category>
		<category><![CDATA[Gemini]]></category>
		<category><![CDATA[Google Chrome]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/?p=3870</guid>

					<description><![CDATA[GoogleはAI開発を加速させており、数ヶ月前に発表されたGemini 2.0に続き、新たにGemini 2.5を発表しました。この最新のAIモデルは、特にコーディング、数学、科学における能力が大幅に向上しているとされています。Gemini 2.5の最初のモデルはPro Experimentalで]]></description>
										<content:encoded><![CDATA[<p>GoogleはAI開発を加速させており、数ヶ月前に発表されたGemini 2.0に続き、新たにGemini 2.5を発表しました。この最新のAIモデルは、特にコーディング、数学、科学における能力が大幅に向上しているとされています。Gemini 2.5の最初のモデルはPro Experimentalであり、このモデルは従来の分類モデルや予測モデルよりも、より深い推論、分析、文脈に基づく応答を提供することを目的としています。このアプローチは、より効率的かつコスト効果の高いFlashバージョンから始まったGemini 2.0シリーズとは異なります。</p>
<p><img src='https://dejitarumirai.com/wp-content/uploads/2025/03/googlegemini-25-ai-2.webp' alt='GoogleがGemini 2.5 AIモデルを発表し、複雑な思考を実現' /></p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3870/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>ZoomのAIが急成長、忙しい作業も支援</title>
		<link>https://dejitarumirai.com/archives/3853</link>
					<comments>https://dejitarumirai.com/archives/3853#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Tue, 18 Mar 2025 03:23:59 +0000</pubDate>
				<category><![CDATA[記事]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[AIテクノロジー]]></category>
		<category><![CDATA[Zoom]]></category>
		<category><![CDATA[タスク管理]]></category>
		<category><![CDATA[ビジネスコミュニケーション]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/?p=3853</guid>

					<description><![CDATA[Zoomは、AIコンパニオンの新たな「エージェント」としてのアップグレードを発表しました。これにより、Zoomのユーザーはミーティングのスケジュールを自動的に設定し、会議の内容から文書を生成し、ビデオクリップを作成することが可能になります。この機能は職場向けの新しい「タスク」タブ内で利用可能になり、]]></description>
										<content:encoded><![CDATA[<p>Zoomは、AIコンパニオンの新たな「エージェント」としてのアップグレードを発表しました。これにより、Zoomのユーザーはミーティングのスケジュールを自動的に設定し、会議の内容から文書を生成し、ビデオクリップを作成することが可能になります。この機能は職場向けの新しい「タスク」タブ内で利用可能になり、特にビジネス環境での利便性を高めることが期待されます。</p>
<p><img src='https://dejitarumirai.com/wp-content/uploads/2025/03/zoomai-2.webp' alt='ZoomのAIが急成長、忙しい作業も支援' /></p>
<p>さらに、Zoomはモバイルアプリにボイスレコーダー機能を追加し、対面ミーティングを録音、文字起こし、要約することができるようになります。これらの機能は追加料金なしで、Zoom Workplaceのユーザーに提供されます。AIコンパニオンの導入により、ユーザーはより効率的に業務を進めることができます。</p>
<p>Zoomのプロダクト責任者であるスミタ・ハシム氏は、「AIはあらゆる製品やインタラクションに広がり、実際に役立つ方法でユーザーの仕事をサポートします」と述べています。AIコンパニオンは、製品間の連携も強化し、ユーザーが正確に作業を進めるための手助けをすると考えられています。 </p>
<p>さらに来月には、月額12ドルのカスタムAIコンパニオンアドオンも発表される予定です。この機能には、自分自身のAIアバターを作成し、チームにメッセージを送信することが含まれます。これはZoomのユーザーにとって、新しいコミュニケーションスタイルを提供することになります。</p>
<p>総じて、ZoomのAI技術は進化を続け、ビジネスコミュニケーションの未来を形作る重要な要素となっています。今後の展開に対する期待が高まります。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3853/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Googleの新しいAIモデルが画像から透かしを削除できる</title>
		<link>https://dejitarumirai.com/archives/3850</link>
					<comments>https://dejitarumirai.com/archives/3850#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Tue, 18 Mar 2025 01:01:03 +0000</pubDate>
				<category><![CDATA[AI]]></category>
		<category><![CDATA[AIテクノロジー]]></category>
		<category><![CDATA[Gemini]]></category>
		<category><![CDATA[Google Chrome]]></category>
		<category><![CDATA[画像処理]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/archives/3850</guid>

					<description><![CDATA[Googleが開発した新しいAIモデル、Gemini Flash 2.0が、著作権のある画像の透かしを削除できる能力を持っていることが、ユーザーによって明らかになった。このモデルは現在 "実験的"なフェーズにあり、開発者のみに提供されている状態だ。

最近、数多くのアプリが写真からオブジェクトを削除]]></description>
										<content:encoded><![CDATA[<p>Googleが開発した新しいAIモデル、Gemini Flash 2.0が、著作権のある画像の透かしを削除できる能力を持っていることが、ユーザーによって明らかになった。このモデルは現在 &#8220;実験的&#8221;なフェーズにあり、開発者のみに提供されている状態だ。</p>
<p><img src='https://dejitarumirai.com/wp-content/uploads/2025/03/googleai-2.webp' alt='Googleの新しいAIモデルが画像から透かしを削除できる' /></p>
<p>最近、数多くのアプリが写真からオブジェクトを削除したり、空白を埋めたりすることができるようになってきた。新しい生成AIモデルはこれらの機能をさらに向上させており、Adobeをはじめとする企業が写真編集ツールに新しいオブジェクト削除機能を追加している。AppleもiOSとmacOS向けに「クリーンアップ」と呼ばれるツールを提供し、対応デバイスでの機能を可能にしている。 </p>
<p>Twitter上での投稿によると、Gemini Flash 2.0は画像からオブジェクトを取り除くのが非常に優れていることが確認された。このモデルは通常、GoogleやOpenAIからの主要な閉じられたモデルに見られる制限があり、それにより法的な問題を避けるための措置が取られている。たとえば、OpenAIのDALL-Eは著作権で保護されたキャラクターを生成することはできない。また、Microsoftは最近、自社の画像モデルを騙してポルノを生成した個人グループに対して訴訟を起こした。</p>
<p>Googleのモデルにおける透かし削除機能の問題は、これに対する反発がある中、Googleが法律上の責任を回避しつつも悪用防止の取り組みを示すことが重要であるという点だ。オープンモデルでもライセンス契約があることがあり、法律や裁判所が悪用を防ぐことが可能である。</p>
<p>興味深いことに、透かし削除機能に関しては、GoogleのモデルはAIが修正または生成した画像に自身の透かしを追加することがある。この機能は、視聴者に対してそれが本物ではないことを明らかにするために設計されている。AI技術の本質的な特徴とも言えるこの事象は、「他人の所有物から証拠を取り除き、自分自身の識別マークを追加する」という形象に例えることができる。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3850/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Baiduが新しいAIモデルErnieを発表</title>
		<link>https://dejitarumirai.com/archives/3845</link>
					<comments>https://dejitarumirai.com/archives/3845#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Mon, 17 Mar 2025 02:22:45 +0000</pubDate>
				<category><![CDATA[AI]]></category>
		<category><![CDATA[AIテクノロジー]]></category>
		<category><![CDATA[Baidu]]></category>
		<category><![CDATA[Deepseek]]></category>
		<category><![CDATA[Ernie 4.5]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/archives/3845</guid>

					<description><![CDATA[中国の検索エンジンBaiduは、最新のAIモデルであるErnie 4.5と新たに開発した推論モデルErnie X1を発表した。これらのモデルは、2年前にリリースされた基盤モデルの最新バージョンであり、技術力をさらに向上させている。Ernie X1は「DeepSeek R1と同等の性能を持ちながら、半]]></description>
										<content:encoded><![CDATA[<p>中国の検索エンジンBaiduは、最新のAIモデルであるErnie 4.5と新たに開発した推論モデルErnie X1を発表した。これらのモデルは、2年前にリリースされた基盤モデルの最新バージョンであり、技術力をさらに向上させている。Ernie X1は「DeepSeek R1と同等の性能を持ちながら、半分の価格」とBaiduは主張しており、Ernie 4.5は「高いEQ」を備えているため、ミームやサティアを理解できる能力がある。両モデルは、テキストだけでなく、映像、画像、音声といったマルチモーダルな処理も可能だ。</p>
<p>今後の展望として、Baiduは次世代モデルErnie 5を今年中にリリースする計画も明らかにしており、さらなるマルチモーダル機能の強化を目指している。Baiduは中国でOpenAIのChatGPTに対抗するための取り組みを続けているが、市場における普及には課題がある。Baiduが直面しているのは、その技術力だけでなく、競合他社との競争も含まれ、特に最近のDeepSeekの登場は多くの米国のAI企業と投資家を驚かせる結果となっている。現在の状況では、どの企業が主導権を握るのか、注視が必要だ。インターネットの未来におけるAI技術の発展が、業界全体にどのように影響するのか、今後の動向に期待が寄せられている。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3845/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>iPhone 17 Ultraが実現する可能性、理由はここにある</title>
		<link>https://dejitarumirai.com/archives/3820</link>
					<comments>https://dejitarumirai.com/archives/3820#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Tue, 11 Mar 2025 02:05:45 +0000</pubDate>
				<category><![CDATA[AIテクノロジー]]></category>
		<category><![CDATA[Apple]]></category>
		<category><![CDATA[iPhone 16]]></category>
		<category><![CDATA[iPhone 17 Ultra]]></category>
		<category><![CDATA[Pro Max]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/archives/3820</guid>

					<description><![CDATA[iPhone 17の噂が広がる中、特に注目を集めているのが"iPhone 17 Ultra"の可能性である。最近の情報によると、AppleがiPhone 17 Pro Maxを"Ultra"としてリブランドする準備を進めている兆候が見られる。これまで、iPhone ProとPro Maxは技術的には]]></description>
										<content:encoded><![CDATA[<p>iPhone 17の噂が広がる中、特に注目を集めているのが&#8221;iPhone 17 Ultra&#8221;の可能性である。最近の情報によると、AppleがiPhone 17 Pro Maxを&#8221;Ultra&#8221;としてリブランドする準備を進めている兆候が見られる。これまで、iPhone ProとPro Maxは技術的にはほぼ同一であり、サイズの違いだけが際立っていた。しかし、iPhone 17 Pro Maxにはいくつかの独自の特徴が期待されている。新たに予測されているのは、&#8221;狭いダイナミックアイランド&#8221;や新技術によるカメラ機能の改良である。特に、iPhone 17 Pro Maxは特別な&#8221;メタレンズ&#8221;技術を実装することでフェイスIDコンポーネントの小型化が行える可能性がある。</p>
<p>また、iPhone 17 Pro Maxは、他のモデルよりも優れた冷却システムを搭載し、より多くのRAMが必要とされるという噂もある。これにより、デバイスの厚みが増加することで大容量のバッテリーを搭載できるという情報が伝わってきている。このようなデザイン変更は、これまでの標準的なProモデルとは異なるアプローチを示唆している。特に、従来のProモデルは軽量設計を重視しているため、Pro Maxの厚さを増すことは意外な方向性とも言える。</p>
<p>この新しい方向性は、AppleがiPhone 17 Pro MaxをiPhone 17 Ultraと呼びモデル名を変更する可能性を高めるものである。同じ年に薄型モデルの&#8221;iPhone 17 Air&#8221;が発売される中で、Proラインのモデルがただ重くなるだけというのは競争に不利に働くと考えられる。そのため、Appleは新たな差別化戦略を適用し、iPhone 17 Pro Maxを他のラインナップから際立たせる可能性がある。</p>
<p>仮にiPhone 17 Pro MaxがUltraとしてブランドされると、モデル構成は非常に明確なものとなる。それぞれのモデルが異なるニーズや予算に応じて機能を持つように設計されることは、顧客にとってもわかりやすい。具体的には、iPhone 17がエントリーモデル、iPhone 17 Airはスリムなデザインを重視したモデル、iPhone 17 Proが高性能な機能を搭載し、最終的にiPhone 17 Ultraが最も優れたバッテリーとディスプレイ性能を誇るモデルとなる可能性が高い。</p>
<p>結論として、AppleがiPhone 17 Ultraをリリースする可能性は十分に考えられる。これは、技術革新を求める消費者にとって魅力的な選択肢を提供することに繋がる。将来的に、この件に関する正式な発表が待たれる中、多くの人々がこの新しいiPhoneの登場を心待ちにしている。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3820/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>OpenAIがGPT-4.5モデルをChatGPT Plusメンバーに提供開始</title>
		<link>https://dejitarumirai.com/archives/3784</link>
					<comments>https://dejitarumirai.com/archives/3784#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Thu, 06 Mar 2025 08:42:20 +0000</pubDate>
				<category><![CDATA[AIテクノロジー]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[GPT-4.5]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[人工知能]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/archives/3784</guid>

					<description><![CDATA[OpenAIが最新のAIモデル、GPT-4.5をChatGPT Plusメンバーに提供開始しました。このモデルは限られたオーディエンス向けに研究プレビューとして先週リリースされたもので、当初はChatGPT Proのメンバーと開発者のみがアクセスできましたが、現在は使用制限を設けた上でChatGPT]]></description>
										<content:encoded><![CDATA[<p>OpenAIが最新のAIモデル、GPT-4.5をChatGPT Plusメンバーに提供開始しました。このモデルは限られたオーディエンス向けに研究プレビューとして先週リリースされたもので、当初はChatGPT Proのメンバーと開発者のみがアクセスできましたが、現在は使用制限を設けた上でChatGPT Plusメンバーへと展開が進められています。GPT-4.5についてOpenAIは、これまでで最大かつ「最も強力な」モデルであるとし、複雑な問題解決能力や世界の理解が向上していると述べています。また、以前のモデルと比較してホロケーションが少なくなることも期待されています。この新しいモデルは、OpenAIのCEOサム・アルトマンによれば、「思慮深い人との会話のように感じる」ものであり、AIから実際に良いアドバイスを得ることができた瞬間もあったと彼は言います。GPT-4.5のChatGPT Plusメンバーへの全体展開には最大3日かかるとOpenAIは発表しており、使用制限については需要の変化に応じて変わる可能性があるとのことです。アルトマンは前回、GPT-4.5が「巨大で高価なモデル」であることを強調し、ChatGPT Plus tierに展開するには「数万のGPU」を追加する必要があると述べました。今後の展開とその影響に注目が集まります。</p>
<p><img src='https://dejitarumirai.com/wp-content/uploads/2025/03/openaigpt-45chatgpt-plus-2.webp' alt='OpenAIがGPT-4.5モデルをChatGPT Plusメンバーに提供開始' /></p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3784/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>MicrosoftがmacOS用Copilotアプリをリリース</title>
		<link>https://dejitarumirai.com/archives/3765</link>
					<comments>https://dejitarumirai.com/archives/3765#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Fri, 28 Feb 2025 09:22:13 +0000</pubDate>
				<category><![CDATA[AIアプリ]]></category>
		<category><![CDATA[AIテクノロジー]]></category>
		<category><![CDATA[Copilot Voice]]></category>
		<category><![CDATA[macOS]]></category>
		<category><![CDATA[Microsoft]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/archives/3765</guid>

					<description><![CDATA[MicrosoftがmacOS用のネイティブCopilotアプリを本日リリースしました。これは、Windows向けのアプリに類似しており、MicrosoftのAIアシスタントにアクセスできるウェブベースのバージョンを提供します。ユーザーは画像をアップロードし、それに基づいて画像やテキストを生成するこ]]></description>
										<content:encoded><![CDATA[<p>MicrosoftがmacOS用のネイティブCopilotアプリを本日リリースしました。これは、Windows向けのアプリに類似しており、MicrosoftのAIアシスタントにアクセスできるウェブベースのバージョンを提供します。ユーザーは画像をアップロードし、それに基づいて画像やテキストを生成することが可能です。macOS用のCopilotは、ダークモードを搭載しており、AIアシスタントをアクティブにするためのショートカットコマンドも用意されています。Windows版のAlt + Spaceに相当するCommand + Spaceが使えます。米国、英国、カナダにおいて新しいCopilot Macアプリが本日から利用可能となり、iPad版もスプリットスクリーンモードに更新されています。さらに、iPhoneやiPadでApple IDを使ってCopilotにログインできるようになり、テキストやPDFファイルをアップロードしてドキュメントに関する質問をしたり、その要約を生成したりすることも可能です。このドキュメント要約機能は、macOSアプリにも近日中に追加される予定です。CopilotのmacOSバージョンのリリースは、MicrosoftがCopilot VoiceとThink Deeperを無料で提供し、無制限の使用を可能にする数日前に行われました。以前は、Think Deeper（OpenAIのo1モデルを搭載）とVoiceには無料ユーザー向けの使用制限がありましたが、Microsoftはこれを解除し、Copilotユーザーが同社のAIアシスタントとより深く会話できるようにします。</p>
<p><img src='https://dejitarumirai.com/wp-content/uploads/2025/02/microsoftmacoscopilot-2.webp' alt='MicrosoftがmacOS用Copilotアプリをリリース' /></p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3765/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>OpenAIがDeep Research機能を全てのChatGPT有料ユーザーに拡張</title>
		<link>https://dejitarumirai.com/archives/3737</link>
					<comments>https://dejitarumirai.com/archives/3737#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Wed, 26 Feb 2025 02:34:50 +0000</pubDate>
				<category><![CDATA[記事]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[AIテクノロジー]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[Deep Research]]></category>
		<category><![CDATA[OpenAI]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/?p=3737</guid>

					<description><![CDATA[OpenAIは、Deep Research機能を有料のChatGPTユーザー全員に拡張することを発表しました。この機能は、ユーザーが任意のテーマに関する詳細なレポートを生成できるツールです。これまでは、プラスプランの契約者にのみ提供されていましたが、今後はPlus、Team、Edu、およびEnter]]></description>
										<content:encoded><![CDATA[<p>OpenAIは、Deep Research機能を有料のChatGPTユーザー全員に拡張することを発表しました。この機能は、ユーザーが任意のテーマに関する詳細なレポートを生成できるツールです。これまでは、プラスプランの契約者にのみ提供されていましたが、今後はPlus、Team、Edu、およびEnterpriseの全てのユーザーが利用できるようになります。従来、Deep Research機能を使用するには月額200ドルのSure Proプランに加入する必要がありました。</p>
<p><img src='https://dejitarumirai.com/wp-content/uploads/2025/02/openaideep-researchchatgpt-2.webp' alt='OpenAIがDeep Research機能を全てのChatGPT有料ユーザーに拡張' /></p>
<p>新たに導入されたDeep Research機能では、プラスユーザーは毎月10回のリクエストが可能です。これに対し、プロプランの利用者は、1ヶ月あたり120回までリクエストを行えるように上限が引き上げられました。このツールの改善点として、ChatGPTは引用と共に画像を埋め込み、より豊富なインサイトを提供します。また、ファイルタイプの理解度が向上し、文書分析の精度も高まります。</p>
<p>今回のアップデートにより、ユーザーは通常のプロンプトを作成し、指定のDeep Researchアイコンをタップするだけで利用可能です。回答を得るまでの時間は質問の複雑性に応じて5分から30分程度かかります。OpenAIによると、Deep Research機能は現在「非常に計算集約的」なため、無料プランのユーザーがこの機能を体験できるまでには時間がかかる見込みです。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3737/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
