<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Google Chrome &#8211; デジタル未来 (Dejitaru Mirai)</title>
	<atom:link href="https://dejitarumirai.com/tag/google-chrome/feed" rel="self" type="application/rss+xml" />
	<link>https://dejitarumirai.com</link>
	<description></description>
	<lastBuildDate>Mon, 31 Mar 2025 02:07:22 +0000</lastBuildDate>
	<language>ja</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.1</generator>
	<item>
		<title>Googleの新しい実験的AIモデルGemini 2.5 Proが一般ユーザーにも解放</title>
		<link>https://dejitarumirai.com/archives/3907</link>
					<comments>https://dejitarumirai.com/archives/3907#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Mon, 31 Mar 2025 02:07:22 +0000</pubDate>
				<category><![CDATA[AIモデル]]></category>
		<category><![CDATA[Gemini]]></category>
		<category><![CDATA[Google Chrome]]></category>
		<category><![CDATA[人工知能]]></category>
		<category><![CDATA[技術革新]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/archives/3907</guid>

					<description><![CDATA[Googleは最新の実験的AIモデル、Gemini 2.5 Proを無料で利用できるようにしたと発表した。この発表は今週末に行われ、これまで有料プランのユーザーのみに提供されていた同モデルが、非契約者にも解放されることとなった。ただし、非契約者はより厳しい利用制限が設けられる。Gemini 2.5 ]]></description>
										<content:encoded><![CDATA[<p>Googleは最新の実験的AIモデル、Gemini 2.5 Proを無料で利用できるようにしたと発表した。この発表は今週末に行われ、これまで有料プランのユーザーのみに提供されていた同モデルが、非契約者にも解放されることとなった。ただし、非契約者はより厳しい利用制限が設けられる。Gemini 2.5 Proは先週に初めてお披露目され、Googleが「最も知的なAIモデル」と称するもので、まずはGemini Advancedユーザーにロールアウトされた。現在、Google AI Studio及びGeminiアプリで使用可能だ。</p>
<p><img src='https://dejitarumirai.com/wp-content/uploads/2025/03/googleaigemini-25-pro-2.webp' alt='Googleの新しい実験的AIモデルGemini 2.5 Proが一般ユーザーにも解放' /></p>
<p>非課金ユーザーもこの新機能を試すことができるようになったが、Googleは「Gemini Advancedユーザーは拡張されたアクセス権と大幅に大きな文脈ウィンドウを持つ」と説明している。Gemini 2.5 Proは、GoogleのGemini 2.5「思考」モデルの一つであり、より正確な結果を提供するための推論能力が強化されているとされる。Googleのブログ投稿によれば、これは「情報を分析し、論理的な結論を導き出し、文脈やニュアンスを考慮して、情報に基づいた意思決定を行う能力」を指しているという。</p>
<p>この新モデルが示す意味は、AIの進化を一層加速させる可能性が高いということだ。特に、非課金ユーザーに対する開放は、ユーザーの反応やフィードバックを通じてさらなる改善に繋がると期待されている。Googleは、今後もAI技術の進化に拍車をかけ、ユーザーが異なるシナリオでAIを活用できるようにしていく考えだ。AIモデルのアップデートは、エンターテインメント、ビジネス、教育、さらには日常生活のあらゆる側面において、新しい価値を提供することが期待されている。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3907/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Gemini 2.5 ProはGoogleの最もインテリジェントなAIモデル、思考機能を内蔵と発表</title>
		<link>https://dejitarumirai.com/archives/3889</link>
					<comments>https://dejitarumirai.com/archives/3889#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Wed, 26 Mar 2025 10:23:05 +0000</pubDate>
				<category><![CDATA[記事]]></category>
		<category><![CDATA[AIモデル]]></category>
		<category><![CDATA[Gemini 2.5 Pro]]></category>
		<category><![CDATA[Google Chrome]]></category>
		<category><![CDATA[分析能力]]></category>
		<category><![CDATA[技術革新]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/?p=3889</guid>

					<description><![CDATA[GoogleのGemini 2.5 Proが発表され、これは「最もインテリジェントなAIモデル」とされています。この新モデルは、特に高度なユーザーや開発者向けに設計され、思考機能を内蔵しています。従来のモデルからの明確な改良が見られ、すべてのGemini 2.5ファミリーモデルは、考える能力を備えて]]></description>
										<content:encoded><![CDATA[<p>GoogleのGemini 2.5 Proが発表され、これは「最もインテリジェントなAIモデル」とされています。この新モデルは、特に高度なユーザーや開発者向けに設計され、思考機能を内蔵しています。従来のモデルからの明確な改良が見られ、すべてのGemini 2.5ファミリーモデルは、考える能力を備えており、応答する前に思考を経て結果を導き出すことで、パフォーマンスと精度が向上しています。Googleでは、これらの思考能力をすべてのモデルに組み込むことを目指し、より複雑な問題に対応し、コンテキスト意識を持ったエージェントをサポートするための進化を果たしています。</p>
<p>Gemini 2.5は、従来の2.0 Flash Thinkingに比べて、特に思考という概念が強層化されています。従来は「Thinking」というラベルを付けていましたが、新モデルではこのラベルを使わず、ユーザーはGeminiアプリ内で「思考の表示」を選ぶことで思考過程を見ることが可能です。AIにおける「推論」の能力は単なる分類や予測を超え、情報分析から論理的結論を引き出し、文脈とニュアンスを取り込みながら、有益な選択を行うことを意味します。</p>
<p>Gemini 2.5 Proは、「大幅に向上したベースモデル」による新たなパフォーマンスレベルを実現し、数学と科学のベンチマークにおいても高評価を得ています。特にLMArenaリーダーボードにおいて、「significant marginでトップに立つ」とされ、大量データセットの処理能力においても人気を博しています。</p>
<p>新モデルはまた、1百万トークンのコンテキストウィンドウを持ち、将来的には2百万トークンにスケーリングされる予定です。この拡張された能力により、テキスト、音声、画像、動画、そして全体のコードリポジトリからの情報を取り込みながら、複雑な問題を解決することが可能です。</p>
<p>現在、Gemini 2.5 Proは、Gemini AdvancedのユーザーとGoogle AI Studioで最初に展開されており、数週間以内にVertex AIに拡大される予定です。今後はこのモデルの価格も発表される見込みで、高速生産利用のための利用制限も設けられるかもしれません。新しい機能により、ユーザーはGoogleのアプリやファイルアップロードにもアクセスできるようになります。</p>
<p>結論として、Gemini 2.5 Proは、AIモデルの新たなスタンダードを確立し、より複雑な課題に対しても的確な回答を提供する能力を備えています。Googleの意図する思考型AIの未来に期待が高まります。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3889/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>GeminiアプリでVeo 2により8秒の動画を生成する準備が整う</title>
		<link>https://dejitarumirai.com/archives/3885</link>
					<comments>https://dejitarumirai.com/archives/3885#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Wed, 26 Mar 2025 08:39:26 +0000</pubDate>
				<category><![CDATA[AIテクノロジー]]></category>
		<category><![CDATA[AI動画生成器]]></category>
		<category><![CDATA[Geminiアプリ]]></category>
		<category><![CDATA[Google Chrome]]></category>
		<category><![CDATA[Veo 2]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/archives/3885</guid>

					<description><![CDATA[先月、GoogleはGemini Advancedの次に来る機能を予告し、GeminiアプリユーザーがVeo 2を使って動画を生成できるようになる準備が進められていることが明らかになった。最近リリースされたGoogleアプリのベータ版16.11には、動画生成に関する明確な文言が含まれており、「Veo]]></description>
										<content:encoded><![CDATA[<p>先月、GoogleはGemini Advancedの次に来る機能を予告し、GeminiアプリユーザーがVeo 2を使って動画を生成できるようになる準備が進められていることが明らかになった。最近リリースされたGoogleアプリのベータ版16.11には、動画生成に関する明確な文言が含まれており、「Veo 2を使って高品質の動画を作成する」との宣伝がされている。Googleは2024年のI/OでVeo 2について紹介し、12月にもその詳細が公開された。ユーザーは「アイデアを説明し、Veo 2がそのアイデアを8秒の動画として実現する」形をとる。動画生成には1~2分かかる見通しだ。現在、動画生成には日次及び月次の制限がある。Veo 2は現状Google Labsの待機リストにあり、Geminiアプリのアクセス権は「Advanced tier」から始まる見込みだ。最終的には動画プレーヤーが用意され、生成した動画のダウンロードやリンクを通じたシェア機能も搭載される予定だ。Geminiアプリ内でのこの機能は数週間にわたって開発されており、コードネーム「toucan」で進められている。リリースに向けた準備が整いつつあり、Googleが動画生成の特性を明示していることから、正式リリースが近い可能性が高い。2月にはGoogleが「主要な動画、画像、音声生成ツールを用いた新しいクリエイティブ方法」を発表しており、現在すべてのGeminiユーザーはImagen 3を用いた画像生成の機能にもアクセス可能だ。一方、オーディオ生成に関する機能も紹介されており、音楽生成の可能性も問われている。Googleが提供するツールがもたらす変化は、クリエイティブ業界に新たな波を引き起こす可能性がある。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3885/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Googleが待機リストの無料ユーザーへのSearch AIモードのアクセスを拡大</title>
		<link>https://dejitarumirai.com/archives/3887</link>
					<comments>https://dejitarumirai.com/archives/3887#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Wed, 26 Mar 2025 07:58:47 +0000</pubDate>
				<category><![CDATA[AI技術]]></category>
		<category><![CDATA[Google Chrome]]></category>
		<category><![CDATA[Search AIモード]]></category>
		<category><![CDATA[アクセス拡大]]></category>
		<category><![CDATA[無料ユーザー]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/archives/3887</guid>

					<description><![CDATA[Googleは3月の初めに新しいSearch AIモードを発表し、現在無料ユーザーへの待機リストアクセスを拡大しています。この実験が発表された際、19.99ドルを支払ったGoogle One AI Premiumユーザーが最初にこのSearch Labsの実験にアクセスできることになりました。当社の]]></description>
										<content:encoded><![CDATA[<p>Googleは3月の初めに新しいSearch AIモードを発表し、現在無料ユーザーへの待機リストアクセスを拡大しています。この実験が発表された際、19.99ドルを支払ったGoogle One AI Premiumユーザーが最初にこのSearch Labsの実験にアクセスできることになりました。当社の無料Googleアカウントも3月5日に待機リストに参加し、今日AIモードへのアクセスが提供されました。「あなたは待機リストから外れました！」というメールが届き、Googleがテストプロセスを拡大していることが示唆されています。他の地域でも、アクセス拡大の報告が相次いでいます。</p>
<p>検索結果のページには、「すべて」「ショッピング」「画像」「動画」とともに「AIモード」フィルターが表示され、この新しい体験に切り替えることができます。AIモードを開始したい場合は、google.com/aimodeにアクセスするか、モバイルでは検索バーの下に新しいボタンが登場するのを探してください（アクセスが許可されてから少し時間がかかることがあります）。</p>
<p>この体験はチャット風のインターフェースを用いており、下部には「Ask AI Mode」というテキストフィールドがあります。UIは非常に洗練されており、四色の装飾も特徴です。左上（モバイルアプリ）または右上（ウェブ）には、「AIモード履歴」をアクセスするためのボタンがあり、過去のクエリを引き続き行うことができます。過去2週間以上、体験に大きな変化はないようです。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3887/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>GoogleがGemini 2.5 AIモデルを発表し、複雑な思考を実現</title>
		<link>https://dejitarumirai.com/archives/3870</link>
					<comments>https://dejitarumirai.com/archives/3870#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Wed, 26 Mar 2025 01:56:29 +0000</pubDate>
				<category><![CDATA[記事]]></category>
		<category><![CDATA[AIテクノロジー]]></category>
		<category><![CDATA[AIモデル]]></category>
		<category><![CDATA[DeepMind]]></category>
		<category><![CDATA[Gemini]]></category>
		<category><![CDATA[Google Chrome]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/?p=3870</guid>

					<description><![CDATA[GoogleはAI開発を加速させており、数ヶ月前に発表されたGemini 2.0に続き、新たにGemini 2.5を発表しました。この最新のAIモデルは、特にコーディング、数学、科学における能力が大幅に向上しているとされています。Gemini 2.5の最初のモデルはPro Experimentalで]]></description>
										<content:encoded><![CDATA[<p>GoogleはAI開発を加速させており、数ヶ月前に発表されたGemini 2.0に続き、新たにGemini 2.5を発表しました。この最新のAIモデルは、特にコーディング、数学、科学における能力が大幅に向上しているとされています。Gemini 2.5の最初のモデルはPro Experimentalであり、このモデルは従来の分類モデルや予測モデルよりも、より深い推論、分析、文脈に基づく応答を提供することを目的としています。このアプローチは、より効率的かつコスト効果の高いFlashバージョンから始まったGemini 2.0シリーズとは異なります。</p>
<p><img src='https://dejitarumirai.com/wp-content/uploads/2025/03/googlegemini-25-ai-2.webp' alt='GoogleがGemini 2.5 AIモデルを発表し、複雑な思考を実現' /></p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3870/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>GoogleがGeminiの深層研究からAIポッドキャストを作成できるようにする</title>
		<link>https://dejitarumirai.com/archives/3866</link>
					<comments>https://dejitarumirai.com/archives/3866#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Mon, 24 Mar 2025 05:34:25 +0000</pubDate>
				<category><![CDATA[AIポッドキャスト]]></category>
		<category><![CDATA[Audio Overviews]]></category>
		<category><![CDATA[Deep Research]]></category>
		<category><![CDATA[Gemini]]></category>
		<category><![CDATA[Google Chrome]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/archives/3866</guid>

					<description><![CDATA[Googleが提供するGeminiアプリは、AIポッドキャスト制作を一新します。今やGeminiの詳細な調査レポートから、AIによる「ホスト」を使った会話形式のポッドキャストを生成できるという新機能が追加されたのです。この新機能は「Audio Overviews」として知られ、GoogleのAIノー]]></description>
										<content:encoded><![CDATA[<p>Googleが提供するGeminiアプリは、AIポッドキャスト制作を一新します。今やGeminiの詳細な調査レポートから、AIによる「ホスト」を使った会話形式のポッドキャストを生成できるという新機能が追加されたのです。この新機能は「Audio Overviews」として知られ、GoogleのAIノート取りアプリ「NotebookLM」に昨年秋から実装され、その後Geminiアプリにも拡大されることとなりました。\n\nユーザーは、AIが生成したじっくりとしたリサーチレポートをもとに、ポッドキャストを構成できます。この機能は、AIがリサーチを行い、その結果を基にした詳細な報告を生成することに特化した「Deep Research」機能と組み合わせて使うことで、より深い知見を得る手助けをします。\n\nGeminiは、特定のテーマを調査するためにウェブをスキャンし、その成果に基づいて詳細な報告を生成する、その能力を持っています。このレポートが完了すると、「Audio Overviewを生成」という新たなオプションを選択することで、研究に基づく音声概要を聞くことができます。\n\nこの新しい機能により、ユーザーは専門的な情報を簡潔に聞くことができ、学習や情報収集の方法に革命をもたらす可能性があります。毎日のニュースを手軽に聴けるほか、チームでのプレゼンテーションや会議の内容をAIが自動で要約し、視覚的にわかりやすい形式にすることも期待されます。\n\n今後の展望として、この機能はさらに充実していくと予測されます。AIによるレポートの簡潔さや情報の明確さが強化され、誰もが利用できる便利なツールへと進化していくことでしょう。革新的な技術の恩恵を受けながら、私たちは新しい情報エコシステムの中で生きていくことになります。GoogleのGeminiが、AIポッドキャスト制作の未来を切り拓くのは確実です。</p>
<p><img src='https://dejitarumirai.com/wp-content/uploads/2025/03/googlegeminiai-2-1.webp' alt='GoogleがGeminiの深層研究からAIポッドキャストを作成できるようにする' /></p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3866/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>GoogleがGeminiのリアルタイムAI動画機能を展開</title>
		<link>https://dejitarumirai.com/archives/3863</link>
					<comments>https://dejitarumirai.com/archives/3863#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Mon, 24 Mar 2025 04:13:02 +0000</pubDate>
				<category><![CDATA[AI]]></category>
		<category><![CDATA[AI機能]]></category>
		<category><![CDATA[Androidスマートフォン]]></category>
		<category><![CDATA[Gemini]]></category>
		<category><![CDATA[Google Chrome]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/archives/3863</guid>

					<description><![CDATA[Googleは、AI機能をGemini Liveに追加し、一部のGoogle One AI Premium加入者がリアルタイムで画面やスマートフォンのカメラ映像をインタラクティブに使用できるようにした。この新機能は、Googleの広報担当者アレックス・ジョセフによってThe Vergeに確認されたも]]></description>
										<content:encoded><![CDATA[<p>Googleは、AI機能をGemini Liveに追加し、一部のGoogle One AI Premium加入者がリアルタイムで画面やスマートフォンのカメラ映像をインタラクティブに使用できるようにした。この新機能は、Googleの広報担当者アレックス・ジョセフによってThe Vergeに確認されたもので、これは約1年前に実演された「Project Astra」に基づいている。Geminiは、利用者が質問をすると、リアルタイムでそれに応じて回答することが可能だ。</p>
<p><img src='https://dejitarumirai.com/wp-content/uploads/2025/03/googlegeminiai-2.webp' alt='GoogleがGeminiのリアルタイムAI動画機能を展開' /></p>
<p>あるRedditユーザーは、自身のXiaomiスマートフォンでこの機能が使えることを報告しており、9to5Googleによっても確認されている。また、同じユーザーは、自身がGeminiの新しいスクリーンリーディング能力をデモする短い動画も公開した。この機能は、3月初めにGoogleが発表したGemini Advanced Subscribers向けの特典の一部としてロールアウトすることが告知されていた2つの機能の一つである。</p>
<p>もう一つの機能として、リアルタイム動画解釈機能も追加されており、スマートフォンのカメラ映像を解釈し、その映像に関する質問に対しても回答ができる。Googleが今月公開したデモ動画には、陶器を新しく美しく仕上げるために使うペンキの色についてGeminiにアドバイスを求める様子が映されている。</p>
<p>こうした機能の展開は、GoogleがAIアシスタント競争でリードを続けている重要な例となる。アマゾンはAlexa Plusの限定早期アクセスを準備しており、AppleはSiriのアップグレードを遅延させている。これらの機能は、現在Geminiが利用可能にしている機能に類似している。一方で、SamsungはBixbyを提供しているが、Geminiは同社のスマートフォンでもデフォルトのアシスタントとして機能する。Googleの新たなAI機能は、今後のAI市場において大きな影響を与える可能性を秘めている。これからも、各社のAIアシスタントの進化が注目される。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3863/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Googleの新しいAIモデルが画像から透かしを削除できる</title>
		<link>https://dejitarumirai.com/archives/3850</link>
					<comments>https://dejitarumirai.com/archives/3850#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Tue, 18 Mar 2025 01:01:03 +0000</pubDate>
				<category><![CDATA[AI]]></category>
		<category><![CDATA[AIテクノロジー]]></category>
		<category><![CDATA[Gemini]]></category>
		<category><![CDATA[Google Chrome]]></category>
		<category><![CDATA[画像処理]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/archives/3850</guid>

					<description><![CDATA[Googleが開発した新しいAIモデル、Gemini Flash 2.0が、著作権のある画像の透かしを削除できる能力を持っていることが、ユーザーによって明らかになった。このモデルは現在 "実験的"なフェーズにあり、開発者のみに提供されている状態だ。

最近、数多くのアプリが写真からオブジェクトを削除]]></description>
										<content:encoded><![CDATA[<p>Googleが開発した新しいAIモデル、Gemini Flash 2.0が、著作権のある画像の透かしを削除できる能力を持っていることが、ユーザーによって明らかになった。このモデルは現在 &#8220;実験的&#8221;なフェーズにあり、開発者のみに提供されている状態だ。</p>
<p><img src='https://dejitarumirai.com/wp-content/uploads/2025/03/googleai-2.webp' alt='Googleの新しいAIモデルが画像から透かしを削除できる' /></p>
<p>最近、数多くのアプリが写真からオブジェクトを削除したり、空白を埋めたりすることができるようになってきた。新しい生成AIモデルはこれらの機能をさらに向上させており、Adobeをはじめとする企業が写真編集ツールに新しいオブジェクト削除機能を追加している。AppleもiOSとmacOS向けに「クリーンアップ」と呼ばれるツールを提供し、対応デバイスでの機能を可能にしている。 </p>
<p>Twitter上での投稿によると、Gemini Flash 2.0は画像からオブジェクトを取り除くのが非常に優れていることが確認された。このモデルは通常、GoogleやOpenAIからの主要な閉じられたモデルに見られる制限があり、それにより法的な問題を避けるための措置が取られている。たとえば、OpenAIのDALL-Eは著作権で保護されたキャラクターを生成することはできない。また、Microsoftは最近、自社の画像モデルを騙してポルノを生成した個人グループに対して訴訟を起こした。</p>
<p>Googleのモデルにおける透かし削除機能の問題は、これに対する反発がある中、Googleが法律上の責任を回避しつつも悪用防止の取り組みを示すことが重要であるという点だ。オープンモデルでもライセンス契約があることがあり、法律や裁判所が悪用を防ぐことが可能である。</p>
<p>興味深いことに、透かし削除機能に関しては、GoogleのモデルはAIが修正または生成した画像に自身の透かしを追加することがある。この機能は、視聴者に対してそれが本物ではないことを明らかにするために設計されている。AI技術の本質的な特徴とも言えるこの事象は、「他人の所有物から証拠を取り除き、自分自身の識別マークを追加する」という形象に例えることができる。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3850/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Googleの新AIモデルで画像の透かしを削除する人々</title>
		<link>https://dejitarumirai.com/archives/3843</link>
					<comments>https://dejitarumirai.com/archives/3843#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Mon, 17 Mar 2025 03:56:00 +0000</pubDate>
				<category><![CDATA[記事]]></category>
		<category><![CDATA[AIモデル]]></category>
		<category><![CDATA[Gemini]]></category>
		<category><![CDATA[Google Chrome]]></category>
		<category><![CDATA[著作権問題]]></category>
		<category><![CDATA[透かし削除]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/?p=3843</guid>

					<description><![CDATA[Googleは最近、Gemini 2.0 Flashモデルの画像生成機能へのアクセスを拡大しました。この技術は画像内容を生成・編集できる強力な能力を持っていますが、利用制限がほとんどないため、ユーザーは透かしを簡単に削除できるようになっています。

このGemini 2.0 Flashは、ソーシャル]]></description>
										<content:encoded><![CDATA[<p>Googleは最近、Gemini 2.0 Flashモデルの画像生成機能へのアクセスを拡大しました。この技術は画像内容を生成・編集できる強力な能力を持っていますが、利用制限がほとんどないため、ユーザーは透かしを簡単に削除できるようになっています。</p>
<p>このGemini 2.0 Flashは、ソーシャルメディアで特に注目を浴びており、多くのユーザーがGetty Imagesなどの著名なストックメディアの透かしを消去する事例を報告しています。Gemini 2.0 Flashは、削除された透かしの部分を埋める機能も備えており、他のAIツールと同様の機能を持っているものの、その精度は非常に高いと評されています。</p>
<p>ただし、注意が必要です。Gemini 2.0 Flashは「実験的」なもので、現段階では商用利用には適しておらず、特定の半透明の透かしや大きな部分を カバーする透かしの削除には課題を抱えています。それでも、多くの著作権者はこの機能を懸念材料として捉え、著作権侵害のリスクが高まる可能性があります。</p>
<p>著作権法によれば、元の所有者の同意なしに透かしを削除することは違法と見なされるため、これに対してGoogleも迅速にコメントを出していません。特に、同業他社のAIモデルは透かしの削除を厳に禁じているため、業界内での倫理的な議論が急増することが予想されます。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3843/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Googleがスマートグラス市場に再挑戦する計画を発表</title>
		<link>https://dejitarumirai.com/archives/3833</link>
					<comments>https://dejitarumirai.com/archives/3833#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Thu, 13 Mar 2025 04:19:30 +0000</pubDate>
				<category><![CDATA[記事]]></category>
		<category><![CDATA[AI技術]]></category>
		<category><![CDATA[Augmented Reality]]></category>
		<category><![CDATA[Google Chrome]]></category>
		<category><![CDATA[スマートグラス]]></category>
		<category><![CDATA[技術革新]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/?p=3833</guid>

					<description><![CDATA[Googleはスマートグラス市場に再参入する計画を発表し、期待が高まっている。同社は10年以上前にスマートグラスのトレンドを先駆けたが、その当時は成功を収めることができなかった。技術が早すぎたのか、プライバシーの侵害が懸念されたためか、様々な理由が考えられる。しかし、最近の報道によると、同社はAdH]]></description>
										<content:encoded><![CDATA[<p>Googleはスマートグラス市場に再参入する計画を発表し、期待が高まっている。同社は10年以上前にスマートグラスのトレンドを先駆けたが、その当時は成功を収めることができなかった。技術が早すぎたのか、プライバシーの侵害が懸念されたためか、様々な理由が考えられる。しかし、最近の報道によると、同社はAdHawk Microsystemsの買収を進めており、これがスマートグラスの再挑戦に繋がる可能性がある。  </p>
<p>Bloombergによると、Googleはカナダのスタートアップ企業AdHawk Microsystemsを1億1500万ドルで買収するための交渉を進めているという。AdHawkはフルスタックのアイ・トラッキング技術を提供しており、すでにウェアラブルデバイスとして利用可能だ。この技術は、ARアプリケーションやXR機器の中核を成す重要な要素である。  </p>
<p>過去数年間、GoogleはAIとスマートグラスの統合を計画しており、ARやXRの分野での革新を目指している。特に、Magic Leapと提携し、Gemini AIを活用したARスマートグラスの開発を進めていることが注目されている。また、2020年にはNorth Focalsを買収していることからも、同社の野心が伺える。  </p>
<p>最近の動きとして、GoogleはI/O 2024でProject Astraを発表し、スマートグラスに対する新しいビジョンを示した。このプロジェクトは、Android XRやGoogle Playアプリエコシステムとの統合を目指している。Googleは、今後のスラッシュの発展を視野に入れて、よりスマートなデバイスの可能性を追求する立場にある。  </p>
<p>市場は、SolosやRayNeo、TCLといった企業の製品が販売されている中で、Googleの参入を待ち望んでいる。しかし、同社が過去の機会を逃したことは事実であり、公式にはまだスマートグラス市場に戻ってきていない。だが、現在の動向から見ると、スマートグラスの未来はGoogleの製品戦略の中で重要な位置を占めることになるだろう。  </p>
<p>新しい技術革新を追求する姿勢は、業界全体への刺激となるはずだ。Googleの進展は、他のテクノロジー企業に影響を与え、スマートグラスが日常生活に浸透することへの期待を高めている。今後、同社の進展に注目が集まることは間違いない。  </p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3833/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
