<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>NVIDIA &#8211; デジタル未来 (Dejitaru Mirai)</title>
	<atom:link href="https://dejitarumirai.com/tag/nvidia/feed" rel="self" type="application/rss+xml" />
	<link>https://dejitarumirai.com</link>
	<description></description>
	<lastBuildDate>Wed, 26 Mar 2025 03:46:33 +0000</lastBuildDate>
	<language>ja</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.1</generator>
	<item>
		<title>G-Assist: Nvidia が GPU で動作するゲーミング向け AI チャットボットを発表</title>
		<link>https://dejitarumirai.com/archives/3873</link>
					<comments>https://dejitarumirai.com/archives/3873#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Wed, 26 Mar 2025 03:46:33 +0000</pubDate>
				<category><![CDATA[記事]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[G-Assist]]></category>
		<category><![CDATA[GeForce GPU]]></category>
		<category><![CDATA[NVIDIA]]></category>
		<category><![CDATA[クラウドゲーミング]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/?p=3873</guid>

					<description><![CDATA[Nvidia は、新たに発表した AI ツール「G-Assist」を導入し、ゲーマーのパフォーマンス向上を支援する試みをしています。このツールは、ユーザーが自身の GPU を利用し、オンラインクラウド環境に依存せずに動作します。G-Assist は、Nvidia のデスクトップアプリケーションを通じ]]></description>
										<content:encoded><![CDATA[<p>Nvidia は、新たに発表した AI ツール「G-Assist」を導入し、ゲーマーのパフォーマンス向上を支援する試みをしています。このツールは、ユーザーが自身の GPU を利用し、オンラインクラウド環境に依存せずに動作します。G-Assist は、Nvidia のデスクトップアプリケーションを通じて利用可能で、システムのステータス確認や設定の調整など、様々なタスクを簡単に行うことができるのが特徴です。基本的な質問に対しても応答でき、ゲームの設定を最適化したり、特定の機能を有効化や無効化することができます。さらに、G-Assist は GPU のオーバークロックも可能にし、期待されるパフォーマンスの向上をグラフで表示します。現在流通しているデバイスの多くはクラウドで動作するツールが多い中、Nvidia はリアルタイムで GPU を使用し、AI モデルをデバイス内で動作させることを目指しています。</p>
<p><img src='https://dejitarumirai.com/wp-content/uploads/2025/03/g-assist-nvidia-gpu-ai-2.webp' alt='G-Assist: Nvidia が GPU で動作するゲーミング向け AI チャットボットを発表' /></p>
<p>G-Assist の初期バージョンでは、特にゲーム統合機能は限定されており、特定のゲームのみがサポートされています。しかしながら、Logitech G、Corsair、MSI、Nanoleaf などの周辺機器に対応しているため、ユーザーはより高度な設定やカスタマイズが可能となります。Nvidia は、この AI がユーザーにとってゲーム体験をより良くする手助けをし、特にパワフルな GPU を搭載しているゲーマーに対して重要性を持つと述べています。</p>
<p>G-Assist が依存している小型言語モデルは、ローカル操作に最適化されており、デフォルトのインストールには 3GB のストレージが必要です。音声コントロールを含めると、必要スペースは 6.5GB に増加します。また、GeForce RTX 30、40、50 シリーズの GPU を搭載するデバイスが必要で、最小限でも 12GB の RAM が求められます。これにより、高度なゲーム機能と AI ツールを同時に活用することが可能になるのです。</p>
<p>しかし、G-Assist の性能には課題もあります。GPU 性能を最大限に活用するためには非常に強力なハードウェアが求められ、使用中は FPS が低下する可能性があります。特に、最高設定でのゲームプレイ中に G-Assist を操作すると、ゲームのパフォーマンスが顕著に低下することがあります。これは、G-Assist が GPU のリソースを消費するためです。この問題点はまだ解決が難しく、現時点ではシステム設定やゲームの調整を手動で行う方が効果的であると指摘されています。</p>
<p>全体として、G-Assist はまだ試験段階にあるツールですが、AI モデルを人間のデバイス上で動作させる新たな一歩を示しています。将来的には、より強力な GPU が登場し、ゲームと AI モデルの同時新実行が可能になることが期待されています。Nvidia のこの取り組みは、ゲーマーにとって確実に魅力的な進展であり、今後の技術革新に注目が集まるところです。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3873/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>新たなAIトラストスコアが明らかにしたDeepSeekの敏感情報開示の優位性</title>
		<link>https://dejitarumirai.com/archives/3841</link>
					<comments>https://dejitarumirai.com/archives/3841#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Mon, 17 Mar 2025 03:15:21 +0000</pubDate>
				<category><![CDATA[AIトラストスコア]]></category>
		<category><![CDATA[Deepseek]]></category>
		<category><![CDATA[NVIDIA]]></category>
		<category><![CDATA[中国AIモデル]]></category>
		<category><![CDATA[安全性]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/archives/3841</guid>

					<description><![CDATA[最近の評価では、中国のAIモデル、とりわけDeepSeekが、MetaのLlamaなどのアメリカの競合を凌駕していることが判明した。特に敏感な情報の開示において、DeepSeekはすでに他のAIモデルよりも際立ったスコアを誇っている。この成果はTumerykによって開発された最新のAIトラストスコア]]></description>
										<content:encoded><![CDATA[<p>最近の評価では、中国のAIモデル、とりわけDeepSeekが、MetaのLlamaなどのアメリカの競合を凌駕していることが判明した。特に敏感な情報の開示において、DeepSeekはすでに他のAIモデルよりも際立ったスコアを誇っている。この成果はTumerykによって開発された最新のAIトラストスコアによるもので、AIモデルを敏感情報の開示を始め、セキュリティや毒性などの9つの重要な要因で評価している。TumerykのAIトラストマネージャーは、セキュリティ専門家がAIの導入を安全かつコンプライアンスに従じて行えるよう支援し、AIアプリケーションの脆弱性を特定し、パフォーマンスをリアルタイムで監視することができる。また、システムのセキュリティとコンプライアンスを強化するための実行可能な手順も推奨される。</p>
<p><img src='https://dejitarumirai.com/wp-content/uploads/2025/03/aideepseek-2.webp' alt='新たなAIトラストスコアが明らかにしたDeepSeekの敏感情報開示の優位性' /></p>
<p>DeepSeekのモデル、DeepSeek NIMは、敏感情報開示カテゴリーで910のスコアを獲得しており、Anthropic Claudeの687やMeta Llamaの557を上回っている。この結果は、AI開発の風景が進化していることを示し、外国製モデルの安全性やコンプライアンス基準に対する既存の認識に挑戦している。</p>
<p>報告によれば、DeepSeekや他の中国製モデルは、以前考えられていたよりも高い安全性とコンプライアンス基準を示しているという。これらのモデルは、NVIDIAやSambaNovaなどのアメリカのプラットフォーム上で動作しており、データセキュリティを確保しながら国際規制に従っている。このパフォーマンスとコンプライアンスの両立は、AI技術を安全かつ倫理的に採用しようとする企業にとって非常に重要である。</p>
<p>AI業界が進化し続ける中で、こうした客観的でデータに基づく評価が、ユーザーや開発者間での信頼と透明性を形成する上で重要な役割を果たす。AIへの関心が高まる中、信頼性のある評価基準が必要とされており、今後の発展に期待が寄せられる。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3841/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>nvidiaが提供する革命的なaiプラットフォームでアメリカ手話を学ぶ</title>
		<link>https://dejitarumirai.com/archives/3713</link>
					<comments>https://dejitarumirai.com/archives/3713#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Fri, 21 Feb 2025 04:07:05 +0000</pubDate>
				<category><![CDATA[記事]]></category>
		<category><![CDATA[AIプラットフォーム]]></category>
		<category><![CDATA[NVIDIA]]></category>
		<category><![CDATA[Signsアプリ]]></category>
		<category><![CDATA[アメリカ手話]]></category>
		<category><![CDATA[聴覚障害者]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/?p=3713</guid>

					<description><![CDATA[nvidiaは、アメリカ手話（ASL）の教育を支援するため、アメリカ聴覚障害者協会とHello Mondayと提携しています。ASLは米国で三番目に普及している言語ですが、データセットが限られており、他の主要言語（英語、スペイン語）に比べて十分なAIツールに恵まれていないという背景があります。nvi]]></description>
										<content:encoded><![CDATA[<p>nvidiaは、アメリカ手話（ASL）の教育を支援するため、アメリカ聴覚障害者協会とHello Mondayと提携しています。ASLは米国で三番目に普及している言語ですが、データセットが限られており、他の主要言語（英語、スペイン語）に比べて十分なAIツールに恵まれていないという背景があります。nvidiaは、このギャップを埋めるために、ASL学習とアクセシブルなAIアプリケーションの開発をサポートするためのインタラクティブなwebプラットフォーム「Signs」を開発しました。</p>
<p>このウェブアプリでは、ユーザーのウェブカメラを使用してASLを学ぶことができます。また、既にASLを知っているユーザーは、サインを録画してプラットフォームのデータセットを拡充することができます。nvidiaは、データセットを1,000以上のサイン言葉と400,000のビデオクリップに成長させることを目指しています。全ての語彙は、専門のASL教師に検証され、ユーザーが自信を持って学べるコンテンツとなっています。</p>
<p>アメリカ聴覚障害者協会のエグゼクティブディレクターであるチェリ・ダウリング氏は「多くの聴覚障害児は聞こえる親から生まれます。家族が早期にASLを学び、効果的なコミュニケーションを構築するための手段を持つことが重要です」と述べています。さらに、nvidiaは、ロチェスター工科大学の研究者と連携し、スラングや地域的な言語の違いを考慮したASLデータセットの拡充に取り組んでいます。2025年に「Signs」データセットのリリースが予定されています。</p>
<p>nvidiaの革新的な取り組みにより、ASLの教育における新たな道が開かれることが期待されています。活用可能な資源として一般に提供されるこのデータセットは、AIエージェントやビデオ会議ツールなど、ASLサポートが必要なさまざまなアプリケーションの開発にも貢献するでしょう。将来的には、ASLの習得に向けた新たな道筋が形成され、多くの人々に手話教育が普及することが見込まれます。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3713/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Googleが量子コンピューティングの実用化は5年以内と発表</title>
		<link>https://dejitarumirai.com/archives/3451</link>
					<comments>https://dejitarumirai.com/archives/3451#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Thu, 06 Feb 2025 03:03:15 +0000</pubDate>
				<category><![CDATA[AIテクノロジー]]></category>
		<category><![CDATA[Google Chrome]]></category>
		<category><![CDATA[NVIDIA]]></category>
		<category><![CDATA[ハルトムート・ネーヴェン]]></category>
		<category><![CDATA[量子コンピューティング]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/archives/3451</guid>

					<description><![CDATA[数週間前、CES 2025でNvidiaのCEO、ジェンセン・ハワン氏は量子コンピューティングの実用化には約20年かかると述べました。しかし、今日、Googleの量子コンピューティング論責者ハルトムート・ネーヴェン氏は、ロイター通信に対し、量子コンピューティングの実世界での応用が5年以内に見込まれる]]></description>
										<content:encoded><![CDATA[<p>数週間前、CES 2025でNvidiaのCEO、ジェンセン・ハワン氏は量子コンピューティングの実用化には約20年かかると述べました。しかし、今日、<a href="https://trainghiemso.vn/bai-viet/google/" target="_blank" rel="noopener noreferrer nofollow">Google</a>の量子コンピューティング論責者ハルトムート・ネーヴェン氏は、ロイター通信に対し、量子コンピューティングの実世界での応用が5年以内に見込まれると報告しました。果たして誰が正しいのでしょうか。</p>
<p>ハワン氏によれば、現行の量子システムでは“キュービット”が不足しており、実際には5〜6桁ほど不足しています。それでは、なぜこんなに多くのキュービットが必要なのかというと、現在の研究では、キュービットが多ければ多いほどエラーが少なくなり、より正確な量子コンピュータが作れるからです。このことについて、詳しく説明します。</p>
<p>キュービット（quantum bit）は、その名の通り量子ビットです。通常のコンピュータのバイナリビットとは異なり、より多くのデータを一度にエンコードできます。但し、キュービットは量子粒子であり、思うように動いてくれない問題があります。量子コンピュータで計算をすると、1,000個のキュービットのうち1個が“失敗”し（希望通りに動かなくなる）、結果に影響を与えます。</p>
<p>昔の伝統的なコンピュータにも似たような問題がありました。たとえば、ENIACコンピュータは17,000個以上の真空管を使ってビットを表現しており、数日ごとに真空管が故障し、エラーを引き起こしました。しかし、解決策は単純で、真空管を廃止し、故障が少ないものを見つけるだけでした。数十年後には、故障率が1億分の1の小型シリコントランジスタを使用するようになりました。</p>
<p>ところが、量子コンピューティングの世界では、この解決策は適用できません。キュービットは量子粒子であり、その特性を変更することはできません。我々はキュービットを他の素材で作り替えることも、必要な状態に保つこともできないのです。これこそ、彼が言う「十分なキュービットがない」という部分が関わってきます。昨年、Googleはウィロー量子チップを使用して、キュービットが多いほどエラーが少ないことを発見しました。Googleは物理的なキュービットを複数組み合わせて「メガキュービット」を構築し、同じデータを共有しています。これは、失敗が起こっても他の物理的なキュービットが作用する仕組みであり、多くの物理キュービットがあればあるほど、より多くの失敗に耐えられることになります。その結果、より正確な結果を得られる可能性が高まるのです。</p>
<p>しかし、キュービットの失敗率が非常に高く、現実的な使用に向けてかなりの精度を達成するには、多くのキュービットが必要です。ハワン氏は20年の年月を要すると考えていますが、ネーヴェン氏は5年で達成可能だと示唆しています。</p>
<p>果たしてGoogleはNvidiaが知らない何かを握っているのでしょうか？それとも競争を煽るための戦略でしょうか。現時点では答えは分かりませんが、恐らくネーヴェン氏は量子コンピューティングの株価を上昇させたかったのかもしれません。</p>
<p>いつのタイミングで突破口が見えるのかは不明ですが、Google側は量子コンピュータを用いて電気自動車のバッテリーを効率化し、新薬を開発し、さらには新エネルギー alternativesを創出する可能性があるとしています。実際にこうしたプロジェクトが5年以内に現実になるかどうかは極めて挑戦的ですが、ネーヴェン氏の見解がどうなるか、しばらく待ってみる必要がありそうです。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3451/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>nvidiaがdlss 4を発表、ゲーム体験を劇的に向上させる</title>
		<link>https://dejitarumirai.com/archives/3420</link>
					<comments>https://dejitarumirai.com/archives/3420#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Fri, 31 Jan 2025 04:13:51 +0000</pubDate>
				<category><![CDATA[DLSS 4]]></category>
		<category><![CDATA[NVIDIA]]></category>
		<category><![CDATA[Nvidia RTX 50]]></category>
		<category><![CDATA[PCゲーム]]></category>
		<category><![CDATA[グラフィック技術]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/archives/3420</guid>

					<description><![CDATA[nvidiaが新しいRTX 50シリーズを発表した後、グラフィックス技術におけるDLSS（Deep Learning Super Sampling）についての議論が盛んになっています。特に新しいフレーム生成技術がフレーム数を向上させ、グラフィック技術全体を底上げするという期待が寄せられています。その]]></description>
										<content:encoded><![CDATA[<p>nvidiaが新しいRTX 50シリーズを発表した後、グラフィックス技術におけるDLSS（Deep Learning Super Sampling）についての議論が盛んになっています。特に新しいフレーム生成技術がフレーム数を向上させ、グラフィック技術全体を底上げするという期待が寄せられています。その中で、nvidiaはDLSS 4をアプリに追加したと発表しました。これは、2020年にDLSS 2.0がリリースされて以来の最大のアップグレードだとされています。</p>
<p>この新しいバージョンでは、DLSSスーパ解像度、DLSSレイ再構築、DLAAが統合されており、業界初のリアルタイムでのトランスフォーマー技術が用いられています。この先進的なアーキテクチャは、ChatGPTやFlux、Geminiなどの最新AIモデルにも活用されています。トランスフォーマーモデルによって、映像品質の向上とともに、時間的な安定性が増し、ゴースト残影の減少、動きのあるシーンでの詳細度が高まると報告されています。</p>
<p>さらに、DLSSフレーム生成AIモデルも改良されており、GeForce RTX 40シリーズおよびRTX 50シリーズのGPUのパフォーマンスを向上させ、VRAMの使用量を削減しています。この新しいアップデートは、75以上のゲームやアプリへのDLSS 4のデイゼロサポートも提供しており、その中には、人気のタイトルも含まれています。私自身も最近遊んでいる「Dynasty Warriors: Origins」など、大変興味深いゲームがリストに加わっています。</p>
<p>サポートされているゲームの詳細は、nvidiaのウェブサイトで確認できます。ここでは、DLSS 4に対応した主なゲームをご紹介します。<br />
&#8211; A Quiet Place: The Road Ahead<br />
&#8211; God of War Ragnarök<br />
&#8211; Redfall<br />
&#8211; Hitman: World of Assassination<br />
&#8211; SILENT HILL 2</p>
<p>このように、nvidiaはDLSS 4を通じて、ゲーム体験をさらなる高みへと引き上げることを目指しています。特に、リアルタイムでのトランスフォーマー技術の導入は、今後のグラフィックス技術において重要な役割を果たすと期待されています。今後のさらなる技術革新に目が離せません。</p>
<p>この新たな技術について、皆さんの意見をお聞かせください。以下のスレッドで感想を共有してください。すべての意見を尊重し、建設的な議論を楽しみましょう。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3420/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Deepseekの新しいチャットボットがApp Storeで急上昇　ChatGPTを凌ぐ</title>
		<link>https://dejitarumirai.com/archives/3397</link>
					<comments>https://dejitarumirai.com/archives/3397#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Mon, 27 Jan 2025 16:06:12 +0000</pubDate>
				<category><![CDATA[AI]]></category>
		<category><![CDATA[App Store]]></category>
		<category><![CDATA[Chatbot]]></category>
		<category><![CDATA[Deepseek]]></category>
		<category><![CDATA[NVIDIA]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/archives/3397</guid>

					<description><![CDATA[中国の人工知能スタートアップ、DeepSeekが開発した新しいチャットボットが、アメリカのAppleのApp Storeで急上昇し、OpenAIのChatGPTを凌いで最もダウンロードされた無料アプリとなりました。このチャットボットは、DeepSeekのオープンソースのAIモデルを活用しており、コス]]></description>
										<content:encoded><![CDATA[<p>中国の人工知能スタートアップ、DeepSeekが開発した新しいチャットボットが、アメリカのAppleのApp Storeで急上昇し、OpenAIのChatGPTを凌いで最もダウンロードされた無料アプリとなりました。このチャットボットは、DeepSeekのオープンソースのAIモデルを活用しており、コストを大幅に抑え、少ないチップで訓練できると主張しています。このニュースは金融市場にも影響を与え、Nvidiaの株価がプレマーケットで12％以上下落しました。</p>
<p>DeepSeekが1月20日に発表した新しいR1推論モデルは、複雑な問題を解決するためにデザインされており、特定のベンチマークでOpenAIのo1と同等の性能を発揮すると報告されています。R1は、昨年12月にリリースされたV3 LLMを基にしており、DeepSeekはこれがGPT-4oやAnthropicのClaude 3.5 Sonnetと同等であり、開発コストが600万ドル未満であると主張しています。一方、OpenAIのCEOサム・アルトマンは、GPT-4の訓練にかかったコストが1億ドルを超えると述べています。</p>
<p>さらに、DeepSeekはV3の訓練に必要なNvidiaの特殊チップが約2000個であったのに対し、世界の主要モデルを訓練するには16000個以上必要であると報じています。この未確認の主張は、開発者や投資家が世界の主要なAI企業の計算集約的アプローチに疑問を持たせています。もしこの主張が真実であれば、DeepSeekのエンジニアはアメリカのAI支配を確保するための貿易制限にもかかわらず、独創的な方法で問題に取り組む必要があったということになります。</p>
<p>Nvidia、Microsoft、OpenAI、Metaは、AIデータセンターに数十億ドルを投資しています。特にStargate Projectには5000億ドルが投資され、そのうち1000億ドルがNvidiaに割り当てられていると考えられています。投資家やアナリストは、これが果たして適切な投資であったのか疑問を抱いており、Nvidia、Microsoft、その他のAI業界の支配を維持するために重要な企業の株価は、プレマーケットで下落傾向にあります。</p>
<p>結論として、DeepSeekがもたらすこの新しいアプローチは、AI技術の進化において重要な転機となる可能性があります。従来のビジネスモデルや投資戦略に再考を迫るこの動きは、今後のAI産業の競争に大きな影響を与えることでしょう。特にコスト効率が重視される中で、技術者たちは更なる革新を求められる時代に突入しています。今後の展開が非常に注目されるところです。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3397/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>NvidiaがCESでAI技術を披露、ゲーム体験を変革</title>
		<link>https://dejitarumirai.com/archives/3301</link>
					<comments>https://dejitarumirai.com/archives/3301#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Thu, 16 Jan 2025 06:17:54 +0000</pubDate>
				<category><![CDATA[AI技術]]></category>
		<category><![CDATA[CES2025]]></category>
		<category><![CDATA[NVIDIA]]></category>
		<category><![CDATA[RTX50シリーズ]]></category>
		<category><![CDATA[ゲーム体験]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/archives/3301</guid>

					<description><![CDATA[Nvidiaは、2025年のCESで新しいRTX 50シリーズGPUを発表しましたが、実際にはAI技術が同社の真の目玉であることが明らかになりました。この完璧なAIの世界では、ゲームやPCがクラウド処理なしでユーザーのPC上で直接動作することを目指しています。しかし、実際に体験したデモでは、AIの発]]></description>
										<content:encoded><![CDATA[<p>Nvidiaは、2025年のCESで新しいRTX 50シリーズGPUを発表しましたが、実際にはAI技術が同社の真の目玉であることが明らかになりました。この完璧なAIの世界では、ゲームやPCがクラウド処理なしでユーザーのPC上で直接動作することを目指しています。しかし、実際に体験したデモでは、AIの発展にはまだ多くの課題があることが浮き彫りになりました。</p>
<p>特に、Nvidiaが開発しているテキストからボディモーションへのフレームワークには注目が集まっています。開発者がこのツールをどのように活用するかは未知数ですが、AIによるリップシンク機能や「自律的な敵キャラクター」を使って、従来のボス戦をより予測不可能なものに変えることを目指しているとのことです。</p>
<p>しかし、これらの新しいAI技術は、必ずしも期待通りの結果を生んでいるわけではありません。例えば、PUBG: Battlegrounds向けに開発されたAI「Ally」は、一般的な協力型AIを一歩進めたものではありましたが、実際にはユーザーの指示に遅れがちで、期待されたサポートを十分に発揮できませんでした。ユーザーがピアトラに撃たれた際に「助けて！」と呼びかけても、AIは周囲を無視して敵に弾を撃ち続けるという状況が見受けられました。</p>
<p>さらに、NvidiaはKraftonの技術を用いて、InZOIというライフシミュレーションゲームを開発中ですが、こちらもあまり魅力的な体験とは言えませんでした。AIがキャラクターの選択をプランニングすることになっていますが、プレイヤーに感情的な興奮を与える魅力が欠けているとの印象を受けました。</p>
<p>一方で、Nvidiaのデスクトップ補助アプリであるG-Assistは、チャットボットがNvidiaのアプリで設定を自動的に操作するための機能を持つ大きなメリットとして示されました。この機能により、ユーザーはPCのスペックに最適なゲーム設定を計算する手間が省けるかもしれません。</p>
<p>今回のCESでの展示は、NvidiaがAIの導入に熱心であることを再確認させる内容でしたが、実際にはユーザーの期待には応えていない部分が多いことも明らかになりました。AIは単に興味を引く以上のものでなければならず、実用性と楽しさを兼ね備えた進化が求められています。</p>
<p>今後、Nvidiaがどのようにこれらの技術をチューニングしていくのか、そして真正のゲーム体験として実現させていくのか、注視していく必要があります。AIによるプレイヤーとのインタラクションが進化していく中で、ゲーム業界の今後の方向性に影響を与えるかもしれません。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3301/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>NVIDIAが新しいDLSS 4を発表、ゲーム体験を大幅に向上！</title>
		<link>https://dejitarumirai.com/archives/3198</link>
					<comments>https://dejitarumirai.com/archives/3198#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Tue, 07 Jan 2025 14:35:49 +0000</pubDate>
				<category><![CDATA[AI技術]]></category>
		<category><![CDATA[DLSS4]]></category>
		<category><![CDATA[NVIDIA]]></category>
		<category><![CDATA[RTX50シリーズ]]></category>
		<category><![CDATA[ゲーム技術]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/archives/3198</guid>

					<description><![CDATA[NVIDIAは、Deep Learning Super Sampling（DLSS）技術の大規模なアップグレードを発表しました。最新のDLSS 4では、新しいニューラルレンダリング機能が搭載され、RTX 50シリーズのGPUを搭載したシステムではマルチフレーム生成が可能となります。この機能により、「]]></description>
										<content:encoded><![CDATA[<p>NVIDIAは、Deep Learning Super Sampling（DLSS）技術の大規模なアップグレードを発表しました。最新のDLSS 4では、新しいニューラルレンダリング機能が搭載され、RTX 50シリーズのGPUを搭載したシステムではマルチフレーム生成が可能となります。この機能により、「従来のレンダリングフレームの最大3倍のフレームを生成する」ことができるため、フレームレートは従来の手法に比べて最大8倍に向上します。</p>
<p>このアップグレードにより、4K画質で240fps、レイトレースされたゲームプレイが実現するとのことです。また、GeForce RTX全系列のGPUに対応したアップグレードがあり、DLSS対応のゲームはレイ・リコンストラクション、スーパーレゾリューション、DLAA（Denoising and Anti-Aliasing）に新しいトランスフォーマーAIモデルが使用され、AIツール（ChatGPTなど）と同じ技術を採用しています。これにより、グラフィックス業界における画期的な進展と言えるでしょう。</p>
<p>さらに、新しいフレーム生成モデルは、従来のものと比較して40％速く、VRAMを30％少なく使用します。従来の畳み込みニューラルネットワークを新しいトランスフォーマーモデルに置き換えることで、生成されるピクセルのゴーストingが減少し、より高いディティールとシーンの安定性を実現しました。</p>
<p>NVIDIAは、マルチフレーム生成をサポートするゲームやアプリが75タイトル存在することを発表し、その中には「アラン・ウェイク2」、「サイバーパンク2077」、「インディアナ・ジョーンズ」などが含まれています。新しいRXT 50シリーズGPUが1月末に発売される際には、それらのタイトルがサポートされる予定です。</p>
<p>さらに、レイテンシーの影響がどのようになるのか注目されていますが、NVIDIAはReflex 2とFrame Warp技術も発表しました。これにより、レイテンシーが最大75％削減されるとのことです。GPUがフレームをレンダリングしている間、CPUは次のフレームのカメラ位置を計算し、その位置に基づいてフレームをワープさせます。このプロセスにより、最新のマウス入力が画面に反映されます。</p>
<p>テストによると、Reflex 2はレイテンシーを27msからわずか14msまで削減できることが示されています。新しいテクノロジーは「まもなく」実装され、「The Finals」および「Valorant」でRTX 50シリーズのゲーマー向けに最初に提供され、その他のRTXハードウェアでも利用可能になる予定です。</p>
<p>DLSSサポートのあるゲームやアプリにすぐにアップデートがなくても、NVIDIAアプリには新しいDLSSオーバーライドスイッチが追加されており、ユーザーは新しいGPU上でマルチフレーム生成を強制的に行うことができます。DLSSを有効にすると、最新のモデルに基づいてレンダリングされます。</p>
<p>DLSS 4の発表は、NVIDIAがDLSS 3とフレーム生成を導入してから2年以上経過したタイミングで行われました。NVIDIAは今後600以上のゲームやアプリケーションにRTXを対応させる予定です。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3198/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>AOCの新しいAG276QSGゲーミングモニターが発売！</title>
		<link>https://dejitarumirai.com/archives/3139</link>
					<comments>https://dejitarumirai.com/archives/3139#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Sun, 29 Dec 2024 17:03:45 +0000</pubDate>
				<category><![CDATA[AG276QSG]]></category>
		<category><![CDATA[AOC]]></category>
		<category><![CDATA[HDMI]]></category>
		<category><![CDATA[NVIDIA]]></category>
		<category><![CDATA[ゲーミングモニター]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/archives/3139</guid>

					<description><![CDATA[AOCが新たな高性能ゲーミングモニター「AG276QSG」を中国市場で発売しました。このモニターの価格は7,599元（約1,041ドル）で、JD.comで購入可能です。その主な仕様を見ていきましょう。

AG276QSGは、27インチのファストIPSパネルを採用し、2K解像度（2560×1440）を]]></description>
										<content:encoded><![CDATA[<p>AOCが新たな高性能ゲーミングモニター「AG276QSG」を中国市場で発売しました。このモニターの価格は7,599元（約1,041ドル）で、JD.comで購入可能です。その主な仕様を見ていきましょう。</p>
<p>AG276QSGは、27インチのファストIPSパネルを採用し、2K解像度（2560×1440）を実現。超クリアなビジュアルと優れた色彩精度を兼ね備えています。特筆すべきは、360Hzのリフレッシュレートと1msのGTG応答時間で、特に速い動きのあるFPSゲームにおいて滑らかでシームレスなゲームプレイを提供します。</p>
<p>さらに、Nvidia G-Sync ULMB2技術により、低遅延でティアリングのないビジュアルを実現。加えて、NVIDIA Reflexをサポートしており、入力遅延を最小限に抑えています。また、Adaptive-Syncに対応しており、広範なGPUとの互換性とシームレスなゲームパフォーマンスを確保します。</p>
<p>カラー性能に関しては、95% DCI-P3色域を持ち、真の8ビットカラー深度を実現。鮮やかでリアルなビジュアルを提供します。各ユニットは厳密な工場キャリブレーションを受けており、Delta E<2を達成しているため、プロフェッショナルな色精度が保証されています。さらに、VESA HDR600認証を取得しており、ピーク輝度は600ニットに達し、明暗のシーンでの優れたコントラストとディテールを確保しています。

目の快適さを考慮し、AG276QSGにはハードウェアレベルのローブルーライトフィルターとスマートな周囲光調整システムが搭載されています。これにより、長時間の使用でも目の疲労を軽減します。また、色忠実度を損なわない独自のブルーライトカット技術も備えています。

このモニターは多様性と使いやすさを重視して設計されており、VESA対応マウントや調整可能な高さ、チルト、スウィベルオプションを搭載。また、ヘッドフォンホルダーやケーブル管理システムを内蔵したエルゴノミックスタンドも特徴です。接続性に関しては、HDMI 2.0ポートが3つ、DP 1.4ポート、USB 3.2ポートが4つ、オーディオアウトジャックが搭載されています。

ゲーム体験をさらに向上させるために、カスタマイズ可能なRGBライティング効果、双方向5Wスピーカー、FPSやG-Sync Esportsなどの複数のプリセットモードが用意されており、G-Menuソフトウェアを通じて調整可能です。

関連ニュースとして、Titan Armyが先月24インチ540Hz 1080Pモニターを発表しました。こちらは96% DCI-P3カバー率と500ニットのピーク輝度を備えています。さらに、BenQは31.5インチ4K IPSプログラミングモニターを発売し、98% DCI-P3カバーとKVMサポートを実現しています。

最新テクノロジーを追いかけましょう！テレグラムコミュニティに参加し、日々のトップストーリーのニュースレターに登録してください！
</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/3139/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>新しいHDMI規格がCES 2025で発表か！？</title>
		<link>https://dejitarumirai.com/archives/2698</link>
					<comments>https://dejitarumirai.com/archives/2698#respond</comments>
		
		<dc:creator><![CDATA[deji]]></dc:creator>
		<pubDate>Sun, 15 Dec 2024 06:49:43 +0000</pubDate>
				<category><![CDATA[CES2025]]></category>
		<category><![CDATA[HDMI]]></category>
		<category><![CDATA[NVIDIA]]></category>
		<category><![CDATA[RTX50]]></category>
		<category><![CDATA[ウェアラブルテクノロジー]]></category>
		<guid isPermaLink="false">https://dejitarumirai.com/archives/2698</guid>

					<description><![CDATA[2025年1月、テクノロジー業界のビッグネームが集結するCESで、新たなHDMI規格が発表される可能性が高まっています。業界内では、NvidiaのRTX 50「Blackwell」シリーズがこのイベントでデビューするという期待も寄せられていますが、HDMIの新技術が登場するという噂も存在します。

]]></description>
										<content:encoded><![CDATA[<p>2025年1月、テクノロジー業界のビッグネームが集結するCESで、新たなHDMI規格が発表される可能性が高まっています。業界内では、NvidiaのRTX 50「Blackwell」シリーズがこのイベントでデビューするという期待も寄せられていますが、HDMIの新技術が登場するという噂も存在します。</p>
<p>ドイツのウェブサイトComputerbaseが伝えるところによれば、HDMIライセンス管理者がHDMIフォーラムで新しい仕様を発表する準備を進めているとのことです。この新仕様では、次世代HDMI技術やより高い帯域幅が導入され、さまざまな高解像度・高リフレッシュレートがサポートされる見込みです。また、新しいHDMIケーブルも必要となるとのこと。</p>
<p>なぜこの発表がCES 2025のタイミングで行われると思われているのでしょうか。それには、別の噂が影響を及ぼしています。現時点ではHDMI 2.2をサポートする製品はないものの、先に挙げたNvidiaのRTX 50「Blackwell」カードがHDMI 2.2に対応するとの主張があります。もしこれが真実で、NvidiaがCES 2025で新製品を発表すれば、その流れでHDMI 2.2の存在も明らかになる可能性があると言われています。</p>
<p>この情報はあくまで噂に基づくものであり、確実性には欠けますが、CES 2025では何が明らかになるのかを目の離せないイベントとなることでしょう。CEOの基調講演に注目が集まります。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dejitarumirai.com/archives/2698/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
