ChatGPTなどの自然な会話が可能なチャットAIのベースとなっている大規模言語モデルは、Googleが開発した機械学習アーキテクチャ「Transformer」を採用しています。そんなTransformerが文脈に沿った自然な文章を出力する仕組みについて、AI専門家のLuis Serrano氏が ...
米NVIDIAが6月25日(現地時間)に公開したDLSS導入用開発者向けキットの最新版において、Transformerモデルのベータ版運用が終了したようだ。加えてドキュメントが更新され、VRAMの消費量が削減されたことについても言及されている。 NVIDIA DLSS SDK 310.3.0の更新で ...
GPT-4やLlama、Claudeといった大規模言語モデルは、2017年にGoogleの研究者が発表した「Transformer」というフレームワークの上に構築されています。このTransformerをベースにしたAIモデルがどのように機能するのかを視覚化したツール「Transformer Explainer」が ...
ソフトバンク株式会社は8月21日(水)、AI-RAN(AIを活用した無線アクセスネットワーク)のコンセプトの一つである「AI for RAN」の研究開発において、高性能AIモデル「Transformer(トランスフォーマー)」を活用したAIアーキテクチャーを新たに開発したと発表 ...
言語AIが多様な化合物構造を学習する過程の特徴を発見 ——化学言語モデルとしてのTransformerはキラリティの認識を苦手とする—— 【発表のポイント】 代表的な深層学習モデルであるTransformerが多様な化合物構造を学習していく過程を、モデルが認識する ...
Spiral.AI株式会社(本社:東京都千代田区、以下「SpiralAI」)は、従来のLLMアーキテクチャであるTransformerの問題点を解決した学習済みモデルを開発・公開しました。 開発・公開したモデルは、RetNetのアーキテクチャを活用しています。RetNetは、入力文字列長 ...
会員(無料)になると、いいね!でマイページに保存できます。 現在のTransformerモデルは注意機構を用いることで短期的には高い文脈把握能力を発揮するものの、シーケンスが長くなるほど計算コストが二次関数的に増加し、大規模文書や長時間の対話履歴 ...
株式会社秀和システム(東京都・代表取締役会長兼社長 上田智一)は、2025年6月28日、新刊『DETR(DEtection TRansformer)&最新 ...
米NVIDIAが6月25日(現地時間)に公開したDLSS導入用開発者向けキットの最新版において、Transformerモデルのベータ版運用が終了したようだ。加えてドキュメントが更新され、VRAMの消費量が削減されたことについても言及されている。 「NVIDIA DLSS」に使われる ...
立教大学大学院人工知能科学研究科(所在地:東京都豊島区、研究科委員長:大西立顕)の博士後期課程1年次の増村翔さんと瀧雅人准教授の論文が「NeurIPS 2025」(The Thirty-Ninth Annual Conference on Neural Information Processing Systems)に採択されました。 「NeurIPS」は ...
一部の結果でアクセス不可の可能性があるため、非表示になっています。
アクセス不可の結果を表示する