Metaがテキストや視覚的なサンプルをプロンプトとして使用し、画像やビデオ内のオブジェクトを検出、分割、追跡するための統合モデル「Meta Segment Anything Model 3(SAM 3)」を発表しました。 Introducing Meta Segment Anything Model 3 and Segment Anything Playground https://ai.meta ...
・Meta「Llama 4」、モデル全体としては巨大なパラメータ数を維持しつつも、実際の計算時には必要な部分だけを効率的に活用 ・業界最長の1,000万トークンに対応、従来の約78倍という圧倒的な差 ・社内の膨大なドキュメントや過去の事例を学習させ ...
Meta Platforms(メタ)は、Googleが展開する画像・動画生成AI「Nano Banana Pro」などに対抗するための新たなAI生成モデル群の開発を進めていると複数メディアが報じた。特に、「Mango」および「Avocado」と呼ばれるコードネームのモデルが2026年前半の投入を目指している。
Meta Quest 3Sは、パソコンやスマホなどへの有線接続がいらない、スタンドアロンで使えるヘッドセット型デバイスです。VR(仮想現実)に対応するコンテンツを解像度1,832×1,920画素のディスプレイで立体視したり、メタが2023年秋に発売した「Meta Quest 3」以降は ...
Meta(メタ)のAIモデル「Llama 4」はどんな特徴が? Metaによれば、従来のモデルよりも政治的な偏りが少ないそうで、政治的に意見が分かれそうな質問に対する回答を許容することで、この改善を実現したそうです。 またLlama 4は、イーロン・マスクの ...
Metaがコードをコンパイルしつつ最適化するという大規模言語モデル「Meta Large Language Model Compiler」をリリースしました。モデルは商用利用可能で、Hugging Faceにてホストされています。 Meta Large Language Model Compiler: Foundation Models of Compiler Optimization | ...
ウォール・ストリート・ジャーナル日本版 on MSN

メタ、新AI画像・動画モデル開発中 コードネーム「マンゴー」

米 メタ・プラットフォームズ は、次世代のテキストベースの大規模言語モデル(LLM)と並行して、コードネーム「マンゴー」という画像・動画に特化した新しい人工知能(AI)モデルを開発している。
新モデルでるの早すぎない?と思った人もいるかと思います。そう、MetaとOakleyがコラボしているスマートグラスの話です。8月に発売されたスマートグラス「Oakley Meta HSTN」。まだ出たばかりと思っていたら、9月に開催されたMetaカンファレンスMeta Connectで ...
株式会社NTT QONOQ(以下、コノキュー)は、2025年2月27日(木)より、Metaの最新VRヘッドセット「Meta Quest 3S」の取り扱いを開始し、国内法人のお客さま向けに販売を開始いたします。 Meta Quest 3S画像 Meta Questの大規模導入時に浮上する「アプリケーションの一括 ...
Metaは、同社のAIツール向け大規模言語モデル(LLM)「Behemoth」の公開を秋まで延期したと報じられている。当初は4月、同社初のAIカンファレンス「LlamaCon」に合わせてリリース予定だったが、6月に変更した後、さらに延期したとThe Wall Street Journal(WSJ)が米国 ...