巷で話題のWan 2.2ですが、2.1と何が変わったのか、自分なりに検証しました。 2.2のベースモデルはたしかに動きが改善していましたが、それは2.1のベースモデルにいくつか問題点があったということでもあります。 そもそもWanの開発環境がどのように進化し ...
「もう2025年はオープンで高性能モデルは期待できないか」と思っていたところに、面白い話が飛び込んできた。 それが動画生成AIモデルの「Wan 2.1」のtxt2vidを使って、txt2img=画像生成もできる! という話だ。
JAPAN AI株式会社(本社:東京都新宿区、代表取締役社長:工藤 智昭、以下JAPAN AI)は、提供している「JAPAN AI AGENT」において、Alibaba Group Holding Limitedが提供する動画生成モデル「Wan 2.1」に対応開始したことをお知らせいたします。 動画生成モデル「Wan 2.1」と ...
少し前に「Wan 2.1」というアリババグループの動画生成AIモデル (txt2vid)で画像生成 (txt2img)する記事を掲載したが、時同じくして「Wan 2.2」がリリースされた。これで同様にtxt2imgして遊んでいたところ、何とアリババグループから画像生成AIの真打、Qwen-Imageが登場!今回はこの辺りの話をしてみたい。
皆さんこんにちは!🐰です。今日は、現在開発中のAI動画生成モデル「Wan 2.2」について、公開されている情報をまとめてお伝えします。 最初「WAN2.2」と聞いて、ネットワーク技術の新規格かと思いましたが、実際はAlibaba通義ラボが開発を進めている次世代 ...
アリババグループのTongyi Labが開発する高度で強力なビジュアル生成モデル「Wan」のバージョン2.1のうち、4つのモデルが ...