- アリババのクラウド コンピューティング部門は、更新された AI モデル「Animate Anyone 2」を導入しました。.
- このアップデートにより、ユーザーは単一の画像とビデオを組み合わせてリアルなキャラクターアニメーションを作成できるようになります。.
- アニメ化されたキャラクターは、ソースからの元の環境を維持し、自然な外観を実現します。.
アリババのクラウドコンピューティングのアップデートされた AI モデル「Animate Anyone 2」を使用すると、ユーザーは単一の画像とビデオを組み合わせてリアルなキャラクターアニメーションを作成できます。.
によると レポート 、このシステムは参照コンテンツから環境情報を追加することで、従来のモーション信号ベースの方法を進化させている。

研究 で アリババクラウドの同義研究所によるtrac、リアルなアニメーションクリップを作成する方法を実証しました。更新されたモデルは、アニメーションキャラクターを元の環境に配置することで、より自然な外観を実現しています。
arxiv に投稿された研究では、「[ソース] ビデオから環境情報をtrac、アニメ化されたキャラクターが元の環境を維持できるようにすることで、キャラクターと環境のシームレスな統合を促進します」と述べています。
中国の開発者は生成AIで急速に進歩している
Animate Anyone は 2023 年後半に最初にリリースされ、ユーザーは静止画像を通じてキャラクターベースのビデオを作成できるようになりました。.
OpenAIは、昨年ChatGPTを開発した後、テキスト動画変換モデルとしてSoraをリリースしました。このイノベーションは、中国の大手テクノロジー企業やスタートアップ企業による同様のテキスト動画変換モデルのリリースを数多く引き起こしました。12月には、SoraはChatGPT PlusとProの両方のメンバーシップ加入者限定で利用可能になりました。.
中国は、最近リリースされた「Animate Anyone 2」を通じて、AI分野で世界のリーダーに匹敵したいという意欲を示している。アリババの発表は、画像と録音された音声をリアルな動画コンテンツに変換するマルチモーダルモデルとしてバイトダンスが最近リリースした「OmniHuman-1」に続くものだ。.
アリババのAnimate Anyone 2調査では10万文字の動画が使用された
アリババの調査では、Animate Anyone 2プラットフォームは、一貫した動きと「周囲の環境との一貫性」を維持することで、キャラクター間のインタラクションを生み出すと付け加えている。
この研究では、研究者らはインターネットから取得した、さまざまなシーンや人間と物体のやりとりを収録した 10 万本のキャラクター ビデオで構成されるデータベースを作成し、さまざまな設定での Animate Anyone 2 のパフォーマンスを評価しました。.
ただし、「Anyone 2」では、追加のディープフェイク動画が生成されるリスクがあります。.
北京に拠点を置く広告代理店の梁海生氏は、こうしたAIツールは「人間の感情や細かい表情を動画で伝えるという点では不十分だ」と述べている。
リャン氏は、AIが生成したこれらのビデオの基本的な視覚表現により、企業は依然として、顧客にアイデアを売り込む際にコンセプトを視覚化できると付け加えた。.
アリババは と発表した 。同社は今後3年間でAIへの大規模投資を行うことを、「数十年に一度のチャンス」と捉えている。
銀行にお金を預けておくのと、仮想通貨で一か八かの賭けをするのとでは、中間的な選択肢があります。まずは、 分散型金融。
免責事項: 本情報は投資助言ではありません。Cryptopolitan.com Cryptopolitan、 本ページの情報に基づいて行われた投資について一切責任を負いません。投資判断を行う前に、ごtrondentdentdentdentdentdentdentdent で調査を行うか、資格のある専門家にご相談されることを
速習コース
- どの仮想通貨でお金が稼げるか
- ウォレットを使ってセキュリティを強化する方法(そして実際に使う価値のあるウォレットはどれか)
- プロが使う、あまり知られていない投資戦略
- 仮想通貨への投資を始める方法(どの取引所を使うべきか、購入すべき最適な仮想通貨など)
















