基本的な使い方
Seedance 2.0はマルチモーダル混合入力をサポートしており、監督のように素材を組み合わせて動画を作成できます。
現在の Web アプリ提供範囲
seedance2.app が現在公開しているのは text-to-video と image-to-video です。Seedance 2.0 は有料アップグレードで、公開出力の上限は 720p と 15 秒です。以下の一部ページでは、現在の Web アプリでまだ完全には公開されていない広いモデルワークフローやプロンプト例も扱っています。
マルチモーダル素材のアップロード
参照画像(視覚スタイルとキャラクターの外観を設定するため)、参照動画(アクションのリズムとカメラの動きを指定するため)、および音声(リズムとムードを設定するため)をアップロードします。混合入力の合計ファイル数は12までです。
素材を参照するプロンプトの作成
プロンプトでアップロードした素材を@Image1、@Video1などを使って参照します。例:「@Image1を最初のフレームとして使用し、@Video1をカメラの動きに参照します。」参照したい内容を明確に記述すると、モデルは正確に生成します。
期間とモデルを選択
動画の長さは4〜15秒で調整可能です。Seedance 2.0が標準モデルです。Seedance 2.0 Fastはより速く生成します(ユーザーが少ない場合、よりスムーズな体験ができます)。
生成と拡張
生成後も、スムーズなトランジションとビデオ編集で拡張を続けることができます。キャラクターの置き換え、追加、削除により既存のビデオを編集できます。単なる生成だけでなく、「撮影を続ける」ことができます。