
新浪科技訊 12月2日下午消息,導演級愛詩科技發布PixVerse V5.5AI視頻大模型——國內版為拍我AI V5.5,上視頻生成宣布繼Sora2發布后率先實現“分鏡+音頻”一鍵直出更新升級,線V型支能讓創作者能夠在幾秒鐘內生成完整的大模視頻故事,而無需再從素材中拼接。持音
與以往只能產出單鏡頭或零散畫面的畫同大模型不同,V5.5 可以生成具備敘事結構的步鍵短片,甚至接近“成片”質量的導演級視頻。據悉,上視頻生成V5.5的線V型支核心進步來自于底層模型的全面升級。此次更新首次支持音頻(Audio)與多鏡頭(Multi-shot)同步生成,大模并強化了多角色音畫同步能力。持音AI能夠根據用戶輸入的畫同提示詞,自動理解并生成完整的步鍵故事段落,而非僅僅提供單一鏡頭的導演級素材。用戶只需要輸入一個簡短的提示,AI就能完成鏡頭推進、景別切換、人物對白、環境聲和背景音樂的生成,直接呈現一個可被使用的敘事片段。
在拍我AI(PixVerse)中,用戶可以在V5.5大模型多鏡頭和音畫同步打開狀態下,生成5秒、8秒、10秒的視頻。用戶現在可以在提示詞(Prompt)里直接控制“音效、臺詞、音色、音樂、鏡頭”,AI能自動理解提示詞中的敘事意圖,自動設計推拉、搖移、切換、景別變化等鏡頭語言。AI的運鏡節奏更自然,緊貼真實制作邏輯,帶給用戶“成為導演”般的創作體驗。
從體驗角度來看,V5.5 進一步縮短了創作工作流中的時間差。生成速度大幅提升,鏡頭語言更加豐富,控制方式更加直觀,使得C端用戶和創作者都能以更低的門檻,迅速將抽象的靈感變成可觀看的成品視頻。
海量資訊、精準解讀,盡在新浪財經APP 責任編輯:何俊熹
作者:知識







