我對 Sora 2 的個人偏好 - 寫在 OpenAI 宣布即將停止這項服務後

即使運算停止了,天線仍會繼續共鳴。

昨天(2026年3月25日)早上,多位朋友都主動向我提供「Sora 2 即將收攤」的那則 X 貼文。 我想認識我的朋友,多多少少都知道,我個人對於 Sora 2 的偏好。

今天這篇不是要寫什麼悼念文。 不過我還是先簡單說,針對 Sora 2 要結束營運的看法…. 「如果 OpenAI 後續沒有真正好用的繼任者(Spud?),我想這次將會是讓我離開他的最後一根稻草。」

如果 AI 界目前流傳所謂「GPT時刻」的說法,來表示 AI 產業的一大耀進時刻的話。 那現在 Sora 2 結束營運的情況,我會給他冠上「4o最後稻草」一詞,來表示導致該 AI 服務原本擁護者開始大量逃離的主因。

好。以上大概就是我個人對於 Sora 2 即將結束營運的感想。

接下來我要講的,是我個人為何偏好 Sora 2 的幾個主要原因:

整體上來說,他是目前最完整且簡單好用的「微短片」(micro-shorts)生成器。 更不用說,他每天的免費額度,也是許多人會拿他來做各種影片的另一大原因。

為何我說他「最完整且簡單好用」?

首先,他的基底是 GPT 語言模型,所以只要你用過 GPT。就可以輕鬆地以自己的母語和自然語言來寫提示詞,生成品質與效果都還不錯的影片。MidJourney 在影像質感上確實強大,但是只能用英文,而且還得學很多關鍵字和提示詞規範。對一般人來說,那個門檻就是高。

其次,他有所謂的物理世界的模擬機制。對,有時候你會看到演出者被奇怪的牆卡到或絆倒的糗樣,但那恰恰表示他是真的在模擬物理規則——而不是像過去純圖像訓練模型那樣,動不動就鬼穿牆或物品相互重疊。這個差別是根本性的。

此外,由於他訓練資料的特性,對於 10 秒類型影片的效果尤其擅長。很容易就可以生成一段很專業節奏與剪輯效果的成品。也因此,很多玩家一開始就狂玩那些變身或是動畫開場宣傳片後,就無法自拔。每天光是那些多巴胺就飽了。我意思是,看得很爽,很有成就感。更進一步的玩家,就懂得善用他來生成自己的產品行銷影片。

還有,對於腳本在鏡頭切換與呈現效果的解讀與生成,Sora 2 的表現是真的到位。只要你腳本的時序和節奏撰寫合理,就可以實現出你所描述的所有畫面。而這一切,在早期 Sora 一代的介面上,對於一般非專業者來說很難實作。但是 Sora 2 的部分,完全靠提示詞和時間軸描述的方式,變得更加簡單與便利。

不過,之前 Sora 2 推出的「分鏡腳本」介面,我就完全不買單。實測發現,一段 10 或 15 秒的影片,不管你怎麼切,他就一定只會有三次的鏡頭切換。劇情高潮時,一兩秒內三四個鏡頭視角快速切換的效果?做不到。所以我根本不會用它來生成影片。

後來比較近期(一個月內)推出的影片「延長」功能,我覺得是一大亮點。對於「影片完整」與「鏡頭延續」的需求上,幫助很大。只可惜,這回的句點可能就要畫在這了。

最後,我覺得最重要的特色,是在「影片一致性」需求所提供的「角色」和「參考圖」的功能。大多數影像生成工具,多半只能使用參考圖,沒有角色外型與聲音共存的角色影片的建立與參考功能。Sora 2 有。這就是它跟其他工具拉開距離的地方。

Sora 2 不完美,但它是我到目前使用過,最容易入門,可塑性最高,整體體驗最好的影片生成工具。沒有之一。