字节全新发布豆包AI视频模型 – 再见了Sora,你的时代过去了。


刚刚,字节的火山引擎的发布会基本结束了。
我现在有点过于激动。
虽然发布会结束了,但是我觉得,一个颠覆行业的全新的起点,在这一刻,正式到来了
字节正式发布了他们全新的两款AI视频模型:
豆包视频生成-PixelDance模型和Seaweed模型
字节全新发布豆包AI视频模型 - 再见了Sora,你的时代过去了。

Seaweed模型下次我再详细来说。这次,我想说这个豆包PixelDance模型,因为太屌了,屌炸了,我真的是全程惊叹着看完的。

他们正式宣布这玩意的那一刻,现场掌声雷动,我隔着屏幕都感觉快特么把房顶掀翻了。
真的,如果要给这个豆包PixelDance模型,做一个总结,那就是三个词:
人物的复杂连续动作,多镜头组合视频,极致的运镜控制。

听着感觉有点难理解是不是?不用急,我一会详细来解释。

我先放几个case,给大家感受一下这玩意的震撼:

真的,影视行业在之前,几乎没法用AI,就是因为,人物表演太垃圾,还有场景和人物一致性太差,运镜说实话也不咋地。

现在,字节出手,将AI视频推上了全新的高度。
行业颠覆的奇点,就在今天,就在这个发布会上,正式到来了。
而我,在憋了整整4天后,也终于可以发出这篇文章。
对,4天前,我就受字节邀请,提前测过了这个豆包PixelDance模型,当时给我震惊的无以复加,你知道,作为一个博主,测完了这么屌的东西,自然就是想第一时间分享出去,但是因为保密协议,我只能只字不提。
所以你就知道,我这4天,憋的有多难受。
而现在,一切都来了。我终于可以特么的说话了。
说回那三个最重要的特点:
人物的复杂连续动作,多镜头组合视频,极致的运镜控制。
 一. 可以做连续动作的人物表演 
过往,AI视频有一个很致命的点,就是看起来像PPT动画。
不管是Sora展示出来的视频、还是runway、还是可灵等等,运动幅度再大,也只是镜头幅度大,从来没有人的复杂动作。
顶天了,转个身,或者快速跑个步,或者挥个手,或者拥抱一下。说实话,就单拥抱这个,都没几个AI视频能做出来的。
而如果让图里这个女生,摘下墨镜,站起身,然后走向雕像呢?
字节全新发布豆包AI视频模型 - 再见了Sora,你的时代过去了。
所有的AI视频,全部阵亡。
而这一次豆包PixelDance,做到了,真的。
除了手上的表有一些些闪动,人物比例、动作、肢体、光影等等,几乎毫无瑕疵。
一个戏好看,人的动作表演,才是最重要的啊。
比如在《喜剧之王》里,在最后一幕,周星驰饰演的尹天仇,在对着柳飘飘喊出那句经典的“我养你啊”的台词之后,柳飘飘坐在离去的出租车里,哭的