Runway Gen3,在模型质量上,还是能把Luma和可灵拉开一些差距,特别是审美上。虽然也就是70分跟60分的区别,但至少,在模型质量上,确实是我认为的当今No.1。
不过,现在只上了文生视频,图生和那些可控工具还没上。
给我急急急急急急急急急急急急急急急急死了。
在我跟坤哥瞎吉尔一顿跑了快100个case之后,我决定还是偏系统性的测一下,这个系统只是比瞎跑系统一点,肯定比不过南洋理工或者上海人工智能实验室那种专业级别的测试,所以别杠我,杠就是你对= =
测试的构筑方法上,其实我之前想了蛮久的,去年我其实规划过一版测试维度,大类上有语义理解、画面细节质量、运动质量、镜头移动质量、一致性、衰减性等等。
然后比如在运动幅度上,又可以拆为:人脸五官运动质量、人物肢体运动质量、动物运动质量、刚体运动质量、流体运动质量等等。。。
写完以后我就觉得太特么扯淡了,不是这个划分扯淡,是我的人力有点扯淡。真要这么跑一遍,那我就好几天啥事都不用干了。。。
所以现在,为了达到成本与效率最优解,我就非常简单粗浅的,按风格去划分,分为:
写实风格、动画风格、科幻风格、玄幻风格、抽象风格。
每个风格里面跑10~15个prompt,每个prompt roll三遍,虽然只有文生视频,但其实也基本能看出来模型整体质量和特征了。
而写prompt这活,当然是交给AI去干了。
毕竟有公式可以套:
Prompt = 镜头语言+光影+主体描述+主体运动+场景+氛围。
然后我就让GPT根据公式和规则,给我哐哐哐的写了几吨的prompt。

再把这些prompt,扔到gen3里面跑case。

目前只能用文生视频,其他的功能都还没上。在最下面可以切换生成视频的片段长度,可选5s和10s两种。
生成速度非常的快,亲测10s的基本也就1分半就能跑出来,这个可比Luma好多了,那玩意动不动十几分钟。。。
所有的case,我也都放到飞书文档里,有兴趣想全看一遍的,对着我公众号关注后在后台私信"gen3"就能拿到链接了。

而文章碍于篇幅,我就每个风格,展示5个有代表性的case,让大家一睹为快。
(注:在gen3中生成视频我使用的都是英文,下面的是为了方便大家看所以所有prompt才都翻译成了中文)

