你的位置:乐鱼体育官方网站 > 乐鱼盘口 >
乐鱼体育 今天打开抖音的我,已经分不清现实了。
发布日期:2026-02-12 13:11    点击次数:196

乐鱼体育 今天打开抖音的我,已经分不清现实了。

  别的不说了,差友们!马上就要过年了,差评君先送请两位咱们硬件部的同事,米罗和二狗来给大家跳个舞吧。

Ok 言归正传,今天我上班时刷的各种工作群摸鱼群里,基本都在讨论字节整的这个新模型。

原因无他,就是因为这玩意做出来的视频效果实在是太好了。

  甭管是生成美少女来和你打招呼。

by 虚妄 抖音

  还是让两个老头开始在屋子里大打出手都不在话下。

by 夜故事 抖音

还可以丢张咱们同事江江的照片给它,让 Seedance 2.0 直接给我们生成一段天气预报的口播画面出来。

没错,这整条里面的声音也是 AI 直接生成出来的,整个视频里的各种音效细节可以说是全给对上了。

再或者是直接丢张数学题给它,让 AI 来手写答案。

这里虽然结果写错了,但是口播的声音却是对的

太狠了字节,整个视频里,不管是人物的一致性,还是动作的流畅性还是音频的适配性,相比过去的视频生成模型都有了断崖式的提升。

工作了一天刷了一天抖音的我,已经快要分不清什么是真,什么是假的了。

  不过这,还不是最让差评君感兴趣的。

素材来源于网络

真正让我好奇的是,为什么这次的新模型这么强?

在简单的体验后,差评君发现这一方面是它的模型本身能力确实够顶。

和其他常见的视频模型一样,只要随便给它一段话,Seedance 2.0 就能给你生成一段质量尚可的视频。

在上海的东方明珠塔下,生成东方明珠塔用激光攻击蜜雪冰城雪王的视频,

雪王不断躲避激光,场面十分混乱

看起来好像平平无奇,但是咱们仔细看就会发现,这个视频里,出现了不只一个镜头。

短短五秒钟的视频,镜头切换了四次。

  先远景看东方明珠塔变形发光,再怼脸给雪王表情,再回到全景展示攻击。节奏跟得上、逻辑能闭环,整个段落不光好懂,甚至挺有情绪。

没错,Seedance 2.0 做出来的视频自带分镜。

经常喜欢用 AI 做视频的差友们都知道,在过去,大多数 AI 模型做出来的视频,基本上就是主打"一镜到底"。你给它写一段提示词,它还给你一段几乎固定定机位的画面。

即使有些模型有分镜吧,但他们做出来的分镜也可能不够有灵魂,变得非常奇怪。

某另外一个视频模型用相同提示词做的画面,

基本都是站桩输出

就比如上面这个视频,这画面好看吗,咱们先抛开它没识别出雪王的形象不谈,光论这个视频质量本身,确实是算不上差的。

  但是这视频耐看吗?那还真不好说。

一个视频想要能引人注意,那剪辑的节奏就是一个非常非常重要的环境。

过去的 AI 想要做成刚才那样的画面,可能需要咱们预先构思每个分镜和分镜之间是如何切换的。

然后用 AI 抽卡,生成一堆一堆的关键帧,接着再在这些关键帧和关键帧之间抽卡,才能得到成吨的素材。

然后再通过人类剪辑师的发力,才能把这些成吨的素材,给变成一段好看的视频。

这一套流程下来,这就让不少想玩视频生成的新手心生畏惧了。

但这一切问题在 Seedance 2.0 这里,几乎被彻底解决了。

可以明显的看到,字节在分镜上下了不少功夫。

在不用用户特意去描述怎么分镜的情况下,自动就把分镜的活给包圆了。

整个应该镜头应该怎么切才好看给你整的明明白白,几乎是把过去半个小时的工作量给压缩成了一句话。

而且它同时还是个配乐大师,做出来的视频里,该有的音效全都有。

  不管是光之巨人和怪兽大战时的嘶吼声。

{jz:field.toptypename/}

还是在夜之城飙车时的引擎轰鸣声。

都可以非常精髓的还原到位。。。

甚至于你还可以直接在提示词里写清楚,你想要在这个视频里听到 AI 说什么话,就连音色也可以通过自己上传声音来制定。

另一方面,字节的产品设计也整的很牛 X。

如果说过去的 AI 视频工具用起来还有各种各样的门槛和困难的话,那么这次新发布的 Seedance 2.0 就是把这些门槛都给铲飞了。

现在,普通人都能很方便的用  AI,  来做出各种华丽的画面了。

所以为什么我要给这个模型这么高的评价?不只是因为它能出好画面,而是因为它真的在认真做"产品"。

即使是零基础小白也不用害怕,这可能是目前最适合新手来玩的视频生成大模型了。

它的逻辑非常清爽,打开即梦(jimeng.jianying.com)在最底下选择"视频生成",在边上把生成视频的模式给切换成"全能参考",或者是"首尾帧" 之后,就可以用上最新的 Seedance 2.0 模型。

如果这里你找不到 Seedance 2.0 这个选项的话,那可能就是这个号没有被内测到,乐鱼体育官网可以用小云雀 App 试试,或者过段时间等火山引擎发布了 Seedance 2.0 API,就能在更多平台和 APP 里用到了。

没有会员也没关系,每天靠着签到的积分也可以先白嫖体验一下,如果觉得好用再充也来得及。

{jz:field.toptypename/}

  OK 咱们回到主题,首尾帧这个模式就不用多说,也是咱们的老朋友了,既能贴上头尾两张图片来控制 AI 的发挥,也能只贴一张开头的图片来让 AI 自己天马行空,还可以什么都不贴,打字就能直接得到我们想要的画面了。

而另外一个"全能参考" 模式就有意思了,过去咱们用 AI 做视频,遇到的最大问题是什么?

对我来说,这个最大的问题可能就是"不会形容"了。

有时候脑子里明明知道自己想要什么画面,但是在打字的时候却经常写不出来。

  可一但提示词写得太抽象,那模型就给你瞎编,可写得太具体,又像在拼题。经常是提示词写到怀疑人生,还是生不出想要的质感。

而这个"全能参考" 模式就能在很大程度上避开这个问题。

在这个模式下,你可以同时从图片、视频、音频和文本这四个维度来描述你想要得到的画面。

  就比如开头的跳舞小视频,我只需要同时上传米罗和二狗两位同事的照片,然后再配上一段舞蹈的视频一起给它,就能很轻松的整出来,也能基本保证人物的面部轮廓在生成的视频中不会崩溃。

这样一来,我就不需要描述具体舞蹈的姿势,也不需要描述我需要什么音乐,甚至连人物穿什么衣服都不用说,就可以直接搞出一条舞蹈视频。

  当然,想给他们换衣服也很简单,改个提示词就行了。。。

为了保护差友的双眼(为了不被打),我决定来点马赛克

在这次 Seedance 2.0 里,这个参考模式最多支持同时输入 9 张图片,3 个视频, 3 个音频(但是加起来不能超过 12 个文件)

  我们可以在这个 12 个素材里任意发挥,来得到我们想要的画面,基本等于是可以傻瓜式来操作了。

说实话,它的整个产品的设计逻辑其实让我想到了另一款字节的 App —— 豆包。

这是在那产品的思路在做大模型。

不管是剪辑分镜的快速生成,还是音频画面的同步输出,再或者是方便创作的参考模式。

这三个功能的目的都很明确,希望能够降低 AI 视频生成的门槛。

下赛季你来单防詹姆斯

我很喜欢这样的产品,但到最后,话又要说回来了:

随着 AI 生成视频的门槛越来越低,分不清 AI 视频的人,也会越来越多。

过去大家会说"眼见为实",会说"视频是不能 P 的"。

但现在随着 AI 这一路往前奔腾进步的态势,P 个视频已经是轻轻松松的了。

  像咱们这样天天和 AI 打交道,看新闻的人或许能分的出来,但是我们身边的老人孩子呢?

咱们编辑部就有个小伙伴,下午出于好玩的心态。做了一段"他自己在送外卖"的视频,结果发到家族群里之后,他妈就当真了。

吓的他赶紧解释,自己没被开除,这是 AI 做的视频,就怕下一秒直接被家长的夺命连环 call 来拷打。

看着阿姨在群里着急的样子,差评君其实笑不出来。

因为我们突然意识到,这道横亘在现实和诈骗之间的防火墙,其实非常脆弱。

  不过好在,字节好像自己也意识到了这个问题。

在今天晚上我真人照片来做尝试的时候,就遇到了好几次被屏蔽的情况。

当然这个屏蔽情况算不上稳定啊,但是能有这种"自我约束"的意识,总归是个好苗头。

因为技术跑得太快时,总会有人被落在后面,而那些人往往是我们最亲近的长辈。

  但是别忘了,我们能认得出这些 AI 生成的视频,不是因为我们特殊,而是因为我们接触的早,有了抗性。

在这种情况下,我们掌握的不只是一个创作工具,更是一种沉甸甸的责任感。

也希望未来的 AI 视频,能帮我们延伸想象力的边界,而不是磨灭掉那些最基本的真实。

撰文:早起   

编辑:江江 & 面线   

美编:素描

图片、资料来源: x,网络,部分素材未核实到确实出处未标注



乐鱼体育官方网站
推荐资讯