AI创作会变得更自由吗?YouTube推进的“分身・自动配音・游戏生成”的光与影

AI创作会变得更自由吗?YouTube推进的“分身・自动配音・游戏生成”的光与影

「AI生成内容的恐惧。但仍将增加AI功能」——看似矛盾的声明背后的意图

YouTube为2026年设定的关键词大致可以总结为“通过AI加速创作,同时排除AI带来的‘劣质内容’”。Engadget关注的是这一理念的象征性新功能——创作者可以使用“自己的AI生成形象”来制作Shorts的预告。具体的机制和启动时间尚未公布,但在平台重心向短视频转移的趋势中,这将成为“进一步降低发布门槛”的一招。


然而,在同一声明中,Mohan CEO也提到了深度伪造是一个“重大”问题,并强调了权利保护和加强对策的必要性。换句话说,YouTube在增加“AI可创作内容”的同时,也不得不将“AI误用的风险”放在首位,进入了这样的局面。


亮点是“用AI分身制作Shorts”——会有什么变化

此次最引人注目的是“可以用AI生成自己的形象来制作Shorts”这一部分。YouTube已经推出了用于Shorts的AI功能(例如:生成背景等),但深入到“人本身”后,便利性和风险的幅度会迅速扩大。

预期的用途很明显。

  • 即使在难以露脸的情况下,也能保持“本人风格的叙述”

  • 减少拍摄和编辑的麻烦,增加发布频率和实验量

  • 结合多语言展开(自动配音等),更容易扩展到海外观众


另一方面,确保形象在“本人同意和管理”下使用,并且观众能够理解这一点是前提条件。YouTube方面也表示将要求“标识AI生成内容”和“公开现实改编和合成内容”的方针,分身Shorts很可能在这一背景下运作。


同时谈论“AI劣质内容”对策的理由

随着AI生成视频的增加,毫无疑问,“大量生产的低质量”内容也会增加。YouTube本身也明确表示担忧“AI劣质内容(低质量的AI生成内容)”的传播,并表示将加强对垃圾邮件/钓鱼标题/重复低质量内容的对策。Engadget的文章也提到了加强现有对策系统的趋势。


这里的关键是,YouTube明确表示“AI生成≠立即NG”,而是以“质量和危害”为界限。Guardian在另一项调查中指出,新用户推荐中可能有相当比例的“AI劣质内容”,这也使得平台的算法和收益结构容易受到质疑。因此,YouTube在推进AI功能的同时,负有保护“观众可以放心使用时间的体验”的责任。


AI化已经在进行:自动配音、Ask、Shorts的“巨大化”

2026年的话题不仅仅是“预告”。YouTube已经开始将AI融入观看体验中,例如关于AI自动配音,提到“12月平均每天有600万人观看‘超过10分钟’”,并提及了具体的使用情况(也提到了竞争对手的类似功能在质量方面出现争议的例子)。


此外,12月仅“Ask”的使用人数就超过了2,000万。Shorts本身也被描述为“每天平均观看2000亿次”,并且还展示了将图像发布等“不同格式”整合到Shorts feed中的计划。以短视频为中心的体验越来越接近“综合信息流”而非“视频应用”。


另一个AI:从文本到游戏、音乐生成工具

AI分身并不是唯一的亮点。YouTube还在“通过文本提示制作游戏”的方向上进行实验,Engadget报道了使用Gemini 3的“无代码制作小型游戏”的Playables Builder。如果这能推广到普通创作者,Shorts或直播与游戏在“同一应用内循环”的导向可能会出现。


此外,音乐领域也暗示了“可实验的工具”,可以看到视频、游戏和音乐通过AI连接的图景。


法规与权利:支持NO FAKES Act显示的“政治手段”

分身功能容易引发争议的最大原因是,它直接关系到个人的脸部和声音,即“人格”。YouTube表示支持包括“NO FAKES Act”在内的法律制度,并提出了反对未经授权的数字复制(声音和外观冒充)的对策。在YouTube博客中,明确表示支持2025年提出的NO FAKES Act,并关注未经授权的数字复制带来的危害。


同时,YouTube还表示将在“Content ID的延长线上”提供新工具,让创作者能够检测和管理自己形象的未经授权使用。如果这一功能不起作用,分身Shorts可能会成为“便利”之前的“争议燃料”。


SNS的反应:欢迎与拒绝并存,“最终会增加劣质内容吗?”

在SNS上的反应可以简单地概括为**“看起来很方便”对“已经受够了”**的分歧。

1) 期待:越是能“运作”YouTube作为工作的人越是积极

在LinkedIn上,可以看到欢迎家庭和未成年人的安全以及AI生成显示的声音,以及对品牌和创作者匹配加强的期待。在所谓的“商业用途”视角下,功能的增加容易被视为顺风。

2) 不安:AI分身可能成为“破坏本人性的装置”

另一方面,在Reddit的反AI社区中,对声明内容本身的拒绝反应很强。例如,在一个帖子中,有简短的叹息“We are so cooked”(我们完了)这样的反应,还有人指出分身Shorts看起来像是现有服务的翻版。

“We are so cooked”
“’Shorts using their own likeness’ … So just Viggle AI-like videos?”


此外,还有人担心AI的使用会导致“努力的放弃”或“低预算的风味消失”,并将AI分身视为“创作的民主化”而非“同质化和空洞化”。


3) 不信:数字只是“夸大其词?”的怀疑

YouTube声称“使用AI工具的频道在12月每天超过100万”,在SNS上引发了“这一统计是否合理?”的疑问。在Reddit上,还有人讽刺称可能将AI生成的评论回复等“无法关闭的元素”也算入其中。


“How much do you want to be they’re looping in the ai generated comment responses…”


那么观众如何自我保护?“Shorts回避”这一现实解

有趣的是,尽管AI分身Shorts的话题热度不减,但仍有一部分人希望“避开Shorts”。Engadget报道了YouTube搜索结果中新增了排除Shorts的过滤器。如果分身Shorts启动,这种回避策略的需求可能会进一步增加。


总结:2026年的YouTube是“增加AI”还是“能否设计出信任”

YouTube在2026年,将AI分身、自动配音、问答功能、游戏生成、音乐实验等,作为创作者/观众双方的“常用工具”。

 
然而,随着AI劣质内容和深度伪造的担忧加剧,平台必须通过具体措施展示“透明性”“权利保护”“质量保证”。支持NO FAKES Act和形象检测机制是为此奠定的基础,但最终的评价将集中在“用户能否安心观看,创作者能否安心创作”这一点上。



出处URL