跳转到主要内容
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア 标志
  • 全部文章
  • 🗒️ 注册
  • 🔑 登录
    • 日本語
    • English
    • Español
    • Français
    • 한국어
    • Deutsch
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message 隐私政策 cookie_banner_and Cookie政策 cookie_banner_more_info

Cookie设置

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

AI成为“非对称扩音器”的那一天——AI本身并不是武器,但“武器化”却变得异常简单

AI成为“非对称扩音器”的那一天——AI本身并不是武器,但“武器化”却变得异常简单

2025年12月16日 09:02

AI的民主化带来的“非对称扩音器”

2025年12月14日,MarketBeat刊登了一篇文章(来源为AP),指出极端组织正处于“开始尝试使用AI”的阶段,但未来风险可能会显著扩大。关键点很简单,AI不仅能“让强大的组织更强大”,还可能使“弱势一方也能拥有相当的影响力”。资金和人力有限的团体,通过生成AI获得“引人注目的内容”和“多语言、大量发布”的能力,宣传战就不再是“制作能力”的比拼,而是“扩散设计”的较量。MarketBeat


AP文章中提到,在亲IS的在线空间中,有帖子鼓励将AI纳入其活动。令人担忧的是,AI被描述为一种“工具”,而不是“高级军事技术”。这意味着进入门槛的降低扩大了威胁的范围。AP News



正在进行的“实验”:深度伪造、翻译和网络

文章提到的主要担忧是,生成AI可以大量生产“看似真实的图像、视频和音频”,并可能用于招募和扰乱。实际上,在过去的冲突和恐怖事件中,AI生成的内容被指出煽动愤怒和分裂,掩盖现实悲剧。重要的是,伪造品不需要达到“完全可信”的质量,只需在时间线上早期阶段填满视野,抢占“第一印象”就足够有效。AP News


此外,还有指出极端分子正在使用AI来合成音频,以及快速将信息翻译成多种语言。翻译技术虽然不显眼,但效果显著。当“语言障碍”这一自然摩擦消失,宣传就能跨越国界同步传播。AP News


在网络方面,文章提到生成AI可能会助长钓鱼(假冒)和恶意代码创建的部分自动化。生成AI缩短了“攻击的熟练程度”,减少了工作量。特别是使用合成音频和视频的“逼真性”容易被用于破坏组织内部的审批流程。AP News



“尚未成熟”——但危险为何增加

AP文章中指出,目前这种AI的使用尚未达到国家级参与者(如中国、俄罗斯、伊朗等)的高度,“更为成熟的用途暂时仍是‘愿景’”。但同时也提到,随着AI变得便宜和强大,危险将在不可忽视的水平上增加。AP News


这种“双重威胁”是现实的。即便今天的威胁看似“不成熟”,明天的威胁可能会“运用得当”。AI与其说是武器,不如说是扩散、说服和自动化的引擎。一旦操作知识被共享并模板化,模仿将迅速加速。


实际上,研究界早已讨论生成AI可能被暴力极端主义滥用的可能性(宣传、训练、计划支持等),以及模型的“漏洞”问题。AP报道的动向可以被视为接近“现实运用”的信号。Combating Terrorism Center at West Point


另一方面,从平台的观察来看,“AI虽然方便,但未必是‘决定性游戏改变者’”的评价也存在。例如,Google的威胁情报在分析国家级威胁参与者对AI的使用时指出,AI在某些场景中有用,但也应避免夸大。因此,与其通过恐惧煽动,不如采取“准备应对有效之处”的思维。Google Cloud



政策与企业合作:追赶的不是“技术”而是“运用”

AP文章中提到,美国国会的提案包括要求国土安全部门进行年度评估的法案,以及需要建立AI开发公司更容易分享“滥用迹象”的框架。换句话说,焦点不仅在于“让AI模型更聪明”,还在于捕捉滥用信号并协作阻止的制度设计。AP News


这里的难点在于言论和表达自由、对监控的担忧、商业秘密、国际法域差异的交织。因此,很难制定“万能的法规”。现实的解决方案可能是以下的组合。


  • 将合成内容的检测和显示(标签化)作为UI/UX实现

  • 通过行为基础抑制大规模滥用模式(大量生成、大量发布、机器人协作)

  • 增加研究人员、企业和政府之间共享滥用观测数据的渠道

  • 最重要的是建立“危机时验证”的快速机制



社交媒体反应:LinkedIn评论区的突出论点

在这篇文章被分享的社交媒体空间中,令人印象深刻的是,与其说关注“AI的危险性”这一大主题,不如说关注**“摩擦消失的地方”**。


  • 翻译被低估
    有评论指出,“当语言的壁垒这一自然摩擦消失时,极端化的速度会改变”。技术上虽然不显眼,但在社会上却有效——这是一种直觉。LinkedIn

  • 脆弱性在于“治理滞后”而非模型性能
    有多条反应表示,“风险在于运用和治理赶不上能力本身”。如何消除扩散速度胜过“正确性”的瞬间,是一个值得关注的问题。LinkedIn

  • 危机中“冷静语调的伪造”更具影响力
    也有声音指出,在混乱时,似是而非的叙述引导人的可怕之处。当影像或声音带有“权威感”时,情感往往先于验证。LinkedIn


这里要强调的是,许多社交媒体的反应不是“AI全是坏的”,而是将讨论引向**“验证和显示的设计”以及“危机时的信息传播方式”**。这比恐惧更接近具体的对策。



个人能做的:扩散时代的“损害最小化”检查清单

最后,整理一些读者可以采取的有效对策。在危机时尤为有效,虽然不显眼。

  • 对于快速传播的图片和视频,前5分钟不要相信(先搁置)

  • 寻找“第一手信息在哪里?”(官方发布、多个可信媒体)

  • 观看剪辑视频时,假设缺少前后文

  • 越是“看似真实的声音”越要怀疑(合成音频的成本在降低)AP News

  • 越是煽动愤怒和恐惧的帖子,扩散前越要深呼吸(情感是扩散的燃料)



总结:AI的“滥用”既是技术问题,也是社会运用问题

MarketBeat/AP的文章指出的不是“极端分子通过AI突然获得超级力量”这样简单的故事。相反,AI导致的工作量减少、扩散加速、验证被抛弃的信息环境扭曲才是危险所在。AP News


而纠正这种扭曲的关键,不仅在于模型的性能竞争,还在于标签化、共享、验证、教育等“低调的运用”。既然AI已经深入社会,能否转向“不仅仅依赖善意的设计”将成为2026年以后的分水岭。Combating Terrorism Center at West Point



参考文章

武装组织正在试验AI,预计其风险将增加。
来源: https://www.marketbeat.com/articles/militant-groups-are-experimenting-with-ai-and-the-risks-are-expected-to-grow-2025-12-14/

由Froala Editor提供

← 返回文章列表

联系我们 |  服务条款 |  隐私政策 |  Cookie政策 |  Cookie设置

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア All rights reserved.