«

Sora生成马丁・路德・金视频,OpenAI紧急叫停!

qimuai 发布于 阅读:11 AI新闻


Sora生成马丁・路德・金视频,OpenAI紧急叫停!

最新AI落地实操,点击了解:https://qimuai.cn/


那个能一键生成视频的Sora,最近闯了个不大不小的祸。
有人用它生成了马丁・路德・金的视频,OpenAI 紧急叫停——AI生成名人?不行。

这已经不是第一次。
每一次AI往前猛冲一步,我们都会停下来问:安全吗?会被滥用吗?这一次,轮到视频。


Sora还没正式开放,但OpenAI已经给它上了好几道“安全锁”。

第一道锁,叫“请高手来挑刺”。
他们找了一批专门研究虚假信息、仇恨言论和偏见的专家,组成“红队”,在Sora上线前拼命找漏洞。这不是走过场,是实打实的压力测试——你想到的、没想到的坏用法,他们都得提前想到。

第二道锁,藏在提示词和每一帧画面里。
你想生成极端暴力、色情内容?系统直接拒绝。你想用名人肖像、受版权保护的IP?没门。
OpenAI在输入和输出两端都装了“过滤器”,文本分类器审提示词,图像分类器逐帧审视频。一旦越界,生成立刻中断。

第三道锁,是给每一段AI视频“烙上印记”。
所有Sora生成的视频,都会带上C2PA元数据。简单说,就是一段隐藏的“数字水印”,标记这是AI出品。
以后你在社交平台看到一段视频,平台可以快速识别来源。真的假不了,假的——也真不了。

最后一道锁,写在用户协议里。
你不能上传未成年人的照片,不能生成色情、暴力内容,不能侵犯版权。一旦违规,账号封禁。
这不是说说而已,已经有用户因为生成马丁・路德・金视频被暂停使用。


但技术永远跑得比规则快。
Sora带来的,不只是“视频自由”,更是一连串的问号:

如果一切都能伪造,我们还能相信什么?
当谁都能生成以假乱真的名人视频,肖像权和版权还怎么保护?
创意工作者会不会被替代?就业市场会不会被冲击?

OpenAI自己也承认:现有的安全体系,只是起点。
随着真实世界的使用反馈涌来,策略会不断调整,防护会持续升级。
这是一场攻防战,没有终点。


我们正站在一个路口。
一边是前所未有的创作自由,一边是真实世界脆弱的信任体系。
OpenAI在Sora身上布下的“安全网”,是尝试,也是表态:
技术可以狂奔,但责任必须同行。

所有领域都值得用AI重做一遍。本文作者承接各种AI智能体和AI全域营销自动化软件、工作流开发,了解加微信:qimugood(读者也可此微信一起交流)。

AI每日进展

文章目录


    扫描二维码,在手机上阅读