当AI当了“导演”,法律如何为其划定边界?借助AI生成视频需要注意什么?

1. AI视频创作在发展过程中可能面临哪些法律风险?
AI视频现在可真是个热门话题。但是,它带来的问题也挺多的。最让人担心的是,你的脸和声音可能会被乱用。你想想看,AI可以把你说话的样子,或者你的脸,放到一些你根本没做过、没说过的事情上。比如说,有人可能会用你的脸,合成一个不雅视频。或者,让你说一些你根本不想说的话。而且,这些视频看起来还特别真。这一下子,你的名誉就毁了,别人对你的看法也会变差。这个事情,法律上叫侵害名誉权和人格权。高艳东老师就说过,这是AI视频最直接的风险。
但是,这还不是最糟的。AI视频技术让诈骗变得更容易了。骗子现在很会冒充别人。这是它的工作原理:骗子会拿到你的身份证照片。然后,他们用AI软件,让这张照片里的人眨眼睛,还会张嘴说话。这样,他们就能骗过银行或者电信公司的人脸识别系统。骗子就能非法激活电话卡,然后用这些卡去骗更多的人。湖北南漳公安在2025年9月就抓到过这样的案子。想想看,你的脸被这样用去骗人,是不是很可怕?
而且,AI视频还会被用来制造谣言。有些人会用AI做一些看起来很真的视频。比如,造假说哪里发生了自然灾害,或者交通事故。这些假视频一发出去,大家就容易恐慌。而且,人们看了这些假新闻,慢慢地就不相信任何信息了。这会破坏我们社会的信任。大家都不相信别人了,那社会还怎么运转呢?所以说,AI视频风险真的很多。
2. 模型训练使用海量影视、图文、视频素材,是否需要授权?
AI模型要变聪明,就要“学习”很多东西。它会看很多电影、图片、文章和视频。但是,这些素材大部分都是有版权的。那么问题来了,AI学习这些东西,需要得到原作者的同意吗?
现在咱们国家的法律,对这个事情还没有特别明确的规定。吴沈括老师说,法院在审理这类案子的时候,会看这些素材是不是合法得到的。而且,还会看AI生成的内容,有没有直接取代原作品的市场。如果素材来源合法,而且AI做出来的新东西,没有直接“抢走”原作品的生意,那么AI的学习过程可能算作**“合理使用”**。这就好比你看了很多书,然后写了一篇自己的文章,只要不是抄袭,一般都觉得没问题。
但是,这个“合理使用”的界限,其实挺模糊的。吴沈括老师解释说,判断一个东西是不是侵权,主要看它跟原作品是不是**“实质性相似”。意思就是,看看AI生成的东西,有没有复制原作品里特别有创意、有特点的部分。但是,如果用户在做AI视频的时候,自己也花了很多心思,比如调整提示词**、修改参数、后期剪辑等等,付出了自己的智力劳动,那么生成的内容,可能就不算侵权。这就好比一个厨师,他用了很多现成的食材,但是他用自己的手艺和创意,做出了一道独一无二的菜,那这道菜就是他的作品了。
而且,张凌寒院长有不同的看法。她觉得,如果AI只是把大量素材“嚼碎”了,然后“吐”出来一个跟原作品高度相似的东西,而且这个东西还能直接取代原作品的销售,那么想用“合理使用”来解释,就很难说得通了。这多半就是侵权,甚至是不正当竞争。你想,如果AI能轻松复制出一部几乎一样的电影,谁还会花钱去看原版呢?这对原作者来说,打击太大了。
那么,AI做的视频,版权到底归谁呢?这也是个大难题。两位专家都强调,关键要看人类投入了多少智慧和劳动。张凌寒院长说得很直白:如果你只是随便输入几个提示词,让AI生成了一段视频,那这段视频因为没什么原创性,通常是没有版权的。这就好像你告诉AI“画一棵树”,它画出来的树,你不能说你有版权。但是,如果你花时间写了详细的脚本,仔细调整了各种参数,还亲自动手剪辑修改,投入了实实在在的智力劳动,那么你对你有创意投入的部分,就可能享有版权。但是,这个事情得一个个案子具体分析,不是一概而论的。所以,AI内容的版权问题,真的挺复杂的。
3. 对于AI生成虚假信息、诈骗内容、色情暴力等内容,平台负有怎样的审查责任和合规义务?
平台,可不能对AI生成的内容撒手不管!当AI做出来假新闻、骗人的信息、甚至是色情暴力的东西,那些提供AI服务的平台,你们的责任很大。你们必须严格管理,不能装作没看见。吴沈括老师就说,现在的法律法规,要求平台负起**“全链条”的责任**。什么叫全链条?就是从头到尾,都要管好。
这是它的工作原理:
第一步:事前管理。
平台要做的第一件事,是备案。如果你的AI应用,可能影响很多人(比如有舆论属性),那你必须去备案。而且,还要请第三方机构来做安全评估,看看有没有风险。这就好像你建个大楼,得先拿到施工许可,还要请人检查安全一样。而且,平台还要做到实名认证。就是说,用AI的人,都得是真实的身份,不能是匿名瞎搞。这样,出了问题才能找到人。
第二步:事中管理。
当AI生成内容的时候,平台也有很多事情要做。最重要的一点,是**“打标签”。所有AI生成的内容,都必须有明显的标识**,让大家一眼就知道这是AI做的,不是真人。或者,可以在视频里加上隐形的数字水印,别人看不出来,但是技术上一查就知道是AI。而且,如果平台发现某个内容,可能是AI生成的虚假信息或者侵权内容,就得主动打上警示,提醒用户小心。这就好比食品包装上会写“内含过敏原”,提醒你注意。
第三步:事后处置。
如果AI生成了违法信息,比如假新闻、诈骗或者色情暴力内容,平台必须立刻采取措施。这是它的工作原理:
- 先做限制。 如果内容不好,但是还没到很严重的程度,平台可以限制它的传播,不让它传得太广。
- 然后下架。 如果内容明确违法,平台就要立刻把它从网上撤掉。
- 最后封号。 如果发布者屡次发布违法内容,平台可以直接封掉他的账号,不让他再用AI。
- 而且,平台必须有接受投诉的渠道。如果有人发现违法内容,可以随时向平台举报。平台收到了投诉,就得及时处理,不能拖着。
张凌寒院长就提醒说,平台不能说“技术是中立的”,所以不管。平台必须建立一套完整的风险控制系统。如果平台明明知道有安全隐患,但是不采取任何行动,结果导致违法信息到处传播,或者别人权益受损,那平台就得承担责任。可能要被罚款,甚至可能要负刑事责任。所以,平台在这方面,真的要非常非常小心,不能马虎。