AI热点 2 hours ago 53 Views 0 Comments

9月1日起,AI生成内容需持“身份证”,不标识或面临严格处罚

AI中国
AI中国

Published 9813 Articles

9月1日,由国家互联网信息办公室、工业和信息化部等部门联合发布的《人工智能生成合成内容标识办法》(以下简称《办法》),与配套强制性国家标准《网络安全技术人工智能生成合成内容标识方法》正式生效。

汇业律师事务所律师史宇航在接受《IT时报》记者采访时表示,《办法》的意义不仅在于对生成合成服务提供者(如模型开发者)提出标识要求,还对内容传播服务提供者(如社交媒体平台)规定了核验和添加标识的义务。这意味着监管责任覆盖了内容生成到传播的全过程,形成全链条责任体系,有助于从源头到终端对AI生成内容进行有效管理,而且给国际社会提供了AI生成内容治理的一个范例。

《IT时报》记者实测发现,抖音、小红书、B站等主流视频网站已允许创作者主动标识视频中的AI生成内容,作者可以在发布视频时,在“创作声明”中注明该内容是否由AI生成。不过,对于并未主动标识的AIGC(AI生成)内容,平台的识别能力还相对较弱。

“AI换脸”如不标识,将面临严格处罚

记者在抖音、B站、小红书三个平台分别发布了3条AI生成的视频,其中一条主动标注了AIGC,另两条没有标注。

发布完成后,记者注意到,主动标注后,B站的AI标识相对明显,视频的左下角和简介中均显示了相关提示,而小红书则较为隐蔽,只有点击作者头像才能看到“笔记含AI生成内容”的标识。

但对于未主动标注的另外两条AI视频,平台识别得不是特别准。抖音自动识别出其中一条,并提示“作品含有AI生成内容”,B站和小红书的系统则两条都未有效识别出。

整体来看,各平台在AI生成内容的检测和提示机制上仍存在差异,自动识别和强制标识能力有待提升。

之所以强调平台主动核验,源自当前AI滥用案例屡见不鲜。据央视报道,某博主利用AI仿冒奥运冠军全红婵声音带货土鸡蛋,17条视频累计销售超4.7万件,严重侵犯了运动员及家人权益,也暴露了平台监管的缺位……

随着AI技术的普及,“克隆”特定人物面貌和声音已可实现“一键式”操作。

今年3·15期间,记者也曾制作过几条明显带有AI换脸痕迹的视频,并尝试在各大平台发布。令人惊讶的是,所有视频均顺利上传,且未被平台自动检测为AI生成内容。甚至当记者在标题中明确标注了“AI换脸”,平台也依然没有触发任何警示。

在AI换脸视频的审核机制上,各大平台此前显然存在明显漏洞,对AIGC内容的监测和管理相对松散。

《办法》实施的初衷之一即规范平台对AI生成内容的管理,《办法》实施后,“深度伪造”内容如不加声明,将面临严格处罚。例如,用户利用AI换脸、合成语音等方式制作虚假视频,平台若未履行核验和提示义务,均可能被追责。

史宇航也认为,《办法》及其配套国标的生效,对企业和开发者(即服务提供者和技术支持者)施加了明确且具体的技术和管理义务,核心约束力体现在“必须标识”和“规范标识”两个层面。

《办法》生效后,一个最可能“撞上处罚枪口”的典型现象是:短视频平台上的用户使用“AI换脸”或“AI声音模仿”功能,制作并发布模仿某位名人的恶搞或不实信息短视频,而该短视频App的开发者(服务提供者)未按规定在生成的视频上添加任何“AI生成”的显著标识。

史宇航表示,对于AI生成服务提供者,处罚措施包括警告、通报批评、责令限期改正;对于传播平台,如果平台未尽到核验和提示义务,也可能面临相应的监管处罚;对于违法使用AI的恶意用户,也可能面临平台关停账号、限制功能等一系列处罚,甚至还可能面临民事、行政乃至刑事责任。

创作者的挑战与适应

从创作者的角度看,《办法》的实施无疑带来了新的挑战。

AI视频创作者俞国汉告诉《IT时报》记者,随着平台对AI生成内容规范的逐步收紧,创作者的感知变得愈发明显。

“现在大家都很小心,必须遵守新的规则。”在俞国汉看来,行业的规范化对大家来说是好事,随着AI技术的发展,一些伪造图片骗取流量的做法,变得更加隐蔽和难以识别,即便是业内人士,也很难一眼辨别,因此防止这种不规范行为显得尤为必要。

潜在的风险则是,有些甲方可能排斥带有明显AI标识的内容,“如果内容带有明显的AI标识,部分甲方可能就不想买账,创作者收益也可能因此减少。”俞国汉说。

但长远来看,这是内容创作者的必经之路。俞国汉颇为感慨的是,从2022年底ChatGPT发布至今,平台对AI创作内容的管理越来越严格,这既是对创作者的挑战,也意味着AI创作正在走向更加规范的未来。

另一位创作者阿远(化名)则认为,随着通用大模型能力的提升和开源社区的繁荣,创作者即使不懂技术也可以轻松生成高质量内容。

作为一名技术小白,阿远在不到一天的时间内,使用近百张图片在阿里魔搭平台训练出一个能够生成“小红书风格”图片的专属模型,“几乎没有任何门槛”。

记者试用了阿远训练的模型,仅输入简单的提示词,几秒钟后便生成了逼真的“小红书风格”图片。像这样的图片,该模型在平台上每天能生成1000张。

在生成过程中,魔搭平台仍然提供了“无水印生成”与“添加AI标识并生成”两个选项,在选择“无水印生成”时,平台会提示用户:“请自行落实标识及法定义务,相关责任由您独立承担”。

对此阿远认为:“平台没有强制打标,可能是考虑到平台出的素材直接打了AI标识会影响创作,创作者可以在创作完成之后自己标注。”

不过,对于这些“低门槛”制作的图片,阿远认为,必须标注,“否则即便我们这些‘玩家’也很难看出是不是AI生成的”。

创建一个属于自己的AI大模型,门槛已经越来越低。魔搭平台是国内较大的AI大模型开源社区,可以说是国内开源大模型超市。记者上传三张图片后,选择某个开源基础模型后,模型训练就开始了,不管是车、人或者其他形象,都可以进行训练。

如果你上传的图片都是一个人的,以后这个模型出的人物就可以‘锁脸’,明星图片也可以训练。”阿远坦言,将训练出的模型下载到本地,便可以随意生成内容,不会受到平台限制,唯一的成本可能是硬件投入,以阿里万相训练的视频模型为例,下载到本地使用,至少需要数万元的高配电脑,需要生成的视频质量越高,对硬件的也要求也“水涨船高”。但一旦涉及发布,便仍需遵守《方法》标注的要求。

当技术放低了门槛,法律的底线便应相向提高,这样才能对低成本的不法行为起到威慑和约束作用。

谁的版权?原始素材还是AI创作者

AI创作的便利和普及背后,一个无法忽视的问题是知识产权。阿远训练的模型使用了大量来自小红书的图片,且并未得到这些图片原作者的授权。那么,阿远的AI模型生成的图片所有权究竟归谁呢?是图片的原作者,还是将素材上传训练的创作者?还是平台本身,抑或最终生成图片的使用者?

这种模糊的知识产权界定,正是当前AI创作中亟待解决的重要问题。随着《办法》的实施,平台对AI生成内容的管理趋于严格,如何平衡创作者的创作自由与原作者的权益保护,将成为未来AI创作领域亟待探索的难题。

史宇航表示,AI作品的版权在法律上争议很大,不同案例中,法院的认定并不一致,《办法》中要求文件元数据中的隐式标识必须包含“生成合成服务提供者”“内容制作编号”等关键信息,“理论上每一份AI生成的内容都可以追溯到其源头的服务平台和具体的生成记录。该技术可以帮助在争议发生后,识别原始作者。”

对此,史宇航建议,对于使用AI工具进行创作的个人用户和企业,生成的文本、图片、音视频等内容应在合理位置添加“AI生成”或类似的显著文字提示。

“这不仅是合规要求,也是向公众和版权机构表明内容属性的第一步,避免了‘冒充原创’的嫌疑。”他建议,用户(无论是个人还是企业)必须仔细阅读用户服务协议,了解平台对于生成内容版权归属的规定、使用限制以及侵权责任的划分,这直接关系到用户是否有权将生成内容用于商业目的,以及一旦发生侵权,责任由谁承担。

此外,为了在潜在版权纠纷中有效举证、厘清责任,以及应对监管部门的检查,史宇航还建议个人和企业在使用AI工具输出内容时,系统地做好合规记录,比如具体使用了哪个AI服务提供商;保存完整的输入提示词并保留AI生成的原始文件,这是证明创作意图和人类智力输入的最直接证据;详细记录对AI生成初稿进行了哪些修改、编辑和重构;并完整保存与AI服务提供者签订的用户服务协议的副本或开源模型和数据集的开源许可协议。

图片/  IT时报  小红书   豆包AI

本文来自微信公众号 “IT时报”(ID:vittimes),作者:贾天荣,36氪经授权发布。

AI中国

AI中国

9813 Articles 1656177 Views 950300 Fans

Comment (0)

睡觉动画