查看原文
其他

吴恩达:美国加州SB-1047法案,将扼杀开源大模型

AI尼克 AI说热点
2024-09-05

 点这里 👇 关注我,获取更多的AIGC资讯~



01
文章摘要

【关 键 词】 AI监管、大模型、连带责任、开源风险、科技抵制

美国加州议会在今年2月7日提出了《SB-1047前沿AI大模型安全创新法案》,经过多次修订和审议,该法案已经通过了一些关键条款,距离正式发布已经很近。该法案旨在增强大模型的安全性和透明性,促进公平并吸引投资。然而,法案中的一些条款可能对科技企业和开发者带来负面影响。

根据法案的定义,像Meta的Llama-3这种训练成本超过1亿美元的模型被归类为“前沿模型”。如果这些模型被用于非法用途,开发者将面临严重处罚。这种连带责任制度类似于古代的连坐制度,可能会对科技企业和开发者造成极大的合规压力。

法案中的22603(a)(3)(4)条款要求开发者在提交证明时,如果发现错误需要停止模型的运行。第22603(b)条款则要求开发者报告任何潜在的AI安全事故,并对模型的能力做出保证。一旦大模型开源后被他人修改,开发者将面临合规风险的处罚。这使得企业和个人开发者在开源大模型权重时会非常谨慎,增加了合规成本。

此外,法案中的22604(a)(b)条款规定,开发者需要提交用户的所有资料,包括身份信息、信用卡号等,并每年提交一次资料,对用户的行为和意图进行评估。这些资料会被备份7年,并在海关和边境总署备案。开发者还需要具备紧急停止大模型的能力,以防用户将模型用于其他业务场景。这些严格的监管条例无形中加重了企业和开发者的负担。

吴恩达对该法案发表了深度长文回应,指出法案中对危险范畴的定义不合理,原作者可能会因他人使用模型做超出规定的事情而被处罚。他认为,应该监管的是AI应用程序而不是大模型本身。吴恩达举例说明,如果法律规定电机制造商对电机的有害使用负责,那么电机制造商要么关闭生产,要么将电机性能制造得非常小,难以大范围应用。

图灵奖获得者、Meta首席科学家Yann LeCun也表示,SB-1047法案将对加州的科技产业造成严重影响,可能会终结加州的科技产业。知名架构师Daniel Jeffries认为,SB-1047根本不是一个法案,而是一个“特洛伊木马”,由一群小范围利益群体制定,完全不顾AI大模型的好处。

普通用户对SB-1047法案也持抵制态度,认为让第一开发者为大模型永久负责并保证不会出现任何危险是难以执行的监管,会严重影响开源领域的发展。有用户建议,如果美国无法处理开源大模型的问题,可以将其交给中国来做,因为中国在大模型领域已经具备与OpenAI等科技巨头竞争的能力。

总的来说,SB-1047法案的通过可能会对AI大模型领域造成重大影响,阻碍技术创新,并增加企业和开发者的合规成本。

02
原文信息

【原文链接】 阅读原文 [ 2186字 | 9分钟 ]
【原文作者】 AIGC开放社区


推荐阅读

继续滑动看下一个
AI说热点
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存