保护欧盟AI法
目录
白宫正采取步骤定位强基础模型和英国召集专家研究潜在风险时, 德国、法国和意大利建议完全免用基础模型规范保护像Aleph Alpha和MistralAI等欧洲公司不受他们所宣称的过度约束这种办法有数个问题
AI不像其他产品
第一,关于没有其他产品受模型层次规范的论调 — — 而不是面向用户系统层次的论调 — — 无法令人信服。OpenAI等公司收费获取模型并大量视之为产品更何况,其他产品很少能为人提供恶意软件制作、武器制造或病原体传播指令物权规范
通用AI比锤子,因为锤子设计中没有任何能防止用户用它伤害他人持枪权维权者以相似理由表示:「枪不杀人,人确实有缺陷它们是任何伤害的重要推理然而,对原创开发及进一步分配技术的监管限制可降低其破坏力和致命性,而不论其使用方式如何,即使落入坏人之手。
下游AI系统开发商和部署者需要按具体情况减少风险数据设计选择模型基本构造生命周期安全性能应用开发者可以减少事实错误风险,但如果基础模型更准确和强健,则后续应用将大大增强可靠性和可信赖性如果初始培训数据包含固有偏差,这将增加歧视性输出,而不管产品开发者做什么
基础模型提供者-为商业利益向他人提供模型-应管治培训数据并测试系统网络安全、可解释性和可预测性,这完全无法单靠系统实现,这是合情合理的。强制内外部模型级测试,如红队测试,对验证能力与约束以确定模型是否适合单一市场供应至关重要。
单故障点基础模型缺陷全社会将产生深远后果,如果下游系统提供商背负重负,则无法追踪和减轻这些后果负重过大应用开发商不鼓励基础模型提供商设计适当安全控件,欧洲数字中小企业联盟有理提高代表45,000企业无硬法大提供者会把罐头推向那些对模型基础能力和风险知量难免和难免少者
行为规范非强制
第二,行为守则优先选择那些主张基础模型超出AI规则范围者仅仅是指南,缺乏强制公司为更广泛的公众利益行事的法律效力
code即使被采纳,也可以有选择地由公司解释,樱桃选择他们喜欢的规则,同时引起全联盟分块化和消费者保护不足因为这些模型基础遍及经济和社会的无数下游应用,行为守则无助于增加信任或吸收有益的创新AI
行为守则没有提供检测和纠正违规行为的明确方法创建基础模型开发者自满文化,并增加开发者以模型为顶层的不确定性并减少消费者选择时, 何必关心最终不产生任何错失后果呢?用户和下游开发商都无法避免产品,
代码自发性允许公司全然置之不理预测欧盟委员会无力阻止X(原Twitter)退出《编造信息业务守则》自律把民主决策外包给私有强权,而私有强权的自发性-非强制性-守法单靠它无法保护公众
模型卡不带新表
最后,Google研究者2019年介绍建议模型卡不是新概念,市场中已广泛使用加入AI法解决高级AI并不会改变任何东西AI模型卡的一个重大限制在于其主观性,因为它们依赖开发商自身评估而无第三方保证模型卡可提供培训数据信息,但无法替代完全模型测试和独立专家验证简单记录自律框架的潜在偏差无法有效减少偏差
在这方面,欧洲议会拟技术文献综合解决,预计将取自基础模型提供方议会授权比模型卡多得多细节,包括提供者名称、联系信息、商名、数据源、模型容量和限制、可预见的风险、缓解措施、培训资源、基准模型性能、测试优化结果、市场在成员国的存在和选用URL这种方法可确保彻底和标准化披露,改善支离破碎状况,同时增强透明度和问责制。
保护欧盟AI法免无关
排除基础模型规范是一个危险的错误任何其他产品都无法自主欺骗用户控件启动上游而非下游自愿行为守则和模型卡弱替代强制规范,风险使AI法成为纸老虎牺牲AI法保护4.5亿人不受已知AI危害的雄心,以确保信任和吸收会打乱原创平衡-特别是考虑到现有平衡推荐书有效平衡创新安全然然国际创举AI规则, 欧洲现在风险落后于美国, 后者可以通过美国规范建立全球安全标准