跳转到内容

保护欧盟AI法

最后一次攻击欧盟AI法威胁危及该立法最重要的功能之一:防止我们最强大的AI模型对社会造成广泛伤害
发布日期:
11月22日
写者 :
新利体育官网首页直播回放
AI生成图像自Studity.AI超出DALL-E

目录

白宫正采取步骤定位强基础模型和英国召集专家研究潜在风险时, 德国、法国和意大利建议完全免用基础模型规范保护像Aleph Alpha和MistralAI等欧洲公司不受他们所宣称的过度约束这种办法有数个问题

AI不像其他产品

第一,关于没有其他产品受模型层次规范的论调 — — 而不是面向用户系统层次的论调 — — 无法令人信服。OpenAI等公司收费获取模型并大量视之为产品更何况,其他产品很少能为人提供恶意软件制作、武器制造或病原体传播指令物权规范

通用AI比锤子,因为锤子设计中没有任何能防止用户用它伤害他人持枪权维权者以相似理由表示:「枪不杀人,人确实有缺陷它们是任何伤害的重要推理然而,对原创开发及进一步分配技术的监管限制可降低其破坏力和致命性,而不论其使用方式如何,即使落入坏人之手。

下游AI系统开发商和部署者需要按具体情况减少风险数据设计选择模型基本构造生命周期安全性能应用开发者可以减少事实错误风险,但如果基础模型更准确和强健,则后续应用将大大增强可靠性和可信赖性如果初始培训数据包含固有偏差,这将增加歧视性输出,而不管产品开发者做什么

基础模型提供者-为商业利益向他人提供模型-应管治培训数据并测试系统网络安全、可解释性和可预测性,这完全无法单靠系统实现,这是合情合理的。强制内外部模型级测试,如红队测试,对验证能力与约束以确定模型是否适合单一市场供应至关重要。

单故障点基础模型缺陷全社会将产生深远后果,如果下游系统提供商背负重负,则无法追踪和减轻这些后果负重过大应用开发商不鼓励基础模型提供商设计适当安全控件,欧洲数字中小企业联盟有理提高代表45,000企业无硬法大提供者会把罐头推向那些对模型基础能力和风险知量难免和难免少者

行为规范非强制

第二,行为守则优先选择那些主张基础模型超出AI规则范围者仅仅是指南,缺乏强制公司为更广泛的公众利益行事的法律效力

code即使被采纳,也可以有选择地由公司解释,樱桃选择他们喜欢的规则,同时引起全联盟分块化和消费者保护不足因为这些模型基础遍及经济和社会的无数下游应用,行为守则无助于增加信任或吸收有益的创新AI

行为守则没有提供检测和纠正违规行为的明确方法创建基础模型开发者自满文化,并增加开发者以模型为顶层的不确定性并减少消费者选择时, 何必关心最终不产生任何错失后果呢?用户和下游开发商都无法避免产品,

代码自发性允许公司全然置之不理预测欧盟委员会无力阻止X(原Twitter)退出《编造信息业务守则》自律把民主决策外包给私有强权,而私有强权的自发性-非强制性-守法单靠它无法保护公众

模型卡不带新表

最后,Google研究者2019年介绍建议模型卡不是新概念,市场中已广泛使用加入AI法解决高级AI并不会改变任何东西AI模型卡的一个重大限制在于其主观性,因为它们依赖开发商自身评估而无第三方保证模型卡可提供培训数据信息,但无法替代完全模型测试和独立专家验证简单记录自律框架的潜在偏差无法有效减少偏差

在这方面,欧洲议会拟技术文献综合解决,预计将取自基础模型提供方议会授权比模型卡多得多细节,包括提供者名称、联系信息、商名、数据源、模型容量和限制、可预见的风险、缓解措施、培训资源、基准模型性能、测试优化结果、市场在成员国的存在和选用URL这种方法可确保彻底和标准化披露,改善支离破碎状况,同时增强透明度和问责制。

保护欧盟AI法免无关

排除基础模型规范是一个危险的错误任何其他产品都无法自主欺骗用户控件启动上游而非下游自愿行为守则和模型卡弱替代强制规范,风险使AI法成为纸老虎牺牲AI法保护4.5亿人不受已知AI危害的雄心,以确保信任和吸收会打乱原创平衡-特别是考虑到现有平衡推荐书有效平衡创新安全然然国际创举AI规则, 欧洲现在风险落后于美国, 后者可以通过美国规范建立全球安全标准

eflife.org首次发布 11月22日.

新利体育官网首页直播回放关于生命未来学院

新利体育官网首页直播回放未来生命学院是一个全球非盈利组织,由20+全时员工组成团队在美国和欧洲运营FLI自2014年创建以来一直努力引导变革技术开发以造福生命并远离极端大规模风险多查点新利体育下载安装或探索我们的工作.

我们内容

相关内容

约约其他文章

使用此内容时, 可能也会感兴趣 :

探索安全硬件解决方案安全AI部署

新利体育官网首页直播回放未来生命学院与Mithril安全局协作探索硬件支持AI治理工具透明性、可追踪性与保密性
11月30日

万里相加:比较关键AI Act建议

最近由意大利、法国和德国起草的非文件基本不提供基础模型或通用AI系统方面的任何规定,所提供的监督和执法远比现有替代方法少得多。
11月21日2023

可依赖信息分享吗?

并发现它们无法保证产品或服务的质量、可靠性和精度
2023年10月26日

笔试maxTegmark向AI透视论坛

新利体育官网首页直播回放未来生命学院院长向AI透视论坛讲解AI创新问题并提出了5项美国政策建议
2023年10月24日

我们中的一些项目

部分项目我们在这方面正在研究:

UK AI安全峰

11月1-2日, 英国将首次召集全球政府会议,峰会前,FLI制作并发布文件概述关键建议
2023年9月29日

增强欧洲AI法

关键建议包括扩大该法范围以规范通用系统并扩展禁止操作定义以包括任何类型操纵技巧和引起社会伤害的操纵
9月7日2023

新利体育官网首页直播回放签名生活未来学院通讯

新利18登陆加入四万+接受我们工作和事业领域定期更新
云层 放大器 交叉点 向上箭头 链接 脸书 兴趣 ytube系统 rss 微博 内存 面书空白 s-blank 连通空 兴趣 ytube系统 微博 内存
Baidu
map