政策工作
改善AI管理民生应用 自主武器和核发射
导 言
改善变革技术治理
18新利lucikFLI政策团队努力通过改善人工智能国家和国际治理来减少变换技术带来的极端大规模风险
FLI率先为达此目的作出多项努力最显著的是,2017年,我们创建了有影响力的AsilomarAI原则,一套治理原则由数以万计的AI研究界和业界高手签名签署最近,联合国秘书长咨询FLI民间社会对AI数字合作路线图的建议
民营领域,我们建议欧洲联盟如何加强未来防伪即将出台的欧盟AI法和U.S.决策人如何最优治理高级AI系统.在军事领域,我们主张在联合国缔结一项自主武器条约,并通知决策者将AI系统核发射的风险
我们的工作
政策项目
UK AI安全峰
11月1-2日, 英国将首次召集全球政府会议,峰会前,FLI制作并发布文件概述关键建议
增强欧洲AI法
关键建议包括扩大该法范围以规范通用系统并扩展禁止操作定义以包括任何类型操纵技巧和引起社会伤害的操纵
18l18luck新利
18l18luck新利
军事AI应用快速扩展开发教育素材说明某些小类AI驱动武器会如何危害国家安全并破坏文明稳定,
开发可能AI规则
美国政策团队向国会和州院决策者建议如何确保AI系统安全并从中受益
UN全球AI治理
我们参与联合国工作历时数年并提出了各种倡议,包括数字合作路线图和全球数字契约
减轻AI整合核发射的风险
避免核战争符合所有国家的国家安全利益我们采取一系列举措来降低这一风险当前焦点是减轻AI整合核指令、控制与通信的新风险
地理焦点
哪里能找到我们
我们是一个混合组织政策工作大都在美国加利福尼亚州)、欧盟(布鲁塞尔)和联合国(纽约和日内瓦)。
美国
在美国,FLI努力增加联邦AI安全研究开支并增强NISTAI风险管理框架
欧洲联盟
在欧洲,我们的重点是加强欧盟AI法并鼓励欧洲国家支持自主武器条约
联 合 国
在联合国,FLI努力推动通过一项关于自主武器的具有法律约束力的文书。
我们内容
特征文章
以下是选择与我们政策工作相关的文章
探索安全硬件解决方案安全AI部署
新利体育官网首页直播回放未来生命学院与Mithril安全局协作探索硬件支持AI治理工具透明性、可追踪性与保密性
11月30日
保护欧盟AI法
最后一次攻击欧盟AI法威胁危及该立法最重要的功能之一:防止我们最强大的AI模型对社会造成广泛伤害
11月22日
万里相加:比较关键AI Act建议
最近由意大利、法国和德国起草的非文件基本不提供基础模型或通用AI系统方面的任何规定,所提供的监督和执法远比现有替代方法少得多。
11月21日2023
可依赖信息分享吗?
并发现它们无法保证产品或服务的质量、可靠性和精度
2023年10月26日
AI许可建设更美好未来:处理当前伤害和新威胁
新利体育官网首页直播回放EncodeJustice和生命未来学院联合公开信呼吁执行三项具体的美国政策,以解决AI当前和未来的危害问题。
2023年10月25日
笔试maxTegmark向AI透视论坛
新利体育官网首页直播回放未来生命学院院长向AI透视论坛讲解AI创新问题并提出了5项美国政策建议
2023年10月24日
六月缓发信过期,专家调控高级AI开发
本周将标志自公开信请求暂停大AI实验六个月后六个月自那以来发生了很多事签字者反省下一步需要发生的事情
九一二三
新利体育官网首页直播回放US Service听证会“AI监督:规范原则”:生命未来学院声明
并提供五大有效监督原则
2023年7月25日
联系我们
让你联系对人
三个工作日内,我们尽力回答所有查询球队分布遍及全球, 所以请深思熟虑并记住与你联系的人 可能不在时区