OpenAI & DeepMind 员工公开信:警示 AI 监管缺失风险

来源: OSCHINA
2024-06-06 15:55:09

来自 OpenAI 和谷歌 DeepMind 的十数名前任及现任员工联名签署了一份新的公开信,表达了对先进人工智能技术所蕴含风险的担忧;包括进一步加剧现有的不平等、操纵和误导,以及自主人工智能系统失去控制可能导致人类灭绝等风险。

这些员工认为,AI 公司掌握着大量非公开信息,包括其系统的能力和局限性、保护措施的充分性以及不同类型伤害的风险水平。受经济利益驱使,他们有着强烈的经济动机来逃避有效的监督,现有企业治理架构不足以改变这一点,但来自政府的监管力度却远远不够。

“这些公司目前只承担与政府分享部分相关信息的微弱义务,对民间社会更是没有任何义务。我们认为,不能指望它们都自愿分享这些信息。

只要政府对这些公司没有有效的监督,现任和前任员工就是少数可以要求他们向公众负责的人。然而,广泛的保密协议阻止我们表达我们的担忧,除非向那些可能未能解决这些问题的公司表达。普通的举报人保护措施是不够的,因为它们侧重于非法活动,而我们担心的许多风险尚未受到监管。鉴于整个行业都发生过此类案件,我们中的一些人有理由担心各种形式的报复。”

因此,公开信呼吁行业相关公司遵守四项原则。包括:

  • 公司不会签订或执行任何禁止“贬低 ”或批评公司与风险有关的问题的协议也不会通过妨碍任何既得经济利益来报复与风险相关的批评;
  • 公司将为现任和前任员工提供可验证的匿名流程,以便他们向公司董事会、监管机构以及具有相关专业知识的适当独立组织提出与风险相关的担忧;
  • 公司将支持公开批评文化,并允许其现任和前任员工向公众、公司董事会、监管机构或具有相关专业知识的适当独立组织提出对其技术的风险相关担忧,只要商业秘密和其他知识产权利益得到适当保护;
  • 公司不会对在其他流程失败后公开分享风险相关机密信息的现任和前任员工进行报复。在避免泄露机密信息的前提下,现任和前任员工应保留向公众报告其疑虑的自由。
展开阅读全文
点击引领话题📣 发布并加入讨论🔥
0 评论
0 收藏
分享
返回顶部
顶部