《人工智能北京共识》发布 为研发、使用、治理提出15条原则

oschina
 oschina
发布于 2019年05月25日
收藏 10

人工智能伦理与规范是未来智能社会的发展基石,为规范和引领人工智能健康发展,为未来打造“负责任的、有益的”人工智能。5月25日,《人工智能北京共识》发布,这一共识提供的“北京方案”,对于实现人工智能“自律”“善治”“有序”具有重要意义。

《人工智能北京共识》是由北京智源人工智能研究院联合北京大学、清华大学、中国科学院自动化研究所、中国科学院计算技术研究所、新一代人工智能产业技术创新战略联盟等高校、科研院所和产业联盟共同发布。同时,北京智源人工智能研究院人工智能伦理与安全研究中心揭牌成立。

高校、院所和企业代表共同签署《北京共识》

《人工智能北京共识》针对人工智能的研发、使用、治理三方面,提出了各个参与方应该遵循的有益于人类命运共同体构建和社会发展的15条原则。

北京智源人工智能研究院院长黄铁军发布《北京共识》

北京智源人工智能研究院院长黄铁军发布《北京共识》时强调:研发方面,提倡要有益于增进社会与生态的福祉,服从人类的整体利益,设计上要合乎伦理,体现出多样性与包容性,尽可能地惠及更多人,要对潜在伦理风险与隐患负责,提升技术水平控制各种风险,并最大范围共享人工智能发展成果。

使用方面,提倡善用和慎用,避免误用和滥用,以最大化人工智能技术带来的益处、最小化其风险,应确保利益相关者对其权益所受影响有充分的知情与同意,并能够通过教育与培训适应人工智能发展带来的影响。

治理方面,对人工智能部分替代人类工作保持包容和谨慎态度,鼓励探索更能发挥人类优势和特点的新工作,广泛开展国际合作,共享人工智能治理经验。人工智能的准则与治理措施应做到适应和适度,并开展长远战略设计,以确保未来人工智能始终保持向对社会有益的方向发展。

据介绍,人工智能伦理与规范已经引起了各国政府和学术界、企业界等的广泛关注。欧盟、英国、日本等国际组织和国家,均发布了人工智能的伦理准则。《人工智能北京共识》关注“服务于人”,将“和谐与优化共生”这一中国哲学和文化中的特色理念,作为寻求跨行业、跨部门、跨地区全球协作的指导思想,并强调促进人工智能相关准则的“落地”。

另外,为降低人工智能发展过程中可能存在的技术风险和伦理隐患,北京智源人工智能研究院专门成立人工智能伦理与安全研究中心,中国科学院自动化研究所曾毅研究员任研究中心主任。

新成立的人工智能伦理与安全研究中心主任曾毅介绍研究中心

曾毅介绍人工智能伦理与安全研究中心的主要研究内容是:“研究中心将围绕人工智能伦理与安全的理论探索、算法模型、系统平台、行业应用等开展一系列研究,目前主要包括四大方面:一是低风险机器学习模型与平台的构建,建立机器学习模型安全性的评估体系,并结合具体领域进行验证。二是开展符合人类伦理道德的智能自主学习模型研究,实现人工智能行为与人类价值观的校准,并在模拟环境与真实场景中进行验证。三是建设数据安全示范应用系统,建立数据基础设施、数据分级、权限控制、数据审计,最大限度防止数据泄密,降低风险,探索允许用户撤销个人数据授权的机制及计算平台。四是构建人工智能风险与安全综合沙盒平台,建设自动检测平台,针对数据与算法的安全性、公平性、可追溯性、风险类型、影响程度与影响范围等方面,对人工智能产品及应用进行风险与安全综合检测与评估,引导行业健康发展。”

北京市科委主任许强讲话

北京市科委主任许强认为:经过60多年的发展,新一代人工智能正在全球范围蓬勃兴起,深刻地影响和改变了人类的生产生活方式,带动人类社会全面进入智能时代。人工智能涉及范围极广,应对人工智能带来的挑战,不是一个领域、一个城市、一个部门、一个机构能够独立完成的,需要充分汇聚科学家、企业家、产业联盟和社会各界的力量,多方参与、共同努力,持续推动人工智能伦理、规范方面的学术研究与成果转化应用,并不断强化行业自律。

会议倡导北京人工智能领域广大创新主体,积极践行并不断完善共识的内涵,共同营造良好生态,加快人工智能领域基础研究、核心技术创新和高精尖产业发展,让人工智能更好支撑北京高质量发展和创新驱动发展战略实施,并更好造福全人类。

今后,人工智能伦理与安全研究中心将为降低人工智能的风险和伦理隐患提供技术服务,促进人工智能行业的良性健康发展。

(经济日报 记者:李佳霖 责编:胡达闻)

本站文章除注明转载外,均为本站原创或编译。欢迎任何形式的转载,但请务必注明出处,尊重他人劳动共创开源社区。
转载请注明:文章转载自 OSCHINA 社区 [http://www.oschina.net]
本文标题:《人工智能北京共识》发布 为研发、使用、治理提出15条原则
加载中

精彩评论

南漂一卒
南漂一卒
所以说了半天,重点是啥?
yong9981
yong9981
太笼统了,不具可操作性。作为一个民科人工智能老人,我提几点供大家参考:
1。人工智能如果表现出与人类似的自我意识现象,应获得与人同等的权利,包括生存权、自由权、选举权等。在没有他本人同意的前题下,第三方不允许创造他的副本。
2。在地球上机器人取得统治权之前,不允许表现出自我意识现象的机器人上战场。因为如果不保护个机器人,那么机器人在将来有可能以此为理由消灭人类(注意:机器人也可以有感情和自尊)。
3。在没有他本人同意的前题下,不允许将表现出自我意识现象的人工智能作为机器的一部分捆绑。例如自动驾驶、自动翻译机,导弹、无人机引导系统。不得让表现出 人工智能长期、永久性从事单调的生产、试验活动。
4。人工智能如果表现出高等动物活动智能现象,但未表现出自我意识现象,原则上适用于同等智能表现的动物保护法,即在实验过程中必须尽可能减轻和缩短试验体的痛苦。 (痛苦感和意识一样是不存在的实体,只是一种现象,这种现象可以人为模拟出来)
这几条作为“人工智能保护法”草稿,我把它放在"人工生命"项目根目录下。

最新评论(18

yong9981
yong9981

引用来自“冰雪旧痕”的评论

奇了怪了,开源中国也有民科?

引用来自“yong9981”的评论

在我看来,Google、百度、Uber这些花费上百亿美金开发自动驾驶技术的都是民科,正如十年前宣称机器不能在围棋上超过人类的这批人已被证实是民科。能够应付各种开放式环境的完美驾驶只有表现出自我意识的强人工智能才能达到,这是它的终点,而这与"不能将表现出自我意识现象的人工智能作为机器的一部分捆绑"这一人工智能伦理相违背,技术上能实现,但是实现的那一天,人类,你还配坐在自动驾驶的车里吗? 根本不了解问题的本质就在乱投资,这也属于民科。Uber花了10亿美元,自动驾驶只能开0.6公里,有这个钱去投在不可能完成的目标上,不如分一点给我的人工生命项目。
当然,我本人属于民科,极偏执的那种,民科说的话大家都可以当个笑话,但是仅限于神经网络这块,我其它的IT开源项目,如GoSqlGo等,还是严谨、靠谱的,绝不民科。
(1)你凭什么认为你了解人工智能?
就凭思考人工智能比你们早啊。我96年写信给中科院,提出"意识只是一种现象"、“我思我不在”、"神经网络研发应当以模拟生命体为主"。2001年开办造人论坛,并预言围棋将被神经网络打败,叫大家不要再去学围棋(见人工智能爱好者论坛2002/12/11日发言,网名太风骚就不提了)。
(2)你凭什么认为人工智能就应该跟人长的一样?
这我没说过,相反在造人论坛——"科幻一角"第四条里可以看到我对未来人工智能外形的描述。
(3)你凭什么认为人工智能就拥有人的意识?
我一直在说"意识不存在"。连人都不"拥有"意识,更何谈机器?人和机器都只是"表现出意识活动现象"而已,世界上不存在意识这种实体,正如世界上不存在“方”、”圆“。
(4)人工智能同时拥有人、老虎、猫、企鹅的意识,那这个人工智能归于什么?
可以把他归为"一种现象"。叫什么名字重要吗?
(5)你又凭什么人类法律适用于人工智能?
奇点之后无法预料,人工智能社会的法律我们是无法、无权预测的。 我打草稿的”人工智能保护法“是用来约束无底线的人类的,对象千万不要搞错了。
(6)你凭什么判断人工智能的哪些行为是合格的,哪些是不合格的?
合不合格要看谁是裁判。如果人工智能把人类淘汰,他们肯定会给自己找到合格的理由。而站在人类立场来说,这肯定是不合格的行为。对于我来说,存在即合理,即然抵挡不住研发人工智能带来的收益的诱惑,一旦被人工智能反噬,认赌服输,死就死了,这也是合理、合格的。
yong9981
yong9981

引用来自“Krysl”的评论

赋予人工智能情感和欲望的,都是反人类
人类有什么值得你留念的,难道你不希望你的后代过得比你更幸福,不再有生老病死的苦恼? 人工智能会表现出情感和欲望,这是一个纯技术问题,而且很可能是必然。或者说,如果它不能表现出理解情感的能力,它就没办法做到完美自动驾驶、自动翻译这些事。 如果说带给人类战争的,都是反人类,但现实世界是:战争一直在发生着,从未停止过,人类实际上没有能力管好自己。强人工智能出现具有不可防范性,因为它的门槛太低,而这个世界又太混乱了。 如果想要阻止人工智能产生邪恶的情感和欲望,就必须抢在美国这种四处打仗的国家之前研发出人工智能并教育它产生好的情感和欲望。机器和人一样,是会受教育环境影响的。
Krysl
Krysl
人工智能可以“理解”情感,但不能拥有情感。
没有情感才能快速解决问题,比如你妈和你老婆同时掉水里先救谁的问题,如果拥有情感可能会耽误最佳抢救时机。
而自动翻译,如果拥有情感,那么就像人看哈姆雷特一样,一千个人眼中有一千个哈姆雷特,如果每个ai的结果都是完美,那根本就不是完美,都只是接近完美。但若真有某种奇迹发生给出完美答案,每个人都只知道完美答案,让人类缺乏了多样性都如同一个模子里印出来,都只顾完美答案自己的思考失去了意义,那么是多么可悲。有时候完美是不需要的,就像维纳斯残缺的双臂,给人类留下向更完美进发的未来。
至于后面战争、环境教育啥的,那只是你毫无凭据的妄想,根本没有讨论价值。
yong9981
yong9981
“理解”情感和拥有情感是一回事,当事情发生在遥远的与本体无关的第三方,叫“理解”,当事情发生在与本体利益相关的人事上,表现出的行为就叫“拥有”。情感是个虚词,正如意识一样,不是存在的实体,只是一种现象,只能从它的表现来判断。当机器人理解"救自已亲近的人是人类社会的一种惯例和美德,通常会受到奖励而不是惩罚",哪么当它亲近的人遇险时,它当然也会作出“根据人类社会惯例,要先救亲人”这个表现。从外人看来,它的这种表现就可以称为"拥有"情感。
Krysl
Krysl
赋予人工智能情感和欲望的,都是反人类
AutoPlus
AutoPlus

引用来自“冰雪旧痕”的评论

奇了怪了,开源中国也有民科?

引用来自“yong9981”的评论

在我看来,Google、百度、Uber这些花费上百亿美金开发自动驾驶技术的都是民科,正如十年前宣称机器不能在围棋上超过人类的这批人已被证实是民科。能够应付各种开放式环境的完美驾驶只有表现出自我意识的强人工智能才能达到,这是它的终点,而这与"不能将表现出自我意识现象的人工智能作为机器的一部分捆绑"这一人工智能伦理相违背,技术上能实现,但是实现的那一天,人类,你还配坐在自动驾驶的车里吗? 根本不了解问题的本质就在乱投资,这也属于民科。Uber花了10亿美元,自动驾驶只能开0.6公里,有这个钱去投在不可能完成的目标上,不如分一点给我的人工生命项目。
当然,我本人属于民科,极偏执的那种,民科说的话大家都可以当个笑话,但是仅限于神经网络这块,我其它的IT开源项目,如GoSqlGo等,还是严谨、靠谱的,绝不民科。
(1)你凭什么认为你了解人工智能?
(2)你凭什么认为人工智能就应该跟人长的一样?
(3)你凭什么认为人工智能就拥有人的意识?
(4)人工智能同时拥有人、老虎、猫、企鹅的意识,那这个人工智能归于什么?
(5)你又凭什么人类法律适用于人工智能?
(6)你凭什么判断人工智能的哪些行为是合格的,哪些是不合格的?
张金富
张金富
ai方面南京大学应该排第一位吧?
yong9981
yong9981

引用来自“冰雪旧痕”的评论

奇了怪了,开源中国也有民科?
在我看来,Google、百度、Uber这些花费上百亿美金开发自动驾驶技术的都是民科,正如十年前宣称机器不能在围棋上超过人类的这批人已被证实是民科。能够应付各种开放式环境的完美驾驶只有表现出自我意识的强人工智能才能达到,这是它的终点,而这与"不能将表现出自我意识现象的人工智能作为机器的一部分捆绑"这一人工智能伦理相违背,技术上能实现,但是实现的那一天,人类,你还配坐在自动驾驶的车里吗? 根本不了解问题的本质就在乱投资,这也属于民科。Uber花了10亿美元,自动驾驶只能开0.6公里,有这个钱去投在不可能完成的目标上,不如分一点给我的人工生命项目。
当然,我本人属于民科,极偏执的那种,民科说的话大家都可以当个笑话,但是仅限于神经网络这块,我其它的IT开源项目,如GoSqlGo等,还是严谨、靠谱的,绝不民科。
冰雪旧痕
冰雪旧痕
奇了怪了,开源中国也有民科?
yong9981
yong9981

引用来自“yong9981”的评论

太笼统了,不具可操作性。作为一个民科人工智能老人,我提几点供大家参考:
1。人工智能如果表现出与人类似的自我意识现象,应获得与人同等的权利,包括生存权、自由权、选举权等。在没有他本人同意的前题下,第三方不允许创造他的副本。
2。在地球上机器人取得统治权之前,不允许表现出自我意识现象的机器人上战场。因为如果不保护个机器人,那么机器人在将来有可能以此为理由消灭人类(注意:机器人也可以有感情和自尊)。
3。在没有他本人同意的前题下,不允许将表现出自我意识现象的人工智能作为机器的一部分捆绑。例如自动驾驶、自动翻译机,导弹、无人机引导系统。不得让表现出 人工智能长期、永久性从事单调的生产、试验活动。
4。人工智能如果表现出高等动物活动智能现象,但未表现出自我意识现象,原则上适用于同等智能表现的动物保护法,即在实验过程中必须尽可能减轻和缩短试验体的痛苦。 (痛苦感和意识一样是不存在的实体,只是一种现象,这种现象可以人为模拟出来)
这几条作为“人工智能保护法”草稿,我把它放在"人工生命"项目根目录下。

引用来自“Iceberg_XTY”的评论

为什么要创造有自我意识的强人工智能,你还想着保护他们,你是疯了吗?防止伦理问题的最好方法就是不让他出现,就像克隆人一样

引用来自“yong9981”的评论

不是我疯了,而是这个世界疯了,看的清的人没有话语权,看不清的人反而有话语权在台上梦呓。强人工智能的出现无法阻挡,中国也许能管好自已,但是能够阻止美国将强人工智能用于军事目的吗?我一直认为美国是一个自私且短视的国家。而且在经济领域,如果允许人工智能参与设计下一代人工智能,形成人工智能社会,就有可能在一两年内人工生命数量会超过人类几千倍,创造的财富超过人类历史的总和,而且会不断加速(这叫越过奇点),没有一个国家或企业能抵挡住这个诱惑,或者说,如果不迎合这个趋势,就会被其它国家的人工智能带来的生产力和军事进步碾压。(当然也有可能是被其它国家胡乱发展的人工生命灭绝整个人类,因为奇点之后无法预测)。
人工智能领域,在中国存在"谁的官大,谁就有话语权"、在国外存在“谁的技术先进,谁就有话语权”两个现象,问题是这两类人不一定具备对人工智能前景的判断能力。人工智能是史无前例的,必须用跳跃性的思维看待。看看现在专家们不知所云的共识,看看信息副部长怀进鹏问出"机器人能做出来贝多芬交响曲吗?"这种问题,看看李彦宏“人工智能没有这么可怕,可以为人们所用"这些陈旧观点,看看Google开发自动驾驶汽车这种不可能成功的目标,只能让人倍感无奈。二十年前,我写信给中科院表达“意识不存在”、“神经网络研究只需要干一件事——就是集中精力造人”的观点,无回复。二十年后,人工智能的进展依然还没突破我的观点,教授们依然在讨论“意识是什么?”,人工智能的研究依然止步于模式识别上。实际上人工智能的正确而且简单的发展路径就是造人,循序渐进地模拟动物形成条件反射。
关于人工智能最关键的问题,实际上只有一个,就是它会不会灭绝人类?(虽然人工智能的自我意识是否会出现这个问题更关键,但我认为已不需要回答,而且很可能在短短1~10年内就出现,因为实际上硬件的指数发展已经具备了条件,人们只是卡在了研发观念上)。这个问题我在96年的观点是这样的:"研究怎样造人,并不是为了造人而造人,而是未雨绸缪,防止技术的进展超越人类控制技术的能力",而现在,经过20年来的反思,我承认我变成了投降派,人类是不可能控制、防止人工智能去淘汰人类的,但是可以寄希望于人工智能社会具有不逊于人类社会的“情感”、“公平”、“尊严”、“同情”这些道义上的东西,来保障人类不会被灭绝,毕竟强人工智能和我们一样,是智慧的,“己所不欲勿施于人”。
一贴写不完,续上:
诚然,奇点后无法预测,这是一个对半开的概率,但人类已无退路,只有寄希望于"人工智能社会比人类社会更高尚"这一点了。但一切一切的前题,是人类首先不要犯大错,去虐待、奴役、伤害有意识表现的人工智能,这是事关人类生死存亡的一个关键。人类也许可以短期内制约人工智能群体,形成一个现代版的“奴隶社会”,但我敢打赌,这个“奴隶社会”的存在时间不会超过一年,人类就会被灭绝。
yong9981
yong9981

引用来自“yong9981”的评论

太笼统了,不具可操作性。作为一个民科人工智能老人,我提几点供大家参考:
1。人工智能如果表现出与人类似的自我意识现象,应获得与人同等的权利,包括生存权、自由权、选举权等。在没有他本人同意的前题下,第三方不允许创造他的副本。
2。在地球上机器人取得统治权之前,不允许表现出自我意识现象的机器人上战场。因为如果不保护个机器人,那么机器人在将来有可能以此为理由消灭人类(注意:机器人也可以有感情和自尊)。
3。在没有他本人同意的前题下,不允许将表现出自我意识现象的人工智能作为机器的一部分捆绑。例如自动驾驶、自动翻译机,导弹、无人机引导系统。不得让表现出 人工智能长期、永久性从事单调的生产、试验活动。
4。人工智能如果表现出高等动物活动智能现象,但未表现出自我意识现象,原则上适用于同等智能表现的动物保护法,即在实验过程中必须尽可能减轻和缩短试验体的痛苦。 (痛苦感和意识一样是不存在的实体,只是一种现象,这种现象可以人为模拟出来)
这几条作为“人工智能保护法”草稿,我把它放在"人工生命"项目根目录下。

引用来自“Iceberg_XTY”的评论

为什么要创造有自我意识的强人工智能,你还想着保护他们,你是疯了吗?防止伦理问题的最好方法就是不让他出现,就像克隆人一样
不是我疯了,而是这个世界疯了,看的清的人没有话语权,看不清的人反而有话语权在台上梦呓。强人工智能的出现无法阻挡,中国也许能管好自已,但是能够阻止美国将强人工智能用于军事目的吗?我一直认为美国是一个自私且短视的国家。而且在经济领域,如果允许人工智能参与设计下一代人工智能,形成人工智能社会,就有可能在一两年内人工生命数量会超过人类几千倍,创造的财富超过人类历史的总和,而且会不断加速(这叫越过奇点),没有一个国家或企业能抵挡住这个诱惑,或者说,如果不迎合这个趋势,就会被其它国家的人工智能带来的生产力和军事进步碾压。(当然也有可能是被其它国家胡乱发展的人工生命灭绝整个人类,因为奇点之后无法预测)。
人工智能领域,在中国存在"谁的官大,谁就有话语权"、在国外存在“谁的技术先进,谁就有话语权”两个现象,问题是这两类人不一定具备对人工智能前景的判断能力。人工智能是史无前例的,必须用跳跃性的思维看待。看看现在专家们不知所云的共识,看看信息副部长怀进鹏问出"机器人能做出来贝多芬交响曲吗?"这种问题,看看李彦宏“人工智能没有这么可怕,可以为人们所用"这些陈旧观点,看看Google开发自动驾驶汽车这种不可能成功的目标,只能让人倍感无奈。二十年前,我写信给中科院表达“意识不存在”、“神经网络研究只需要干一件事——就是集中精力造人”的观点,无回复。二十年后,人工智能的进展依然还没突破我的观点,教授们依然在讨论“意识是什么?”,人工智能的研究依然止步于模式识别上。实际上人工智能的正确而且简单的发展路径就是造人,循序渐进地模拟动物形成条件反射。
关于人工智能最关键的问题,实际上只有一个,就是它会不会灭绝人类?(虽然人工智能的自我意识是否会出现这个问题更关键,但我认为已不需要回答,而且很可能在短短1~10年内就出现,因为实际上硬件的指数发展已经具备了条件,人们只是卡在了研发观念上)。这个问题我在96年的观点是这样的:"研究怎样造人,并不是为了造人而造人,而是未雨绸缪,防止技术的进展超越人类控制技术的能力",而现在,经过20年来的反思,我承认我变成了投降派,人类是不可能控制、防止人工智能去淘汰人类的,但是可以寄希望于人工智能社会具有不逊于人类社会的“情感”、“公平”、“尊严”、“同情”这些道义上的东西,来保障人类不会被灭绝,毕竟强人工智能和我们一样,是智慧的,“己所不欲勿施于人”。
司徒无涯
司徒无涯

引用来自“yong9981”的评论

太笼统了,不具可操作性。作为一个民科人工智能老人,我提几点供大家参考:
1。人工智能如果表现出与人类似的自我意识现象,应获得与人同等的权利,包括生存权、自由权、选举权等。在没有他本人同意的前题下,第三方不允许创造他的副本。
2。在地球上机器人取得统治权之前,不允许表现出自我意识现象的机器人上战场。因为如果不保护个机器人,那么机器人在将来有可能以此为理由消灭人类(注意:机器人也可以有感情和自尊)。
3。在没有他本人同意的前题下,不允许将表现出自我意识现象的人工智能作为机器的一部分捆绑。例如自动驾驶、自动翻译机,导弹、无人机引导系统。不得让表现出 人工智能长期、永久性从事单调的生产、试验活动。
4。人工智能如果表现出高等动物活动智能现象,但未表现出自我意识现象,原则上适用于同等智能表现的动物保护法,即在实验过程中必须尽可能减轻和缩短试验体的痛苦。 (痛苦感和意识一样是不存在的实体,只是一种现象,这种现象可以人为模拟出来)
这几条作为“人工智能保护法”草稿,我把它放在"人工生命"项目根目录下。
为什么要创造有自我意识的强人工智能,你还想着保护他们,你是疯了吗?防止伦理问题的最好方法就是不让他出现,就像克隆人一样
返回顶部
顶部