在2020人工智能治理的第一年,人们担心什么?
在我看来,人工智能可以说是人类最伟大的创造。这并不意味着这项技术能达到什么样的高度,但它确实解放了人类,刺激了机器的生产力,并让人们做更多人性化和创造性的事情。然而,对人工智能的担忧也是固有的。人工智能会失控并给人类带来不可逆转的后果吗?
近日,人工智能公司师旷科技宣布成立人工智能治理研究所,呼吁各界关注和讨论人工智能治理事件。“人工智能技术需要可持续发展。在过去的几年里,人工智能经历了一段野蛮的发展时期,”人工智能治理研究所所长师旷说。" 2020年将是人工智能治理的第一年."
“人工智能的野蛮发展”并非没有道理。随着互联网和云计算在各行各业的快速渗透,整个社会的网络化和数字化程度空前提高。事实证明,越来越多的智能设备正在智能城市登陆,相关算法也在不断改进。人工智能开始在各种领域中开展探索应用,甚至已经开始进入到一个自我学习和进化的过程之中。,特别是近年来,随着人工智能技术的大规模工业应用,一些没有先例的人与人工智能之间的冲突正在逐渐出现。担忧和怀疑的声音越来越大。探索一种能被期望、约束并尽快表现良好的人工智能治理机制,已成为人工智能时代的第一个命题。
AI的边界在哪儿?从《终结者》说起
卡梅伦于1984年制作了第一部电影《终结者》,并于2019年和35年后分别上映。唯一的变化是世界真的是相互关联的。天网的故事似乎不远了。在去世前,著名物理学家霍金和特斯拉创始人马斯克(被称为“钢铁侠”)联合发布了一封公开信,引发了人们对人工智能发展的担忧。霍金说:“在在未来100年内,结合人工智能的计算机将会变得比人类更聪明。,我们需要确保计算机与我们的目标一致。我们的未来取决于不断增长的科技力量和我们运用科技的智慧之间的竞争。”不少人持这种观点。由于公众的担忧,加州立法禁止警察在执法记录仪上使用面部识别技术。浙江理工大学的一名医生也起诉了一家野生动物园,该动物园用人脸识别取代了指纹识别。他的理由是他害怕面部生物信息的泄露。当然,这种担心也很有趣,因为指纹的泄露可能比公开面部信息更致命。显然,人工智能发展一日千里,实际应用落地也快马加鞭,人们可能还来不及思考这些看似的便利背后是否会带来什么不妥,这些设备就已经在运行之中了。,在问题逐渐暴露之前,类似的担忧和争议可能还会继续。
事实上,人们对新技术的担忧已经存在了近100年,无论是机器还是人工智能。早在1950年,阿西莫夫的科幻小说就针对人们对机器人的担忧提出了著名的机器人三定律,为思考奠定了方向和基础。这三条定律是:“1。机器人看到人类受到伤害时,不能伤害人类或袖手旁观;第二,在不违反第一定律的前提下,机器人必须绝对服从人类下达的任何命令。3.在不违反第一定律和第二定律的前提下,机器人必须尽力保护自己。”从这里我们可以清楚地看到,机器人生存的规则是不伤害人类的,下面的规则得到了补充。然而,我认为最有价值的补充是生殖原则。除非新机器人的行为符合机器人原理,否则不允许机器人参与机器人的设计和制造。在这个阶段,人们已经开始思考机器人繁殖可能带来的危害,而这个问题实际上也是《终结者6》冲突的根源。
这些最初在科幻领域考虑和讨论的问题现在终于开始被放在现实世界面前:2020年1月,欧盟专利局驳回了英国萨里大学一个名叫DABUS的人工智能(AI)宣布的专利成就,理由是欧盟专利申请中指定的发明人必须是人,而不是机器。然而,萨里大学的研究人员强烈反对这一决定,认为拒绝授予发明者所有权是因为没有人类发明家
然而,在任何情况下,技术发展的步伐都不会停滞不前,尤其是在当今云计算十分普及、5G得到充分部署、人工智能能力得到充分发展的世界。2020年将无疑成为应用爆发之年和矛盾最为突出的一年。人工智能应用的边界是什么?我们能享受和人一样的权利吗?谁能对人工智能所犯的错误负责?在人工智能进入爆发期之前,这些问题亟待解决。因此,把2020年称为人工智能治理的第一年并不算过分。除了技术研发和进步,我认为现在也是制定人工智能伦理规则的最关键时刻。
各国各界在摸索中前行
事实上,各行各业对人工智能技术的讨论只是增加了,世界各地的许多政府、社会组织和高层政治人物或多或少都要求人工智能。例如,2019年4月,欧盟委员会宣布了指导人工智能发展和建立信任的七项原则。尽管这些准则没有约束力,但它们可能成为未来几年进一步行动的基础。同年6月17日,中国新一代人工智能治理国家委员会发布《终结者》,提出了人工智能治理的框架和行动指南。
然而,世界各国政府尚未就人工智能治理的规范和边界订立实质性立法或明确标准。另一方面,人工智能企业在促进人工智能规范的应用方面发挥了更加积极的作用。
作为中国领先的人工智能企业,师旷在推动人工智能应用的过程中,已经认识到正视人工智能技术带来的伦理问题的重要性,主张人工智能企业应该把治理作为重中之重。2019年7月,旷视首发 《新一代人工智能治理原则——发展负责任的人工智能》 , 《人工智能应用准则》 从正当性、人的监督、技术可靠性和安全性、公平和多样性、问责和及时修正、数据安全与隐私保护六个维度,对人工智能正确有序发展作出明确规范,同时给出相应干预措施或指导意见,确保人工智能能够在可控范围内持续发展。披露,师旷还成立了专门的伦理委员会,监督《准则》在企业技术研发和产品应用中的实施。
师旷联合创始人兼首席执行官因基认为人工智能治理需要“理性关注、深入研究、建设性讨论和持续行动”。我认为各大企业甚至主管部门都应该参与到这个问题中来,及早划定可以研究和利用的领域,可以防止人工智能行业误入歧途,在良好的环境中快速发展,就像建好楼前打好基础一样。
谁来握住AI野马的缰绳
坦白地说,你可以对人工智能的发展提出反对意见,但是没有办法阻止它的发展,因为这是一种普遍的趋势。像核武器一样,像工业化一样,无论你有多担心,都没有办法阻止它的发展。这是讨论这个问题的先决条件。因此,剩下的实际上是对规则和道德的讨论,就像核武器的管理一样,这也可能是世界上最重要的管理问题。人工智能的管理重要性可能不在核武器之下,但只要这匹野马不逃跑,它就能被人类利用,带我们去我们从未去过的地方。
整个人工智能领域也应该制定自己的“机器人三定律”,以确保技术的发展最终不会伤害人类。毕竟,计算机中毒后重新安装系统是可以的。现在人工智能失去了控制,可能会切断水、电甚至交通。人工智能可以被视为人类智能的结晶。它能拥有人类拥有的所有知识,并能控制人类世界的大部分设施。不能说全知全能彼此相距不远。在我们不断增强它的力量之前,清楚地思考如何控制它是非常必要的。
So,人工智能的伦理讨论要比人工智能技术的发展研究可能更重要也更急切一些,一个简单的例子,一辆自动驾驶汽车发生了事故,那么谁应该对此负责?是司机吗?还是汽车制造商?恐怕这个问题的定义比自动驾驶技术本身更能阻碍自动驾驶的发展和着陆。例如,人工智能写了假新闻?谁对此负责?以前,流行的人工智能变脸应用程序使用人工智能为视频变脸,包括许多模拟人类声音的产品。一旦发生假事件,谁来负责?人们也可以说没有数字也没有真理?没有视频,就没有真相?还是没有声音或真理
因此,从这个角度来看,从事人工智能应用研发的科技企业应该早一点认识到这一点。一个可供参考的例子是基因和克隆的研究,优先考虑的是伦理管理,而不是技术突破。我们应该早一点坐在一起,制定研究方向和规则,进行有效的监督和管理,使人工智能能够在一个清晰、安全的标准下有序、可控地发展,使2020年成为人类社会向前发展的关键节点。
也许东方人比西方人乐观得多。这也是对机器人的幻想。《准则》出生于1969年,对人类和动物无害。我们相信人与自然的统一,一切都可以与人和谐发展。因此,我也希望中国企业师旷能够在人工智能的发展中发挥更大的作用,更好地引领行业标准的健康发展。