未来人工智能,我们的方向应该是道德还是技术?
如何把道德代码写入人工智能?从这个问题展开一个问题:从我们现在的弱人工智能,到未来的强人工智能,我们的方向应该是道德还是技术?这个问题真的很犀利!!确实是需要思考的事情。
人工智能的发展
不得不说的是人工智能的发展确实非常迅速,可以预见的是未来人工智能必然会再一次重新定义劳动力、岗位结构和收入分布。
或许说人工智能可以最大程度解脱人类把劳动力浪费在不必然的事情上,而把更多的精力放在某一点。当然事物的变革必然会有负面影响,例如从现在来看一定程度上就是利用计算机的人类取代了没有计算机辅助的人类,或许未来就会变为利用人工智能人类取代没有利用人工智能的人类。
但是许多人担心一点那就是许多科幻片中出现的场景,人工智能过于发达会不会出现一些伦理类问题?
应该给人工智能道德标准?
所谓给人工智能给予一定的道德标准其实直白来说就是将人类自身的法律、习惯、习俗、观念用代码给予人工智能。
很多人认为人工智能的存在意义就是最大限度的解脱人类的劳动力,因此人工智能被赋予道德标准可以让人工智能执行更多有难度或者有危险的工作。而且可以避免许多争议性问题的出现。。
这无疑对人类来说是美好的。
不应该给人工智能道德标准?
很多人认为给人工智能不应该给予道德标准,因为道德标准这是一个宽泛意义的标准。每个人的道德标准都不同,这也是人类个体是唯一的象征。
如果给予人工智能道德标准就意味着机器需要思考,这在某种程度上已经算作生命了。其次正因为道德标准的难以界定,谁来定义这些道德,谁又来执行它们?这无疑又是一个巨大的问题。
总之,新技术的出现都是双刃剑,只不过是看利大于弊还是弊大于利而已。
你认为给予人工智能道德标准是利大于弊还是弊大于利?
相信很多人都听过哲学家菲利帕·福特(Philippa Foot)于1967年提出的“电车难题”。50年来,电车难题有了很多版本。在无人驾驶已经出现的今天,当车祸无法避免时,无人驾驶汽车到底应如何取舍,是优先保护马路上的儿童、还是宁愿撞人也要保护车内人员呢?
人类即将进入机器人时代,《科学》杂志有研究表明,随着机器习得类人的语言能力,它们也容易习得语言应用中根深蒂固的偏见,这种偏见如若被放大,后果不堪设想。还有预言称:人工智能系统在未来很可能摆脱人类监管,自主作出决定,甚至走上反抗人类的道路。
5月20日,北大博雅讲坛第129期活动“机器人能明辨是非吗——人工智能伦理道德的未来走向”正是要探讨这些问题。

温德尔·瓦拉赫
这次活动由北京大学出版社、北大博雅讲坛、博古睿研究院中国中心、当当联合主办。活动主讲嘉宾是《道德机器:如何让机器人明辨是非》的作者之一温德尔·瓦拉赫(Wendell Wallach)。中国社会科学院研究员刘钢、西安交通大学计算哲学实验室中方主任王小红也出席了活动。
瓦拉赫是享有国际声誉的人工智能和神经科学伦理学领域的专家。他主持耶鲁大学生物伦理学跨学科研究中心技术和伦理工作小组长达十余年,获得过全球技术网络协会(World Technology Network)颁发的2014年的伦理学奖,世界经济论坛任命他为2016-2018全球未来技术价值和政策委员会的联合主席。
瓦拉赫并不是站在未来学家的角度去猜想或者预测人工智能的未来,而是基于当前技术的现状去说明伦理决策能力的必要性。目前这些普遍被应用的自动金融系统、机器人照料者,以及机器人吸尘器已经能够影响人类的生活,并产生复杂而难以预料的伦理后果了。
他认为人工智能的道德发展将经历操作性道德、功能性道德,和充分的道德主体性三个阶段。其中操作性道德比较低端,是指道德已完全掌握在设计者和使用者手中;第二个阶段是功能性道德,稍微高端一些,因为这个阶段机器自身已经有能力响应道德挑战;第三个阶段就是计算机可以自己做道德决策的阶段,当然第三个阶段还是开放性的,哲学家、工程师们还需要探讨单单靠一台机器能否成为道德主体的问题。操作性道德和真正的道德主体之间还有着很多的空间。

他在《道德机器:如何让机器人明辨是非》一书中认为,虽然难有万全之策,但有可能建构一种人工道德智能体(AMAs),让人工智能具有基本的道德敏感性,逐步使人工智能和机器具备道德决策能力,并随着智能技术和人机交互的进步而进化、发展。这是一种自上而下式与自下而上式的混合道路,这样才能够使美德和特殊的情境相结合。
瓦拉赫对很多问题还保持开放态度,比如最近的关于道德心理学的实证研究,强调一个人与生俱来的身体或心理能力,而不是理性、情感社交、语义理解,以及意识,对人的道德决策都很重要,那么这些因素对于AMAs是不是本质性的因素呢?如果是的话,可否在计算机中实现?

博古睿研究院中国中心主任宋冰
博古睿研究院中国中心主任宋冰在致辞中说,以前计算机伦理强调的更多是被科学家和工程师的外部约束,行为规范,以及科技带来的外部或者溢出效应,比如隐私、财产权、防范病毒、提防骇客等。机器人伦理则是新的领域。温德尔·瓦拉赫这本书比较了两种植入伦理的方法,一个是由上至下,先把伦理理论规范编程,并将它作为基准来衡量各种选择道德的可接受性。另外一种方法是从上往下,给智能机器人创造体验和学习环境,让他们逐渐学会什么是可接受的道德规范和行为准则。她进一步表示,科学家要有人文关怀,反之亦然,哲学和社科专家也要有科学的精神。
《道德机器:如何让机器人明辨是非》的主要译者王小红发言说这本书是一本具有开创性的人工智能的百科全书。她指出,将人类已经成熟的伦理系统自上而下地灌输进机器人会出现不同伦理的矛盾和冲突,例如经典的阿西莫夫的机器人三大定律,被嵌入到一台计算机之后,就会产生许多伦理困境。而如果使用边沁的功利主义的方法,这种最可算法化的方法如何使最大多数人获得最大的幸福感呢?这也有问题,因为它的计算量往往是无限的。

阿西莫夫曾提出机器人三定律:一是机器人不得伤害人类,或因不作为使人类受到伤害;二是除非违背第一定律,机器人必须服从人类的命令;三是除非违背第一及第二定律,机器人必须保护自己。
在问答环节,有观众提问,现在出现了哪些不道德的人工智能,瓦拉赫回答说,“没有不道德的人工智能,只有不道德的意图。人工智能可能执行了有偏见的结果,但是这是因为输入的数据本身已经带有偏见了。”这种偏见主要是指种族主义、性别偏见等。还有同学提问,如何看待“类人脑”的开发,瓦拉赫认为人类目前还不够了解人的大脑到底是如何工作的,所以他不认为人工神经网络能够完整的模仿人脑 人类的科技发展都是为了人类服务的,智能科技的发展自然也不例外。智能科技如果脱离了人类的道德观念,人类发展它还有意义吗?
人工智能就是辅助人类工作、生活的辅助性产物,技术越好功能更齐全,但人工智能要不要植入道德?我觉得完全没必要,人工智能一旦有了情感就类似于一个人,而且他们的思维更全面,会替代人类的地位,人类之所以研发人工智能就是为了方便我们的生活才存在 目前来说我们偏向于技术比较多一点,为什么呢?这是因为技术还不够完善。那么道德自然就要排后了,但是也不是说就纯粹摒弃道德了,在完善技术的同时呢顺便去融入道德,这样会便于以后道德植入更快捷。 技术的发展(生产力发展)有其自身逻辑和需求,是不以人主观意志为转移的。问题关键不在这里。关键在于我们如何不断改革和调整生产关系、社会结构的方方面面,去努力适应和推动这种生产力的进步。基本出发点是以人为本,谋求人类绝大多数人的幸福和利益,而不是让技术成为少数人奴役人类的工具。
未来五十年我们都将专注于技术! 我认为道德很重要技术问题早晚可以解决,道德问题不注意技术就容易被滥用危害社会 当然是兼顾。就像问人应该是自私还是无私样!
页:
[1]