Coremo Ocmea气动钳式制动器专为使用气压来操作制动系统
英国颁布机器人伦理指南 AI领域道德问题引关注
这个标准的文件代号为BS8611,发布于9月15日英国牛津郡的“社会机器人和AI”(SocialRoboticsandAI)大会上。西英格兰大学机器人教授AlanWinfield表示,这是业界个关于机器人伦理设计的公开标准。
文件内容虽然用词枯燥,但是里面所描绘的场景,简直跟从科幻小说里蹦出来的一样。机器人欺骗、令人成瘾、具有超越现有能力范围的自学能力,这些都被列为危害因素,是设计人员和制造商需要考虑的。
《指南》开头给出了一个广泛的原则:机器人的设计目的不应是专门或主要用来杀死或伤害人类;人类是负责任的主体,而不是机器人;要确保找出某个机器人的行为负责人的可能性。
《指南》也聚焦了一些有争议性的话题,例如,人类与机器人产生情感联系是可以的吗,尤其是当这个机器人本身设计目的就是为了与小孩和老人互动。
《指南》建议设计者更应关注机器人的透明性,但是科学家们表示这个在现实里很难应用。这是因为人们无法确切了解AI系统(尤其是深度学习系统)是如何做出决定的。
《指南》里也提到了机器人的性别和种族歧视问题。这是因为深度学习系统很多都是使用互联网上的数据进行训练,而这些数据本身就带着偏见。
《指南》也提到了这种“过度依赖机器人"的现象,然而并没有给设计者一个确切的可遵循的准则。
机器人作为人工智能领域一个典型代表,这部《指南》的颁布仅仅只是一个开始。
据外媒报道,世界5大科技公司目前试图制定围绕人工智能开发的伦理道德标准。虽然科幻影片关注AI对人类的威胁,但谷歌母公司Alphabet、亚马逊、Facebook、IBM和微软的研究人员开会谈论更多的却是具体问题,如AI对工作、交通甚至战争的影响。亚马逊的贝索斯、IBM的罗曼蒂、微软的纳德拉、谷歌的皮查伊和Facebook的扎克伯格这4位参与建立这种行业合作伙伴关系的人士称,他们的基本目的很清楚:确保AI研究有利于人们而不是伤害人们。但参与谈判的一位人士称,谷歌的DeepMind被要求以独立身份参与该组织。这个行业团体模仿了类似的人权行动网络倡议(GlobalNetworkInitiative),在这个倡议中企业和非政府组织关注言论自由和隐私权。
事实上,不仅五大科技巨头担心人工智能道德问题,而且目前也有不少业内专家学者公开发表了自己的看法。
原ABB科学家甘中学认为,未来的智能一定是群体的智能,只有群体的智能才能使人类智能走向更的阶段。未来机器人和机器人形成群体的智能,人和人形成群体智能,他们之间智能的融合会产生更的智能。
物理学家霍金曾经表示,人工智能或许不但是人类历史上大的事件,而且还有可能是后的事件,表明了他对人工智能前景的担忧。
美国耶鲁大学遗传学系副系主任、终身教授许田认为,从人类社会的角度出发,新技术不断被开发并应用,背后产生的伦理道德问题,单单靠科学家、工程师的自觉性显然是不够的,需要全社会来参与讨论,人工智能必将会深刻地影响社会和个人生活。
“钢铁侠”ElonMUsk(伊隆·马斯克)日前接受了采访,他表示并不担心人工智能产生独立意识,很希望技术传播出去,实现人工智能民主。
英国科普作家PhilipBall表示,机器人的道德问题是人类必须重视并且需要持续讨论的议题。当机器人越来越复杂之后人类该怎么对待,机器和人之间互动的界限在哪里,机器和人终会不会发生冲突?这些之前看来是哲学的问题,随着技术的发展已经成为操作层面的问题。PhilipBall认为,当新的技术出现之后,肯定会随之而来许多新的道德问题,这是一个需要全人类共同面对的挑战。