正在阅读:人工智能安全问题及其解决进路

人工智能安全问题及其解决进路

2017-02-28 10:32:13来源:《哲学动态》 作者:杜严勇 编辑:沐子飞 关键词:人工智能智能制造物联网阅读量:108108

导读:人工智能技术的快速发展引发了人们对其安全问题的普遍担忧。无论人工智能是否会超越人类智能,研究人工智能的安全问题都是非常必要的。
  【中国智能制造网 学术论文】人工智能技术的快速发展引发了人们对其安全问题的普遍担忧。无论人工智能是否会超越人类智能,研究人工智能的安全问题都是非常必要的。从解决人工智能安全问题的内部进路看,我们至少有伦理设计、限定其应用范围、自主程度和智能水平等方式;从外部进路看,应该强调科学家的社会责任与合作、引导公众接纳人工智能,以及对人工智能进行安全评估与管理等途径。只有采取切实有效的措施保证人工智能的安全性,才能使其为人类带来福祉而不是危害。

人工智能安全问题及其解决进路
 
  2016年3月9日至15日,谷歌人工智能“阿尔法围棋(AlphaGo)”与韩国职业围棋高手李世石之间展开了一场“人机大战”,李世石的落败使人们再一次为人工智能的强大能力惊叹不已。由此,也引发了人们对人工智能安全问题的普遍忧虑。人工智能是否会成为人类“后的发明”?我们如何面对高速发展的人工智能?本文尝试就研究人工智能安全问题的必要性以及可能的解决途径进行简要论述,以期引起更多的关注和更深入的讨论。
 
  一 探究人工智能安全问题的必要性
 
  1.人工智能超越人类智能的可能性
 
  毋庸置疑,人类的智能水平从整体上正如许多科幻电影与文学作品中所表现出来的那样远远超越于其他生物智能,正是因为这一点,使得人类成为地球的统治者。因此,我们很自然地得出推论,如果人工智能超越了人类智能,人工智能很可能不再听从人类的指令,反而会与人类争夺统治权。那么,人工智能会从整体上超越人类智能吗?我们可以从多个角度来考察人工智能超越人类智能的可能性问题。虽然目前学界对智能及其实现方式的认识存在许多差异,但这正体现了人类对智能认识的多样性,是人类实现对智能全面深理解的必经过程,并不意味着人类对智能的全面理解是不可能的。从这个角度看,科学家对人类智能的全面认识与实现,只是程度和时间的问题,而不是可能与不可能的问题。
 
  已有不少学者从哲学、未来学等角度论证了人工智能发展进步的可能性与可行性。徐英瑾认为,我们可以在维特根斯坦哲学的启发下,在一种非公理化推理系统的技术平台上开发出具有不同配置形式的通用智能系统,并使之走向产业化和商业化。被微软公司创始人比尔·盖茨誉为“预测人工智能未来的人”的库兹韦尔(Ray Kurzweil)坚信,人工智能会超越人类智能,而且超越的速度会比人们预想的快得多。他认为,2045年是奇点到达的时期,这将是深刻性和分裂性的时间点,非生物智能在这一年将会10亿倍于今天所有人类的智慧。虽然库兹韦尔的观点受到一些学者的批评,但他的论证并非空穴来风,而且他的著作产生的广泛影响至少说明他所思考的问题的重要性。
 
  从科学技术史的角度看,许多预言不可能实现的科学技术,后来都变成了现实。比如,一些的科学家与工程师曾认为飞机不可能飞上天,让比空气重的机械装置飞起来纯属空想。但是,事实证明他们错了。因此,当科学家对某些科学技术进行否定性的预测时,他们更应该谨慎行事。当然,要对某一项科学技术的发展及应用作出预言几乎是不可能的。但是,从相关技术的发展进步以及目前世界各国对人工智能重视的程度来看,人工智能在未来一段时期内极可能会快速地发展。计算机的计算速度、存储容量的快速发展是有目共睹的,近些年发展起来的深度学习、云计算、超算、大数据技术等也会推动人工智能的进步。显然,谷歌阿尔法围棋的胜利使得人们普遍相信人工智能必将取得更快的发展。据报道,在阿尔法围棋与李世石之间的“人机大战”之后不久,韩国政府宣布一项总投资约8.4亿美元的专项计划,用于加快人工智能产业的发展。世界上许多国家自然都不甘落后,希望抢占人工智能研发高地,科研经费与人员投入增长。从这个角度看,想要阻止人工智能的发展几乎是不可能的。
 
  2.人工智能产生危害的可能性与后果的严重性
 
  鉴于人工智能发展史上经历的若干曲折和发展现状的理解,目前大多数人工智能专家对人工智能能否(至少是在短时期内)超越人类智能持谨慎甚至否定态度。日本人工智能专家松尾丰认为:“人工智能征服人类、人工智能制造出人工智能——这种可能性在现阶段看来并不存在,只不过是凭空臆想而已。”在他看来,我们没有必要对人工智能征服人类感到忧心忡忡。也有一些科学家对人工智能的未来表示担忧。比如,2014年底,英国广播公司报道,理论物理学家霍金表示:“人工智能的全面发展可能导致人类的灭绝。”霍金担心,人工智能也许会在将来的某一天赶上甚至超过人类。比尔·盖茨等人士也有类似的忧虑。
 
  不过,即使人工智能整体上并未超过人类智能,但不加控制的片面的人工智能也可能给人类带来危害。就像波斯特洛姆(Nick Bostrom)提出的曲别针思想实验那样:如果一种人工智能系统被设置为使曲别针的产量大化,那么,这种人工智能系统很可能具有无法满足的胃口,不断地获取物质和能力,走上首先将地球,然后将整个可观察宇宙的大部分都变成曲别针的道路。另外,互联网、物联网技术使得人工智能的安全问题更加复杂化。一方面,网络资源使得人工智能自身发展进化和可供使用的资源趋于无穷;另一方面,互(物)联网技术使黑客、病毒等人为因素对人工智能产品构成巨大威胁。即使人工智能尚不如人类智能,但网络技术极可能使我们对人工智能的依赖演变成灾难。比如,如果黑客控制了人们家里的儿童看护机器人、助老机器人或其他智能系统等,由此导致的后果将不堪设想。
 
  从近几十年来非常流行的风险社会理论的角度看,研究人工智能安全问题的必要性是不言而喻的。作为风险社会理论代表人物之一的贝克(Ulrich Beck)认为:“风险概念表明人们创造了一种文明,以便使自己的决定将会造成的不可预见的后果具备可预见性,从而控制不可控制的事情,通过有意采取的预防性行动及相应的制度化的措施战胜种种副作用。”虽然风险社会研究的不同流派对风险的界定及防范等基本问题有各自不同的看法,但对高科技会导致高风险的认识是高度一致的。因此,风险社会研究的理论成果对人工智能的安全问题研究颇有借鉴与启发意义。
 
  总的来说,鉴于人工智能超越人类智能的可能性,以及人工智能产生危害的可能性与后果的严重性,加上科学技术本身内在的不确定性,这些因素足以构成我们研究人工智能安全问题的必要性。事实上,人文社会科学研究本来就应该超越自然科学的发展,就像我们不能等克隆人产生之后再来研究克隆人的伦理与社会问题一样,我们必须在人工智能产生安全问题之前就做好充分的理论准备。
 
  二 解决人工智能安全问题的内部进路
 
  一般说来,技术导致的负面影响(包括安全问题)主要是由技术本身或人为因素造成的,相应的解决途径也可以从这两方面入手。因此,我们可以大致把解决人工智能安全问题的方法分为内部和外部两种进路。从内部进路看,我们至少有以下几种解决途径。
 
  ,伦理设计。对人工智能产品进行伦理设计是解决其安全问题的基本进路之一。近十多年来,机器人伦理问题得到越来越多西方学者的关注。机器人伦理研究的主要目标,就是让机器人在与人类互动的过程中,具有一定的道德判断与行为能力,从而使机器人的所作所为符合人们预设的道德准则。从理论上看,根据人类预设的道德原则进行道德决策的机器人可以成为只做好事的“道德楷模”,而且在一定程度上还可以避免人们对其的不当使用、恶意利用或滥用。
 
  美国学者瓦拉赫(Wendell Wallach)和艾伦(Colin Allen)认为,将来人工智能系统必定会独立于人类的监管,自主作出决定,他们把能够作出道德抉择的人工智能系统称之为人工道德行为体(artificial moral agents,简称AMAs)。瓦拉赫和艾伦相信,在机器人身上实现人工道德,使机器成为道德行为主体是可能的。他们为人工智能的道德抉择设计了三种实现模式:“自上而下的进路”、“自下而上的进路”,以及“混合进路”。自上而下的进路是指选择一套可以转化为算法的道德准则作为机器行为的指导原则;自下而上的进路类似于人类的道德发展模式,通过试错法培养道德判断能力。不过,这两种方式均有一定的局限性。比如,种进路把一套明确的规则赋予机器可能是不合理的,同一种原理在不同的情况下可能会导致不同的相互矛盾的决定;后一种进路要求机器能够自我发展进化,而人工智能系统的学习与进化能力的提高将会是一个比较缓慢的过程。混合进路在一定程度上,可追溯到亚里斯多德的美德伦理学,它把两种进路统一了起来:一方面,美德本身可以清楚地表述出来;另一方面,它们的习得又是典型的自下而上的过程。
 
  瓦拉赫和艾伦为我们描述了使机器人成为“道德楷模”的可能性。如果他们以及其他类似的方案能够得以实现,人工智能系统就可以作出人类认为正确的道德决策。在人类的道德活动中,非理性因素(比如情感)也会起到关键性作用,瓦拉赫和艾伦也讨论了把理性和非理性整合到人工智能系统中的可能性。不过,笔者认为,为了保证人工智能系统的安全性,我们可能希望人工智能系统的道德判断更为理性和客观,并不需要增加过多的非理性因素。
 
  虽然要真正实现对人工智能的伦理设计还有许多具体的工作要做,但是从机器人伦理研究的勃兴及取得的初步成果来看,在人工智能产品中实现人工道德完全是可能的。人们也更容易相信,一个能够根据我们的预设作出合理的道德判断和行为的人工智能系统,对我们来说才是真正安全可靠的。
 

我要评论
  • 工业和信息化部办公厅关于印发《智能制造典型场景参考指引(2025年版)》的通知

    《智能制造典型场景参考指引(2025年版)》基于制造企业探索实践,结合技术创新与融合应用发展趋势,从工厂建设、产品研发、生产管理、生产作业等8个重点环节,凝练出40个典型场景,并围绕场景业务活动、核心问题、实施路径与应用成效等方面进行了详细描述。
    智能制造智能制造典型场景
    2025-04-29 13:10:52
  • 全域人工智能之城建设驶入快车道

    市科委、中关村管委会,市经济和信息化局,市发展改革委,市政务和数据局,市卫生健康委,北京经开区管委会领导出席,来自各央国企、研究机构,及京内外近500家人工智能上下游生态企业与会。
    人工智能中国智造
    2025-04-30 09:49:19
  • 传统制鞋业的AI突围!鞋企借智能制造重构行业创新范式

    2025年将投入1.2亿元建设“AI智造基地“,计划实现从智能设计到个性定制生产的全链路数字化,目标将定制鞋履的交付周期压缩至72小时以内。
    传统制鞋智能制造AI大模型
    2025-04-29 17:41:52
  • AI已经成为人形机器人最大的瓶颈?

    在看似繁荣的表象下,行业共识正在逐渐浮现:人工智能(AI)技术的滞后,已成为人形机器人实现真正智能化的最大瓶颈。
    人形机器人人工智能
    2025-04-28 15:32:08
  • 从“原子”到算法!人工智能领域的“元素周期表”诞生

    研究团队发现,处于同一“主族“的算法(如支持向量机与核方法)具有相似的数学内核,而位于相同“周期“的算法(如决策树与随机森林)则共享相近的泛化能力图谱。
    人工智能计算机科学
    2025-04-27 17:01:21
  • 宾利发布突破性人工智能皮革检测技术

    人工智能皮革检测系统并不能完全取代宾利训练有素的工匠的技艺。通过自动化人工检测流程,该系统能够提供最高品质的皮革,工匠们可以用它来打造精致的手工缝制细节。
    人工智能皮革检测技术
    2025-04-27 14:42:55
版权与免责声明:

凡本站注明“来源:智能制造网”的所有作品,均为浙江兴旺宝明通网络有限公司-智能制造网合法拥有版权或有权使用的作品,未经本站授权不得转载、摘编或利用其它方式使用上述作品。已经本网授权使用作品的,应在授权范围内使用,并注明“来源:智能制造网”。违反上述声明者,本站将追究其相关法律责任。

本站转载并注明自其它来源(非智能制造网)的作品,目的在于传递更多信息,并不代表本站赞同其观点或和对其真实性负责,不承担此类作品侵权行为的直接责任及连带责任。如其他媒体、平台或个人从本站转载时,必须保留本站注明的作品第一来源,并自负版权等法律责任。如擅自篡改为“稿件来源:智能制造网”,本站将依法追究责任。

鉴于本站稿件来源广泛、数量较多,如涉及作品内容、版权等问题,请与本站联系并提供相关证明材料:联系电话:0571-89719789;邮箱:1271141964@qq.com。

不想错过行业资讯?

订阅 智能制造网APP

一键筛选来订阅

信息更丰富

推荐产品/PRODUCT 更多
智造商城:

PLC工控机嵌入式系统工业以太网工业软件金属加工机械包装机械工程机械仓储物流环保设备化工设备分析仪器工业机器人3D打印设备生物识别传感器电机电线电缆输配电设备电子元器件更多

我要投稿
  • 投稿请发送邮件至:(邮件标题请备注“投稿”)1271141964.qq.com
  • 联系电话0571-89719789
工业4.0时代智能制造领域“互联网+”服务平台
智能制造网APP

功能丰富 实时交流

智能制造网小程序

订阅获取更多服务

微信公众号

关注我们

抖音

智能制造网

抖音号:gkzhan

打开抖音 搜索页扫一扫

视频号

智能制造网

公众号:智能制造网

打开微信扫码关注视频号

快手

智能制造网

快手ID:gkzhan2006

打开快手 扫一扫关注
意见反馈
我要投稿
我知道了