正在阅读:千位大佬联名喊停更强AI研发,GPT-5得罪了谁?

千位大佬联名喊停更强AI研发,GPT-5得罪了谁?

2023-04-01 09:03:59来源:OFweek人工智能网 关键词:AIGPT-5人工智能阅读量:22197

导读:公开信内容写到,最近AI的迅猛发展是一场“失控的竞赛”,他们没有办法理解、预测或可靠地控制自己创造的大模型。人类社会对其可能造成的影响也没有做好准备。
  一项革命性的技术普及时,必有重重阻力。
 
  GPT-4 诞生两周之际,美国生命未来研究所(Future of Life)向全社会发布了一封《暂停大型人工智能研究》的公开信,呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月。
 
  这封公开信已有1079人签署。内容写到,最近AI的迅猛发展是一场“失控的竞赛”,他们没有办法理解、预测或可靠地控制自己创造的大模型。人类社会对其可能造成的影响也没有做好准备。
 
  截至目前,特斯拉 CEO(OpenAI 联合创始人)马斯克、苹果联合创始人 Steve Wozniak、图灵奖得主 Yoshua Bengio、《人类简史》作者赫拉利、纽约大学名誉教授 Gary Marcus、UC 伯克利教授 Stuart Russell 等千名科技大佬和 AI 专家已经签署公开信。
 
  公开信称,正如广泛的研究和顶级人工智能实验室所承认的,人工智能系统对社会和人类构成较大的风险。我们不应该冒着失去对文明控制的风险,将决定委托给未经选举的技术领袖。
 
  尽管最近几个月人工智能实验室掀起AI狂潮,但目前没有人能理解、预测或可靠地控制AI系统,也没有相应水平的规划和管理。
 
  当代人工智能系统现在在一般任务上表现与人类相当,我们必须反思——
 
  - 我们是否应该让机器用宣传和谎言充斥我们的信息渠道?
 
  - 我们应该自动化所有的工作,包括令人满意的工作吗?
 
  - 我们是否应该发展最终可能超越我们并取代我们的非人类思维?
 
  - 我们应该冒险失去对我们文明的控制吗?
 
  OpenAI 最近关于人工智能的声明指出:「在开始训练未来系统之前,进行独立审查可能很重要,人们应该在合适的时间点限制用于创建新系统的计算增长率。」现在已经到了这个时间点。我们呼吁所有 AI 实验室立即暂停训练比 GPT-4 更强大的 AI 系统,为期至少 6 个月。
 
  人工智能实验室和独立专家应在暂停期间,共同制定和实施一套先进的人工智能设计和开发的共享安全协议,由独立的外部专家进行严格的审查和监督。这些工作至少应该包括:
 
  - 专门针对人工智能的新的、有能力的监管机构;
 
  - 对高能力的人工智能系统和大型计算能力池的监督和跟踪;
 
  - 帮助区分真实和合成数据的溯源、水印系统,并跟踪模型泄露;
 
  - 强大的审计和认证生态系统;
 
  - 对人工智能造成的伤害的责任认定;
 
  - 对人工智能安全技术研究的强大公共资金;
 
  - 资源丰富的机构,以应对人工智能将造成的巨大经济和政治混乱。
 
  本次联名信最后,Let's enjoy a long AI summer, not rush unprepared into a fall(让我们享受一个漫长的 AI 盛夏,而不是毫无准备的进入深秋),这里是一个双关,秋天英文 fall 另有坠落之意。这项提议试图警醒众人不要对人工智能过度乐观,让我们毫无准备的步入坠落的深渊。
 
  公开信链接:https://futureoflife.org/open-letter/pause-giant-ai-experiments/
 
  大佬们在担心什么
 
  发布公开信的“未来生活研究所”创立于2014年,一直关注“开发与人类相当的人工智能技术过程中出现的风险”,霍金、马斯克都是这家机构的科学顾问。霍金在研究所成立当年,通过公开媒体发表对于AI技术最终将取代人类的一系列“预言”。
 
  马斯克在麻省理工学院AeroAstro百年学术研讨会上发表讲话将人工智能称之为“我们面临的最大威胁”。他说,“随着人工智能的发展,我们将召唤出恶魔。”去年12月,马斯克也在推特上公开表示,ChatGPT好得吓人,我们离强大且危险的AI不远了。上周,“人工智能教父”的 Geoffrey Hinton 受访时表示,人工智能可能发展到对人类构成威胁“并非不可想象”的地步。
 
  3月28日,AI领域专家盖瑞·马库斯发文称,人工智能风险≠通用人工智能风险,超级智能可能会也可能不会迫在眉睫,但在短期内,需要担心“MAI(平庸人工智能)风险”。
 
  ChatGPT之父”萨姆·阿尔特曼的话比较耐人寻味。他说,GPT系列为何会出现推理能力,OpenAI的研究者自己搞不明白。他们只知道,在不断测试中,人们忽然发现从ChatGPT开始,GPT系列开始出现了推理能力。自主意识和无序竞争会把人类卷死。
 
  欧洲刑警组织27日对采用ChatGPT类工具进行犯罪的可能性进行了讨论,“大型语言模型检测和重现语言模式的能力不仅有助于网络钓鱼和在线欺诈,而且通常还可以用来冒充特定个人或群体的讲话风格。这种能力可能会被大规模滥用,以误导潜在受害者将他们的信任交给犯罪分子。”
 
  原标题:马斯克、Bengio等千位大佬联名喊停更强AI研发,GPT-5得罪了谁?
 
我要评论
文明上网,理性发言。(您还可以输入200个字符)

所有评论仅代表网友意见,与本站立场无关。

  • 加速行业智能化——华为AI+制造行业峰会2025成功举办

    4月28日,华为AI+制造行业峰会2025在广州盛大举行。在峰会上,华为以“三层五阶八步”方法论为制造行业智能化加速提出实施路径,并分享7大场景20个解决方案,基于自身实践助力智能制造走深走实,推动技术革新成为业务高质量发展的核心驱动力。
    华为AI制造业解决方案
    2025-04-29 16:59:22
  • 全域人工智能之城建设驶入快车道

    市科委、中关村管委会,市经济和信息化局,市发展改革委,市政务和数据局,市卫生健康委,北京经开区管委会领导出席,来自各央国企、研究机构,及京内外近500家人工智能上下游生态企业与会。
    人工智能中国智造
    2025-04-30 09:49:19
  • AI已经成为人形机器人最大的瓶颈?

    在看似繁荣的表象下,行业共识正在逐渐浮现:人工智能(AI)技术的滞后,已成为人形机器人实现真正智能化的最大瓶颈。
    人形机器人人工智能
    2025-04-28 15:32:08
  • 从“原子”到算法!人工智能领域的“元素周期表”诞生

    研究团队发现,处于同一“主族“的算法(如支持向量机与核方法)具有相似的数学内核,而位于相同“周期“的算法(如决策树与随机森林)则共享相近的泛化能力图谱。
    人工智能计算机科学
    2025-04-27 17:01:21
  • 宾利发布突破性人工智能皮革检测技术

    人工智能皮革检测系统并不能完全取代宾利训练有素的工匠的技艺。通过自动化人工检测流程,该系统能够提供最高品质的皮革,工匠们可以用它来打造精致的手工缝制细节。
    人工智能皮革检测技术
    2025-04-27 14:42:55
  • 早报|深圳大学人工智能学院正式揭牌成立;SK海力士完成96GB CXL内存模块验证

    深圳大学人工智能学院正式揭牌成立,学院建设基础学科研究中心和算力平台,与腾讯云共建产业学院;SK海力士宣布,其基于CXL 2.0标准的DDR5 96GB内存模块已通过客户验证......
    人工智能内存模块数据传输设备
    2025-04-23 10:41:12
版权与免责声明:

凡本站注明“来源:智能制造网”的所有作品,均为浙江兴旺宝明通网络有限公司-智能制造网合法拥有版权或有权使用的作品,未经本站授权不得转载、摘编或利用其它方式使用上述作品。已经本网授权使用作品的,应在授权范围内使用,并注明“来源:智能制造网”。违反上述声明者,本站将追究其相关法律责任。

本站转载并注明自其它来源(非智能制造网)的作品,目的在于传递更多信息,并不代表本站赞同其观点或和对其真实性负责,不承担此类作品侵权行为的直接责任及连带责任。如其他媒体、平台或个人从本站转载时,必须保留本站注明的作品第一来源,并自负版权等法律责任。如擅自篡改为“稿件来源:智能制造网”,本站将依法追究责任。

鉴于本站稿件来源广泛、数量较多,如涉及作品内容、版权等问题,请与本站联系并提供相关证明材料:联系电话:0571-89719789;邮箱:1271141964@qq.com。

不想错过行业资讯?

订阅 智能制造网APP

一键筛选来订阅

信息更丰富

推荐产品/PRODUCT 更多
智造商城:

PLC工控机嵌入式系统工业以太网工业软件金属加工机械包装机械工程机械仓储物流环保设备化工设备分析仪器工业机器人3D打印设备生物识别传感器电机电线电缆输配电设备电子元器件更多

我要投稿
  • 投稿请发送邮件至:(邮件标题请备注“投稿”)1271141964.qq.com
  • 联系电话0571-89719789
工业4.0时代智能制造领域“互联网+”服务平台
智能制造网APP

功能丰富 实时交流

智能制造网小程序

订阅获取更多服务

微信公众号

关注我们

抖音

智能制造网

抖音号:gkzhan

打开抖音 搜索页扫一扫

视频号

智能制造网

公众号:智能制造网

打开微信扫码关注视频号

快手

智能制造网

快手ID:gkzhan2006

打开快手 扫一扫关注
意见反馈
我要投稿
我知道了