突发警报:科技大佬们呼吁暂停 ChatGPT

科技名人、著名科学家和埃隆·马斯克警告说,开发和部署功能越来越强大的人工智能系统的“竞赛”将“失控”。

一个 数百位著名 人工智能专家、科技企业家和科学家联署的公开信呼吁暂停开发和测试比 OpenAI的语言模型 GPT-4更强大的人工智能技术,以便正确研究其可能带来的风险.

它警告说,像 GPT-4 这样的语言模型已经可以在越来越多的任务中与人类竞争,并且可以用于自动化工作和传播错误信息。这封信还提出了人工智能系统可以取代人类并重塑文明的遥远前景。

“我们呼吁所有人工智能实验室立即暂停训练比 GPT-4 更强大的人工智能系统(包括目前正在训练的 GPT-5)至少 6 个月,”这封信中写道,其签署人包括 Yoshua Bengio,蒙特利尔大学教授被认为是现代人工智能的先驱,历史学家 Yuval Noah Harari、Skype 联合创始人 Jaan Tallinn 和 Twitter 首席执行官 Elon Musk。输入您的电子邮件以获取连线时事通讯注册我们的每日时事通讯并充分利用《连线》杂志。电子邮件地址报名注册即表示您同意我们的

Will Knight从未来发出的每周快讯,探索 AI 进步和其他将改变我们生活的技术。

这封信由关注人类技术风险的组织未来生命研究所 (Future of Life Institute)撰写 ,信中补充说,暂停应该是“公开的和可验证的”,并且应该让所有从事 GPT-4 等高级人工智能模型工作的人都参与进来。它没有建议如何验证停止开发,但补充说“如果不能迅速实施这种暂停,政府应该介入并暂停”,这似乎不太可能在六个月内发生。

微软和谷歌没有回应对这封信发表评论的请求。签署者似乎包括来自众多正在构建高级语言模型的科技公司的人员,包括微软和谷歌。OpenAI 的发言人 Hannah Wong 表示,该公司在训练模型后花了六个多月的时间研究 GPT-4 的安全性和对齐。她补充说,OpenAI 目前没有训练 GPT-5。

这封信是在人工智能系统做出越来越大胆和令人印象深刻的飞跃之际发出的。GPT-4 仅在两周前发布,但其功能激起了相当大的 热情和相当多的 关注。该语言模型可通过 OpenAI 流行的聊天机器人ChatGPT获得,在许多 学术测试中得分很高,并且可以正确解决 棘手的问题,这些问题通常被认为需要比 AI 系统先前展示的更高级的智能。然而 GPT-4 也犯了许多 微不足道的逻辑错误. 而且,与其前身一样,它有时会“产生幻觉”不正确的信息,背叛根深蒂固的社会偏见,并且可能会被提示说出仇恨或可能有害的话。

这封信的签署者表达的部分担忧是,OpenAI、微软和谷歌已经开始了一场以利润为导向的竞赛,以尽快开发和发布新的人工智能模型。信中指出,以这样的速度,发展的速度超过了社会和监管机构所能接受的速度。

广告

变化的速度和投资规模非常显着。微软已向 OpenAI 投入 100 亿美元,并在其搜索引擎 Bing和其他应用程序中使用其AI。尽管谷歌开发了一些构建 GPT-4 所需的 AI,并且此前还创建了自己强大的语言模型,但直到今年,出于 道德方面的考虑,它才选择不发布它们。 

但围绕 ChatGPT 的兴奋和微软在搜索领域的策略似乎已促使谷歌仓促推出自己的计划。该公司最近推出了 ChatGPT 的竞争对手Bard,它还制作了一种名为 PaLM 的语言模型,它类似于 OpenAI 的产品,可通过 API 获得。“感觉我们走得太快了,” 德克萨斯大学奥斯汀分校教授、  AI 百年研究主席Peter Stone说,该报告旨在了解 AI 的长期影响。 

斯通是这封信的签署人,他说他不同意信中的所有内容,并且个人并不担心 存在的危险。但他表示,进展如此之快,以至于 AI 社区和公众几乎没有时间在使用 GPT-4 升级之前探索 ChatGPT 的好处和可能的滥用。他说:“我认为在竞相建造下一个之前,获得一些关于如何使用和滥用它们的经验是值得的。” “这不应该是一场构建下一个模型并在其他人之前推出的竞赛。”

迄今为止,比赛进展迅速。OpenAI 于 2019 年 2 月宣布了其第一个大型语言模型 GPT-2。其继任者 GPT-3 于 2020 年 6 月发布。ChatGPT 在 GPT-3 的基础上引入了增强功能,于 2022 年 11 月发布。 

一些信件的签署者是当前人工智能热潮的一部分——反映出行业本身对这项技术正以潜在危险的速度发展的担忧。Stability AI的创始人兼首席执行官 Emad Mostaque 表示:“制造这些产品的人自己表示,它们可能对社会乃至人类构成生存威胁,但没有计划完全减轻这些风险。” 的信。他补充说:“现在是时候将商业优先事项放在一边,为了每个人的利益而停下来进行评估,而不是与不确定的未来赛跑。”

人工智能能力最近的飞跃与人们可能需要对其使用设置更多保护措施的感觉相吻合。欧盟目前正在考虑立法,根据所涉及的风险限制人工智能的使用。白宫提出了一项 AI 权利法案,其中阐明了公民应该受到算法歧视、数据隐私泄露和其他 AI 相关问题的保护。但这些法规甚至在最近的生成式 AI热潮开始之前就开始形成了 。 

“我们需要按下暂停键,并考虑快速部署生成式人工智能模型的风险,”人工智能和数字政策中心的创始人兼主任马克·罗滕贝格说,他也是这封信的签署人。据其网站称,他的组织计划 本周向美国联邦贸易委员会提出申诉,要求其调查 OpenAI 和 ChatGPT 并禁止升级该技术,直到“适当的保障措施”到位。罗腾伯格表示,这封公开信“及时且重要”,他希望它能得到“广泛支持”。

通过 Fast Forward 时事通讯了解技术的下一步发展

威尔·奈特 (Will Knight) 每周从未来发来的快讯,探索人工智能的进步和其他将改变我们生活的技术。每周四发货。你的邮件提交

注册即表示您同意我们的用户协议(包括集体诉讼豁免和仲裁条款)、我们的隐私政策和 Cookie 声明,并同意接收来自 WIRED 的营销和帐户相关电子邮件。您可以随时取消订阅。

当 ChatGPT 于去年年底发布时,其功能迅速引发了围绕其对教育和 就业影响的讨论 。GPT-4 显着提升的能力引发了更多恐慌。为 OpenAI 提供早期资金的马斯克最近在 Twitter 上警告 大型科技公司推动人工智能进步的风险。 

一位在这封信上签名的大型科技公司的工程师表示,自 GPT-4 发布以来,他一直在使用 GPT-4。这位工程师认为这项技术是一个重大转变,但也是一个主要担忧。“我不知道六个月是否足够,但我们需要时间来考虑我们需要制定哪些政策,”他说。

其他从事科技工作的人也对这封信中对长期风险的关注表示担忧,因为包括 ChatGPT 在内的当今可用系统已经构成威胁。“我发现最近的发展非常令人兴奋,”卡内基梅隆大学人机交互助理教授 Ken Holstein 说,他要求在签署这封信的第二天将他的名字从这封信中删除,因为科学家之间就最佳要求进行了辩论使这一刻。 

Holstein 说:“我担心我们正处于‘快速行动并打破常规’的阶段。”他补充说,监管机构可能无法有效跟上节奏。“我倾向于认为,到 2023 年,我们集体将比这更了解。”

更新于 2021 年 3 月 29 日,美国东部时间晚上 10:40:这个故事已经更新以反映公开信的最终版本,并且 Ken Holstein 要求被删除作为签名者。这封信的早期草稿包含一个错误。还添加了来自 OpenAI 的评论。

 

Leave a Reply