“人工智能教父”Geoffrey Hinton 离开谷歌并警告前方有危险~
半个世纪以来,Geoffrey Hinton 培育了 ChatGPT 等聊天机器人的核心技术。 然而,现在他担心这会造成严重伤害。
神经网络先驱,大好势头下,为何主动放弃?
Geoffrey Hinton 是一位人工智能先驱。2012 年,Hinton 博士和他在多伦多大学的两名研究生创造的技术成为人工智能的智力基础。科技行业的大公司认为这样的智能系统是他们未来发展的关键。
然而,周一,他正式加入了越来越多的AI批评者的行列,他们表示,这些公司正在积极开展基于生成人工智能的产品开发活动,这是在与危险赛跑,这种技术目前正在为 ChatGPT 等流行的聊天机器人提供支撑。
Hinton 博士表示,他已经辞去了在谷歌的工作,他在谷歌工作了十多年,成为该领域最受尊敬的大咖之一,因此,他可以畅所欲言地谈论人工智能的风险。他说,他甚至有些后悔自己曾经认定为一生的工作。
“我用通常的借口安慰自己:如果我没有这样做,其他人也会这样做,”Hinton 博士上周在他位于多伦多的家中的餐厅接受了一次长时间的采访,而距离他和他的住所仅几步之遥,他的学生们已经取得了重大突破。
Hinton 博士的人工智能之旅,从开创者到末日预言者,标志着科技行业在几十年来最重要的转折点上的一个非凡时刻。行业领导者相信新的AI系统可能与 1990 年代初引入网络浏览器一样重要,并可能导致从药物研究到教育等领域的突破。
但困扰许多业内人士的是,他们担心他们正在向野外释放一些危险的东西。生成式人工智能,已经可以成为提供错误信息的工具。很快,这可能会对工作构成威胁。科技界最大的担忧者表示,或许在不远的未来,这可能对人类构成威胁。
“很难看出如何防止坏人利用它来做坏事,”Hinton博士说。
纯粹风险还是机会风险?
旧金山初创公司 OpenAI 在 3 月份发布了新版 ChatGPT 后,1000 多名技术领袖和研究人员签署了一封公开信,呼吁暂停六个月的新系统开发,因为 A.I. 技术给“社会和人类带来了深远的风险”。
几天后,拥有 40 年历史的学术团体人工智能促进协会的 19 位现任和前任领导人发布了他们自己的信件,警告人工智能的风险。该小组包括微软首席科学官埃里克·霍维茨 (Eric Horvitz),该公司已将 OpenAI 的技术部署到广泛的产品中,包括其 Bing 搜索引擎。
通常被称为“人工智能教父”的 Hinton 博士没有在这两封信中签名,并表示在辞职之前他不想公开批评谷歌或其他公司。他上个月通知公司他要辞职,并在周四与谷歌母公司 Alphabet 的首席执行官桑达尔·皮查伊通了电话。他拒绝公开讨论他与皮查伊谈话的细节。
谷歌首席科学家杰夫迪恩在一份声明中表示:“我们仍然致力于对人工智能采取负责任的态度。我们不断学习了解新出现的风险,同时也大胆创新。”
神经网络,回顾过往
Hinton 博士是一名 75 岁的英国侨民,终身从事学术研究,他的职业生涯是由他对人工智能开发和使用的个人信念所推动的。1972 年,作为爱丁堡大学的一名研究生,Hinton 博士接受了一个叫做神经网络的想法。神经网络是一种通过分析数据来学习技能的数学系统。当时,很少有研究人员相信这个想法。但这成了他毕生的事业。
80 年代,Hinton博士是卡内基梅隆大学计算机科学教授,但因为不愿接受五角大楼的资助而离开大学前往加拿大。当时,大多数 A.I. 美国的研究由国防部资助。Hinton 博士强烈反对在战场上使用人工智能——他称之为“机器人士兵”。
2012 年,Hinton 博士和他在多伦多的两个学生 Ilya Sutskever 和 Alex Krishevsky 建立了一个神经网络,可以分析数千张照片并自学识别常见物体,例如花、狗和汽车。
谷歌斥资 4400 万美元收购了 Hinton 博士和他的两个学生创办的公司。他们的系统催生了越来越强大的技术,包括 ChatGPT 和 Google Bard 等新型聊天机器人。
Sutskever 先生后来成为 OpenAI 的首席科学家。2018 年,Hinton 博士和另外两位长期合作者因其在神经网络方面的工作,而获得了通常被称为“计算领域的诺贝尔奖”的图灵奖。
(OpenAI 的首席科学家 Ilya Sutskever 与 Hinton 博士在多伦多合作进行他的研究。图片来源:Jim Wilson/The New York Times)
量变引起质变,狂飙进程无法阻挡
大约在同一时间,谷歌、OpenAI 和其他公司开始构建从大量数字文本中学习的神经网络。起初,Hinton 博士认为这是机器理解和生成语言的一种强大方式,但它不如人类处理语言的方式。
然而,去年,随着谷歌和 OpenAI 使用大量数据构建系统,他的观点发生了变化。他仍然认为这些系统在某些方面不如人脑,但他认为它们在其他方面使人类智能黯然失色。“也许这些系统中发生的事情,”他说,“实际上比大脑中发生的事情要好得多。”
随着公司改进他们的AI他认为,系统会变得越来越危险。“看看五年前和现在的情况,”他谈到人工智能时说。“若基于偏见,并将其传播出去。那太可怕了。”
他说,直到去年,谷歌一直是该技术的“安全管家”,小心翼翼地,尽可能不发布可能造成伤害的东西。但现在微软已经通过聊天机器人增强了其 Bing 搜索引擎——挑战谷歌的核心业务——,而谷歌,不得不,竞相部署同类技术。Hinton 博士说,科技巨头陷入了一场可能无法停止的竞争。
他最担心的是,互联网上将充斥着虚假的照片、视频和文字,普通人将“无法再辨别真假”。
他还担心AI技术将颠覆就业市场。正如近日,IBM亦宣布计划裁员7800人,并用AI取而代之。今天,像 ChatGPT 这样的聊天机器人往往是对人类工作者的补充,但它们可以取代律师助理、私人助理、翻译和其他处理死记硬背任务的人。“它消除了苦差事,”他说。“然而,它可能带走的远不止于此。”
向左走还是向右走?
未来,他担心这项技术的未来版本会对人类构成威胁,因为他们经常从他们分析的大量数据中学习到意想不到的行为。他说,这成为一个问题,因为个人和公司允许AI 系统不仅可以生成自己的计算机代码,而且实际上可以自己运行该代码。他担心有一天真正的自主武器——那些杀手机器人——会成为现实。
“这种东西实际上可以变得比人类更聪明的想法,”他说。“但大多数人认为这还很遥远。我认为这还很遥远。我认为它是 30 到 50 年甚至更长的时间。显然,我不再这么想了。”Hinton 博士说。
许多其他专家,包括他的许多学生和同事,都表示这种威胁是假设性的。但 Hinton 博士认为,谷歌和微软以及其他公司之间的竞争将升级为一场全球竞争,如果没有某种全球监管,这场竞争将不会停止。
“但这可能是不可能的,与核武器不同,没有办法知道公司或国家是否在秘密研究这项技术。最好的希望是世界领先的科学家在控制技术的方法上进行合作。”“我认为他们不应该扩大规模,直到他们了解他们是否能够控制它,”Hinton 博士说道。
Hinton 博士说,当人们过去常常问他如何从事具有潜在危险的技术时,他会解释领导美国制造原子弹的罗伯特·奥本海默 (Robert Oppenheimer) 的话:“当你看到技术上很不错的东西时,你就放手去做吧。”
现如今,他不再那样说了。
参考文献:
[1] https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html
[2] https://www.bbc.com/news/world-us-canada-65452940
[3] https://twitter.com/MIT_CSAIL/status/1653045746206224384
原创文章,作者:门童靖博士,如若转载,请注明出处:https://www.agent-universe.cn/2023/05/11781.html