It's time to rethink AI
As our lives and work are increasingly being reshaped by AI, the new edition of Think:Act Magazine explores what this means for C-level managers.
作者:舒伦堡(Fred Schulenburg)
排版设计:古斯(Carsten Gueth)
物理学家霍金(Stephen Hawking)曾说过,人工智能的出现可能意味着人类的历史终将短暂。如今,靠人工智能驱动的应用程序正在飞速发展,其速度几乎可与他们广泛应用的速度相匹配。而那些量子技术的飞跃是带来一个全新的、激励人心的时代,还是对已知生命的威胁?大型科技公司与政府之间又应当如何在监管和创新之间取得平衡?
布莱切利庄园看起来可能像是阿加莎(Agatha Christie)一篇惬意的侦探小说所描绘的某栋英国乡村别墅。这座建于19世纪末的房子由一位金融家建造,他把各种建筑风格拼凑重制在一起。一位美国评论家这么评价道:这些风格的组合形成了一座“多愁善感且怪诞的堆砌物”。由于第二次世界大战期间,包括传奇人物图灵(Alan Turing)在内的一些世界顶尖的数学家汇聚在此,试图破解德国军方的密码。他们努力发展了可编程计算机,预示着新技术革命的诞生。因此,这座位于伦敦西北约100公里处的庄园完全可以称自己是计算机时代的摇篮。
那么,2023年11月初的第一届全球人工智能安全峰会在布莱切利庄园举办,真可以说适得其所。来自28个国家的政府官员、学者和科技行业领袖齐聚一堂,讨论这一强大新技术的机遇和风险。这项技术有可能改变我们所认识的世界,带它向着更好或者更糟的境遇发展。当然,是变好还是变糟,这取决于发言对象。由英国首相苏纳克(Rishi Sunak)主持的布莱切利庄园人工智能安全峰会汇集了来自美国和中国政府的代表,以及包括马斯克(Elon Musk)以及人工智能革命前沿的先驱者之一、OpenAI的阿尔特曼(Sam Altman)等。峰会讨论的要点之一在于是否以及如何控制人工智能的发展。
是英国皇家国际事务研究所世界计划中的英国董事,曾是英国开放创新团队的成员。
这一备受瞩目的活动印证了,从商业到政策制定,从娱乐到医疗保健,人工智能已经迅速融入了我们的生活。曾经似乎只存在于科幻作品中的东西,那些想象“机器接管世界”的情景,现在已经成为我们日常生活的一部分。而如今热议的话题是哪些工作不会被智能机器取代。
关于人工智能的讨论之所以如火如荼,是因为其发展速度十分惊人。仅仅在一年多前的2022年11月底刚推出的ChatGPT,现已成为历史上发展最快的消费者软件应用程序。英国皇家国际事务研究所(Chatham House)的苏利文(Olivia O'Sullivan)表示:“人工智能技术的发展轨迹甚至超出了一些专家在一年前做出的预期。”该领域的一位顶尖科学家表示,他们不敢在实验室中少呆任何一天,因为每天都会涌现出新的东西,而我们现在只是刚刚起步。斯坦福大学的李飞飞是人工智能发展的领军人物之一,她表示我们仍处于技术演进的“非常初期......类似于牛顿处在时代之前”的阶段。
在这一过程中,当我们谈论人工智能时,我们确切指的是什么?这其中具有很多不确定性。人工智能已经非常普遍地存在于我们生活中,嵌入在大量平凡的应用程序中,从预测文本到根据过去的选择提供阅读建议,从计算未来医院入院水平到客户可能需要的家庭保险覆盖水平等等。这些只是无数例子中的一部分。
下一个阶段是充满不确定性的。英国政府将所谓的“前沿人工智能”定义为“高度能干的通用人工智能模型,能够执行各种各样的任务,并且能够达到或超过当今最先进模型的水平。”美国的OpenAI对其定义进行补充:“这样的模型可能具有足以对公共安全造成严重风险的危险能力。”该组织还补充认为这些危险能力“可能会意外地出现”。不论是要预防它们被滥用,还是去阻止它们的广泛扩散,这两者都非常困难。
这种糟糕的境遇包括很多可能性,包括从深度伪造到规模难以想象的网络战争,从大规模的工作岗位消失到已故物理学家霍金预言中人类的终结。然而,观点的另一端,包括OpenAI在内的许多人也认为,从治疗疾病到应对气候变化,再到改善业务和公共服务流程和决策,甚至是解开宇宙的奥秘,这项技术可能给人类带来巨大利益。
挑战在于,如何在不陷入人工智能带来风险的情况下,确保这些利益的实现。现在不仅仅是那些“恐惧技术者”在为管控风险奔走呼告,而且那些处于人工智能技术发展前沿的人也开始大声疾呼。他们似乎正在担心自己创造的东西。
是蒙特利尔大学的教授,也是国际上公认的人工智能领域领军专家。他以在深度学习领域的开创性工作而闻名,与辛顿(Geoffrey Hinton)和杨乐昆(Yann LeCun)一起获得了2018年的图灵奖。
他们包括“DeepMind”的联合创始人之一苏莱曼(Mustafa Suleyman),他最近出版了一本名为《未来浪潮》(The Coming Wave)的书,呼吁更多人讨论管理人工智能发展的问题。他与众多顶尖科技人物共同签署了一份来自人工智能安全中心的声明,要求将人工智能带来的“灭绝风险”作为与包含流行病和核战争在内的“其他社会风险”并列,成为全球优先事项以加强管控。另一位签署者是被称为“人工智能教父”的本吉奥。他在2023年对BBC说,当思考人工智能的发展速度和规模时,他时常感到困惑:“这并不是科学届第一次经历这种异样的情绪,想想第二次世界大战末期被投入战场的原子弹,它们都有很多类似之处。”
对其他人来说,更多的是一些哲学层面的隐忧。辛顿告对BBC说,除了对人工智能可能被恶意使用而产生担忧之外,他还专注于“人工智能比我们更聪明的风险。”一个关键点在于两者是“不同类型的智慧。”我们人类所拥有的智慧是一个生物系统,人工智能是一个数字系统。机器虽然是分开学习的,但是他们可以大规模地即时分享知识。
关于监管模式的提出正在以和机器学习技术本身几乎一样快的速度增加。一些人例如“DeepMind”联合创始人苏莱曼和谷歌前首席执行官施密特(Eric Schmidt),呼吁建立一个类似于气候变化政府间专门委员会(IPCC)的国际机构,为决策者提供监测和预警,并且制定处理人工智能的协议和规范。其他人则参照国际民航组织之类的机构。英国皇家国际事务研究所的苏利文表示,对待人工智能的监管需要去参考人类对核能的监管。人工智能与核能一样,都是即可以用于武器,也可以用于有益的民用的目的。苏利文指出:“我们在核能方面有一个全球治理体系。”类似的制度也可以借鉴到人工智能领域。
一些人则对此保持怀疑。Meta首席人工智能科学家杨乐昆认为,人们对人工智能的恐惧有些过度,人类只会从机器不断加强的力量中受益,这些机器最终仍将受到人类的控制。在接受《金融时报》采访时,他把现在试图对该行业进行监管的努力,比作是想在1920年代试图限制喷气式飞机产业的发展,因为当时喷气式飞机甚至还没有被发明出来。
另一个关键问题是由谁来制定议程。在地缘政治方面,争夺已经开始了。代表们聚集在布莱切利庄园之际,美国副总统卡哈里斯(Kamala Harris)就朝英国首相泼了一盆冷水,明确表示美国在塑造人工智能发展方面并不打算屈居次席。“世人需要明确这一点:在人工智能方面,美国是全球领导者。”她继续指出,是美国的公司正在领导着人工智能的创新,美国能够以其他国家无法做到的方式催化全球行动和共识。
与此同时,欧盟已经制定了自己的人工智能监管提案,旨在在单一市场建立共同标准。考虑到中国在创新方面的快速增长及其发展自己技术路线的决心,中国出席布莱切利庄园的峰会无疑是一场外交的首秀。
其他分歧仍然存在。来自“全球南方”的代表在人工智能安全峰会上提出,应尽可能广泛地传播人工智能创新所带来的好处。其他人,比如李飞飞,她认为公共部门必须在人工智能这样的“关键技术”发展中发挥更大的作用。她对彭博社说,这对美国的领导地位至关重要,她在斯坦福大学的同事及欧洲委员会特别顾问沙克(Marietje Schaake)也表达了类似的警告:允许私营部门拥有太多的专有控制权会带来风险。这会让立法者、监管机构和普通公众越来越不了解嵌入技术中的能力和风险。然而,这些技术将在从医疗保健到执法等越来越多的公共生活方面发挥作用。然而,微软的设计和人工智能副总裁梅达(John Maeda)却提出更乐观的态度,他认为人工智能迫使人类比以往更加富有创造力,他甚至还从19世纪的艺术和手工艺运动中汲取灵感:“我们如何比工业机械创造出更好的东西?”
布莱切利庄园峰会以一项声明结束:签署者们一致认可人工智能所带来的巨大全球机遇、潜在好处和风险,所有这些都需要国际合作,尤其是“以人为中心”的响应。这项声明是广泛的和富有善意的,但最终它意味着人工智能进入人类的议事日程。后续的峰会将于2024年和2025年分别在韩国和法国举行,重点将转向下一步的实际行动。问题也会随之而来:到那时,谁都无法预知机器和这些引领人工智能的公司即将发展到的程度。
As our lives and work are increasingly being reshaped by AI, the new edition of Think:Act Magazine explores what this means for C-level managers.