Nadella 因无法参与这个重要决策而感到沮丧,毕竟 Microsoft 持有 OpenAI 盈利部门近一半的股份。他意识到,这次解雇可能会在 OpenAI 内部引发混乱,甚至可能在整个科技界掀起波澜,因为这个行业一直在热烈讨论 AI 的快速发展是值得庆祝还是应该引起警惕。
Nadella 接着联系了 Microsoft 的首席技术官 Kevin Scott,这位负责人是推动 OpenAI 合作的关键人物。Scott 已经听说了这一消息,因为这个消息传播得非常快。他们随后与其他 Microsoft 的高层进行了视频通话。他们讨论了这样一个问题:Altman 被解雇是否因为在推出 AI 产品时,围绕速度与安全的紧张关系?OpenAI 和 Microsoft 的部分员工以及科技界的其他人士都已对 AI 公司盲目前行表示担忧。甚至 OpenAI 的首席科学家兼董事会成员 Ilya Sutskever 也公开谈及了不加约束的 AI “超级智能”的风险。2023 年 3 月,就在 OpenAI 发布迄今最强大的 AI 模型 GPT-4 之后,包括 Elon Musk 和 Steve Wozniak 在内的数千人签署了一封公开信,呼吁暂停开发高级 AI 模型。“我们真的应该让机器在信息渠道中散播宣传和虚假信息吗?”、“我们真的愿意冒着失去对文明控制的风险吗?”这封信被许多硅谷观察家视为对 OpenAI 和 Microsoft 的明确批评。
Kevin Scott 对人们对 AI 的担忧持有一定的理解。他认为,关于 AI 的讨论过于专注于像电脑毁灭人类这样的科幻情节,却忽视了这项技术实现“公平竞技场”的潜力。Scott 认为,对于那些明确知道自己希望电脑完成什么任务,但又缺乏相关技能的人来说,AI 可以成为一种变革性的、平等化的力量——前提是它的构建要足够谨慎,引入过程也需要充分的耐心。
Scott 和他在 OpenAI 的伙伴们决定缓慢但持续地推出 AI 产品,以此在公众面前进行实验,将大量非专业人士纳入实验的过程中。Microsoft 会观察这些没有受过专业训练的用户如何与这项技术互动,而用户们则会通过实际使用来了解这项技术的优势和局限。通过发布尚不完美的 AI 软件,并从客户那里收集坦诚的反馈,Microsoft 找到了一种既能改善技术,又能培养用户对技术持怀疑态度的方法。Scott 相信,管理 AI 风险的最佳方式是尽可能地对更多人保持透明,并让技术逐渐融入我们的日常生活——从最普通的用途开始。而且,有什么比通过像文字处理器这样平凡的工具来教人们使用 AI 更好的方法呢?
然而,所有 Scott 精心规划的定位现在都面临风险。随着越来越多的人了解到 Altman 被解雇的消息,充满对 Altman 和 OpenAI 使命的狂热信念的 OpenAI 员工开始在网上表达他们的不满。该公司的首席技术官 Mira Murati 被任命为临时首席执行官,这是一个她并不热衷的角色。不久之后,OpenAI 的总裁 Greg Brockman 发推表示自己辞职。其他 OpenAI 员工也开始威胁要辞职。
在与 Nadella 的视频通话中,Microsoft 的高层开始讨论对 Altman 被免职一事的可能回应。计划 A 是通过支持 Murati 来稳定局势,然后与她合作,探讨初创公司董事会是否可能撤销他们的决定,或至少对其鲁莽行为给出一个解释。
Kevin Scott 坚信人工智能能改变世界,这一想法源于技术如何深刻地改变了他的人生。他在弗吉尼亚州的小镇 Gladys 长大,那里离 Lee 向 Grant 投降的地方不远。他的家庭里从未有人上过大学,健康保险几乎是陌生概念。小时候,Scott 有时需要邻居帮助解决吃饭问题。他的父亲是越南战争退伍军人,尝试经营过加油站、便利店、货运公司和各种建筑业务,但最终两次宣布破产。
Scott 渴望不同的生活。他的父母给他买了一套百科全书,他像早期的大语言模型一样,从头到尾阅读了整套书。他还为了好玩拆解烤面包机和搅拌器。通过节省,他买到了 Radio Shack 最便宜的电脑,并通过查阅图书馆的书籍学会了编程。
在 Scott 出生之前的几十年,即 1972 年以前,Gladys 周边地区曾是家具和纺织工厂的聚集地。但到了 Scott 的青少年时代,许多制造业已经迁移到了海外。似乎是由于供应链自动化和电信技术的进步,使得在成本较低的国外生产变得更加简单。但 Scott 即便在青少年时期,就觉得技术并非真正的问题所在。他曾在 9 月份对我说:“我们国家一直在自我安慰,认为外包是不可避免的。但我们本可以关注失去制造业的社会政治后果,或者强调保护社区的重要性,只是这些观点并未广为人知。”
Scott 在林奇堡学院(一所与基督教门徒派相关的本地学校)完成学业后,从维克森林大学获得了计算机科学硕士学位,并于 1998 年开始在弗吉尼亚大学攻读博士学位。他对人工智能(AI)充满了兴趣,但发现许多计算机科学家实际上把它看作是种类似占星术的存在。早期创建 AI 的尝试屡屡失败,使得这一领域被视为不切实际,在学术界和软件公司中这种看法已根深蒂固。不少顶尖的思想家也因此放弃了这一学科。到了 2000 年代,一些学者试图通过将其更名为“深度学习”来重振 AI 研究,但怀疑态度依然存在。在 2007 年的一次 AI 会议上,一些计算机科学家甚至制作了恶搞视频,暗示深度学习的研究者们像山达基教徒一样。
Nadella 在阅读了这份备忘录后,像 Scott 所描述的那样,表示:“嗯,听起来不错。” 一周后,Scott 被任命为 Microsoft 的首席技术官。
Scott 若想让 Microsoft 成为人工智能革命的领头羊,他就必须帮助这家公司超越 Google。Google 通过向几乎任何取得即使是小成就的人提供数百万美元,囤积了大量人才。过去二十年间,Microsoft 也尝试过在内部的 A.I. 项目上投入数亿美元来竞争,但收效甚微。公司高管们开始意识到,像 Microsoft 这样拥有超过二十万员工和庞大的官僚体系的公司,并不适合快速灵活地开发 A.I. Scott 对我说:“有时候,小规模反而更有效。”
OpenAI 已经取得了引人注目的成就:他们的研究人员创造了一个能解决魔方的机器手,即使在面对以前没有遇到的挑战时,比如某些手指被绑住,它也能解决。然而,Scott 最激动的是,在后来的一次会议上,OpenAI 的领导告诉他,他们已经放弃了机器手项目,因为它不够有潜力。“最聪明的人有时是最难管理的,因为他们有无数绝妙的想法,”Scott 说。但 OpenAI 的员工始终保持着极端的专注。在热情方面,OpenAI 介于 Up with People 和 Hare Krishnas 之间,员工们对他们的工作几乎有着救世主般的热情。今年 7 月我见到 Sutskever 后不久,他告诉我,“A.I. 将彻底颠覆人类生活的每一个领域”,可能会使像医疗保健这样的领域比现在好上亿倍。这种自信有时会让潜在投资者望而却步;但 Scott 却觉得这非常吸引人。
在 Microsoft 当时普遍的沮丧气氛中,这种乐观主义显得尤为突出。一位前高级执行官回忆,“大家都认为 AI 是一场关于数据的竞赛,Google 数据更多,我们处于绝对的劣势。”他补充道,“直到 Kevin 使我们相信还有另外一种方式,我才释怀。”Microsoft 和 OpenAI 的文化差异使他们成为了不同寻常的合作伙伴。但对 Scott 和 Altman 而言——Altman 曾在担任 OpenAI 首席执行官 (C.E.O.) 之前领导了创业加速器 Y Combinator——这种合作是理所当然的。
由于大型语言模型正是通过这种方式构建的,因此在技术行业中,突然流行起了一种新职业——提示工程师。这些人语言表达极为精准,能够被委以重任,为 AI 模型设计元提示和其他指令。然而,即便这种以散文形式的编程做得再好,它也存在明显的局限性。人类语言的复杂多变可能导致意想不到的后果,正如无数情景喜剧和睡前故事所展示的那样。从某种意义上说,我们已经用散文为社会编程了数千年——通过制定法律。但即便如此,每当遇到稍微新颖一点的情况时,我们仍然需要庞大的法院和陪审团系统来解释这些指令。
到 2022 年底,微软的高层已准备好开始为 Word、Excel 等产品开发 Copilots 助手。然而,微软意识到,就像法律总在变化,即使产品已经发布,也需要不断更新安全措施。负责 AI 伦理工程的 Sarah Bird 和 Kevin Scott 常常因为技术上的失误而保持谦逊态度。比如在大流行期间,他们测试 OpenAI 的新发明——图像生成器 Dall-E 2 时,发现这个系统在被要求生成与 covid-19 相关的图片时,经常会生成空空的商店货架图片。有些微软员工担心,这种图像可能会增加人们对大流行导致经济崩溃的恐慌,因此建议调整产品的安全机制以避免这种情况。但也有人认为这种担忧毫无必要,不值得软件工程师花费时间。
那些不满的董事会成员认为,OpenAI 的使命要求他们对 AI 的潜在危险保持警觉,而在 Altman 执掌下,他们无法完成这一任务。“我们的使命是确保 AI 惠及全人类,但如果无法对 CEO 进行有效监督,这一目标就难以实现,”另一位了解董事会想法的人表示。Altman 对此有不同看法。了解他观点的人士指出,他与董事会之间的争论“非常正常且有益”,但部分董事会成员对商业常规不太了解,对自身的职责感到压力重大。这位人士补充说,“随着我们逐步接近通用人工智能(AGI),每个人的压力似乎都在倍增。”
在得知 Altman 被解雇后不久,Nadella 召开了与 Scott 及其他高管的视频会议。微软随即开始实施计划 A:通过支持 Murati 作为临时 CEO 来稳定局势,并试图了解董事会为何如此冲动地采取行动。Nadella 批准了一份声明,强调“微软仍然支持 Mira 及其团队,因为我们将把这一新时代的 AI 带给我们的客户”,并在他的个人 X 和 LinkedIn 账户上重申了这一观点。他还与 Murati 保持密切联系,以便及时了解她从董事会那里获取的最新信息。
到了感恩节前的周日,每个人都筋疲力尽。Kevin Scott 开玩笑地对同事说,他都不敢睡觉,担心一旦醒来就会发现更多疯狂的事情。记者们纷纷守在 OpenAI 的办公室和 Altman 的家门外。OpenAI 的董事会单独召见 Murati,进行私下谈话。他们告诉她,他们一直在秘密寻找一位新的首席执行官——最终找到了一个愿意接受这一职位的人。
对 Murati、OpenAI 的大多数员工和许多 Microsoft 内部人士而言,这是忍无可忍的最后一刻。因此,他们启动了计划 C:在一个周日的晚上,Nadella 正式邀请 Altman 和 Brockman 来领导 Microsoft 新成立的 AI 研究实验室,他们可以获得任何所需资源和充分自由。两人接受了这一邀请。Microsoft 开始为预计将加入这一部门的数百名 OpenAI 员工准备办公室。同时,Murati 和她的同事们起草了一封公开信,致 OpenAI 董事会:“我们不能和那些缺乏能力、判断力以及对我们使命和员工关怀的人共事。”信中明确表示,除非所有现任董事会成员辞职,Altman 和 Brockman 被重新任命,否则他们将辞职,并加入新成立的 Microsoft 子公司。几乎所有 OpenAI 员工在短时间内签署了这封信。Scott 在社交平台 X 上表示:“亲爱的 OpenAI 合作伙伴们:我们已经注意到你们的请愿,赞赏你们想要加入 Sam Altman 在 Microsoft 的新 AI 研究实验室的愿望。请知道,如果需要,你们在 Microsoft 将有一个与你们目前薪酬相匹配,且能促进我们共同使命的职位。”(Scott 的这一行为并不是所有科技界人士都能接受的。他不久后告诉同事,“今天早上我在 Twitter 被称作 asshole,这算是我的新职业亮点——这很公平,但你必须了解我才能真正判断。”)
计划 C 和 OpenAI 可能面临的大规模离职威胁迫使董事会作出让步。在感恩节前两天,OpenAI 宣布 Altman 将作为首席执行官重返公司。所有董事会成员(除了 D’Angelo)将辞职,一些更有经验的人物,包括前 Facebook 高管兼 Twitter 董事长 Bret Taylor 和前财政部长、哈佛大学校长 Larry Summers 将加入董事会。公司还将考虑进一步的治理变革,甚至可能是公司结构的重组。OpenAI 的高层同意对 Altman 作为首席执行官期间的行为进行独立调查。
虽然计划 C 最初看似诱人,但 Microsoft 的高层后来认为目前的局面是最佳结果。将 OpenAI 的员工转移到 Microsoft 可能导致昂贵的诉讼和浪费时间,还可能面临政府干预。在新的合作框架下,Microsoft 在 OpenAI 获得了一个无投票权的董事会席位,这增强了它的影响力,同时避免了监管审查的风险。
另一方面,被解雇的董事会成员仍坚持认为他们的决策是正确的。一位了解内情的人士透露:“会有一个全面且独立的调查,而不是简单地把 Sam 的好友安排进董事会,我们选择了能够对他产生制衡的新成员。”Toner 向我表示:“董事会始终专注于履行对 OpenAI 使命的承诺。”(Altman 则对他人表示,他欢迎这次调查——这部分是为了帮助自己理解这场纷争的原因,以及他本可以采取哪些不同的措施来避免这种情况。)
一些人工智能领域的监管机构对这一结果持保留态度。Hugging Face 的首席伦理科学家 Margaret Mitchell 对我说:“董事会在解雇 Sam 时其实只是在做它应该做的事。Sam 的重新任命可能会产生不良影响。我们可能会看到更少的员工敢于在公司内部发声,因为他们担心会被解雇——而且公司高层将更加任性妄为。”
Nadella 和 Scott 终于松了一口气,Microsoft 终于恢复了正常运转,Copilots 的广泛发布也在有序进行。不久前,他们向我展示了 Word Copilot 的功能。比如,你可以让它把五页的文档浓缩成十个要点,或者反过来,把十个要点扩展成五页的报告来给老板留个好印象。你还可以让 Copilot 根据特定文件来处理任务,比如用我最近与 Jim 的邮件来撰写下一步工作的备忘录。通过对话框,你还可以让 Copilot 核实事实、改写笨拙的句子,或者确认你的报告是否与以前的内容矛盾。比如,你问:“我的合同里是不是漏掉了什么常见条款?”它就会帮你复查以前的合同。值得一提的是,界面上的图标一个都不像人类,这也是系统刻意强调其可能出错的一个方式。
Kevin Scott 表示,这样的设计是经过深思熟虑的。他说:“真正的乐观,有时意味着要慢慢来。” 如果他、Murati 和 Nadella 的计划得以实现——考虑到他们最近的成功,这似乎很有可能——人工智能将继续稳步融入我们的日常生活中。这个过程足够缓慢,以适应短期悲观主义的谨慎态度,同时也不会超过人类对这项技术使用方式的理解速度。当然,人工智能可能会失控,我们可能在一切无法挽回之前都没有意识到这些危险。但至少现在,Scott 和 Murati 对于他们能够平衡技术进步和安全问题感到自信。
我最后一次和 Scott 交流是在 “Turkey-Shoot Clusterfuck” 事件爆发前。他提到,他母亲最近频繁住院,一段时间内就住了六次。她已经七十多岁,有甲状腺问题。但最近一次她去急诊室,等了近七小时,却因为没医生看诊而空手而归。Scott 表示:“合适的 Copilot 本可以在几分钟内就诊断出问题,并为她开出处方。”但这还只是未来的设想。Scott 清楚,目前这样的延误和不便是为了更深远的进步所必须承受的——一种长远的乐观态度,诚实地面对怀疑者的忧虑。
Scott 认为:“人工智能 (A.I.) 是人类历史上发明的改善人们生活质量最有力的工具之一。”他说:“但这是一个需要时间的过程,而且确实 应该 需要时间。”他补充道:“我们历来都是通过技术来解决极具挑战性的问题。因此,我们可以选择讲述一个关于未来的乐观故事,也可以是悲观故事——我们选择的那个故事,很可能就是最终成为现实的那个。”