OpenAI 刚刚发布了一篇blog长文控诉马斯克,OpenAI直接点名马斯克:OpenAI的成立时就是为了盈利,马斯克想通过诉讼OpenAI获得AGI。OpenAI按时间线罗列了12条“罪证”揭露马斯克的真实意图
这简直是人工智能发展的最好的“野史”,侧面展现了马斯克对于人工智能的宏大愿景与急迫心态,强烈推荐各位吃瓜,这是OpenAI自己总结的瓜,哈哈


我这里先给大家划个重点,来个浓缩版(中文全文翻译一并奉上)
2015 年:质疑与初创
故事始于 2015 年 11 月,OpenAI 以非营利组织的形式诞生,这最初就引起了马斯克的质疑。他认为非营利结构可能并非最优,提出“最好有一个标准的 C 类公司和一个平行的非营利组织”。尽管如此,OpenAI 还是在 12 月正式对外宣布成立,踏上了人工智能的探索之旅。
2017 年初:资金需求与路线分歧
2017 年初,随着研究的深入,OpenAI 意识到构建通用人工智能(AGI)需要巨额的计算资源,这使得资金需求达到了数十亿美元的级别。同年夏天,OpenAI 和马斯克达成一致,认为将 OpenAI 转为营利性机构是进一步推进使命的必要一步。然而,这一共同的认知,却成了日后矛盾爆发的导火索。
2017 年秋:控制权之争与决裂
2017 年秋季,双方的合作迅速走向破裂。马斯克要求获得公司多数股权、绝对控制权,并担任营利性 OpenAI 的 CEO。这遭到了 OpenAI 的断然拒绝。OpenAI 认为,给予马斯克单方面的控制权,与其使命背道而驰。更为讽刺的是,在 2017 年 9 月,马斯克甚至自己创建了一家名为“Open Artificial Intelligence Technologies, Inc.” 的公共利益公司,似乎是为他自己主导 OpenAI 的未来铺路,这也反映了他对于控制权的强烈渴望。OpenAI 在文章中写道:“在这次谈判中,你(马斯克)已经向我们表明,绝对控制对你来说至关重要。”
OpenAI 在邮件中对马斯克提出质疑:你希望成为新公司的 CEO,是因为你想让每个人都知道你在掌控,尽管我们认为,你保留绝对的公司控制权与你当前的意图背道而驰。
在双方的争执中,马斯克直接表示:“我不会再资助 OpenAI,直到你们做出坚定承诺。” 双方的合作至此宣告破裂。
2018 年:另起炉灶与分道扬镳
2018 年 1 月,马斯克声称,除非 OpenAI 并入特斯拉,否则它注定失败。然而,OpenAI 并未接受这一提议。2 月,马斯克辞去 OpenAI 联合主席的职务。在随后的 12 月,他又发出警告,要求 OpenAI 必须“立即每年筹集数十亿美元,否则就放弃”,显示了他对资金的高度需求和对 OpenAI 未来发展的悲观态度。
2019 年:推出限制利润的 OpenAI LP
2019 年 3 月,OpenAI 宣布成立限制利润的 OpenAI LP,在非营利架构下寻求资金支持,试图平衡盈利和使命之间的矛盾。
2023 年至今:竞争与诉讼
2023 年 3 月,马斯克成立了 xAI,成为 OpenAI 的直接竞争对手。更加戏剧性的是,马斯克之后将 OpenAI 告上法庭,似乎试图通过法律手段来制约 OpenAI 的发展。这与 OpenAI 在文章中所说“You can’t sue your way to AGI”形成了鲜明的对比。文章认为,马斯克应该在市场中竞争,而不是在法庭上进行斗争,并强调“OpenAI 的使命是确保 AGI 造福全人类,我们一直并将继续保持一个使命驱动型组织。”
中文全文翻译:
OpenAI
2024 年 12 月 13 日
马斯克想要一个营利性的 OpenAI
事件时间线
-
2015 年 11 月: OpenAI 以非营利组织的形式成立,这引起了埃隆的质疑
-
2015 年 12 月: OpenAI 公开宣布成立
-
2017 年初: 我们的研究进展让我们意识到,我们需要数十亿美元的计算资源才能构建 AGI(通用人工智能)
-
2017 年夏季: 我们和埃隆同意,营利性是 OpenAI 为了推进使命的下一步
-
2017 年秋季: 埃隆要求获得多数股权、绝对控制权,并担任营利性公司的 CEO
-
2017 年 9 月: 埃隆创建了一家名为“Open Artificial Intelligence Technologies, Inc.” 的公共利益公司
-
2017 年 9 月: 我们拒绝了埃隆的条款,因为给予他单方面控制 OpenAI 及其技术将与我们的使命相悖
-
2018 年 1 月: 埃隆表示,除非我们并入特斯拉,否则 OpenAI 将注定失败
-
2018 年 2 月: 埃隆辞去 OpenAI 联合主席的职务
-
2018 年 12 月: 埃隆告诉我们,要“立即每年筹集数十亿美元,否则就放弃”
-
2019 年 3 月: 我们宣布成立了限制利润的 OpenAI LP,隶属于非营利组织
-
2023 年 3 月: 埃隆创立了他的 OpenAI 竞争对手 xAI
正文
在 2017 年,埃隆不仅想要,而且实际上创建了一个营利性公司,作为 OpenAI 提议的新结构。当他没有获得多数股权和完全控制权时,他离开了,并告诉我们我们会失败。现在,OpenAI 已经成为领先的人工智能研究实验室,而埃隆经营着一家竞争性的人工智能公司,他却要求法院阻止我们有效地追求我们的使命

[图片:马斯克于 2017 年 9 月 15 日创建的公共利益公司,作为 OpenAI 拟议的未来结构]
你不能通过诉讼来实现 AGI。我们对埃隆的成就以及他对 OpenAI 的早期贡献表示极大的尊重和感激,但他应该在市场上竞争,而不是在法庭上。对于美国保持在人工智能领域的全球领导地位至关重要。我们的使命是确保 AGI 造福全人类,我们一直并将继续保持一个使命驱动型组织。我们希望埃隆也认同这个目标,并坚持创新和自由市场竞争的价值观,这些价值观推动了他自己的成功
2015 年 11 月:OpenAI 以非营利组织的形式成立,这引起了埃隆的质疑
2015 年 11 月 20 日,埃隆说:“此外,这个结构看起来并不理想……可能最好有一个标准的 C 类公司和一个平行的非营利组织。” 我们当时认为非营利组织是正确的道路,但后来我们意识到,我们的结构必须进化,才能吸引到必要的资金来支持使命
来往邮件
回复:人工智能文档
—– 转发的消息 —–
发件人: 埃隆·马斯克 <已编辑>
日期: 2015 年 11 月 20 日星期五,下午 12:29
收件人: 萨姆·奥尔特曼 <已编辑>
我认为这应该独立于 YC(但由其支持),而不是听起来像个子公司
此外,该结构看起来并不理想。特别是,YC 的股票以及来自非营利组织的薪水会混淆激励机制的统一性。可能最好有一个标准的 C 类公司和一个平行的非营利组织
2015 年 11 月 20 日,上午 11:48,萨姆·奥尔特曼 <已编辑> 写道:
埃隆 –
计划是由你、我和伊利亚担任 YC 人工智能的董事会成员,这将是一家特拉华州的非营利组织。我们还将声明,我们计划通过董事会多数票选举出另外两名外部人士。
我们将在章程中写入,任何可能危及人类安全的技术都必须获得董事会的同意才能发布,我们也会在研究人员的雇佣合同中引用这一点。
总的来说,这对你来说可行吗?
我抄送了我们的法务顾问 <已编辑> – 这里是否有你办公室的人可以和他一起处理细节?
萨姆

2015 年 12 月:OpenAI 公开宣布成立
OpenAI 被介绍给了全世界
2017 年初:我们的研究进展让我们意识到,我们需要数十亿美元的计算资源才能构建 AGI
2017 年,我们在为竞技电子游戏 Dota 构建 AI 方面取得了进展。我们发现我们需要比最初想象的更多的计算资源
2017 年 6 月 13 日,埃隆在一封电子邮件中回复说:“好的,让我们找出最便宜的方法来确保计算能力不是一个限制……”
伊利亚在 2017 年 7 月 12 日重申:“每年,我们需要以指数级方式增加我们的硬件支出,但我们有理由相信,AGI 最终可以用少于 100 亿美元的硬件构建出来。”
来往邮件
回复:后续想法
发件人: 埃隆·马斯克 <已编辑>
日期: 2016 年 2 月 19 日星期五,上午 12:05
收件人: 伊利亚·苏茨克维尔 <已编辑>
抄送: 格雷格·布罗克曼 <已编辑>,萨姆·奥尔特曼 <已编辑>
坦率地说,让我感到惊讶的是,人工智能界要花这么长时间才能理解这些概念。这听起来并不难。将大量深度网络进行高级链接听起来是正确的方法,或者至少是正确方法的一个关键部分
DeepMind 每年创造出一个深度思维的可能性都在增加。也许在 2 到 3 年内,它不会超过 50%,但它可能会超过 10%。考虑到他们的资源,这对我来说并不疯狂
无论如何,我发现高估竞争对手远比低估他们要好得多
世界上最优秀的人才,不惜一切代价让他们加入,并赋予公司高度的紧迫感
对于 OpenAI 来说,在接下来的 6 到 9 个月内取得一些重大成果非常重要,以表明我们是认真的。不需要有惊人的突破,但它应该足以让世界各地的关键人才坐起来并注意
发件人: 伊利亚·苏茨克维尔 <已编辑>
日期: 2016 年 2 月 19 日星期五,上午 10:28
收件人: 埃隆·马斯克 <已编辑>
抄送: 格雷格·布罗克曼 <已编辑>,萨姆·奥尔特曼 <已编辑>
几点说明:
-
• 并非当我们解决“概念”时,我们就得到了人工智能。还需要解决的其他问题包括无监督学习、迁移学习和终身学习。我们目前的语言也做得非常糟糕。这并不意味着这些问题在未来几年不会取得显著进展,但并非只有一项问题阻碍了我们与完整的人工智能水平之间的差距
-
• 我们今天无法构建人工智能,因为我们缺乏关键的想法(计算机可能太慢,但我们无法判断)。有力的想法是由顶尖人才产生的。大规模集群有所帮助,而且非常值得获取,但它们的作用较小。
-
• 我们能够在接下来的 6 到 9 个月内取得常规的显著成果,仅仅是因为我们现有的人才非常优秀。取得颠覆性的成果将更加困难、风险更高,并且需要更长时间。但我们也有一个合理的计划。
双周更新
3 封电子邮件
发件人: 伊利亚·苏茨克维尔 <已编辑>
日期: 2017 年 6 月 12 日星期一,晚上 10:39
收件人: 格雷格·布罗克曼 <已编辑>,<已编辑>,埃隆·马斯克 <已编辑>
这是我们的第一次双周更新。目标是让你了解最新情况,并帮助我们更好地利用你的访问。
计算:
-
• 95% 的进展来自于快速运行大型实验的能力。运行许多实验的效用要小得多。
-
• 在过去,大型集群可以帮助你运行更多的实验,但它不能帮助你快速运行单个大型实验。
-
• 因此,一个学术实验室可以与谷歌竞争,因为谷歌的唯一优势是能够运行许多实验。这不是一个很大的优势。
-
• 最近,将数百个 GPU 和数百个 CPU 组合在一起以运行比单台机器上可能的大 100 倍的实验,同时需要相似的时间,已经成为可能。这得益于许多不同小组的工作。因此,要保持竞争力的最小必要集群现在比以前大 10-100 倍。
-
• 目前,每个 Dota 实验都使用 1000 多个内核,而且这只是针对小的 1v1 变体,以及极小的神经网络策略。我们还需要更多的计算能力才能赢得 1v1 变体。为了赢得完整的 5v5 游戏,我们将需要运行更少的实验,其中每个实验至少要大一个数量级(可能更多!)。
-
• 总结:重要的是我们实验的规模和速度。在过去,一个大型集群不能让任何人快速运行更大的实验。今天,一个大型集群让我们能够运行大 100 倍的实验。
-
• 为了能够即使在理论上完成我们的项目,我们需要在未来的 1-2 个月内将我们的 GPU 数量增加 10 倍(我们有足够的 CPU)。我们将在我们的面对面会议中讨论具体细节。
Dota 2:
-
• 我们将在 1 个月内解决游戏的 1v1 版本。游戏的粉丝们非常关心 1v1。
-
• 我们现在处于一个单个实验消耗数千个内核的点,并且增加更多的分布式计算可以提高性能。
-
• 这是一个关于我们的机器人做一些相当聪明的事情的酷视频:https://www.youtube.com/watch?v=Y-vxbREX5ck&feature=youtu.be&t=99.
快速学习新游戏:
-
• 基础设施工作正在进行中
-
• 我们实施了几种基准
-
• 从根本上说,我们还没有达到我们想要的水平,并且正在采取行动来纠正这一点。
机器人:
-
• 当前状态:HER 算法(https://www.youtube.com/watch?v=Dz_HuzgMzxo)可以学习解决许多以前无法解决的低维机器人任务。它是非显而易见的、简单的和有效的。
-
• (https://www.youtube.com/watch?v=M9N1dull4Fc)使用 HER 算法和模拟到真实方法[如 https://blog.openai.com/spam-detection-in-the-physical-world/]。
-
• 以上将部署在机器人手上:[链接到 Google 云端硬盘] [此视频是人为控制的,而不是算法控制的。需要登录到 OpenAI 账户才能看到视频]。
自玩是通往 AGI 的关键路径:
-
• 多智能体环境中的自玩是神奇的:如果你将智能体放入一个环境中,那么无论它们多么聪明(或不聪明),环境都会为它们提供确切的挑战级别,这只能通过胜过竞争对手来面对。因此,例如,如果你有一群孩子,他们会发现彼此的陪伴具有挑战性;对于具有相当智能的超智能集合也是如此。因此,自玩的“解决方案”是变得越来越聪明,没有限制。
-
• 自玩让我们“无中生有”。竞争游戏的规则可能很简单,但玩这个游戏的最佳策略可能极其复杂。[激励性示例:https://www.youtube.com/watch?v=u2T77mQmJYI]
-
• 在模拟中训练智能体,通过竞争性战斗(如摔跤)来发展非常好的灵巧性。这里有一个我们训练的蚂蚁形机器人挣扎的视频:<已编辑>。
-
• 目前关于自玩的工作:让智能体学习开发一种语言[在 https://blog.openai.com/learning-to-cooperate-compete-and-communicate/] 中的 GIF]。智能体正在做“事情”,但这仍然是正在进行的工作。
我们还有一些更酷的小型项目。当它们产生重大成果时,将进行更新
发件人: 埃隆·马斯克 <已编辑>
日期: 2017 年 6 月 12 日星期一,晚上 10:52
收件人: 伊利亚·苏茨克维尔 <已编辑>
抄送: 格雷格·布罗克曼 <已编辑>,<已编辑>
谢谢,这是一个很棒的更新。
发件人: 埃隆·马斯克 <已编辑>
日期: 2017 年 6 月 13 日星期二,上午 10:24
收件人: 伊利亚·苏茨克维尔 <已编辑>
抄送: 格雷格·布罗克曼 <已编辑>,<已编辑>
构建 AGI 的业务
发件人: 伊利亚·苏茨克维尔 <已编辑>
日期: 2017 年 7 月 12 日星期三,下午 1:36
收件人: 埃隆·马斯克 <已编辑>,格雷格·布罗克曼 <已编辑>

我们通常认为问题很难,因为聪明的人长期以来都在尝试解决这些问题,但没有成功。很容易认为这对于人工智能来说也是正确的。然而,过去五年的进展表明,关于人工智能最早和最简单的想法——神经网络——一直都是正确的,我们需要现代硬件才能使它们工作
从历史上看,人工智能的突破一直发生在需要 7-10 天训练的模型中。这意味着硬件定义了潜在人工智能突破的表面。这更多的是关于人类心理学而不是关于人工智能的声明。如果实验需要更长时间,就很难将所有状态都记在脑海中并进行迭代和改进。如果实验时间更短,你只需使用更大的模型即可。
人工智能的进步与其说是一场硬件游戏,不如说物理学是一场粒子加速器游戏。但是,如果我们的计算机太慢,那么无论多么聪明,都不会产生 AGI,就像粒子加速器太小一样,我们没有机会弄清楚宇宙是如何运作的。速度足够快的计算机是必要因素,并且所有过去的失败都可能是由于计算机对于 AGI 来说太慢造成的。
直到最近,还没有办法一起使用许多 GPU 来运行更快的实验,因此学术界与工业界的 “有效计算能力”相同。但是今年早些时候,谷歌使用了比典型情况大两个数量级的计算能力来优化分类器的架构,这通常需要大量的研究人员时间。几个月前,Facebook 发布了一篇论文,展示了如何以接近线性的速度加速到 256 个 GPU(使用专门配置的具有高带宽互连的集群)来训练大型 ImageNet 模型。
在过去的一年中,谷歌大脑取得了令人瞩目的成果,因为他们拥有的 GPU 比任何人都多一到两个数量级。我们估计大脑有大约 10 万个 GPU,FAIR 有大约 1.5-2 万个,DeepMind 为每个问题分配 50 个研究人员,并从大脑租用了 5 千个 GPU 用于 AlphaGo。显然,当人们在谷歌大脑运行神经网络时,它会耗尽 DeepMind 的所有配额。
我们仍然缺少构建 AGI 所必需的几个关键思想。我们如何使用系统对“事物 A”的理解来学习“事物 B”(例如,我可以教一个系统计数,然后再乘以,然后再解决文字问题吗)?我们如何构建好奇的系统?如何训练一个系统在没有明确训练的情况下应用熟悉的知识(例如,被要求在不熟悉的情况下应用熟悉的概念)?但是,如果拥有足够的硬件来在 7-10 天内运行相关实验,历史表明正确的算法将被找到,就像物理学家只需要一个足够大的粒子加速器就可以快速弄清楚宇宙是如何运作的一样。
有充分的理由相信,深度学习硬件将在未来四到五年内每年加速 10 倍。世界已经习惯了摩尔定律相对缓慢的步伐,并且没有为这种硬件加速将带来的巨大能力变化做好准备。这种加速不会因为更小的晶体管或更快的时钟周期而发生;它将发生是因为像大脑一样,神经网络是本质上可并行化的,并且正在构建新的高度并行硬件来利用这一点。
在未来三年内,机器人技术应该得到彻底解决,人工智能应该解决一个长期未得到证明的定理,编程竞赛应该一直由人工智能赢得,并且应该有令人信服的聊天机器人(尽管没有人应该通过图灵测试)。在短短四年内,每个通宵实验都可能使用大量的计算能力,以至于有机会在醒来后看到 AGI,前提是算法正确,并且确定算法将在一个竞争性的多智能体模拟中,在 2-4 年内发生。
为了从事构建安全的 AGI 的业务,OpenAI 需要:
-
• 每年取得最佳的人工智能成果。特别是,随着硬件呈指数级增长,我们将取得显著更好的结果。我们的 Dota 和魔方项目将会在目前的计算水平下取得令人印象深刻的成果。明年的项目将更加极端,而现实情况主要取决于我们可以访问的计算能力。
-
• 尽快将我们的 GPU 集群从 600 个 GPU 增加到 5000 个 GPU。作为上限,这将需要 1200 万美元的资本支出和 5-600 万美元的运营支出。每年,我们需要以指数级方式增加我们的硬件支出,但我们有理由相信 AGI 最终可以用少于 100 亿美元的硬件构建出来。
-
• 增加我们的员工人数:从 55 人(2017 年 7 月)到 80 人(2018 年 1 月)到 120 人(2019 年 1 月)到 200 人(2020 年 1 月)。我们已经学会了如何组织我们当前的团队,现在被尝试新想法的聪明人数所限制。
-
• 锁定压倒性的硬件优势。<已编辑> 声称他可以在 2 年内构建的 4 芯片卡实际上是 TPU 3.0,并且(在足够数量的情况下)可以让我们在计算方面与谷歌几乎处于同等地位。Cerebras 的设计远远领先于这两者,如果它们是真实的,那么拥有独家访问权将使我们远远领先于竞争对手。我们有一个结构性的想法,在进行更多尽职调查后,最好在电话中讨论。
资金需求将随着结果数量的增加而同步增加。我们应该讨论获得相关资金的方案,因为这是我们直接控制之外的最大部分。
本周进展:
-
• 我们已经击败了我们顶级 1v1 测试玩家(他是北美 1v1 中的前 30 名,并且击败了顶级 1v1 玩家大约 30% 的时间),但是机器人也可以通过奇怪的玩法来利用。我们正在努力理解这些利用并加以打击。
-
• 从周六开始,这是我们击败顶级测试玩家的第一场比赛:https://www.youtube.com/watch?v=FBoUHay7XBI&feature=youtu.be&t=345
-
• 每天额外的训练都会使机器人更强大,更难被利用。
-
• 机器人越来越接近解决魔方。
-
• 由人远程操作的改进的立方体模拟:<已编辑>。
-
• 我们针对对抗性示例的防御开始在 ImageNet 上工作。
-
• 我们将在 8 月底之前完全解决对抗性示例的问题。
2017 年夏季:我们和埃隆同意,营利性是 OpenAI 为了推进使命的下一步
2017 年 7 月 13 日,格雷格向 Shivon Zilis 发送了一封邮件,Shivon Zilis 曾担任埃隆和 OpenAI 之间的联络人,她概述了当天与埃隆会面的记录,我们当时提出了与一家硬件初创公司合并的想法,他表示“这变成了讨论结构(他说非营利组织早期的确是正确的选择,但现在可能不是正确的选择 —— 伊利亚和我同意这一点,原因有很多)。”
事情进展如何?
[7/13/17 10:35 PM]
海洋:同意在国际上宣布;他建议与获胜球队的最佳球员比赛,这对我来说很酷。我请他打电话给 <已编辑>,他说他会。我认为这比我们默认事先宣布我们击败了最好的 1v1 玩家,然后在 TI 上让我们的机器人可以在终端上玩要好。
GPU:说做我们需要做的事情。
Cerebras:我们谈到了反向合并的想法。独立于 Cerebras,这变成了讨论结构(他说非营利组织早期的确是正确的选择,但现在可能不是正确的选择 —— 伊利亚和我同意这一点,原因有很多)。他说他要去太阳谷请 <已编辑> 捐款。
[7/13/17 10:43 PM]
<已编辑> 和其他人。我会努力为你解决。
格雷格·布罗克曼(蓝色/右)和 Shivon Zilis(灰色/左)之间的 iMessage 对话

2017 年 7 月 21 日,埃隆转发了一篇关于中国计划在 2020 年之前赶上美国人工智能研究设施,并在 2030 年成为人工智能领域的世界领导者的文章,以支持农业和制造业以及国土安全和监控工作。埃隆说:“他们将不惜一切代价获得我们开发的产品。也许是改变路线的另一个原因。”
格雷格同意,表示从 2018 年开始,这条道路将需要是“人工智能研究+营利性硬件”。埃隆回应道:“让我们在周六或周日谈谈。我有一个我想向你展示的初步游戏计划。”
[纽约时报] 中国希望在 2030 年之前实现人工智能
发件人: 埃隆·马斯克 <已编辑>
日期: 2017 年 7 月 21 日星期五,上午 3:34
收件人: 格雷格·布罗克曼 <已编辑>,伊利亚·苏茨克维尔 <已编辑>
[链接到新闻文章]
发件人: 格雷格·布罗克曼 <已编辑>
日期: 2017 年 7 月 21 日星期五,下午 1:18
收件人: 埃隆·马斯克 <已编辑>
抄送: 伊利亚·苏茨克维尔 <已编辑>
100% 同意。我们认为这条道路必须是:
-
1. 人工智能研究非营利组织(至 2017 年底)
-
2. 人工智能研究+营利性硬件(从 2018 年开始)
-
3. 政府项目(何时:??)
-gdb
发件人: 埃隆·马斯克 <已编辑>
日期: 2017 年 7 月 21 日星期五,下午 1:18
收件人: 格雷格·布罗克曼 <已编辑>
抄送: 伊利亚·苏茨克维尔 <已编辑>,<已编辑>
让我们在周六或周日谈谈。我有一个我想向你展示的初步游戏计划。

2017 年 8 月 11 日,我们的人工智能在 Dota 1v1 中击败了世界顶级玩家。那天晚上,埃隆告诉我们“是时候采取下一步措施了,这是 OpenAI 的触发事件。”
明天下午
发件人: 埃隆·马斯克 <已编辑>
日期: 2017 年 8 月 11 日星期五,晚上 9:17
收件人: 格雷格·布罗克曼 <已编辑>,伊利亚·苏茨克维尔 <已编辑>,萨姆·奥尔特曼 <已编辑>
抄送:<已编辑>,Shivon Zilis <已编辑>
你们明天能见面还是开个电话会议?
2017 年秋季:埃隆要求获得多数股权、绝对控制权,并担任营利性公司的 CEO
在接下来的六个星期里,我们为营利性公司谈判了条款。
埃隆要求获得多数股权。2017 年 9 月 4 日,Shivon 在给格雷格的消息中写道,“而且他听起来对他的股权在 50-60 之间非常不容协商,所以在拥有多数股权这一点上没有意义”。在一次通话中,埃隆告诉我们他个人并不在乎股权,但只需要积累 800 亿美元,为在火星建立城市做准备。
[9/4/17 8:19 PM]
实际上,我仍然对关于股份百分比和董事会控制的提议细节感到有些困惑
鉴于听起来像提议是埃隆总是获得最多(3 个席位,25% 的席位),并且所有权力都归董事会所有
是的。虽然我猜想他是为了第一部分而打算让你的否决权条款发挥作用,但我并不确定
那么拥有一定比例的股份有什么权力?
听起来意图是静态董事会成员,或者至少是董事会成员从某些特定群体中静态地产生
但是,是的,我很想听听具体细节。另外,我猜想即使对于董事会规模,50% 意味着没有行动?
我认为它会很快增长到至少 7 个。问题不在于此,而是在实际过渡时它何时过渡到传统的董事会
而且他听起来对他的股权在 50-60 之间非常不容协商,所以在拥有多数股权这一点上没有意义

2017 年 9 月 12 日,埃隆阐述了一个董事会结构,他会在其中 “明确拥有公司的初始控制权”。
回复:当前状态
发件人: 埃隆·马斯克 <已编辑>
日期: 2017 年 9 月 13 日星期三,上午 12:40
收件人: 伊利亚·苏茨克维尔 <已编辑>
抄送: 格雷格·布罗克曼 <已编辑>
听起来不错。三名普通股席位(你、格雷格和萨姆)应由普通股东选出。它们实际上是你的,但如果一旦你失去了大部分普通股东的信任或者选择离开公司,就不是了。
我认为 A 轮优先投资(超级多数我)应该有权任命四个(不是三个)席位。我不期望立即任命他们,但是,就像我说的那样,我会明确拥有公司的初始控制权,但这种情况会很快改变。
粗略的目标是获得一个 12 人董事会(如果这个董事会最终决定了世界的命运,可能会更像是 16 人),其中每位董事会成员都对技术有深刻的理解,至少对人工智能有基本的了解,并且有强烈而明智的道德观。
除了 A 轮的四个席位和普通股的三个席位之外,每个新的主要投资者/盟友都可能有一位董事会成员。但是,只有所有现有董事会成员都同意,才能添加特定的新董事会成员。删除董事会成员的情况也相同。
我们还想添加一些与投资者无关的独立董事会成员。相同的规则适用:需要除一名现有董事之外的所有董事同意才能添加或删除。
我很累,不想让事情变得过于复杂,但这看起来大致是对的。在 16 人董事会级别上,我们将拥有 7/16 的投票权,我将拥有 25% 的影响力,这是我的最小舒适水平。对我来说,这听起来是正确的。如果我们要求加入我们董事会的其他人真的反对我们,我们可能应该输。
正如我所提到的,我对董事会(假设他们由优秀、聪明的人组成)的经验是,他们是理性和合理的。基本上从来没有真正发生过个人董事会投票至关重要的激烈战斗,因此这几乎可以肯定(当然希望如此)是一个没有意义的点。
如果上述内容看起来合理,请告诉我。
埃隆
埃隆还告诉我们,他需要担任 CEO。
2017 年 9 月:埃隆创建了一家名为 “Open Artificial Intelligence Technologies, Inc.” 的公共利益公司
埃隆指示他的财富经理 Jared Birchall 创建一家公共利益公司 “Open Artificial Intelligence Technologies, Inc”(类似于 SpaceX 的官方名称“Space Exploration Technologies Corporation”)。该公司于 2017 年 9 月 15 日注册

[图片:特拉华州公司部门的网站截图,显示了 Open Artificial Intelligence Technologies, Inc. 的注册信息。]
2017 年 9 月:我们拒绝了埃隆的条款,因为给予他单方面控制 OpenAI 及其技术将与我们的使命相悖
我们几乎接受了埃隆的条款。正如我们告诉他的一样,“我们真的很想与你合作。我们相信,如果我们联手,我们实现使命的机会是最大的。”
但是,我们认为他的提议与我们的使命不相符,并表示:“当前的结构为你提供了一条最终让你单方面绝对控制 AGI 的道路。你曾说过你不想控制最终的 AGI,但在这次谈判中,你已经向我们表明,绝对控制对你来说至关重要。”正如我们告诉埃隆的那样,“OpenAI 的目标是让未来变得美好,并避免 AGI 独裁统治。”
发自内心的想法
4 封电子邮件
发件人: 伊利亚·苏茨克维尔 <已编辑>
日期: 2017 年 9 月 20 日星期三,下午 2:08
收件人: 埃隆·马斯克 <已编辑>,萨姆·奥尔特曼 <已编辑>,格雷格·布罗克曼 <已编辑>
埃隆、萨姆,
这是格雷格和我经历过的最高风险的对话,如果这个项目成功,那它将成为世界所看到的最高风险的对话。这对我们所有人来说也是一次非常私人的对话。
昨天当我们考虑做出最终承诺(即使是非招揽协议)时,我们意识到我们犯了一个错误。我们有几个重要的担忧,我们还没有向你们中的任何一个人提出。我们没有提出这些担忧,因为我们害怕:我们害怕伤害关系,让你们认为我们不如你们,或者失去你们作为合作伙伴。
我们的担忧可能无法解决。我们真的希望不是这样,但我们知道,如果我们不现在讨论所有这些问题,我们肯定会失败。我们希望我们能够解决所有这些问题并继续合作。
埃隆
我们真的想与你合作。我们相信,如果我们联手,我们成功的机会是最大的。我们的上升空间是最高的。毫无疑问。我们如此渴望与你合作,以至于我们很乐意放弃股权、个人控制权,让自己可以被轻易解雇——只要能与你合作,我们愿意付出任何代价。
但我们意识到,我们在思考控制对世界的影响时,是很粗心的。因为它看起来太傲慢了,我们并没有认真考虑成功的含义。
-
• 目前的结构为你提供了一条最终让你单方面绝对控制 AGI 的道路。你曾说过你不想控制最终的 AGI,但在这次谈判中,你已经向我们表明,绝对控制对你来说至关重要。
-
• 例如,你说你需要成为新公司的 CEO,这样每个人都会知道你是负责的人,即使你选择保留对公司的绝对控制权,与目前的意图相反。我们不同意你所说的我们离开的能力是我们最大的力量,因为一旦公司真正走上 AGI 的轨道,公司将比任何个人都更重要。
-
• OpenAI 的目标是让未来变得美好,并避免 AGI 独裁统治。你担心 Demis 可能会制造一个 AGI 独裁统治。我们也是。因此,创建一个你可以选择成为独裁者的结构是一个坏主意,特别是考虑到我们可以创建一些避免这种可能性的其他结构。
我们还有一些较小的担忧,但我们认为在这里提及它们是有用的:
-
• 如果我们要购买 Cerebras,我强烈认为它会通过特斯拉完成。但是,如果我们也可以从 OpenAI 内部完成,那为什么这样做呢?具体来说,令人担忧的是,特斯拉有义务最大化股东回报,而这与 OpenAI 的使命不符。因此,总体结果可能不是 OpenAI 的最佳选择。
-
• 我们相信,非营利性的 OpenAI 之所以成功,是因为你和萨姆都在其中。萨姆起到了真正的制衡你的作用,这是非常富有成效的。格雷格和我,至少到目前为止,更不擅长制衡你。我们觉得即使在这次谈判中也能看出这一点,当时我们准备将长期 AGI 控制问题掩盖起来,而萨姆却坚守了他的立场。
萨姆:
当格雷格和我陷入困境时,你总能提出一个最终被证明是深刻而正确的答案。你一直在非常深入和彻底地思考这个问题的前进方向。格雷格和我了解技术执行,但我们不知道未来一个月、一年或五年内结构决策将如何发挥作用。
但是,在整个过程中,我们一直未能完全相信你的判断,因为我们不了解你的成本函数。
-
• 我们不明白为什么 CEO 的头衔对你如此重要。你给出的理由已经改变,很难真正理解它的驱动力。
-
• AGI 真的是你的主要动机吗?它如何与你的政治目标联系起来?你的思维过程是如何随着时间变化的?
格雷格和伊利亚:
在这次谈判中,我们也有相当一部分的失败,我们将在这里列出一些(埃隆和萨姆,我确定你们也有很多要补充……):
在这次谈判中,我们意识到,我们允许未来 2-3 年的财务回报想法来推动我们的决定。这就是为什么我们没有在控制问题上施加压力 —— 我们认为我们的股权足够好,所以为什么要担心?但是,这种态度是错误的,就像 https://openai.com/index/elon-musk-wanted-an-openai-for-profit/
我们为自己找了借口,但这损害了整个过程,并且我们可能会因此而失去萨姆和埃隆。
这里有足够的包袱,我们认为这对我们来说非常重要,需要坐下来谈谈。如果我们不这样做,我们的合作就不会成功。我们四个人能今天见面吗?如果我们四个人都说出真相,并解决这些问题,我们创造的公司将更有可能承受它将经历的非常强大的力量。
格雷格和伊利亚
发件人: 埃隆·马斯克 <已编辑>
日期: 2017 年 9 月 20 日星期三,下午 2:17
收件人: 伊利亚·苏茨克维尔 <已编辑>
抄送: 萨姆·奥尔特曼 <已编辑>,格雷格·布罗克曼 <已编辑>,<已编辑>,Shivon Zilis <已编辑>
伙计们,我受够了。这是最后一根稻草。
要么自己做点什么,要么继续以非营利组织的形式运营 OpenAI。在我对你们做出坚定承诺之前,我不会再资助 OpenAI,否则我只是个傻瓜,本质上是在为你们创建一个初创公司提供免费资金。
讨论结束了
发件人: 埃隆·马斯克 <已编辑>
日期: 2017 年 9 月 20 日星期三,下午 2:17
收件人: 伊利亚·苏茨克维尔 <已编辑>
抄送: 萨姆·奥尔特曼 <已编辑>,格雷格·布罗克曼 <已编辑>,<已编辑>,Shivon Zilis <已编辑>
需要明确的是,这并不是要求接受之前讨论的内容。那已经不在讨论范围之内了。
发件人: 萨姆·奥尔特曼 <已编辑>
日期: 2017 年 9 月 20 日星期三,下午 2:17
收件人: 埃隆·马斯克 <已编辑>,伊利亚·苏茨克维尔 <已编辑>
抄送: 格雷格·布罗克曼 <已编辑>,<已编辑>,Shivon Zilis <已编辑>
我仍然对非营利结构感到兴奋!
2018 年 1 月:埃隆表示,除非我们并入特斯拉,否则 OpenAI 将注定失败
在谈判破裂后,埃隆提议我们并入特斯拉。我们马上就会获得 10 亿美元的预算,而且预算会呈指数级增长。
但是,我们的团队不想在特斯拉工作。我们在接下来的几个月里都在努力寻找另一种方式来筹集实现使命所需的资金。
2018 年 1 月 31 日,埃隆告诉我们:“相对于谷歌来说,OpenAI 注定会失败。显然需要立即采取戏剧性的行动,否则除了谷歌之外的所有人都会变得无关紧要。”
格雷格告诉他:“我的观点是,最好的未来将来自 OpenAI 的重大扩张。我们的目标和使命从根本上来说是正确的,并且随着 AGI 的临近,它将越来越成为一个超级大国。”
转发:今日顶级人工智能机构
发件人: 埃隆·马斯克 <已编辑>
日期: 2018 年 1 月 31 日星期三,下午 2:02
收件人: 格雷格·布罗克曼 <已编辑>,伊利亚·苏茨克维尔 <已编辑>,萨姆·奥尔特曼 <已编辑>
抄送:<已编辑> <已编辑>,Shivon Zilis <已编辑>
相对于谷歌来说,OpenAI 注定会失败。显然需要立即采取戏剧性的行动,否则除了谷歌之外的所有人都会变得无关紧要。
我已经考虑过 ICO 的方法,并且不会支持它。在我看来,这只会导致 OpenAI 以及所有与 ICO 相关的人的信誉大幅下降。如果某件事看起来太好而不真实,那么它就是不真实的。在我看来,这是一个不明智的转移。
我唯一能想到的方法是对 OpenAI 进行重大扩张,并对特斯拉人工智能进行重大扩张。也许两者同时进行。前者将需要大量增加资金
我将抽出时间来与你们交谈。需要明确的是,我非常尊重你们的能力和成就,但我对最近几个月事情的处理方式并不满意。这就是为什么我最近几个月一直不愿与 OpenAI 互动的原因。要么我们解决问题,我的参与度大幅增加,要么我们不解决,我将降至接近零,并公开减少我的联系。我不会处于一种我的影响和时间的认知与现实不符的情况。
发件人: 格雷格·布罗克曼 <已编辑>
日期: 2018 年 1 月 31 日星期三,晚上 10:56
收件人: 埃隆·马斯克 <已编辑>
抄送: 伊利亚·苏茨克维尔 <已编辑>,萨姆·奥尔特曼 <已编辑>,<已编辑>,Shivon Zilis <已编辑>
嗨,埃隆,
感谢你的周到回复。我一直对你对大局的关注印象深刻,并完全同意我们必须改变轨道以实现我们的目标。让我们明天谈谈,任何时间下午 4 点或更晚都可以。
我的观点是,最好的未来将来自 OpenAI 的重大扩张。我们的目标和使命从根本上来说是正确的,并且随着 AGI 的临近,它将越来越成为一个超级大国。
筹款
我们的筹款对话表明:
-
• 伊利亚和我能够说服有声望的人,AGI 确实可以在未来 ≤10 年内实现
-
• 这些人愿意捐款
-
• 这些人对投资非常感兴趣
我尊重你对 ICO 想法的决定,这与我们自己想法的演变相符。萨姆·奥尔特曼一直在研究一种不依赖公开募股的筹款结构,我们将很想听听你的反馈。
在我们一直在交谈的人中,以下这些人目前是我对董事会成员的最高建议。也很乐意听取你对不在这个名单上的首选建议,我们可以找出如何接触他们。
-
• <已编辑>
-
• <已编辑>
-
• <已编辑> (她领导着人工智能合作伙伴关系,最初是由 Demis 创建的,目的是抢夺 OpenAI 的风头——这将带来大量的外部信誉)
未来 3 年
在未来 3 年内,我们必须建立 3 件事:
-
• 定制人工智能硬件(例如 <已编辑> 计算机)
-
• 大型人工智能数据中心(可能多次修订)
-
• 最佳软件团队,混合算法开发、公开演示和安全
我们谈论最多的是定制人工智能硬件和人工智能数据中心。在软件方面,我们有一个可靠的路径(在竞争性多智能体环境中进行自玩),这已通过 Dota 和 AlphaGo 得到验证。我们还发现了一些当今深度学习中的有限数量的局限性,这些局限性阻碍了从人类水平的经验中学习。我们相信,在未来三年内,我们独特地走上了解决安全问题的道路(至少在广泛的意义上)。
我们希望以这种方式扩大员工人数:
-
• 2017 年初:~40
-
• 2018 年底:100
-
• 2019 年底:300
-
• 2020 年底:900
道德高地
我们最大的工具是道德高地。为了保留这一点,我们必须:
-
• 尽力保持非营利性。人工智能将动摇社会结构,而我们对人道主义的信托责任。
-
• 加大对安全/控制问题的投入,而不是其他机构中你注意到的装饰性措施。如果每个人都死了,那么谁赢了都无关紧要。与此相关的是,我们需要传达一种“宁愿红色也不要死”的观点——我们正在努力构建安全的 AGI,并且我们不愿意在一场争先恐后的比赛中毁灭世界。
-
• 与政府合作,提供值得信赖、公正的政策建议 —— 我们经常听到他们不信任来自以下公司的建议,例如:
-
• 被认为是一个为研究界提供公共利益的场所,并通过以身作则保持其他参与者的诚实和开放。
资源。在我的看法中:
-
• 在过去的五年里,有两个主要的运行系统演示:AlphaZero [DeepMind] 和 Dota 1v1 [OpenAI]。(从业者中有很多流行的“能力”突破,我认为其中最重要的是:ProgressiveGAN [NVIDIA]、无监督翻译 [Facebook]、WaveNet [DeepMind]、Atari/DQN [DeepMind]、机器翻译 [伊利亚在谷歌——现在在 OpenAI]、生成式对抗网络 [lan Goodfellow 在研究生院——现在在谷歌]、变分自动编码器 [Durk 在研究生院——现在在 OpenAI]、AlexNet [伊利亚在研究生院——现在在 OpenAI]。)我们在这个方面表现良好。
-
• 我们在 2016 年发展非常迅速,并在 2017 年迭代到一个有效的工作管理结构。我们现在准备在获得资源的情况下进行大规模扩展。我们目前在竞争中失去人才,但几乎只在竞争中失去。我一直在恢复早期的招聘方式,并且相信我可以超越这些结果。
-
• 我们拥有该领域最密集的人才团队,我们也有这方面的声誉。
-
• 我们不鼓励论文写作,因此论文接受率并不是我们优化的衡量标准。对于 Andrej 发送的 ICLR 图表,我预计我们的(接受的论文)/(提交论文的人)将是最高的。
-gdb
埃隆很快决定辞去 OpenAI 的职务。
2018 年 2 月:埃隆辞去 OpenAI 联合主席的职务
2018 年 2 月 20 日,埃隆与团队举行了一次告别全体会议。他说我们应该走我们所看到的每年筹集数十亿美元的道路。他说他将在特斯拉进行高级人工智能研究,这是他认为可以获得这种规模资金的唯一途径。
2018 年 12 月:埃隆告诉我们,要“立即每年筹集数十亿美元,否则就放弃”
[2018 年 12 月 17 日]
中心)。”我们还提出讨论更长期的筹款计划。他回答说,“听起来不错”。
回复:OpenAI 更新
—– 转发的消息 —–
发件人: 埃隆·马斯克 <已编辑>
日期: 2018 年 12 月 17 日星期一,下午 3:47
收件人: 萨姆·奥尔特曼 <已编辑>
听起来不错
可能周三晚上在旧金山见面
2018 年 12 月 17 日下午 3:42,萨姆·奥尔特曼 <已编辑> 写道:
嘿,埃隆 –
在明年第一季度,我们计划在一个不受限制的游戏中进行最后一场 Dota 锦标赛,任何想参加比赛的职业队都可以参加,以获得巨额现金奖励。之后,我们将认为无模型强化学习已经完成,并且该团队的一个子集将致力于使用基于模型的强化学习重新解决 1v1 Dota 问题。
我们还计划在第一季度发布一些机器人手演示——魔方、笔技巧和中国球旋转。新任务的学习速度应该非常快。在今年晚些时候,我们将尝试在两个手臂上安装两只手,看看会发生什么……
我们在语言方面也取得了快速进展。我希望明年我们可以生成短篇小说和一个良好的对话机器人。
希望我们可以使用这种无监督学习来构建可以做难事的模型,例如永远不会犯人类不会犯的图像分类错误,这对我来说意味着一定程度的概念理解。
我们也在多智能体环境中取得了良好的进展,现在多个智能体正在协作构建简单的结构、玩激光标签等。
最后,我正在努力达成一项将我们的计算从谷歌转移到微软的交易(除了我们自己的数据中心)。
也很乐意谈谈筹款(即使有积极的增长,我们也应该足够在未来 ~2 年内使用),以及如果有所帮助的话,关于不断发展的硬件想法,但最好不要
2018 年 12 月 26 日,埃隆发送了一封电子邮件,说:“即使筹集数亿美元也不够。这需要立即每年筹集数十亿美元,否则就放弃。”
我觉得我应该重申
发件人: 埃隆·马斯克 <已编辑>
日期: 2018 年 12 月 26 日星期三,下午 12:07
收件人: 伊利亚·苏茨克维尔 <已编辑>,格雷格·布罗克曼 <已编辑>
抄送: 萨姆·奥尔特曼 <已编辑>,Shivon Zilis <已编辑>
我对 OpenAI 在没有在执行和资源方面发生巨大变化的情况下与 DeepMind/Google 相关的可能性评估为 0%。不是 1%。我希望不是这样。
即使筹集数亿美元也不够。这需要立即每年筹集数十亿美元,否则就放弃。
不幸的是,人类的未来掌握在 <已编辑> 手中。
[链接到文章]
OpenAI 让我想起了贝佐斯和蓝色起源。他们绝望地落后于 SpaceX,并且越来越糟,但贝佐好的,斯自负地认为他们不是这样!
我真的希望我错了。
埃隆
2019 年 3 月:公开宣布成立限制利润的 OpenAI LP,该 LP 由非营利组织管理
我们向埃隆发送了一份我们 OpenAI LP 公告博客文章的预先副本。埃隆唯一的回应是:“请明确表示,我对 OpenAI 的营利部门没有经济利益。”
[10/23/22 8:07 AM]
收到埃隆的回复,你有什么建议:

[图片:埃隆短信截图
你过去曾经向他提供过股票的事情,但他拒绝了,对吧?
我不知道他说的 A 轮和 B 轮是什么意思
不清楚实际问题是什么。没有股票,它仍然是公众认为他最初资助的同一实体(OpenAI 名称),或者只是不同意方向
当时提供给他了,但他拒绝了。我不记得实际决定采用的路径是什么。我以为你曾经直接问过他,如果我没有记错的话?
如果你需要其他信息,请打电话,但总的来说,建议不要立即回复短信
[10/23/22 9:13 PM]
[10/23/22 10:50 PM]
我同意,这感觉很糟糕——当我们建立限额利润时,我们为你提供了股权,当时你并不想要,但如果你愿意,我们仍然非常乐意这样做。
考虑到我们需要的大量资本以及仍然保留一种“将 AGI 交给人类”的方式,我们看不到除了限额利润之外的结构变化方案,这也可以让董事会在需要时取消所有股权以确保安全。
顺便说一下,我个人没有任何股权,也从来没有过。我正在尽力走钢丝,并且很乐意在任何你有空的时候谈谈如何才能做得更好。也很乐意向你展示最新的进展。
(我发出的)
收到了这个回复:我本周大部分时间都会在旧金山进行 Twitter 收购。我们周二或周三谈谈。
对不起,我睡着了!最近几天都很忙。太棒了
萨姆·奥尔特曼(蓝色/右)和 Shivon Zilis(灰色/左)之间的 iMessage 对话
2023 年 3 月:埃隆创立了他的 OpenAI 竞争对手 xAI
2023 年 3 月 9 日,埃隆成立了 xAI——一家公共利益公司,它是 OpenAI 的直接竞争对手。
[图片:Nevada SilverFlume 网站的截图,显示了 X.AI CORP. 的注册信息。]
2023 年 3 月 22 日,埃隆共同签署了一封公开信,呼吁暂停训练比 GPT-4 更强大的系统。由于当时只有 OpenAI 拥有 GPT-4 级别的系统,因此这实际上是呼吁只有 OpenAI 停止开发。
作者
OpenAI
参考:
https://openai.com/index/elon-musk-wanted-an-openai-for-profit/
⭐
(文:AI寒武纪)