
Groq CEO's latest interview: Deploying 1.5 million LPUs by the end of next year, dominating half of the world's inference demand

Groq CEO Jonathan 表示,明年底将部署 150 万个 LPU 芯片,占据全球推理需求的一半以上,未来推理市场的份额将大幅增长。Groq 的芯片在推理速度和成本上具有数倍优势,相比英伟达擅长 AI 训练但在推理方面存在局限。Groq 的创新架构实现性能提升,避免受制于供应链。AI 推理对延迟非常敏感,每 100 毫秒的改善可带来用户参与度提升。未来 1-2 年,Groq 将部署 150 万个推理芯片,可能占全球一半的推理算力。
AI 新星 Groq 横空出世,凭借其独创的 LPU 芯片和令人瞠目结舌的处理速度,成为了科技界的新宠。
近期,风投基金 Social Capital 创始人兼 CEO Chamath Palihapitiya 和 Groq 创始人兼 CEO Jonathan Ross 在 RAISE AI 峰会上展开了一场对谈,谈话内容包括,Groq 当前的发展、对于 AI 未来的思考,英伟达和 Groq 间的对比,Groq 的优势等等。
Ross 表示,AI 推理的成本高昂,他的公司因此专门为大模型提供了 “超快”、更便宜的芯片选择,到明年年底,将部署 150 万个 LPU ,而去年英伟达总共部署了 50 万个 H100,150 万意味着 Groq 可能占世界上一半的推理计算能力,以下为对谈要点:
- Groq 在 30 多天内获得了 7.5 万开发者,而英伟达用了 7 年才达让开发者规模达到 10 万,开发者对于 AI 应用的发展至关重要。
- 英伟达擅长 AI 训练但在推理方面存在局限。Groq 的芯片在推理速度和成本上都有数倍优势。未来推理市场的份额将从目前的 5% 增长到 90-95%。
- Groq 不使用 HBM 等先进但供应有限的器件,而是通过创新架构实现性能提升,避免受制于供应链。
- AI 推理对延迟非常敏感,必须控制在 300 毫秒以内,而目前的系统往往需要几秒甚至更长。每 100 毫秒的改善可带来 8%(桌面) 到 34%(移动) 的用户参与度提升。
- 英伟达在训练领域是佼佼者,但推理还没有明确赢家,想在两个市场都获胜非常困难。
- 未来 1-2 年,Groq 将部署 150 万个推理芯片,可能占全球一半的推理算力,超过各大云计算厂商的总和。
- 硅谷 AI 人才争夺十分激烈,薪酬成本天文数字。Groq 的应对之策是招募经验丰富的工程师,让他们学习 AI 知识。
- 大语言模型就像是思维的望远镜,揭示了智能的广阔,一开始可能令人恐惧,但最终我们会意识到它的美丽,并理解自己在其中的位置。
以下为 AI 翻译的对谈原文
Chamath Palihapitiya:首先,很高兴来到这里。我有一些笔记,所以要确保我们能涵盖所有内容。我想借此机会介绍一下乔纳森。显然,你们中的很多人都听说过他的公司,但你们可能不知道他的创业故事,老实说,他在硅谷已经工作了 25 年。这是你能听到的最独特的起源故事和创始人故事之一。我们将谈谈他在谷歌和 Groq 所取得的成就。我们会比较一下 Groq 和英伟达,我认为这可能是人们应该了解的最重要的技术考虑因素之一。我们将讨论软件、硬件,并给出一些数据和要点,我认为这些数据和要点令人印象深刻。所以我想从你每周都会做的事情开始,那就是你通常会在推特上发布一些开发者指标。今天早上的情况如何?为什么开发人员如此重要?你能听我试试这个测试吗?
Jonathan Ross:我们的开发者数量达到了 7.5 万,这是我们推出开发者控制台后 30 多天的数字。相比之下,英伟达用了 7 年时间才达到 10 万名开发者,而我们只用了 30 多天就达到了 7.5 万。这很重要,因为开发者正在构建所有应用。因此,每一个开发者都对你可以拥有的用户总数产生了成倍的影响,一切都与开发者有关。
Chamath Palihapitiya:让我们回顾一下,在这种背景下这不是一夜之间的成功故事,这是在荒野中跋涉了 8 年,坦率地说还伴随着许多失误,这才是伟大企业家的标志。
但我想让大家听听这个故事,Jonathan,也许你们都听说过那些从大学辍学创办价值数十亿美元公司的企业家。Jonathan 可能是唯一一个高中辍学并创办了一家价值 10 亿美元公司的人。让我们从你的背景开始,因为你成为企业家的道路非常曲折。
Jonathan Ross:正如我提到的,我高中辍学最终找到了一份程序员的工作。我的老板注意到我很聪明,告诉我尽管辍学也应该去大学上课。
所以我没有正式入学,而是开始在亨特学院旁听。然后我得到了一位教授的指导。在那里表现不错,转学到了纽约大学然后我开始学习/博士课程,但还是本科生,后来我又辍学了。
Chamath Palihapitiya:从技术上讲,你有高中文凭吗?Jonathan Ross:没有。我也没有本科学位。
Chamath Palihapitiya:那么你是如何从纽约大学到谷歌的呢?
Jonathan Ross:事实上如果不是纽约大学,我想我不会去谷歌。这很有趣,尽管我没有学位,但我碰巧去了谷歌的一个活动。谷歌的一个人认出了我,因为他们也上过纽约大学,他们推荐了我。所以即使你没有毕业,你也可以在大学里建立一些很棒的人脉,但那是我一起上博士课程的人之一。
Chamath Palihapitiya:当你第一次去谷歌,你在做什么样的工作?
Jonathan Ross:广告,但主要是测试,我们在构建巨大的测试系统。如果你认为建立生产系统很难,测试系统必须测试生产系统所做的一切,因此,每一个广告查询,我们都要进行 100 次测试,但我们没有生产系统的预算。我们不得不编写自己的线程库。我们不得不做各种疯狂的事情,这在广告行业是想都不敢想的,但实际上这比生产系统本身更难。
谷歌鼓励员工在常规工作时间之内花 20% 的时间做他们认为能让谷歌受益的项目,在那里你可以做任何你想做的事情。我称它为 mci time,只要不是在工作时间,你就可以在 20% 的时间里工作。但我每天晚上都会上去和语音团队一起工作。这和我的主要项目是分开的,他们给我买了一些硬件。
我开始做一个叫 TPU 的副项目。它的资金来自一位副总裁所说的"小金库"或剩余资金。从来没有人期望它会成功。实际上还有另外两个项目在研发 AI 加速器,从来没有人期望它们会成功,这给了我们做一些真正反常的、直观的和创新的事情所需的掩护。
Chamath Palihapitiya:退一步说。当这些词还没有被使用的时候,你想在 AI 中解决什么问题?在你看到机会的时候,谷歌又在试图做什么?
Jonathan Ross:这一切始于 2012 年。当时,从未有机器学习模型在任何任务上胜过人类。语音团队训练出了一个能比人类更好地转录语音的模型。问题是他们无力将其投入生产。因此,一位非常著名的工程师 Jeff Dean 向领导团队做了一个演示,只有两张幻灯片。
第一张幻灯片是个好消息。机器学习奏效了。第二张幻灯片,坏消息。我们负担不起。他们必须将谷歌的整个全球数据中心空间增加一倍或两倍。平均每个数据中心的成本为 10 亿美元,20 到 40 个数据中心,因此需要 200 到 400 亿美元。这仅仅是用于语音识别。如果他们想做其他事情,比如搜索广告,成本会更高。这在经济上是不可行的,这就是推理的历史,你训练它,然后你无法负担将其投入生产。
Chamath Palihapitiya:在这样的背景下,你做了什么?是什么让 TPU 成为实际获胜的项目之一??
Jonathan Ross:最重要的是,Jeff Dean 注意到,消耗谷歌大部分 CPU 周期的主要算法是矩阵乘法。我们决定加速这一点,但让我们围绕它构建一些东西,我们建造了一个巨大的矩阵乘法引擎。
在做这件事时,还有另外两个竞争团队,他们采取了更传统的方法来做同样的事情。其中一个由图灵奖得主领导,然后我们提出了所谓的脉动阵列,我记得那位图灵奖得主在谈论 TPU 时说,想出这个方案的人一定很老,因为脉动阵列已经不再流行了。实际上是我提出的,我当时只是不知道脉动阵列是什么,有人不得不向我解释这个术语,这只是做这件事的显而易见的方式。
所以教训是,如果你知道如何去做,你可能会知道如何用错误的方法去做。让那些不知道什么该做什么不该做的人参与进来是很有帮助的。
Chamath Palihapitiya:随着 TPU 的扩展,谷歌内部可能有很多认可。你为什么要放弃这些?
Jonathan Ross:所有大公司最终都会变成政治化?当你拥有如此成功的东西时,很多人都想拥有它,总有更资深的人开始争抢它。转到了谷歌 X 团队,快速评估团队,就是在谷歌 X 提出所有疯狂想法的团队,我在那里玩得很开心,但没有任何东西变成生产系统。
我想从头到尾再做一次真正的事情,我想把一些东西从概念变成作品。我开始向外看,那就是我们相遇的时候。
Chamath Palihapitiya:但问题是,你有两个想法。一个更多的是让我构建一个图像分类器,你认为你可以超过当时最好的 ResNet,然后你有这个硬件路径。
Jonathan Ross:发生的事情是,我也建立了最高性能的图像分类器。我注意到所有的软件都是免费提供的。TensorFlow 是免费提供的,模型是免费提供的,很明显机器学习 AI 将是开源的,即使在那时,那是 2016 年。
我只是无法想象围绕它建立一个企业,这将是一个艰难的芯片业务。构建它们需要很长时间,如果你构建了一些创新的东西并推出它,任何人都需要 4 年才能复制它,更不用说超越它了。所以这感觉是一个更好的方法,它是原子,你可以更容易地将其货币化。
那将只是坚硬的拼字筹码。制造这些芯片需要很长时间,如果你制造出创新的产品并推出市场,那么四年后才会有人模仿你的产品。更不用说超越它了。因此,我觉得这种方法更好。你可以更容易地实现货币化。就在那时 Tpu 论文问世了我的名字出现在里面人们开始询问你问我会有什么不同的做法
就在那个时候,TPU 论文发表了。我的名字在上面,人们开始询问它。
Chamath Palihapitiya:当时我也在投资公共市场。在公共市场上有点疯狂。PiChai 在新闻稿中谈到 TPU,我非常震惊,我认为谷歌不应该建造自己的硬件。他们一定知道一些我们其他人不知道的事情。
我们需要知道这一点以便我们可以为世界其他地区商业化。我可能在几周后遇到了你,那可能是我做过的最快的投资。我记得关键时刻是你没有公司。我们不得不在支票开出后成立公司,这是一个完全愚蠢的迹象,或者在 15 或 20 年后,你会看起来像个天才,但后者的可能性非常小。
你创办了这家公司,告诉我们当时在 Groq 做出的设计决策,根据你当时的了解,因为那时的情况与现在大不相同。
Jonathan Ross:再说一次,当我们开始融资时,实际上并不是 100% 确定我们会在硬件方面做一些事情。我想你问过一些问题,比如你会做些什么不同的事情。我的回答是软件,因为我们在谷歌可以制造这些芯片,但谷歌的每个团队都有一个专门的人在手工优化模型。
我觉得这太疯狂了就在那时然后我们开始从英伟达聘请一些人,他们就说,不,你不明白我们也是这么做的,这就是它的工作方式。我们也是这样做的。我们有这些叫做内核的东西,CUDA 内核。是的,我们手工优化它们。我们只是让它看起来我们没有这样做。但规模,就像你们所有人理解的算法和大 O 复杂度,这是线性复杂度。对于每个应用程序。你需要一个工程师,英伟达现在在他们的生态系统中有 5 万人。
所以我们在前 6 个月专注于编译器。我们禁止在 Groq 使用白板,因为人们一直试图画芯片的图片。
我们不知道它会是语言。但灵感来自我做的最后一件事是让 DeepMind 的 AlphaGo 软件在 TPU 上运行,看到这一点,很明显推理将是一个规模问题。其他人一直在将推理视为,你拿一个芯片在上面运行一个模型。它运行任何东西。但 AlphaGo 发生的事情是我们移植了软件。尽管我们有 170 个 GPU 对比 48 个 TPU,48 个 TPU 还是以完全相同的软件赢了 100 场中的 99 场。这意味着计算将带来更好的性能。洞察力是让我们构建规模化推理。我们内置了互连,我们为规模而构建。
这就是我们现在所做的。当我们运行这些模型之一时我们有数百或数千个芯片在贡献,就像我们在 AlphaGo 中所做的那样,但它是为此而构建的,而不是拼凑起来的。
我认为这是一个很好的跳板,很多人认为这家公司值得很多尊重,但英伟达已经辛勤工作了几十年。他们显然建立了一个令人难以置信的业务。但在某些方面,当你深入了解细节时,业务被略微误解了。
Chamath Palihapitiya:那么你能先分解一下吗?英伟达在哪里天生擅长?它在哪里更多地试图变得优秀?
Jonathan Ross:经典的说法是你不必跑赢熊,你只需要跑赢你的朋友。
英伟达在软件方面超过了所有其他芯片公司,但他们不是一家以软件为先的公司。他们实际上有一个非常昂贵的方法,正如我们讨论过的。但他们有生态系统,这是一个双面市场。如果你采用基于内核的方法,他们已经赢了,没有追赶者,因此我们采用了无内核方案。但他们非常擅长的另一种方式是垂直整合和前向整合。英伟达一次又一次地决定要提升堆栈,不管客户在做什么,他们都开始做。
例如我认为是 Gigabyte 或其他一些 PCI 板制造商最近宣布,尽管他们 80% 的收入来自英伟达,英伟达的板卡是他们制造的,但他们退出了这个市场。因为英伟达向上移动并开始做一个利润率更低的事情。
我认为另一件事是英伟达在训练方面非常出色,他们做出的设计决策包括像 HBM 这样的东西,真的是围绕当时的世界,一切都是关于训练的。没有任何真正的现实世界应用,你们中没有人真正在野外构建任何东西,在那里你需要超快的推理,我认为这是另一个。
我们一次又一次地看到,你会把 100% 的计算花在训练上。你会得到一些足够好的东西用于生产。然后它会翻转到大约 5% 到 10% 的训练和 90% 到 95% 的推理。但训练的量将保持不变。推理将大规模增长。所以每次我们在谷歌取得成功,突然间我们就会遇到灾难,我们称之为成功灾难,我们无法负担得起足够的计算用于推理,因为它会立即增加 10 倍、20 倍。
如果你把这 10 倍、20 倍乘以英伟达领先的解决方案的成本,你就会谈论一个巨大的金额。所以也许向大家解释一下什么是 HBM,为什么这些系统就像。但英伟达刚刚宣布 B200,复杂性和成本。实际上,如果你试图做一些事情。复杂性跨越了堆栈的每个部分,但有几个组件的供应非常有限。
英伟达已经锁定了这些市场,其中之一就是 HBM,这是高带宽内存,这是获得性能所必需的。因为你运行这些应用程序的速度取决于你读取该内存的速度。这是最快的内存。供应有限,它只用于数据中心。他们不能像其他部件那样触及移动设备或其他东西的供应,而且还有封装基板。此外,英伟达是世界上超级电容器的最大买家,以及各种其他组件,电缆,电缆,400 Gbps 的电缆,他们都买断了。
如果你想竞争,不管你设计的产品有多好。他们已经买断了整个供应链多年。
Chamath Palihapitiya:那你怎么办?
Jonathan Ross:你不使用他们使用的相同的东西,这就是我们的用武之地。
那么你如何设计芯片?如果你看看领先的解决方案,他们正在使用某些东西,他们显然取得了成功,你会怎么做?这只是一个完全正交和不同的技术赌注吗?或者有什么非常具体的东西,你说我们不能依赖同样的供应链,因为我们最终会被迫退出这个行业。
实际上,一开始有一个非常简单的观察,那就是大多数芯片架构在性能上的差异很小,比如 15% 就被认为是了不起的。
我们意识到,如果我们只是好 15%,没有人会改用一个完全不同的架构。我们需要 5 到 10 倍,因此,你追逐前沿技术所获得的小百分点是无关紧要的。所以我们使用了一种较旧的技术,14 纳米,它没有得到充分利用。我们没有使用外部内存。我们使用了较旧的互连,因为我们的架构需要提供优势,它需要如此强大,以至于我们不需要处于前沿
Chamath Palihapitiya:所以你今天如何衡量速度和价值?给我们一些你与其他人运行这些人可能正在使用的 Llama、Mistral 等模型的比较。
Jonathan Ross:所以我们从两个方面进行比较。一个是每美元的 tokens 数,一个是每用户每秒的 tokens 数。每用户每秒的 tokens 数是体验。这就是区别所在。每美元的 tokens 数是成本,然后当然还有每瓦特的 tokens 数,因为电力目前非常有限。如果你把我们与 GPU 进行比较,我们通常快 5 到 10 倍,像苹果对苹果那样,没有使用投机解码和其他东西。
所以现在,在 1800 亿参数的模型上,我们每秒运行大约 200 个 tokens,我认为这不到英伟达即将推出的下一代 GPU 的 50 个。你当前的一代比 B200 好 4 倍。而在总成本方面,我们大约是现代 GPU 的 1/10。每个 token。我想让这一点深入人心,成本的 1/10。我认为这的价值真正归结为,你们将去拥有想法,特别是如果你是风险投资界和生态系统的一部分,你筹集资金,像我这样的人会给你钱,希望你明智地投资。
在过去十年里。我们进入了一个非常负面的周期,我们给初创公司的每一美元中,几乎有 50 美分会重新回到谷歌、亚马逊和 Facebook 的手中。你把钱花在计算上,把钱花在广告上。这一次,人工智能的力量应该是,你可以以 1/10 或 1/100 的成本建立公司。但如果你再次把钱运回去,就不可能实现,只不过这次是运到英伟达,而不是其他人。所以我们会努力确保这是一种低成本的替代方案。几周前,英伟达发布了一个重大的公告。他们展示了向右上方的图表。他们展示了巨大的芯片,他们展示了巨大的封装。告诉我们 B200 的情况,并将其与你现在正在做的事情进行比较。
首先,B200 在工程上是一个奇迹,复杂程度、集成程度、硅中不同组件的数量,他们花了 100 亿美元开发它。但当它发布时,我收到了一些来自英伟达工程师的消息,他们说,我们对他们声称的 30 倍性能感到有点尴尬,因为它远没有那么高。作为工程师,我们觉得这有损我们的可信度。30 倍的说法。让我们来看看。有一张图片显示,从用户体验来看,每秒最多可达 50 个 tokens,吞吐量为 140 个,这就给出了价值或成本。如果你将其与上一代产品进行比较,那就是说,如果你用 50 除以 30,用户每秒得到的 tokens 不到 2 个,这将是很慢的,对吧?没有任何东西运行得那么慢。
然后从吞吐量的角度来看,这将使成本高得难以置信。
我们意识到,如果我们的性能提高了 15%,没有人会改用截然不同的架构。我们需要的是 5 到 10 倍的提升,因此,追逐前沿技术所获得的微小提升并不重要。因此,我们使用了一种较老的技术,即 14 纳米技术,这种技术利用率很低。我们没有使用外部存储器。我们使用了较老的互联技术,因为我们的架构需要提供优势,而且需要压倒性的优势,以至于我们不需要处于领先地位。所以。
Chamath Palihapitiya:为什么你现在不分解这个区别?因为我认为这是一个很好的地方,让人们真正理解训练和推理之间有巨大的差异。需要什么,为什么你不定义差异,然后我们可以对比事情将走向何方。
Jonathan Ross:最大的区别是,当你在训练时,你训练的 tokens 数量是以月来衡量的。比如,这个月我们可以训练多少 tokens?如果一个批次需要一秒、十秒或一百秒并不重要,每月有多少个批次,在推理中,重要的是你每毫秒或几毫秒可以生成多少 tokens,对吧?不是以秒为单位,也不是以月为单位。
Chamath Palihapitiya:那么,可以说英伟达是训练的典范吗?然后可以说,在推理方面还没有一个真正的规模化赢家,现在还没有。你认为会是英伟达吗?
Jonathan Ross:我不认为会是英伟达。
Chamath Palihapitiya:但具体来说,为什么你认为它不适用于那个市场?尽管它显然在训练中奏效。
Jonathan Ross:为了降低延迟,我们必须做的是,我们必须设计一个全新的芯片架构。我们必须设计一个全新的网络架构,一个全新的系统,一个全新的运行时,一个全新的编译器,一个全新的编排层。我们必须抛弃一切,它必须与 PyTorch 和其他人实际开发的东西兼容。
现在我们谈论的是类固醇上的创新者困境。很难放弃其中一个,如果你成功地做了其中一个,那将是一家非常有价值的公司。但要扔掉所有这六个几乎是不可能的。而且,如果你想继续训练,你还必须维护你现有的东西。现在,你必须为网络、芯片、网络、一切都有一个完全不同的架构,用于训练和推理。
假设今天的市场是 100 个训练单位或 95 个训练单位,5 个推理单位。我应该说,这大概是大部分收入和美元的来源。4 到 5 年后会是什么样子?
事实上,英伟达最新的收益中 40% 来自推理,它已经开始攀升。它最终将达到 90% 到 95%。这一轨迹将迅速起飞,因为现在我们有了这些开源模型,每个人都在免费提供。你可以下载一个模型并运行它,你不需要训练它。
构建有用的应用程序的一个问题是,你必须要么理解,要么能够使用 CUDA 与你合作。这甚至无关紧要,因为你可以直接移植。
Chamath Palihapitiya:所以也许向大家解释在推理市场中能够快速替换这些模型的重要性,以及你认为这些模型将走向何方。
Jonathan Ross:对于推理市场,每隔 2 周左右,就会有一个全新的模型需要运行。这很重要。要么它在各个方面设置了最佳质量标准,要么它在特定任务上表现出色。如果你在编写内核,几乎不可能跟上。事实上,当 Llama 270 亿参数模型发布时,它正式得到了 AMD 的支持,但是,我们实际看到的第一个支持是在大约一周后实现的,我们在大约 2 天内就实现了。
所以那个速度,就像现在,每个人都在为英伟达硬件开发。所以默认情况下,任何发布的东西都可以在那里工作。但如果你想让任何其他东西工作,你就不能手动编写这些内核。记住,AMD 有官方支持,还是花了大约一周时间,对吧?
如果你今天正在创建一家公司,你显然希望能够根据需要从 Llama 切换到 Mistral,再切换到 Anthropic,你要切换到最新的
Chamath Palihapitiya:作为一个看到这些模型运行的人,你对这些模型的质量有什么看法,你认为其中一些公司将走向何方,或者你看到了什么?有的做得好,有的做得差吗?
Jonathan Ross:他们都开始互相追赶,开始出现一些跳跃式的发展。一开始,GPT-4 遥遥领先,它领先其他人大约一年的时间。现在,Anthropic 已经迎头赶上。我们看到 mistral 在各方面都取得了不错的成绩。
因此,一个有趣的现象是,尤其是 mistral 公司,已经能够用更小、更便宜的模型运行来接近质量,我认为这给了他们巨大的优势。我认为,Cohere 在一种优化模型上的做法也很有趣。因此,人们正在寻找利基。在最高端,一定会有几款产品是最好的。但我们看到的是,很多人抱怨运行这些模型的成本。它们简直就是天文数字。你无法用它们为用户扩展应用。
Chamath Palihapitiya:OpenAI 已经公布或披露了特斯拉和其他几家公司的 GPU 总量。你可以倒推推理市场会有多大,因为随着你们的规模扩大,推理市场真的只能由它们来支持。你能让人们了解一下人们正在为之奋斗的规模吗?
Jonathan Ross:Facebook 宣布,到今年年底,他们将拥有相当于 65 万 H100 的 GPU。到今年年底,groq 将部署 10 万台我们的 LPU,在吞吐量和延迟方面都超过 H100。我们很可能会达到 Facebook 的水平。到明年年底,我们将部署 150 万个 LPU ,去年,英伟达总共部署了 50 万个 H100。所以 150 万意味着 groq 可能拥有的生成式 AI 推理能力将超过所有超大规模云服务提供商的总和,可能占世界上一半的推理计算能力。
Chamath Palihapitiya:太棒了。请谈谈硅谷的团队建设。在 "你可以去特斯拉工作,你可以去谷歌工作,OpenAI 工作"的背景下,要找到真正的人工智能人才有多难?Jonathan Ross:顺便说一下,你有一个有趣的事情,因为你最初的芯片,你试图找懂 Haskell 的人。所以告诉我们,在硅谷组建一个团队来做这件事有多难,不可能。
所以如果你想知道如何做到这一点,你必须开始变得有创意,就像你想做好的任何事情一样,不要直接竞争。但这些薪酬是天文数字,因为每个人都认为这是一个赢家通吃的市场。我就像,这不是关于我要成为第二名吗?我会是第三名吗?他们都在说。我必须成为第一名。如果你没有最好的人才,你就出局了。
现在,错误在于。很多 AI 研究人员在 AI 方面很厉害,但他们还是有点青涩。他们很年轻。对吧?这是一个新领域。我总是建议人们去雇佣那些最有经验、最粗犷的工程师,他们知道如何按时交付东西,让他们学习 AI,因为他们学习 AI 的速度会更快。
然后你将能够把 AI 研究人员培养成具有 20 年生产代码部署经验的人。
Chamath Palihapitiya:你一个月前在沙特阿拉伯与沙特阿美公司同台亮相,宣布了一些大交易。你能不能告诉我们这样的交易是怎么回事?就像那个市场的发展方向是什么?这是你在与亚马逊、谷歌和微软竞争吗?是这样的吗?
Jonathan Ross:这不是竞争。实际上是互补的。宣布的内容是我们将与阿美数字公司一起达成交易。我们还没有宣布具体规模,但就我们要部署的计算量而言,规模会很大。总的来说,我们已经达成了交易,让我们超过了 150 万个 LPU 目标的 10%。困难的部分是第一笔交易。
一旦我们宣布了很多其他交易正在达成,但是这些交易的规模是它们比 Meta 拥有的计算量还要大,很多科技公司。现在,他们认为他们有这样的优势,因为他们锁定了供应。他们不希望有另一种选择存在。所以我们实际上正在与那些将拥有比超大规模云服务商更多计算能力的人达成交易。
Chamath Palihapitiya:这是一个疯狂的想法。最后一个问题。每个人都担心 AI 意味着什么。你从事这个行业已经很长时间了,最后谈谈你的观点,我们应该思考什么,以及你对 AI 未来的看法,我们未来的工作,所有这些人们通常担心的事情。
Jonathan Ross:所以我经常被问到,我们应该害怕 AI 吗?我的回答是,如果你回想伽利略,一个陷入困境的人,他陷入困境的原因是他发明了望远镜,推广了它,并声称我们比每个人想象的要渺小得多,我们应该是宇宙的中心。事实证明我们不是,望远镜越好,就越明显我们是渺小的。在很大程度上,大型语言模型就像是思维的望远镜。很明显,智能比我们大得多。这让我们感到非常渺小。这很可怕。但随着时间的推移,当我们意识到宇宙比我们想象的要大时,我们习惯了这一点。我们开始意识到它有多美,我们在宇宙中的位置。我认为这就是将要发生的事情。我们将意识到智能比我们想象的更加广阔,我们将理解我们在其中的位置。我们不会害怕它。
这是一个很好的结束方式。Jonathan Ross,各位。谢谢大家。非常感谢。有人告诉我 Groq 的意思是带着同理心深入理解,这体现了这个定义。
