长春市航源网络科技有限公司官网-黄仁勋:我从不在乎市集份额,英伟达独一方向是创造新市集
你的位置:长春市航源网络科技有限公司官网 > 新闻动态 > 黄仁勋:我从不在乎市集份额,英伟达独一方向是创造新市集
黄仁勋:我从不在乎市集份额,英伟达独一方向是创造新市集
发布日期:2024-10-31 12:56    点击次数:96

黄仁勋:我从不在乎市集份额,英伟达独一方向是创造新市集

“这是我听过的黄仁勋最佳的采访!”

英伟达CEO黄仁勋的一场炉边言语再次引起热议:

英伟达从来莫得一天评述过市集份额。

咱们所询查的只是:如何创造下一个东西?如何将夙昔需要一年才能完成的飞轮训斥到一个月?

濒临Azure和AWS等正在自主构建ASIC芯片的云缱绻大客户,老黄打了个譬如:

公司受到鱼塘大小的甩掉,独一的方向是用假想力扩大鱼塘。(指创造新市集)

天然了,除了说起英伟达,老黄还询查了AGI的智能膨胀、机器学习的加快、推理与稽察的报复性……

天然时长感东说念主(近1个半小时),但一大波网友还是看完并交起了功课(初始卷了是吧!)

网友:学起来!学起来!

黄仁勋:改日推理的增长将浩大于稽察

鉴于视频较长,量子位先径直给群众划重心了,老黄的主要不雅点包括(省流版):

“口袋里的AI助理”将很快以某种步地出现,尽管最初可能会不圆善;英伟达的竞争上风在于建造了从GPU、CPU、集聚到软件和库的全栈平台;膨胀东说念主工智能的重心已从稽察前退换到稽察后和推理;推理(inference)时缱绻将看成一个全新的智能膨胀向量;改日推理的增长将浩大于稽察的增长;闭源和开源将共存,开源模子可能用于创建特定鸿沟的哄骗顺序;……

(以下为重心部分整理)

Q:对于个东说念主AI助理的发展出路,您以为咱们何时能在口袋里装上一个无所不知的AI助理?

A:很快就会以某种步地出现。这个助理一初始可能不够圆善,但会跟着时刻推移不停更正,这是时刻发展的势必法则。

Q:现时AI鸿沟的发展变化速率是否是您见过最快的?

A:是的,这是因为咱们从头发明了缱绻。在夙昔10年里,咱们将缱绻的角落本钱训斥了10万倍,而按照摩尔定律可能只可训斥100倍。

咱们通过以下方式终澄莹这少许:

引入加快缱绻,将原来在CPU上成果不高的就业退换到GPU上发明新的数值精度开采新架构(如张量中枢)继承高速内存(HBM)通过MVLink和InfiniBand终了系统膨胀

这种快速发展使咱们从东说念主工编程转向了机器学习,所有时刻栈齐在快速创新和率先。

Q:模子范围膨胀方面有哪些变化?

A:以前咱们主要关注预稽察模子的膨胀(重心在模子大小和数据范围),这使得所需缱绻材干每年增多4倍。

当今咱们看到后稽察(post-training)和推理阶段也在膨胀。东说念主类的想维过程不可能是一次性完成的,而是需要快想维、慢想维、推理、反想、迭代和模拟等多个智商。

况且,以前东说念主们以为预稽察难,推理节略,但当今齐很难了。

Q:与3-4年前比较,您以为NVIDIA今天的上风是更大如故更小?

A:本体上更大了。夙昔东说念主们以为芯片遐想等于追求更多的FLOPS和性能方针,这种想法还是逾期。

当今的枢纽在于所有机器学习系统的数据活水线(flywheel),因为机器学习不单是是软件编程,而是波及所有数据处理经由。从一初始的数据照管就需要AI参与。数据的采集、整理、稽察前的准备等每个智商齐很复杂,需要多半处理就业。

Q:与Intel等公司比较,Nvidia在芯片制造和遐想方面有什么不同的政策?

A:Intel的上风在于制造和遐想更快的x86串行处理芯片,而Nvidia采取不同政策:

在并行处理中,不需要每个晶体管齐很出色咱们更倾向于使用更多但较慢的晶体管,而不是更少但更快的晶体管愿意有10倍数目、速率慢20%的晶体管,也不要数目少10倍、速率快20%的晶体管

Q:对于定制ASIC(如Meta的推理加快器、亚马逊的Trainium、Google的TPU)以及供应虚浮的情况,这些是否会更变与NVIDIA的协作动态?

A:这些齐是在作念不同的事情。NVIDIA勤苦于于为这个新的机器学习、生成式AI和智能Agent天下构建缱绻平台。

在夙昔60年里,咱们从头发明了所有缱绻时刻栈,从编程方式到处理器架构,从软件哄骗到东说念主工智能,每个层面齐发生了变革。咱们的方向是创建一个遍地可用的缱绻平台。

Q:VIDIA看成一家公司的中枢主张是什么?

A:构建一个无处不在的架构平台。咱们不是在争夺市集份额,而是在创造市集。咱们专注于创新和惩办下一个问题,让时刻率先的速率更快。

Q:VIDIA对待竞争敌手和协作伙伴的格调是什么?

A:咱们对竞争很清晰,但这不会更变咱们的职责。咱们向AWS、Azure等协作伙伴提前共享阶梯图,保握透明,即使他们在开采我方的芯片。对于开采者和AI初创公司,咱们提供CUDA看成长入进口。

Q:对OpenAI的主见如何?如何看待它的崛起?

A: OpenAI是咱们这个期间最报复的公司之一。天然AGI的具体界说和时刻点并不是最报复的,但AI材干的发展阶梯图将会额外壮不雅。从生物学家到情景相干者,从游戏遐想师到制造工程师,AI还是在革新各个鸿沟的就业方式。

我额外赏玩OpenAI激动这一鸿沟的速率和决心,并为不错资助下一代模子感到昂然。

Q:您以为模子层是否正在走向商品化,以及这对模子公司的影响是什么?

A:模子层正在商品化,Llama的出现使得构建模子变得愈加低廉。这将导致模子公司的整合,惟有那些领有经济引擎并约略握续投资的公司才能生涯。

Q:您如何看待AI模子的改日,以及模子与东说念主工智能之间的分手?

A:模子是东说念主工智能必不可少的构成部分,但东说念主工智能是一种材干,需要哄骗于不同的鸿沟。咱们将看到模子层的发展,但更报复的是东说念主工智能如何哄骗于多样不同的哄骗场景。

Q:您如何看待X公司,以及他们建造大型超等集群的竖立?

A:他们在19天内(常常需要3年)建造了一个领有100,000个GPU的超等缱绻机集群。这展示了咱们的平台的力量,以及咱们约略将所有生态系统集成在通盘的材干。

Q:是否定为散播式缱绻和推理膨胀将会发展到更大范围?

A:是的,我对此额外热心和乐不雅。推理时缱绻看成一个全新的智能膨胀向量,与只是构建更大的模子霄壤之别。

Q:在东说念主工智能中,是否许多事情只可在运行时完成?

A:是的,许多智能就业不成先验地完成,许多事情需要在运行时完成。

Q:您如何看待东说念主工智能的安全性?

A:咱们必须构建安全的东说念主工智能,并为此需要与政府机构协作。咱们还是在建造许多系统来确保东说念主工智能的安全性,并需要确保东说念主工智能对东说念主类是有意的。

Q:你们公司卓绝40%的收入来自推理,推理的报复性是否因为推理链而大大增多?

A:没错,推理链让推理的材干教悔了十亿倍,这是咱们正在资格的工业更动。改日推理的增长将浩大于稽察的增长。

Q:你们如何看待开源和闭源东说念主工智能模子的改日?

A:开源和闭源模子齐将存在,它们对于不同的行业和哄骗齐是必要的。开源模子有助于激活多个行业,而闭源模子则是经济模子创新的引擎。

对于上述这些,你如何看?

— 完 —

量子位 QbitAI · 头条号签约

关注咱们,第一时刻获知前沿科技动态