推广 热搜:   公司    行业  系统  服务  参数  教师  企业  中国 

买不到GPU,马斯克自曝AI巨兽Dojo!自研超算挑战英伟达,约等于8千块H100

   日期:2024-08-09     浏览:112    移动:http://lanlanwork.gawce.com/mobile/quote/5784.html

声明:本文来自于微信公众号 xxxxxx(ID:xxxxx),作者:xxxxx,授权转载发布。

买不到GPU,马斯克自曝AI巨兽Dojo!自研超算挑战英伟达,约等于8千块H100

【新智元导读】多年来,马斯克一直在公开谈论Dojo——这台超算将成为特斯拉人工智能雄心的基石。他最近表示,随着特斯拉准备在10月推出Robotaxi,AI团队将「加倍投入」Dojo。

为了训出Grok3,xAI耗时19天,打造了由10万块H100组成的世界超算集群。

而在训练FSD、擎天柱机器人方面,马斯克同样不惜重金,投入了大量的计算资源。

超算Dojo,是特斯拉AI的基石,专为训练FSD神经网络而打造。

就在今天,他在德州工厂(Cortex)参观了特斯拉的计算机集群。

马斯克称,「这将是一个拥有约10万个H100/H200GPU,并配备大规模存储的系统,用于全自动驾驶(FSD)和Optimus机器人的视频训练」。

不仅如此,除了英伟达GPU,这个超算集群中还配备了特斯拉HW4、AI5、Dojo系统。

它们将由一个高达500兆瓦的大型系统提供电力和冷却。

2021年特斯拉AI Day上,马斯克对外宣布Dojo。

如今三年过去了,Dojo建得怎样了?

8000块H100等价算力,加倍下注

半个月前,网友称2024年年底,特斯拉拥有AI训练算力,等价于9万块H100的性能。

马斯克对此做了一些补充:

我们在AI训练系统中不仅使用英伟达的GPU,还使用自己的AI计算机——Tesla HW4AI(更名为AI4),比例大约为1:2。

这意味着相当于有大约9万个H100,加上大约4万个AI4计算机。

他还提到,到今年年底,Dojo1将拥有大约8000个相当于H100算力。这个规模不算庞大,但也不算小。

Dojo D1超算集群

其实在去年6月,马斯克曾透露Dojo已经在线并运行了几个月的有用任务。

这已经暗示着,Dojo已经投入到一些任务的训练中。

最近,在特斯拉财报会议上,马斯克表示特斯拉准备在10月推出自动驾驶出租车,AI团队将「加倍投入」Dojo。

预计Dojo的总计算能力,将在2024年10月达到100exaflops。

假设一个D1芯片可以实现362teraflops,要达到100exaflops,特斯拉将需要超过27.6万个D1芯片,或者超过32万英伟达A100GPU。

500亿晶体管,D1已投产

2021年特斯拉AI Day上,D1芯片初次亮相,拥有500亿晶体管,只有巴掌大小。

它具备了强大和高效的性能,能够快速处理各种复杂的任务。

今年5月,D1芯片开始投产,采用台积电7nm工艺节点。

Autopilot前硬件总监Ganesh Venkataramanan曾表示,「D1可以同时进行计算和数据传输,采用定制ISA指令集架构,并针对机器学习工作负载进行了充分优化」。

这是一台纯粹的机器学习的芯片。

尽管如此,D1仍没有英伟达A100强大,后者同样采用了台积电7nm工艺制造。

D1在645平方毫米的芯片上放置了500亿个晶体管,而A100包含540亿个晶体管,芯片尺寸为826平方毫米,性能领先于D1。

为了获得更高的带宽和算力,特斯拉AI团队将25个D1芯片融合到一个tile中,将其作为一个统一的计算机系统运作。

每个tile拥有9petaflops的算力,以及每秒36TB的带宽,并包含电力源、冷却和数据传输硬件。

我们可以将单个tile视为,由25台小型计算机组成的一台自给自足的计算机。

通过使用晶圆级互连技术InFO_SoW(Integrated Fan-Out,System-on-Wafer),在同一块晶圆上的25块D1芯片可以实现高性能连接,像单个处理器一样工作。

6个这样的tile构成一个机架(rack),两个机架构成一个机柜(cabinet)。

十个机柜构成一个ExaPOD。

在2022年AI Day中,特斯拉表示,Dojo将通过部署多个ExaPOD进行扩展。所有这些加在一起构成了计算机。

晶圆级处理器(wafer-scale processor),比如特斯拉的Dojo和Cerebras的晶圆级引擎WSE,比多处理器(multi-processor)的性能效率要高得多。

前者的主要优点包括内核之间的高带宽和低延迟通信、较低的电网阻抗以及更高的能源效率。

目前,只有特斯拉和Cerebras拥有晶圆上系统设计。

然而,将25个芯片放在一起对电压挑战和冷却系统也是不小的挑战。

网友拍到特斯拉在德州建设巨型冷却系统

晶圆级芯片的固有挑战还在于,必须使用片上内存(on-chip memory),这不够灵活,可能无法满足所有类型的应用。

Tom's Hardware预测, 下一代使用的技术可能是CoW_SoW(Chip-on-Wafer),在tile上进行3D堆叠并集成HBM4内存。

此外,特斯拉还在研发下一代D2芯片,为了破解信息流难题。

与连接单个芯片不同,D2将整个Dojo tile放在了单个硅晶圆上。

到2027年,台积电预计将提供更复杂的晶圆级系统,计算能力预计将提升超过40倍。

自D1发布以来,特斯拉既没有公开已订购、预期接收的D1芯片订单情况,也没有公开Dojo超算的具体部署时间表。

不过在今年6月份的时候,马斯克曾表示,在未来18个月,一半部署特斯拉AI硬件,一半是英伟达/其他硬件。

其他硬件,也可能是AMD。

为什么需要Dojo

在我们的印象中,特斯拉的主业仅限于生产电动汽车,再附带一些太阳能电池板和储能系统的业务。

但马斯克对特斯拉的期望远远不止于此。

大多数自动驾驶系统,比如谷歌母公司Alphabet旗下的Waymo,仍旧依靠传统的感知器作为输入,比如雷达、激光雷达和摄像头等。

但特斯拉采取的是「全视觉」路径,他们仅依靠摄像头捕捉视觉数据,辅以高清地图进行定位,再使用神经网络处理数据以进行自动驾驶的快速决策。

直观来看,显然前者是一种更简单快捷的路径,事实也的确如此。

Waymo已经实现了L4级自动驾驶的商业化,即SAE所定义的,在一定条件下下无需人工干预即可自行驾驶的系统。但特斯拉的FSD(Full Self-Driving)神经网络仍无法脱离人类操作。

Andrej Karpathy曾在特斯拉担任AI负责人,他表示,实现FSD基本是在「从头开始构建一种人造动物」。

我们可以将其理解为人类视觉皮层和大脑功能的数字复制。FSD不仅需要连续收集和处理视觉数据,识别、分类车辆周围的物体,还需要有与人类相当的决策速度。

由此可见,马斯克想要的绝不只是能盈利的自动驾驶系统而已。他的目标,是打造一种新智能。

但幸运的是,他几乎不太需要担心数据不够的问题。目前大约有180万人为FSD支付了8000美元的订阅费(之前可达1.5万美元),这意味着特斯拉能收集到数百万英里的驾驶视频用于训练。

而算力方面,Dojo超算就是FSD的训练场。它的中文名字可以翻译为「道场」,是对武术练习空间的致敬。

英伟达GPU有多抢手?看看各大科技巨头的CEO有多想跟老黄套近乎就知道了。

即便财大气粗如马斯克,也会在7月的财报电话会上承认,自己对特斯拉可能没法用上足够的英伟达GPU感到「非常担忧」。

「我们看到的是,对英伟达硬件的需求如此之高,以至于通常很难获得GPU。」

目前,特斯拉似乎依旧使用英伟达的硬件为Dojo提供算力,但马斯克似乎不想把鸡蛋都放在一个篮子里。

尤其是考虑到,英伟达芯片的溢价如此之高,而且性能还不能让马斯克完全满意。

在硬件与软件协同这方面,特斯拉与苹果的观点类似,即应该实现两者的高度协同,尤其是FSD这种高度专门化的系统,更应该摆脱高度标准化的GPU,使用定制硬件。

这个愿景的核心,是特斯拉专有的D1芯片,于2021年发布,今年5月开始由台积电量产。

此外,特斯拉还在研发下一代D2芯片,希望将整个Dojo块放在单个硅片上,解决信息流瓶颈。

在第二季度财报中,马斯克指出,他看到了「通过Dojo与英伟达竞争的另一条途径」。

Dojo能成功吗

即便自信如马斯克,在谈到Dojo时,也会支支吾吾地表示,特斯拉可能不会成功。

从长远来看,开发自己的超算硬件可以为AI部门开拓新的商业模式。

马斯克曾表示,Dojo的个版本将为特斯拉的视觉数据标注和训练量身定制,这对FSD和训练特斯拉的人形机器人Optimus来说非常有用。

而未来版本将更适合通用的AI训练,但这不可避免地要踏入英伟达的护城河——软件。

几乎所有的AI软件都是为了与英伟达GPU配合使用,使用Dojo就意味着要重写整个AI生态系统,包括CUDA和PyTorch。

这意味着,Dojo几乎只有一条出路——出租算力,建立类似于AWS和Azure一样的云计算..。

摩根士丹利在去年9月的报告中预测,Dojo可以通过robotaxi和软件服务等形式释放新的收入来源,为特斯拉的市值增加5000亿美元。

简言之,从目前马斯克对硬件的谨慎配比来看,Dojo并非「孤注一掷」而更像是一种双重保险。但一旦成功,也可以释放巨大红利。

参考资料:

https://techcrunch.com/2024/08/03/tesla-dojo-elon-musks-big-plan-to-build-an-ai-supercomputer-explained/

https://www.tomshardware.com/tech-industry/teslas-dojo-system-on-wafer-is-in-production-a-serious-processor-for-serious-ai-workloads

本文地址:http://lanlanwork.gawce.com/quote/5784.html    阁恬下 http://lanlanwork.gawce.com/ , 查看更多

特别提示:本信息由相关企业自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


相关行业动态
推荐行业动态
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2023001713号