英伟达GTC大会:black cloud GPU发布,性能大幅提升
英伟达在GTC大会甩出王炸,black cloud GPU的发布,30倍于H100的性能提升,耗电又降为H100的4分之1,真正做到吃的少干的多。
手里的H10瞬间功率了AI发展被超级加速的同时,新一轮囤卡大战怕是又要打响。
具体来看,本次老黄带来了名为BOCOOL的新图形计算平台,和H100比Blackwall平台采用台积电的40P制程工艺,是4N工艺的改进版本。在其基础上研发的GPU拥有2080亿个晶体管,而H100PU的晶体管数量仅800亿个。并且Blackwall GPU配备192G的HBM31内存,速度为80BPSAI算力显著提升,在F14精度下达到了20P的flops,而H100PU的AI算力为4 pto flops。此外Blackwall GPU之间的互联速度高达00BPS,有助于在多GPU系统中实现更高效的数据传输和并行计算。
因此英伟达以black whale为基础,开发了B20和GB20两个系列的GPU,其中GB200不知道老黄是不是从隔壁学来了胶水粘,合法搞出了英伟达首个采用多芯片封装设计的芯片,也就是GB20的集成了2个B20GPU和一个gay CPU。基于以上种种升级,也实现了GB200PU相较于H100PU在大语言模型的推理负载上能提供高达30倍的性能提升。两个显卡的对比图我们会放在评论区。
此外,black card平台在构建和运行实时生成式AI大型语言模型所需的成本和能耗降低到此前的25分之1。真正做到吃的少,干的多。那到底有多离谱?黄教主举例称,如果要训练一个1.8万亿参数量的GPT模型,疑似暗指GPT4需要8000张hopper GPU掉15兆瓦的电力,连续跑上90天,但换成Blackwall GPU只需要2000张。同样是用90天训练效果一样,用的电还减少4分之1。并且如果是跑生成式AI生成token的成本也会降低,主打一个吃的少干的多。
总的来说B20GPU更侧重于提供纯粹的GPU加速能力,适合专注于AI模型训练和推理的用户。而GB20GPU则提供了一个集成的解决方案,将CPU和GPU的优势结合起来,适合需要同时处理CPU和GPU密集型任务的复杂的应用场景。
而在这之后还有更离谱的基于black wall的AI算力组成的DGXGB200服务器。该服务器结合了36颗英伟达gray CPU以及72块Blackwall GPU,通过第五代NV link连接成一台超级计算机。还有由八个或更多的DGXGB20系统构建而成DGX super point,其上限甚至能扩展到数万个GB200超级芯片能训练万亿参数大模型,亚马逊、谷歌、微软纷纷表示已经下单加入大队。至此黄教主可以自豪的说出,AI算力在这八年间翻了1000倍。
《探索高效能计算:如何借助英伟达技术提升AI算力》
在当今科技飞速发展的时代,AI算力的提升成为众多领域的关键需求。英伟达在计算领域一直占据着重要地位,其在GTC大会上发布的black cloud GPU更是引起了广泛关注。
这款GPU带来了令人瞩目的性能提升,相比H100有了质的飞跃。它不仅在性能上提升了30倍,耗电更是降至H100的四分之一,真正实现了高效能计算。
对于专注于AI模型训练和推理的用户来说,B20GPU是个不错的选择。它侧重于提供纯粹的GPU加速能力,能满足此类用户对高效计算的需求。
而GB20GPU则提供了一个集成的解决方案,将CPU和GPU的优势结合起来。适合需要同时处理CPU和GPU密集型任务的复杂应用场景,为用户带来更全面的计算体验。
还有基于black wall的AI算力组成的DGXGB200服务器,结合了36颗英伟达gray CPU以及72块Blackwall GPU,通过第五代NV link连接成一台超级计算机。其强大的计算能力甚至能训练万亿参数大模型,吸引了亚马逊、谷歌、微软等纷纷下单。
总之,了解英伟达这些先进的计算技术,能帮助我们更好地利用其优势,提升自身在AI领域的计算能力,推动相关工作的高效开展。
英伟达,GTC大会,black cloud GPU,H100,性能提升
[Q]:black cloud GPU相比H100有哪些优势?
[A]:性能提升30倍,耗电降为H100的4分之1。
[Q]:BOCOOL新图形计算平台有什么特点?
[A]:采用台积电40P制程工艺,GPU有2080亿晶体管等。
[Q]:GB200有什么特别之处?
[A]:英伟达首个采用多芯片封装设计,集成2个B20GPU和1个gay CPU。
[Q]:B20GPU适合哪些用户?
[A]:专注于AI模型训练和推理的用户。
[Q]:GB20GPU适合什么应用场景?
[A]:需要同时处理CPU和GPU密集型任务的复杂场景。
[Q]:训练1.8万亿参数量的GPT模型,Blackwall GPU有什么优势?
[A]:只需2000张,用电减少4分之1,训练效果相同。
[Q]:DGXGB200服务器是如何组成的?
[A]:结合36颗英伟达gray CPU以及72块Blackwall GPU,通过第五代NV link连接。
[Q]:AI算力在这八年间有怎样的变化?
[A]:翻了1000倍。
手里的H10瞬间功率了AI发展被超级加速的同时,新一轮囤卡大战怕是又要打响。
具体来看,本次老黄带来了名为BOCOOL的新图形计算平台,和H100比Blackwall平台采用台积电的40P制程工艺,是4N工艺的改进版本。在其基础上研发的GPU拥有2080亿个晶体管,而H100PU的晶体管数量仅800亿个。并且Blackwall GPU配备192G的HBM31内存,速度为80BPSAI算力显著提升,在F14精度下达到了20P的flops,而H100PU的AI算力为4 pto flops。此外Blackwall GPU之间的互联速度高达00BPS,有助于在多GPU系统中实现更高效的数据传输和并行计算。
因此英伟达以black whale为基础,开发了B20和GB20两个系列的GPU,其中GB200不知道老黄是不是从隔壁学来了胶水粘,合法搞出了英伟达首个采用多芯片封装设计的芯片,也就是GB20的集成了2个B20GPU和一个gay CPU。基于以上种种升级,也实现了GB200PU相较于H100PU在大语言模型的推理负载上能提供高达30倍的性能提升。两个显卡的对比图我们会放在评论区。
此外,black card平台在构建和运行实时生成式AI大型语言模型所需的成本和能耗降低到此前的25分之1。真正做到吃的少,干的多。那到底有多离谱?黄教主举例称,如果要训练一个1.8万亿参数量的GPT模型,疑似暗指GPT4需要8000张hopper GPU掉15兆瓦的电力,连续跑上90天,但换成Blackwall GPU只需要2000张。同样是用90天训练效果一样,用的电还减少4分之1。并且如果是跑生成式AI生成token的成本也会降低,主打一个吃的少干的多。
总的来说B20GPU更侧重于提供纯粹的GPU加速能力,适合专注于AI模型训练和推理的用户。而GB20GPU则提供了一个集成的解决方案,将CPU和GPU的优势结合起来,适合需要同时处理CPU和GPU密集型任务的复杂的应用场景。
而在这之后还有更离谱的基于black wall的AI算力组成的DGXGB200服务器。该服务器结合了36颗英伟达gray CPU以及72块Blackwall GPU,通过第五代NV link连接成一台超级计算机。还有由八个或更多的DGXGB20系统构建而成DGX super point,其上限甚至能扩展到数万个GB200超级芯片能训练万亿参数大模型,亚马逊、谷歌、微软纷纷表示已经下单加入大队。至此黄教主可以自豪的说出,AI算力在这八年间翻了1000倍。
《探索高效能计算:如何借助英伟达技术提升AI算力》
在当今科技飞速发展的时代,AI算力的提升成为众多领域的关键需求。英伟达在计算领域一直占据着重要地位,其在GTC大会上发布的black cloud GPU更是引起了广泛关注。
这款GPU带来了令人瞩目的性能提升,相比H100有了质的飞跃。它不仅在性能上提升了30倍,耗电更是降至H100的四分之一,真正实现了高效能计算。
对于专注于AI模型训练和推理的用户来说,B20GPU是个不错的选择。它侧重于提供纯粹的GPU加速能力,能满足此类用户对高效计算的需求。
而GB20GPU则提供了一个集成的解决方案,将CPU和GPU的优势结合起来。适合需要同时处理CPU和GPU密集型任务的复杂应用场景,为用户带来更全面的计算体验。
还有基于black wall的AI算力组成的DGXGB200服务器,结合了36颗英伟达gray CPU以及72块Blackwall GPU,通过第五代NV link连接成一台超级计算机。其强大的计算能力甚至能训练万亿参数大模型,吸引了亚马逊、谷歌、微软等纷纷下单。
总之,了解英伟达这些先进的计算技术,能帮助我们更好地利用其优势,提升自身在AI领域的计算能力,推动相关工作的高效开展。
英伟达,GTC大会,black cloud GPU,H100,性能提升
[Q]:black cloud GPU相比H100有哪些优势?
[A]:性能提升30倍,耗电降为H100的4分之1。
[Q]:BOCOOL新图形计算平台有什么特点?
[A]:采用台积电40P制程工艺,GPU有2080亿晶体管等。
[Q]:GB200有什么特别之处?
[A]:英伟达首个采用多芯片封装设计,集成2个B20GPU和1个gay CPU。
[Q]:B20GPU适合哪些用户?
[A]:专注于AI模型训练和推理的用户。
[Q]:GB20GPU适合什么应用场景?
[A]:需要同时处理CPU和GPU密集型任务的复杂场景。
[Q]:训练1.8万亿参数量的GPT模型,Blackwall GPU有什么优势?
[A]:只需2000张,用电减少4分之1,训练效果相同。
[Q]:DGXGB200服务器是如何组成的?
[A]:结合36颗英伟达gray CPU以及72块Blackwall GPU,通过第五代NV link连接。
[Q]:AI算力在这八年间有怎样的变化?
[A]:翻了1000倍。
评论 (0)
