320. 英伟达帕斯卡降临(合)

章节报错(免登陆)

91书院(91shuyuan.com)更新快,无弹窗!


    不过这都不是现在老黄最在意的事情,当今之计,黄仁勋最重要的任务是借助自己cUdA平台的提前布局,利用这一大先发优势,与孟繁岐的诸多最新技术做好适配,力求直接垄断AI计算产业。</P>
    【...更为引人注目的是,p100显卡引入了NVLink互连技术,这是一项重要的创新。NVLink不仅能够实现多个显卡之间高速的数据传输,还为构建高性能的计算集群提供了强大支持。这使得p100显卡在解决复杂、密集的计算问题时,能够展现出无与伦比的卓越性能。】</P>
    目前传统的Gtx显卡用pcI-E链接,理论峰值仅为16Gb每秒,这对于越来越庞大的人工智能模型和数据来说,还远远不够。</P>
    人工智能这样的计算密集型应用程序需要高性能计算单元,但快速访问数据也很关键,因为大量的时间消耗在了等待数据上面。</P>
    尤其当某种大型数据需要反复在所有显卡中传播的时候,这会极大地影响模型训练的效率。</P>
    也就是说,目前难住孟繁岐的一大瓶颈,是一卡工作八卡围观。</P>
    显卡本身的性能甚至都未能成为主要原因,因为交互数据的时候就已经太慢了。</P>
    如果10秒钟的时间里,只有2秒钟在进行计算,其余的8秒都在进行数据的等待。那即便你计算速度提升一百倍,也不可能让这个时间少于8秒钟。</P>
    必须得要改善设备的吞吐速度,才能解决这样的问题。</P>
    而新的帕斯卡架构,将这个数字扩展到了80Gb,乃至160Gb,因为它支持双向传输。</P>
    这就已经是十倍的传输效率提升了。</P>
    此外,黄仁勋还实现了大半年前,两人曾经讨论过的半精度支持。</P>
    孟繁岐当时在上一届Gtc大会后建议黄仁勋,未来的人工智能计算,数据和模型过大,很有可能会偏向半精度的数据类型,因为AI计算并不需要精确到小数点后那么多位。</P>
    这项后来成为人工智能计算标准的格式,在旧的麦克斯韦框架上并未得到支持。</P>
    如今看来,黄仁勋做得还是相当到位的。</P>
    孟繁岐的这个建议,单从理论上就已经提供了2倍的计算速度。</P>
    如果考虑到各种传输也会因此减少一般的数据体量,以及新显卡计算单元的专门设计,实际效果还会更好一些。</P>
    【当然,我们的目标并不仅仅是创造一款强大的硬件产品,而是为用户提供全面的解决方案。p100显卡充分支持英伟达的深度学习库,如cUdA和cudNN,为研究人员和开发者们提供了更高效、便捷的开发环境。无论是在科研领域还是商业应用中,p100都将成为您的得力助手...】</P>
    这款p100产品比前世16年版本在硬件性能上要稍差一些,cUdA核心和频率数量都略有缩减。</P>
    不过由于提前一年就与孟繁岐达成合作,英伟达在几个关键路线上少走了很多弯路。</P>
    NVLink,半精度计算之类的功能都进行了提前布局。除此之外,还针对特性的算子和计算操作做了专门的优化。</P>
    不过这卡...终究也是画饼罢了。</P>
    【...第一批的p100显卡,已经有股东订购了大量的订单,以及谷歌、微软、脸书这些大公司。他们将会首先获得这些性能怪兽。】</P>
    不仅孟繁岐买了不少,谷歌等大公司也不会吝啬这个钱。</P>
    黄仁勋口中的“第一批”恐怕是远远不止一批,没个三五个月几乎不可能交付完成。</P>
    数据交互加上半精度的设计,将人工智能的相关训练过程提速十几二十倍,绝非空话。</P>
    孟繁岐是大股东没错,黄仁勋也同时需要考虑好几位AI大玩家的需求。</P>
    至于稍微小点的公司...从最开始就被剔除在了游戏之外。</P>
    他们只能等待英伟达满足了第一批客人之后才有机会购入一部分,那时候可能已经是十个月后,16年的时候才有机会。</P>
    这对于正在高速发展期的人工智能领域来说就是垄断式的。</P>
    买不到设备,等到孟繁岐今年迟些时候推出30b版本chatGpt,以及各种绘图改图智能的时候。</P>
    都不需要费力气去山寨,就是直接代码送给伱,你也玩不起。</P>
    【你买的越多,就省得越多!】</P>
    台上,黄仁勋正在激情满满地推销p100。</P>
    这句话说得倒也没错,只是当买的多就赚得多的时候,这件事大概率就已经和普通人没什么关系了。</P>
    今生的人工智能也将提前进入生成时代,AIGc。
章节报错(免登陆)
验证码: 提交关闭