今年可谓是AI大年,让它从年初流行到年底。很多人都用过AI来提高工作效率,最著名的肯定是Open AI下的ChatGPT。它的强大不用我多说。无论是查资料,写论文,甚至是写程序,都可以帮你完成,功能非常强大。
各种AI的大火,除了用户本身,最大的受益者绝对是英伟达。毕竟现在所有的AI程序都要基于英伟达的芯片来计算,这也让英伟达躺着赚钱,但这样的好日子可能要结束了,因为微软和Open AI都选择了自己做芯片。
英伟达通过垄断AI领域直接赚钱。
那么英伟达到底赚了多少钱,足以让各大公司“眼红”呢?目前主流的AI计算芯片主要是NVIDIA的Ampere A100和Hopper H100加速卡。在运行ChatGPT的微软数据中心,有成千上万的A100为他们提供计算服务。A100也是目前市面上最强的AI计算芯片,每个芯片成本4万美元,而且还是供不应求,想买还得排队。
现在无论是国内的百度、腾讯、Byte还是国外的微软、亚马逊等公司,都非常依赖英伟达提供的GPU芯片,这让英伟达芯片实际上成为了AI领域的“硬通货”,自然让英伟达赚得盆满钵满。
根据英伟达发布的财报,2024财年第二季度,单季度营收达到135亿美元,其中最赚钱的是数据中心业务,营收高达103.2亿美元,仅在本季度就增长了一倍多。用英伟达的话来说,生成式AI芯片的爆发比任何游戏GPU芯片都赚钱,这自然让英伟达今年的股价直接上涨了近230%,是这波AI浪潮中的最大赢家。
这样的成绩自然让大部分相关行业的公司感到嫉妒。毕竟目前除了它,没有其他可以替代NVIDIA芯片的。所以一方面可以摆脱依赖,另一方面也不愿意让英伟达这么做赚钱。各大厂商肯定会选择自己研发AI芯片。
微软和Open AI出手了,开发芯片还是不容易。
据相关知情人士透露,微软计划在下个月的年度开发者大会上宣布首款为人工智能设计的自研芯片,以降低成本,减少对英伟达的依赖。无独有偶,AI行业的领头羊Open AI也被曝出正在研发自己的AI芯片。在招聘网站上,Open AI已经公开招聘芯片工程师。可以说微软和Open AI都在试图摆脱NVIDIA芯片。
那么他们能成功选择自己的AI芯片吗?首先,微软和开放AI绝对不差钱。微软就不说了。它是财大气粗的代名词。Open AI也是AI领域的超新星。各大机构都要走后门,给它钱,给它投资。
然而,这些公司开发自己的AI芯片并不困难。难的是新硬件真正转化为计算能力的难度更大,因为AI行业仍然高度依赖英伟达的CUDA生态系统,而CUDA是基于英伟达自己的芯片并行计算框架,这也是同为GPU厂商的AMD没有享受到这一波AI福利的重要原因之一。
经过十几年的积累,NVIDIA的CUDA在库、开发工具、资源生态系统等方面提供了丰富而强大的支持。开发者也可以利用它们构建强大高效的AI模型,这也是目前实现高效易用的关键。可以说CUDA是NVIDIA的软件护城河。
也是因为这个护城河太成功了,可以让英伟达在AI领域几乎垄断,自然让英伟达躺着赚钱。所以即使每个公司都做了相关的AI芯片,软件生态想要突破英伟达还是太难了,需要推倒重来。这个价格真的太高了。
当然也有一种可能,AI领域的集体造核也可以看作是对英伟达的一种警告,告诉英伟达不要搞价格垄断来获取超额利润,否则大家就集体另起炉灶。"