然而,大量的异构芯片也形成了“生态竖井”,不同硬件生态系统封闭且互不兼容,软件栈不能很好地协调和打通,算力使用面临一系列非常复杂的工程挑战。即便算力集群众多,仍难以实现有效的整合与利用,这是对算力资源的浪费,不仅成为构建AI Native基础设施的最大难点,也是当前大模型行业面临“算力荒”的重要原因。
国科微是集成电路设计企业,正致力于将尖端的人工智能技术与大规模集成电路设计技术相结合,为端侧人工智能的广泛应用提供更多高性能的SoC芯片和全面的解决方案。值得注意的是,作为芯片公司,国科微也获得了国家大基金(国家集成电路产业基金)的关注。Wind最新数据显示,大基金目前持有国科微1665.5万股股份,位居第三大股东。
不过,目前该这项研究仍然处于早期阶段,有半导体分析师认为,整体来看,这一技术可能需要五到十年的时间才能实现全面的设施升级。
“典型的人工智能芯片使用基于处理器的神经网络。这涉及结合高带宽内存来模拟用于存储权重数据的突触和图形处理单元 (GPU) 来模拟用于执行数学计算的神经元。性能受到HBM和GPU之间数据传输的限制,来回数据传输会降低AI芯片性能并增加功耗,“NEO创始人兼首席执行官Andy Hsu说:“具有 3D X-AI 的 AI 芯片使用基于内存的神经网络。这些芯片具有神经网络功能,每个 3D X-AI 芯片中都有突触和神经元。在执行 AI 操作时,它们用于大幅减少 GPU 和 HBM 之间数据传输数据的繁重工作负载。我们的 3D DRAM极大地提高了 AI 芯片的性能和可持续性。”
众所周知,企业(特别是超大规模基础设施运营商和云服务商,但如今越来越多的普通企业也开始向生成式AI积极展开怀抱)正在AI加速器和相关芯片上投入巨额资金,旨在建立起属于自己的AI训练与推理集群。
免责声明:本文内容与数据仅供参考,不构成投资建议,使用前请核实。据此操作,风险自担。
值得注意的是,英特尔至强6处理器有两款,采用了两种微架构,分别是能效核和性能核。英特尔刚刚发布的是首款配备能效核的至强6处理器(代号Sierra Forest),基于Intel 3制程工艺;另一款至强6性能核处理器(代号GraniteRapids),预计将于今年三季度推出。
目前谷歌、微软和“元”公司等科技巨头纷纷开始布局自研AI芯片,加入人工智能芯片竞争。美国超威半导体公司也宣布加大投入,以期挑战英伟达的市场主导地位。2023年12月,超威半导体发布了可用于训练和运行大型语言模型的MI300系列芯片产品。
比如,2024年4月25日,苹果发布了开源语言模型OpenELM,可以完全在本地设备上运行,无需连接云服务器,有0.27B、0.45B、1.08B、3.04B四种参数,支持生成文本、代码、翻译、总结摘要等功能。
而在2023年,三星电子营业利润为6.57万亿韩元(约合人民币354.6亿元),同比暴跌84.86%。其中,三星半导体部门的亏损超过800亿元,这导致芯片部门的员工没有拿到绩效奖金。
发表评论