预计到2024年AMD AI芯片出货量将占英伟达10%

站长之家
本文来自AIbase日报
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
据路透社援引三位知情人士消息,英伟达将于6月推出一款专为中国市场设计的全新AI芯片,定价预计在6,500至8,000美元之间,明显低于当前售价约为10,000至12,000美元的H20型号。新芯片基于最新Blackwell架构,并采用RTX Pro6000D的设计框架。为规避美国对华高端芯片出口限制,该GPU刻意避开了台积电的先进封装工艺,改用标准GDDR7内存,以降低制造复杂度并提升可量产性。此举是英伟达在全球芯片监管政策趋紧背景下的一项关键市场策略,旨在维持其在中国AI计算市场的主导地位,同时在合规
近日,英伟达发布了其最新的 Cosmos-Reason1系列模型,旨在提升人工智能在物理常识和具身推理方面的能力。随着人工智能在语言处理、数学及代码生成等领域取得显著进展,如何将这些能力扩展到物理环境中成为了一大挑战。物理 AI(Physical AI)不同于传统的人工智能,它依赖于视频等感官输入,并结合现实物理法则来生成反应。物理 AI 的应用领域包括机器人和自动驾驶车辆等,需要具备常识推理能力和对空间、时间及物理规律的深入理解。然而,现有的 AI 模型在与物理世界的连接上依然
英伟达首席执行官黄仁勋宣布推出最新的人形机器人基础模型 ——Isaac GR00T N1.5。此次发布标志着英伟达在机器人开发基础设施上迈出了重要的一步,黄仁勋表示,这一模型将成为 “下一代工业革命的核心构建模块”。GR00T N1.5模型的一个显著优势是其训练效率的显著提升。传统的人形机器人模型通常需要近三个月的时间来完成数据采集,而通过全新的 GR00T-Dreams 工具,生成合成数据的时间可以缩短至仅36小时。这一变革性的发展,有助于解决人形机器人在发展过程中的数据瓶颈问题。GR00T-
在全球最大的合约电子产品制造商富士康(Foxconn)与知名芯片制造商英伟达(Nvidia)之间,合作的脚步愈发坚定。近日,富士康在台北国际电脑展上宣布,将分阶段建设一座专门针对人工智能(AI)应用的数据中心,预计其总功率将达到100兆瓦(MW)。富士康董事长刘扬伟在展会上透露,该人工智能数据中心将采取逐步建设的方式。刘董事长强调,由于电力资源在台湾的稀缺性,该项目的推进并非一蹴而就。初期计划将从20兆瓦的电力供应开始,后续再根据情况逐步增加至40兆瓦,最终达到100兆瓦的
近日,阿布扎比的 AI 投资基金 MGX、法国国家投资银行、AI 初创公司 Mistral AI 与科技巨头英伟达宣布了一项重磅合作计划,目标是在巴黎地区建立欧洲最大的人工智能园区。该项目的初步规划显示,园区的最终装机容量预计将达到1.4吉瓦,规模之大让人期待。这个新 AI 园区的建设预计将于2024年下半年正式启动,并计划于2028年投入运营。项目的合作伙伴不仅包括 MGX、Mistral AI 和英伟达,还涵盖了大型工业集团布依格、法国电力集团,以及知名的巴黎综合理工学院等。这一合作的组成不仅展
美国芯片制造商英伟达(Nvidia)近日宣布,将与沙特阿拉伯主权财富基金旗下的人工智能初创公司 Humain 展开合作,向沙特供应18,000块尖端 AI 芯片。这一消息是在美国白宫代表团访问沙特阿拉伯、卡塔尔和阿联酋期间公布的,标志着沙特在人工智能和云计算基础设施方面迈出了重要一步。英伟达创始人黄仁勋(Jensen Huang)在沙特 - 美国投资论坛上表示:“人工智能像电力和互联网一样,是每个国家的基本基础设施。” 他强调,与 Humain 的合作旨在为沙特人民和企业构建 AI 基础设施,以实现
英伟达在技术界引起广泛关注,正式发布了其最新的 Open Code Reasoning(OCR)模型套装。这一模型的推出,不仅展示了英伟达在人工智能领域的创新能力,也为开发者提供了强有力的工具,助力他们在代码推理和生成任务中取得更好的成绩。** 模型参数与架构:多样化选择 **英伟达的 OCR 模型套装共包含三种不同参数规模,分别为32B、14B 和7B。这些模型均基于 Nemotron 架构进行训练,Nemotron 是一种为多语言和多任务学习优化的 Transformer 框架。这种架构的设计旨在提升模型的推理能力和适应性,使
近日,英伟达正式推出了其最新开源模型系列 ——Llama-Nemotron,该系列模型不仅在推能力上超越了 DeepSeek-R1,更是在内存效率和吞吐量上实现了显著提升。根据最新发布的技术报告,Llama-Nemotron 的训练过程与众不同,采用了合成数据监督微调与强化学习的方法,以全方位提升模型的推理能力。Llama-Nemotron 系列模型包括 LN-Nano8B、LN-Super49B 和 LN-Ultra253B。这些模型的性能在业界引发了广泛关注,尤其是 LN-Ultra,它在推理任务中表现优异,能够在单个8xH100节点上高效运行,同时支持最多128K 的上下
近日,英伟达在 Hugging Face 平台上推出了其最新的自动语音识别(ASR)模型 ——Parakeet-TDT-0.6B-V2。这一新模型不仅在性能上有显著提升,还将开源理念与商业应用相结合,吸引了广泛关注。 超强转录能力Parakeet-TDT-0.6B-V2的最大亮点在于其出色的转录效率。据称,该模型能够在仅仅一秒内完成60分钟音频的转录,极大提高了语音处理的速度。这一效率让开发者和企业在构建语音识别和转录服务时,能够获得更快的反馈和更高的生产力。在技术参数上,Parakeet-TDT-0.6B-V2拥有6亿个参数,结合了 Fas
在最新的科技突破中,Meta 宣布与英伟达和惠普合作推出名为 “Space Llama” 的人工智能项目。该项目旨在为国际空间站国家实验室的宇航员研究提供支持,利用 AI 技术帮助他们在太空环境中进行更高效的工作。“Space Llama” 项目的核心目标是降低成本,减少计算需求,并能够快速响应宇航员在太空中遇到的各种问题。考虑到在太空中,宇航员无法依赖地球互联网进行数据传输,这一项目的推出无疑具有重要意义。借助这一新系统,宇航员将能够直接在太空中处理数据,从而提升工作效率和