ChatGPT月活达8亿,背后电费惊人。汇丰测算显示,OpenAI到2030年需再投入2070亿美元购买算力,相当于美国中西部建中型电站。即使届时营收达2130亿美元,公司仍可能无净利润,自由现金流持续为负。
汇丰银行报告称,OpenAI面临巨大资金压力,2030年前需融资至少2070亿美元(约1.47万亿元人民币),以支撑庞大算力需求。资金缺口源于与微软和亚马逊的合作,分别签订2500亿和380亿美元云计算协议,合同算力总量达36吉瓦。
AMD联合IBM与Zyphra推出全球首个全AMD硬件训练的MoE模型ZAYA1,预训练14万亿token,性能媲美Qwen3系列,数学推理接近专业版。采用128节点×8张MI300X显卡集群,算力达750PFLOPs。创新CCA注意力机制融合卷积与压缩嵌入,数据采用课程学习从通用到专业领域过渡。后续将发布优化版本。
谷歌与Accel联合推出全球首个“AI Futures × Atoms”基金,面向印度及海外印裔创始人,单项目双方各投最高100万美元,总额200万美元,并提供最高35万美元的谷歌云/Gemini/DeepMind算力积分。首轮聚焦2026届“Day One AI”产品,涵盖创意工具、娱乐、编程、SaaS及潜在基础模型,旨在预判未来12-24个月大模型突破方向,提前布局印度团队。
专注于 GPU 算力云服务,提供高效算力解决方案。
把代码转变成生动流畅的可视化动画,为数据结构与算法注入生命力
AI云端一体化解决方案,提供模型API、Serverless和GPU租赁服务。
AIGC 应用快速构建平台
openai
$144
输入tokens/百万
$576
输出tokens/百万
200k
上下文长度
chavinlo
斯坦福大学tatsu团队复刻的阿尔帕卡模型,这是一个基于LLaMA-7B进行指令微调的大语言模型。模型在4张A100显卡上训练了6小时,由redmond.ai捐赠算力,未使用LoRA技术,采用原生微调方式。
google
ELECTRA是一种通过判别式预训练而非生成式预训练的高效文本编码器,能以较低算力取得优异性能