埃隆·马斯克作为全球首富和资深游戏爱好者,近日在社交媒体上表达了对游戏行业现状的不满,并宣布其旗下公司xAI将成立一个新的AI游戏工作室,旨在复兴游戏行业。
马斯克批评当前许多游戏工作室被大公司收购,导致游戏内容受到商业和政治因素的影响,呼吁开发商专注于游戏本身的质量和乐趣,跳过觉醒说教。
马斯克的行动和言论表明,他希望通过技术创新和AI技术的应用,推动游戏行业回归其本质,提供更高质量的游戏体验。
埃隆·马斯克作为全球首富和资深游戏爱好者,近日在社交媒体上表达了对游戏行业现状的不满,并宣布其旗下公司xAI将成立一个新的AI游戏工作室,旨在复兴游戏行业。
马斯克批评当前许多游戏工作室被大公司收购,导致游戏内容受到商业和政治因素的影响,呼吁开发商专注于游戏本身的质量和乐趣,跳过觉醒说教。
马斯克的行动和言论表明,他希望通过技术创新和AI技术的应用,推动游戏行业回归其本质,提供更高质量的游戏体验。
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
近日,美团宣布推出一款基于混合专家架构的大型推理模型 ——LongCat-Flash-Thinking。这个新模型的参数量高达5600亿,令人瞩目!但最令人惊喜的是,它能够根据上下文需求动态激活186亿至313亿个参数,平均激活约270亿个参数。这种灵活的设计使得模型在多种任务上表现出色,特别是在逻辑推理、数学运算和编程等领域。根据美团的官方数据显示,LongCat-Flash-Thinking 在一系列基准测试中与其他主流模型进行了深入比较。在数学推理方面,例如 MATH500和 AIME25的测试中,该模型表现不凡,甚至声称
在人工智能的浪潮中,AI 大模型已迈出重要一步,从概念验证转向真正的价值实现。2025年,越来越多的企业意识到,大模型不仅需要技术上的可用性,更要在实际应用中提升业务效率和降低成本。为此,硅基流动推出了一款企业级的 MaaS(模型即服务)平台,旨在全面解决大模型在产业化过程中所面临的多重挑战。大模型的广泛应用并非易事,企业普遍遭遇五大难题:模型适配、推理性能与成本、服务可靠性、输出质量以及安全合规。硅基流动的 MaaS 平台正是围绕这些痛点,提供了系统化的
近日,中国科学院自动化研究所的李国齐与徐波团队联合发布了全球首款大规模类脑脉冲大模型 ——SpikingBrain1.0。该模型在处理长文本时展现出惊人的速度,能够以超过当前主流 Transformer 模型100多倍的速度处理400万 token 的超长文本,且仅需2% 的数据量。当前主流的大语言模型,如 GPT 系列,普遍基于 Transformer 架构。尽管 Transformer 以其强大的自注意力机制而闻名,但其计算复杂度却是一个致命的短板。在文本长度增加时,计算量呈现出平方级别的暴涨,使得长文本的处理变得异常耗时和耗
随着好莱坞不断推出同样三部曲的电影,Luma AI 的创始人兼首席执行官阿米特・贾因(Amit Jain)对此深感忧虑。贾因表示,电影行业目前的困境与其保守的创作模式密切相关。为了推动创新,Luma AI 正在与众多创作者合作,积极应用其 AI 视频生成技术,并在洛杉矶开设了一个 AI 实验室,以帮助电影人将 AI 融入他们的创作中。图源备注:图片由AI生成,图片授权服务商Midjourney在最近的一次采访中,贾因毫不留情地评价了当前的电影业现状:“如果好莱坞继续沿袭现在的道路,它就已经死了。
在刚刚结束的华为全联接大会上,华为技术有限公司联合浙江大学推出了国内首个基于昇腾千卡算力平台的基础大模型 ——DeepSeek-R1-Safe。这一创新性产品旨在解决当前 AI 领域面临的安全与性能问题,开创了智能科技的新篇章。浙江大学计算机科学与技术学院的院长任奎在会上详细介绍了这一模型的核心创新。DeepSeek-R1-Safe 是通过一个全流程的安全后训练框架构建而成,涵盖了高质量的安全语料库、平衡优化的安全训练以及自主创新的软硬件平台。这一框架的设计旨在从底层解决 AI 模型在
近日,IBM 正式发布了一款名为 Granite-Docling-258M 的轻量级视觉语言 AI 模型。该模型专为文件转换设计,具备强大的多语言支持,包括中文、阿拉伯语和日语,旨在提升文档处理的效率和准确性。Granite-Docling-258M 的参数量为2.58亿,是一款专为文档表格处理而优化的模型。与传统的 OCR 软件相比,Granite-Docling-258M 在识别准确度上有显著提升。其输出结果不仅能够完整保留原始文档的版面结构,还能有效识别表格、数学公式、列表和代码块等多种元素。这一新技术的核心在于 IBM Research 开发的 Do
阿里巴巴云 Qwen 团队的最新跨模态模型 Qwen3-Omni 预计即将正式发布。据可靠消息,该模型已向 Hugging Face 的 Transformers 库提交了支持 PR,标志着这一端到端多模态 AI 系统的开源集成即将实现。 这一进展基于 Qwen 系列的持续迭代,旨在进一步提升模型在资源受限设备上的部署效率。Qwen3-Omni 是 Omni 系列的第三代产品,该系列以其端到端架构著称,能够无缝处理文本、图像、音频和视频等多种输入模态,并生成文本和语音输出。 与前代模型类似,它采用 Thinker-Talker 双轨设计:Thinker 负责多模态
xAI 推出了 Grok4Fast,这是一款轻量级的旗舰模型,据该公司称,其性能可媲美 Grok4,但计算量减少了40%。据AIbase报道,这一显著的效率提升使得每项任务的成本最多可降低98%。性能与效率的平衡Grok4Fast 在多个基准测试中表现出色,例如在 GPQA Diamond 中得分高达85.7%,在 AIME2025 中得分为92.0%,这些成绩与 Grok4甚至 GPT-5等顶尖模型不相上下。xAI 强调,该模型通过减少“思考标记”实现了这一成就,平均使用比 Grok4少40% 的标记就能获得相似的结果。在处理需要复杂推理的问题时,这种效率优势尤
近日,知情人士透露,OpenAI 与中国硬件制造商立讯精密达成了一项重磅协议,后者将负责组装至少一款 OpenAI 的新设备。这一消息无疑为即将到来的端侧 AI 市场注入了新的活力。OpenAI 的计划不仅包括类似于无显示屏的智能音箱,还考虑推出眼镜、数字录音笔和可穿戴胸针等创新产品,首批设备预计将在 2026 年末或 2027 年初问世。随着技术的发展,智能眼镜的市场正经历从 “功能机” 到 “智能机” 的重大转型。行业专家认为,这一转变意味着硬件竞争即将迈入一个全新的阶段。轻量化、
在人工智能领域的最新动态中,Dustin Tran 宣布从 Google DeepMind 跳槽至马斯克的 xAI,成为公司研发新一代 Grok 模型的重要成员。此消息在他于社交媒体上正式官宣后不久,马斯克便迅速转发,确认了这一人事变动的真实性。Dustin Tran 是 Gemini 项目的核心开发者,自项目诞生以来,他在多个关键阶段发挥了重要作用。从 2014 年在加州大学伯克利毕业,取得数学与统计本科学位后,Tran 继续攻读哈佛大学的统计学博士,并最终在哥伦比亚大学获得计算机科学博士学位。他在学术界的贡献也颇为显著