「深呼吸」让大模型表现更佳!谷歌DeepMind利用大语言模型生成Prompt,还是AI更懂AI

新智元
本文来自AIbase日报
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
现在的大模型(LLMs)已经非常智能。写文章、编代码、当医生、当老师,样样精通。于是乎,有人就想了:既然它们这么聪明,能不能让它们自己做决定,当个“智能体”呢?比如,在复杂的环境里自己探索、自己解决问题。毕竟,大家觉得LLMs肚子里有“世界知识”,不需要手把手教也能猜到怎么干。而且,它们还有“思维链”(Chain-of-Thought,CoT)这种“聪明脑回路”,能一步一步推理,更好地理解环境和自己的行为。听起来是不是很完美?结果呢?啪!打脸了。研究人员发现,这些LLM智能体
CBS著名栏目《60Minutes》深入报道了谷歌DeepMind人工智能研究实验室的最新突破,重点聚焦其全新AI模型——Genie2。据AIbase了解,Genie2能够从单一图像或简单文本描述生成高度逼真的3D交互式环境,为机器人训练、虚拟世界构建及通用人工智能(AGI)发展开辟了新路径。社交平台上的热烈讨论凸显了其技术革新性,相关细节已通过DeepMind官网(deepmind.google)与Hugging Face公开。图源备注:图片由AI生成,图片授权服务商Midjourney核心功能:从单一输入到交互式3D世界Genie2以其端到端的3D环境生成能力,标
Qwen3是什么?阿里Qwen3是通义千问系列的最新一代开源大语言模型(LLM),于2025年4月29日正式发布。作为全球首个支持“混合推理”的模型,Qwen3包含8款不同规模的模型,涵盖稠密模型(如0.6B、4B、32B)和混合专家模型(MoE,如30B-A3B、235B-A22B),采用Apache2.0协议开源,支持免费商用。其核心目标是提供高性能、低成本的AI解决方案,同时覆盖从边缘设备到企业级服务器的全场景需求。 Qwen3的主要功能混合推理模式:支持“思考模式”与“非思考模式”无缝切换。前者适用于复杂推理(如数学、代码
4月27日,清华大学旗下的两家明星人工智能公司智谱(Z.ai)和生数科技(shengshu.com)宣布达成重大战略合作。此次合作旨在通过双方在大语言模型和多模态生成模型的技术积累与优势,共同推进国产大模型的技术创新与产业落地。
传统CRM系统因数据分散、销售人员难以管理、客户隐私数据担忧、缺乏智能分析等痛点,很难满足企业高效管理客户关系与提升业务绩效的需求。大语言模型和Agent技术的蓬勃发展,让智能CRM时代真正到来,实现从线索获取到客户转化、项目管理及财务数据处理的全流程自动化,提升企业运营效率,创造增量价值。通付盾CRM智能体“招财猫”—————————————————AI Agent助力企业销售智能化通付盾推出CRM智能体(CRM Agent),代号“招财猫(CAT)”,助力企业从销售线索到客户成
2025年4月27日,AIbase报道:由Stepfun AI团队推出的Step1X-Edit图像编辑模型于近日正式开源,引发业界广泛关注。这一通用图像编辑框架以其卓越性能和实用的开源特性,展现了媲美GPT-4o和Gemini 2 Flash等闭源模型的潜力。以下是对Step1X-Edit的全面解析,涵盖其技术亮点、应用场景及未来影响。创新技术架构Step1X-Edit采用多模态大语言模型(MLLM)与扩散变换器(DiT)的结合,通过处理用户提供的参考图像和编辑指令,生成高质量的目标图像。其核心创新在于将多模态语言模型的语义理解能力与扩散
字节跳动旗下的火山引擎宣布,其最新发布的豆包1.5·深度思考模型已全面上线边缘大模型网关,并为用户提供高达500万tokens的免费使用额度,这一举措在AI领域引起了广泛关注。
NVIDIA AI团队发布了一款革命性的多模态大语言模型——Describe Anything3B(DAM-3B),专为图像和视频的精细化、区域化描述而设计。这款模型凭借创新技术和卓越性能,在多模态学习领域掀起热议,成为AI技术发展的又一里程碑。以下,AIbase为您梳理这款模型的核心亮点与行业影响。区域化描述的突破DAM-3B以其独特的能力脱颖而出:能够根据用户指定的图像或视频区域(如点、框、涂鸦或掩码),生成高度详细的描述。这种区域化描述超越了传统图像标注的局限,结合全局图像/视频上下文与局
字节跳动宣布推出高效预训练长度缩放技术(Efficient Pretraining Length Scaling),通过创新的Parallel Hidden Decoding Transformer(PHD-Transformer)框架,显著提升大语言模型(LLM)在长序列预训练中的效率与性能。据AIbase了解,该技术在保持推理效率的同时,支持高达2048K(2M)的上下文长度训练,解决了传统框架在数据异构性与计算平衡上的瓶颈。相关研究已在arXiv公开,引发了AI研究社区的广泛关注。核心创新:PHD-Transformer优化长序列训练字节跳动的PHD-Transformer通过独特的键值缓存(KV Cache)管理策略与架构优