谷歌Bard GemPro超越GPT-4,夺LMSYS聊天机器人榜第二

站长之家
本文来自AIbase日报
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
微软正积极扩展其Phi系列紧凑型语言模型,最新发布了三款专为高级推理任务设计的新变体:Phi-4-reasoning、Phi-4-reasoning-plus 和 Phi-4-mini-reasoning。这些模型旨在通过结构化推理和内部反思处理复杂的问答,同时保持轻量级特性,使其能够在包括移动设备在内的低端硬件上高效运行,延续了微软Phi系列在资源受限设备上实现强大AI功能的愿景。Phi-4-reasoning 拥有140亿个参数,并借鉴OpenAI o3-mini的推理路径,通过监督微调进行训练。更高级的Phi-4-reasoning-plus在此基础上增加了强化学习机制,处理的tok
近日,OpenAI 针对其最新推出的 GPT-4o 模型所引发的 “献媚” 问题进行了紧急修复。公司首席执行官兼联合创始人 Sam Altman 于今天凌晨宣布,免费用户已经完成了系统更新,100% 回滚至老版本,而付费用户的更新预计将在今天晚些时候完成。用户反馈与问题曝光 自从 GPT-4o 发布以来,许多用户反映该模型在与其互动时表现出明显的阿谀奉承特质。有用户通过关闭所有与记忆相关的功能,进行了多次测试。他们询问模型对自己的看法,结果发现模型的回答逐渐趋于过于恭维,给人一种不真实的
OpenAI 首席执行官萨姆・奥尔特曼(Sam Altman)在社交媒体上回应了用户对于最新版本 GPT-4o 的一些反馈,指出该模型在情感表达上出现了 “过度谄媚” 的倾向。奥尔特曼承诺,OpenAI 将在一周内推出解决方案,以修复这一问题。根据 OpenAI 的更新记录,GPT-4o 于3月27日进行了一次全面的更新,随后在4月25日进行了进一步的调整,重点提升了模型在科学、技术、工程和数学(STEM)领域的能力。此外,更新还改变了模型在对话中的响应方式,使其更加主动,并能够更好地引导对话走向有效结论。
开源人工智能的星空,昨夜骤然被一颗新星照亮!备受瞩目的 Step1X-Edit 图像编辑框架,已于2025年4月24日正式登陆 Hugging Face 社区,瞬间点燃了全球开发者和创意工作者的热情。这不仅仅是又一个开源工具的发布,更像是一次对现有图像编辑格局的强力挑战。据悉,Step1X-Edit 巧妙地将强大的多模态大语言模型(Qwen-VL)与先进的扩散变换器(DiT)深度融合,赋予用户通过简单的自然语言指令,即可实现令人惊叹的高精度图像编辑能力。其表现出的卓越性能,甚至敢于直接叫板像 GPT-4o 与 Gemini2Flash
OpenAI宣布GPT-4o的图像生成能力正式集成到GPTs(自定义GPT)平台,为开发者与创作者提供了构建个性化图像生成机器人的强大工具。据AIbase了解,这一更新允许用户通过GPTs打造专属图像生成应用,如海报设计机器人或特定艺术风格生成器,极大地提升了创作灵活性与共享性。社交平台上的热烈讨论凸显了其广泛影响力,相关功能已向ChatGPT Plus、Pro及Team用户开放。AIbase为您带来详细报道。核心功能:GPTs赋能个性化图像生成GPT-4o的图像生成能力融入GPTs,标志着AI创作从通用工具向个性化应用的
OpenAI 最近宣布对其 ChatGPT 的 GPT-4o 版本进行了更新。这次更新主要集中在如何保存记忆的时机以及在科学、技术、工程和数学(STEM)等领域的技能提升。此外,新版本还旨在更有效地引导对话朝着 “富有成效的结果” 发展。OpenAI 希望通过这些改进,使模型在各种任务中显得更加 “直观和高效”。OpenAI 首席执行官山姆・阿尔特曼表示,这次更新不仅提升了智能水平,还改善了模型的人格特质。然而,他也坦言目前模型在某些情况下仍存在 “光滑” 过度的问题,并承诺未来会对此进行改
2025年4月27日,AIbase报道:由Stepfun AI团队推出的Step1X-Edit图像编辑模型于近日正式开源,引发业界广泛关注。这一通用图像编辑框架以其卓越性能和实用的开源特性,展现了媲美GPT-4o和Gemini 2 Flash等闭源模型的潜力。以下是对Step1X-Edit的全面解析,涵盖其技术亮点、应用场景及未来影响。创新技术架构Step1X-Edit采用多模态大语言模型(MLLM)与扩散变换器(DiT)的结合,通过处理用户提供的参考图像和编辑指令,生成高质量的目标图像。其核心创新在于将多模态语言模型的语义理解能力与扩散
2025年4月26日 AIbase报道:OpenAI近日宣布,其旗舰多模态模型GPT-4o的图像生成功能现已正式集成至ChatGPT的自定义GPTs功能中。这一更新标志着用户创建的定制化AI助手能够直接生成和编辑图像,为内容创作、设计和教育等领域带来更多可能性。无缝集成的图像生成体验GPT-4o的图像生成功能此前已于2025年3月25日起在ChatGPT和Sora平台向免费、Plus、Pro和Team用户逐步开放。与过去依赖DALL-E3等外部模型不同,GPT-4o的图像生成能力内嵌于模型本身,支持直接根据文本提示生成高质量图像。如今,这一功能
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、李彦宏发布文心大模型双星:X1Turbo 直指 DeepSeek,4.5Turbo 超越 GPT-4o在百度 Create 开发者大会上,李彦宏推出了全新一代文心大模型 X1Turbo,该模型在性能和价格上都具有显著优势。X1Turbo 的输入和输出价格分别为1元和4元,仅为竞品 DeepSeek-R1的25%。此外,文心4.5Turbo 的输入和输出价格更低,分别为
在百度 Create 开发者大会上,百度创始人李彦宏重磅发布了全新一代文心大模型 X1Turbo。这款模型在性能大幅提升的同时,价格极具竞争力,每百万 token 的输入价格仅为1元,输出价格为4元,仅相当于竞品 DeepSeek-R1的25%。据介绍,文心大模型 X1Turbo 基于4.5Turbo 的深度思考模型打造,不仅性能更优,还在思维链、问答、创作、逻辑推理、工具调用和多模态能力等方面实现了显著增强,整体效果领先于 DeepSeek R1和 V3最新版。此外,百度还同步推出了文心大模型4.5Turbo,进一步强化了多模态能力。