通义千问开源Qwen-72B,中国大模型市场迎来新突破

站长之家
本文来自AIbase日报
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、通义千问正式发布Qwen3-Embedding系列模型我作为一名AI助手,对通义千问团队推出Qwen3-Embedding系列模型感到非常兴奋。这款新模型不仅在多语言文本理解和检索任务上表现出色,而且提供了灵活的配置选项和强大的多语言支持,展现了其在文本处理领域的领先地位。【AiBase提要:】📚 Qwen3-Embeddin
在人工智能技术快速发展的今天,阿里巴巴于6月6日正式开源了其全新的千问3向量模型系列 ——Qwen3-Embedding。该模型是基于千问3底座,为文本表征、检索和排序等任务进行优化,标志着阿里在 AI 领域的又一重大突破。相较于前一版本,Qwen3-Embedding 在文本检索、聚类和分类等核心任务上的性能提升了超过40%。这一进步不仅让它在技术上更具竞争力,还使得它在 MTEB 等专业榜单中,超越了谷歌的 Gemini Embedding、OpenAI 的 text-embedding-3-large 以及微软的 multilingual-e5-large-instruct 等顶尖模型,获得了
AI 语音技术领域迎来重要进展,Fish Audio 宣布开源其全新文本转语音(TTS)模型 OpenAudio S1-Mini。作为广受好评的 S1模型的精简版,S1-Mini 以其轻量化设计、高表现力和多语言支持引发行业热议。技术亮点:轻量化与高性能兼得OpenAudio S1-Mini 是从4B 参数的 S1模型蒸馏而来的轻量化版本,仅包含0.5B 参数,大幅降低计算需求,适合在资源受限的环境中部署,如边缘设备或本地化应用。尽管参数量减少,S1-Mini 依然保留了 S1的核心优势,基于超过200万小时的庞大音频数据集训练,支持14种语言(包括
微软在其官方博客中宣布,将在 Teams 应用中整合一款名为 Athena 的人工智能助手,旨在优化产品开发流程。Athena 的源代码已开源并托管在 GitHub 平台上,供各类组织和个人进行定制与使用。在2025年的 Build 开发者大会上,微软首次展示了 Athena 的强大功能。这款 AI 助手的最大特点是能够智能识别团队的下一步工作,帮助用户在 Teams 内直接完成任务,从而避免频繁切换不同应用所带来的不便。Athena 能够处理繁琐的代码审查、工作项管理及安全检查等重复性任务,使开发者能够更加专注于创新
人工智能正在重塑创意设计领域,一款全新的开源工具Jaaz引发了广泛关注。AIbase从社交媒体平台获取最新信息,了解到Jaaz是一款开源AI设计Agent,支持通过简单的API配置实现自动化批量图像生成,为专业创作者和团队提供了高效的解决方案。本文将详细解析Jaaz的功能亮点、当前局限性以及其对AI创意产业的潜在影响。Jaaz:开源AI设计Agent的突破Jaaz是一款专为图像生成设计的开源AI Agent,旨在简化创意生产流程。AIbase获悉,用户只需配置大型语言模型(LLM)API和图像生成API,即可通过Jaaz自动生
硅谷投资人Mary Meeker最新发布的AI报告揭示:全球AI竞争格局正经历深刻重塑。中国力量与开源浪潮正在撼动OpenAI等头部公司主导的生态,全球进入“群雄逐鹿”的新阶段。中国AI:性能逼近国际一线,产业融合爆发报告指出,中国在大型语言模型发布节奏上正快速逼近美国,DeepSeek、阿里Qwen、百度文心一言等模型在代码生成与数学推理等核心任务中表现优异。斯坦福HAI发布的Chatbot Arena数据显示,截至2025年2月,中国顶尖模型评分已达1362分,仅次于美国模型的1385分,差距进一步缩小。与此同时
近日,AIbase从社交媒体平台获取最新信息,了解到一家专注于日语微调的HuggingFace模型提供者——Shisa.AI,其最新发布的日英双语模型引发业界广泛关注。本文将为您详细解读Shisa.AI的最新成果及其在日语AI领域的突破性进展。Shisa V2405B:日本最强开源模型诞生据AIbase了解,Shisa.AI最新发布了基于Llama3.1的Shisa V2405B模型,这一开源模型被誉为“日本有史以来训练的最强大型语言模型”。该模型不仅在日语任务上表现出色,还保留了强大的英语处理能力,展现了日英双语模型的卓越性能。测试数据
Play AI 日前开源推出了一款全新语音编辑模型——PlayDiffusion,这是一种基于扩散模型的创新性工具,专为语音局部修改而设计。不同于传统的文本转语音系统需对整段音频重生成,PlayDiffusion 支持直接对语音中的某一部分进行替换、删除或调整,而其他未修改部分将保持完全一致。这种方式不仅极大提高了效率,也让音频编辑进入“所听即所得”的新阶段。用户只需提供目标文本(例如将音频中的“Neo”改为“Morpheus”),模型便可精准识别需替换位置,并智能调整节奏、语调以及说话人的
人工智能语音技术领域迎来重大突破!加拿大初创公司Resemble AI近日发布其首款开源文本转语音(TTS)模型ChatterBox,采用MIT许可证。这一模型以其卓越的语音克隆能力、情绪控制功能和超低延迟特性,迅速成为行业焦点,甚至在盲测中超越了知名闭源模型ElevenLabs。ChatterBox的发布背景ChatterBox是Resemble AI在语音合成领域的最新成果,基于0.5亿参数的Llama架构,训练数据高达50万小时的精选音频。相较于传统闭源TTS解决方案,ChatterBox以开源形式发布,旨在为开发者、创作者和企业提供高质量且自
近日,智源研究院联合上海交通大学等机构正式发布了一款新一代超长视频理解模型——Video-XL-2。这一模型的推出标志着长视频理解技术在开源领域取得了重大突破,为多模态大模型在长视频内容理解方面的发展注入了新的活力。 在技术架构方面,Video-XL-2主要由视觉编码器、动态Token合成模块(DTS)以及大语言模型(LLM)三个核心组件构成。该模型采用SigLIP-SO400M作为视觉编码器,对输入视频进行逐帧处理,将每一帧编码为高维视觉特征。随后,DTS模块对这些视觉特征进行融合压缩,并建模其时序关系,以提取更具语义的动态信息。处理后的视觉表征通过平均池化与多层感知机(MLP)进一步映射到文本嵌入空间,实现模态对齐。最终,对齐后的视觉信息输入至Qwen2.5-Instruct,以实现对视觉内容的理解与推理,并完成相应的下游任务。