DB-GPT:使用专有 LLM 技术改变与数据库互操作的方式

站长之家
本文来自AIbase日报
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
在全球安全大会(RSAC2025)上,Cisco 和 Meta 联手发布了 Foundation-sec-8B,这是一个专为网络安全设计的开源大型语言模型(LLM)。随着网络攻击的加剧,传统的防御措施已显不足,企业亟需创新的解决方案来应对不断演变的威胁。Foundation-sec-8B LLM 的独特之处Cisco 的 Foundation-sec-8B LLM 是由其新成立的 Foundation AI 团队开发的,旨在为网络安全领域提供专门的 AI 基础设施。该模型基于 Meta 的 Llama3.1架构,拥有80亿个参数,专门针对网络安全任务进行优化。与通用模型不同,Foundation-sec-8B 在训练过程中使
近日,字节跳动宣布推出其全新的数据选择框架 QuaDMix,旨在提升大型语言模型(LLM)预训练的效率和泛化能力。众所周知,模型的训练效果受基础数据集的质量和多样性影响很大。然而,传统的数据筛选方法往往将质量和多样性视为两个独立的目标,先进行质量过滤,再进行领域平衡。这种逐步优化的方式忽略了质量与多样性之间的复杂相互关系。优质数据集往往存在领域偏差,而多样化的数据集可能会降低质量。因此,在固定的训练预算下,如何同时优化这两个维度以最大化模型性能
网络安全研究人员发出警告,一种名为“Slopsquatting”的新型软件供应链攻击正浮出水面。该攻击利用生成式 AI(如 LLMs)在代码编写时可能产生的“包幻觉”——即推荐不存在的软件包名称——的漏洞。攻击者可以抢先注册这些虚构的名称,并植入恶意代码。图源备注:图片由AI生成,图片授权服务商Midjourney研究团队发现,AI 虚构的软件包名称往往具有高度可信性和重复性,约38% 的幻觉包名与真实包名相似,仅13% 是简单拼写错误,这使得开发者在不加验证的情况下更容易直接采用。通过对
2025年4月27日,AIbase报道:由Stepfun AI团队推出的Step1X-Edit图像编辑模型于近日正式开源,引发业界广泛关注。这一通用图像编辑框架以其卓越性能和实用的开源特性,展现了媲美GPT-4o和Gemini 2 Flash等闭源模型的潜力。以下是对Step1X-Edit的全面解析,涵盖其技术亮点、应用场景及未来影响。创新技术架构Step1X-Edit采用多模态大语言模型(MLLM)与扩散变换器(DiT)的结合,通过处理用户提供的参考图像和编辑指令,生成高质量的目标图像。其核心创新在于将多模态语言模型的语义理解能力与扩散
NVIDIA AI团队发布了一款革命性的多模态大语言模型——Describe Anything3B(DAM-3B),专为图像和视频的精细化、区域化描述而设计。这款模型凭借创新技术和卓越性能,在多模态学习领域掀起热议,成为AI技术发展的又一里程碑。以下,AIbase为您梳理这款模型的核心亮点与行业影响。区域化描述的突破DAM-3B以其独特的能力脱颖而出:能够根据用户指定的图像或视频区域(如点、框、涂鸦或掩码),生成高度详细的描述。这种区域化描述超越了传统图像标注的局限,结合全局图像/视频上下文与局
近日,AWS AI Labs 推出了 SWE-PolyBench,这是一个多语言的开源基准,旨在为 AI 编程助手的评估提供一个更全面的框架。随着大规模语言模型(LLM)的进步,AI 编程助手的开发已经取得了显著的进展,这些助手能够生成、修改和理解软件代码。然而,目前的评估方法仍然存在诸多局限,许多基准测试往往仅集中在 Python 等单一语言,无法全面反映真实代码库的结构和语义多样性。SWE-PolyBench 通过涵盖21个 GitHub 代码库,支持 Java、JavaScript、TypeScript 和 Python 四种流行编程语言,提供了2110个任务,包
字节跳动宣布推出高效预训练长度缩放技术(Efficient Pretraining Length Scaling),通过创新的Parallel Hidden Decoding Transformer(PHD-Transformer)框架,显著提升大语言模型(LLM)在长序列预训练中的效率与性能。据AIbase了解,该技术在保持推理效率的同时,支持高达2048K(2M)的上下文长度训练,解决了传统框架在数据异构性与计算平衡上的瓶颈。相关研究已在arXiv公开,引发了AI研究社区的广泛关注。核心创新:PHD-Transformer优化长序列训练字节跳动的PHD-Transformer通过独特的键值缓存(KV Cache)管理策略与架构优
在数据安全领域,Sentra 近日宣布成功融资5000万美元 B 轮投资,至此总融资额已超过1亿美元。这轮融资由 Key1Capital 领投,其他知名投资者如 Bessemer Venture Partners、Zeev Ventures、Standard Investments 及 Munich Re Ventures 继续支持。此时恰逢 AI 技术在企业中快速普及,同时也带来了大量敏感数据和新的安全风险。Sentra 借助此轮融资,计划进一步推动其使命,帮助企业在创新的同时确保数据安全。图源备注:图片由AI生成,图片授权服务商Midjourney随着 AI 技术的迅速发展,企业面临着 “阴影数据” 的隐
清华大学 KEG 实验室(THUDM)研发的 GLM-4-32B 及 GLM-Z1-32B 两款前沿大语言模型(LLM)正式在 OpenRouter 平台上线,且完全免费向全球用户开放。这一里程碑式的事件标志着高性能 AI 模型的普及迈出了重要一步,为开发者、研究人员及 AI 爱好者提供了强大的工具,以推动人工智能应用的进一步创新。模型上线:性能强劲,免费开放GLM-4-32B 作为一款拥有320亿参数的通用大语言模型,以其在复杂推理、数学能力及多语言处理方面的卓越表现,成为当前开源 LLM 领域的佼佼者。与此同时,GLM-Z1-32B 是基于