国产大模型MiniMax 2.7开源,但其许可证严禁商业用途,需书面许可,引发社区争议。此举与开源精神相悖,被指为“开源加锁”,限制了模型的实际应用与生态发展。
谷歌DeepMind发布新一代开源模型Gemma4,性能实现代际跨越,并将许可证改为Apache2.0,方便开发者商用和二次开发。此次推出四款不同规格模型,覆盖从手机端到工作站的全场景需求。
谷歌发布新一代开源AI模型Gemma4,采用Apache2.0许可证,取代以往限制性协议,允许开发者自由使用、修改和分发,便于商业化应用。该模型在技术架构上实现性能与生态兼容性双重升级。
日本乐天集团发布AI模型乐天AI 3.0,宣称是“日本规模最大”,但被指违规删除原始开源许可证,引发开源社区批评。该模型实为基于深度求索的DeepSeek-V3微调而成,虽属行业常态,但其处理方式涉及合规争议。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
$6
$24
Baidu
128
vanta-research
Atom-Olmo3-7B是基于Olmo-3-7B-Instruct微调的语言模型,专门为协作式问题解决和创造性探索而设计。该模型在处理复杂问题时能提供深思熟虑且结构化的分析,同时保持引人入胜的对话风格,具有Apache 2.0开源许可证。
allenai
Olmo 3是Allen Institute for AI (Ai2)开发的全新32B参数语言模型家族,包含Base、Instruct和Think等变体。该模型基于Dolma 3数据集训练,支持65,536的长上下文处理,旨在推动语言模型科学发展。模型完全开源,遵循Apache 2.0许可证。
jeevanrushi07
OpenLLaMA 3B v2是一个基于Transformer架构的开源大语言模型,拥有30亿参数。该模型采用MIT许可证,主要用于英文文本生成任务,支持聊天机器人等多种应用场景。
lmstudio-community
Seed-OSS-36B-Instruct是由ByteDance-Seed开发的大型语言模型,参数量达360亿,采用Apache-2.0开源许可证。该模型基于transformers库构建,支持vllm和mlx技术优化,特别针对苹果Silicon芯片进行了8位量化处理,提供高效的文本生成能力。
yarikdevcom
Seed-OSS-36B-Instruct是由ByteDance开发的360亿参数大型语言模型,基于Apache-2.0许可证开源。该模型专门针对指令跟随任务进行了优化,支持文本生成和对话功能,具有强大的理解和生成能力。
dnakov
Seed-OSS-36B-Instruct是字节跳动开发的文本生成模型,基于36B参数规模的大语言模型架构,专门针对指令跟随任务进行优化。该模型支持中英文双语,采用Apache-2.0开源许可证,可通过vllm和mlx推理框架进行高效部署。
Seed-OSS-36B-Instruct是由字节跳动开发的360亿参数大型语言模型,基于MLX框架优化,专注于文本生成任务。该模型支持中英文双语,采用Apache-2.0开源许可证,具备强大的指令跟随和内容生成能力。
giladgd
GPT-OSS-120b-GGUF 是 OpenAI 发布的 1200 亿参数开源文本生成模型,采用 Apache 2.0 宽松许可证,支持灵活的推理强度配置和完整思维链访问,具备原生函数调用、网页浏览和代码执行能力。
openai
GPT-OSS系列是OpenAI推出的开放权重模型,专为强大的推理能力、智能体任务和多样化开发者用例设计。该模型能有效解决复杂问题,提供灵活高效的使用体验,支持Apache 2.0开源许可证。
cpatonn
GLM-4.5-Air-AWQ 是基于 zai-org/GLM-4.5-Air 基础模型进行4位AWQ量化的文本生成模型,专为智能代理应用设计,在推理、编码和智能代理能力方面表现优异,采用MIT开源许可证。
minpeter
这是一个基于transformers库开发的多语言基础模型,特别针对韩语进行了优化。模型参数量为1.87亿,采用Apache-2.0开源许可证发布。
ERNIE-4.5-21B-A3B是百度开发的大语言模型,经过LM Studio团队的MLX 4位量化优化,专门针对苹果芯片进行了优化。该模型具有210亿参数,支持中文和英文,采用Apache-2.0开源许可证。
NexaAI
Kokoro是一款8200万参数的开源文本转语音模型,采用轻量级架构但能提供与大型模型相媲美的质量,具有速度快、成本低的优势,采用Apache许可证,适用于生产环境和个人项目
codewithdark
DiffusionLLM是基于扩散模型的文本生成项目,使用wikitext-103-v1数据集训练,专注于高质量文本生成任务。该项目采用transformers库和PyTorch框架,通过BLEU指标评估性能,遵循MIT开源许可证。
upiter
TinyCodeLM是一系列小型开源代码生成语言模型,提供150M和400M两种参数规模。模型经过预训练和指令调优,在Python代码合成方面表现出色,采用Apache-2.0许可证。
pentagoniac
这是一个采用Apache-2.0许可证的开源AI模型,遵循开放的许可协议,保障用户在使用和分发方面的权益。具体模型功能和特性需要进一步信息补充。
amirahmadian16
这是一个基于Apache-2.0许可证的开源模型,具体信息需要补充
zhhan
phi3 是一个基于 Apache-2.0 许可证的开源模型,支持英文语言,主要用于摘要生成任务。
Molkaatb
这是一个专注于图像分类任务的深度学习模型,使用准确率、召回率和F1值作为主要评估指标,遵循Apache-2.0开源许可证
GoodBaiBai88
这是一个基于Apache 2.0许可证的开源项目,为使用者提供了广泛的使用权限和保障,具体模型功能和特性需要进一步确认
Sonatype MCP 服务器是一个连接AI助手与Sonatype依赖管理和安全智能平台的协议服务器,为开发者提供开源依赖项的安全漏洞扫描、许可证合规检查和健康分析等实时洞察。
项目使用MIT开源许可证
SCANOSS MCP服务器是一个集成SCANOSS开源扫描技术的服务,通过Model Context Protocol为语言模型提供代码片段扫描、开源许可证合规性检查及组件分析功能。