全球AI新闻速递,聚焦技术突破与产业变革
每天仅需三分钟 全面了解AI动态
AI商用开源产品精选,赋能企业智能升级
AI工具权威榜,一站优选
提交AI产品,共建智能生态
精选高效工具,一键直达提升生产力
一键部署开源项目,极速落地应用
开源预训练模型库,加速AI部署与创新
权威AI大模型排名,一键对比性能
汇聚全球模型供应商 找到最适合的合作伙伴
提交模型服务,让价值快速变现
大模型能力对比,一键选型无忧
一键估算大模型成本,预算清晰不超支
AI巅峰对决,性能实测,优中选优
高效稳定,赋能企业级应用开发与部署
多模型调度,复杂业务一'端'搞定
手把手教你掌握核心开发与实战技巧
解锁2025最强MCP 从代码到部署的全能指南
提交MCP服务,让价值快速变现
一键连接AI与工具 零门槛玩转MCP试验场
一键联调 打通AI与工具的任督二脉
发现与 Ggml 相关的最受欢迎的开源项目和工具,了解最新的开发趋势和创新。
Nexa SDK是一个全面的工具包,支持GGML和ONNX模型。它支持文本生成、图像生成、视觉语言模型(VLM)、音频语言模型、自动语音识别(ASR)和文本转语音(TTS)功能。
纯C/C++实现的稳定扩散和Flux模型
只需改一行代码,就能在你的应用中用其他大型语言模型(LLM)替换OpenAI GPT。Xinference赋予你自由选择任何所需LLM的权利。使用Xinference,你可以运行任何开源语言模型、语音识别模型和多模态模型的推理,无论是在云端、本地服务器还是你的笔记本电脑上。
使用GGML库,用C/C++实现的Transformer模型的Python绑定。
在 iOS 和 MacOS 系统上,使用 GGML 库离线运行 Llama 等大型语言模型。
在CPU上进行RWKV语言模型的INT4/INT5/INT8和FP16推理
管理你的 Ollama 模型
计算任何大型语言模型 (LLM) 的 token/秒速率和 GPU 内存需求。支持 llama.cpp/ggml/bnb/QLoRA 量化。
Suno AI 的 Bark 模型(C/C++ 版本),用于快速文本转语音生成
AI程序员自我评估面试
在CPU上运行MPT-30B模型的推理
使用GGML模型在C++中实现MiniGPT-4端口(支持4位、5位、6位、8位和16位CPU推理)
人人皆可用的大型语言模型?更多精彩内容及持续关注!
使用 ggml 库,用纯 C/C++ 实现推理视觉转换器 (ViT)
适用于ROS 2的llama.cpp(GGUF大型语言模型)和llava.cpp(GGUF视觉语言模型)
一个用 C++ 重写的 Tortoise-TTS 模型 (ggml 版本)
使用MPT-30b模型私密地与你的数据进行对话
Booster:面向大型语言模型 (LLM) 的开放式加速器。为 AI 黑客提供更好的推理和调试功能。
使用CPU在Replit-3B代码指令模型上运行推理
Kubernetes 的轻量级 OpenAI 可替换方案