AI浪潮推动算力需求激增,导致硬件供需失衡。封测领域因AI芯片需求及成本上涨而提价,存储产业也面临供应紧张和价格波动,行业正经历深刻变革。
德国教授因关闭数据同意选项,导致存储在ChatGPT上的两年研究资料瞬间消失,引发对AI数据安全的关注。
三星电子大幅上调NAND闪存价格,涨幅超100%,自1月起执行新合同价。人工智能应用爆发导致存储需求激增,而产能有限引发全球供应短缺。
阿里云推出全球首个“AI就绪数据库”体系,通过AI数据湖库统一管理全模态数据,支持语义检索与模型推理,使数据库从被动存储转变为主动参与AI决策的智能中枢。
提供网站、邮箱和云存储服务,简单、快速、安全,免费使用。
Vault是AI驱动的安全文档存储解决方案,为您和客户打造,让您能够无缝协作、保持组织良好,并安全存储所有必要文件在一个地方,以便您永远不会错过关键日期。
一站式数据分析平台,无需依赖外部工具或团队即可捕获、存储、转换和提供数据。
利用AI智能整理器轻松整理和查找云端和本地存储的所有文件。
bartowski
这是由Mistral AI开发的大型语言模型Mistral-Large-3-675B-Instruct-2512的GGUF量化版本。原始模型拥有6750亿参数,专为指令遵循任务设计。本项目使用llama.cpp工具,结合imatrix校准数据集,生成了从Q8_0到IQ1_S共20多种不同精度的量化模型文件,旨在平衡模型性能、推理速度与存储/内存占用,使其能在更广泛的硬件上运行。
这是kldzj的GPT-OSS-120B-Heretic-v2模型的量化版本,使用llama.cpp的imatrix技术进行量化处理。该模型通过量化技术显著减少了存储和计算资源需求,同时保持了较好的模型性能,便于在各种设备上部署运行。
mlx-community
这是一个基于 Kimi-Linear-48B-A3B-Instruct 模型转换的 6 位量化版本,专为 Apple MLX 框架优化。该模型保留了原模型强大的指令跟随能力,同时通过量化技术显著降低了存储和计算需求,适合在 Apple 硬件上高效运行。
这是对internlm的JanusCoder-8B模型进行量化处理的版本,采用llama.cpp的imatrix量化技术,在保证性能的前提下显著减少模型的存储和计算资源需求,使模型能够在更多设备上高效运行。
noctrex
这是Qwen3-Yoyo-V4-42B-A3B-Thinking-TOTAL-RECALL模型的MXFP4_MOE量化版本,专门针对文本生成任务进行了优化。该模型基于42B参数的大语言模型架构,通过量化技术降低计算和存储需求,同时保持较好的性能表现。
cyankiwi
GLM-4.6 AWQ - INT4是GLM-4.6模型的4位量化版本,采用AWQ量化方法,在保持模型性能的同时显著减少了存储和计算资源需求。该模型支持200K上下文长度,在编码、推理和智能体任务方面相比GLM-4.5有显著提升。
这是慧慧GPT-OSS-120B-BF16-abliterated-v2模型的MXFP4_MOE量化版本,专门针对文本生成任务进行优化,提供高效的文本生成能力。该模型通过量化技术降低了计算和存储需求,同时保持了良好的性能。
这是Qwen3-Next-80B-A3B-Thinking的MXFP4量化版本,采用先进的量化技术在保持模型性能的同时显著减少存储和计算需求。作为实验性版本,展示了最新的量化技术成果。
这是Qwen3-Coder-REAP-25B-A3B模型的MXFP4_MOE量化版本,专门用于文本生成任务。该模型基于25B参数的Qwen3-Coder架构,通过MXFP4量化技术优化了存储和推理效率,同时保持了良好的性能表现。
cpatonn
Qwen3-VL-32B-Instruct AWQ - INT4是基于Qwen3-VL-32B-Instruct基础模型的4位量化版本,采用AWQ量化方法,在保持性能的同时显著减少存储和计算资源需求。这是Qwen系列中最强大的视觉语言模型,在文本理解、视觉感知、上下文长度等方面全面升级。
这是Cerebras公司Qwen3-Coder-REAP-25B-A3B模型的量化版本,使用llama.cpp的imatrix技术进行量化处理,能够在减少模型存储空间和计算资源需求的同时保持模型性能。
lefromage
这是一个基于Qwen3-Next-80B-A3B-Instruct模型的Q4_0量化版本,通过特定量化技术显著提升了模型在存储和计算方面的效率,同时保持了良好的性能表现。
nvidia
Llama Nemotron Embedding 1B模型是NVIDIA开发的专为多语言和跨语言文本问答检索优化的嵌入模型,支持26种语言,能够处理长达8192个标记的文档,并可通过动态嵌入大小大幅减少数据存储占用。
lightx2v
基于LoRA的4步推理高性能视频生成模型,从Wan2.2蒸馏模型中提取的LoRA权重,具备灵活部署、存储高效和出色生成质量的特点
这是Qwen3-VL-4B-Thinking模型的量化版本,通过llama.cpp的imatrix量化方法在保证性能的同时大幅减少模型存储和计算资源需求,支持在各种硬件环境中部署使用。
RESMP-DEV
这是使用LLM Compressor和NVFP4格式对Qwen/Qwen3-Next-80B-A3B-Thinking进行量化后的版本,采用FP4微缩放技术,在保持高精度的同时大幅减少模型存储和计算需求。
这是IBM Granite-4.0-H-Tiny模型的GGUF量化版本,使用llama.cpp进行多种精度量化处理,在保证性能的同时显著减少模型存储空间和计算资源需求,便于部署和运行。
DevQuasar
本项目提供腾讯混元-MT-7B大语言模型的量化版本,通过模型压缩技术降低计算和存储需求,致力于让知识为每个人所用,使高性能AI模型更加普及和易用。
llmat
Apertus-8B-Instruct-2509-NVFP4是基于swiss-ai/Apertus-8B-Instruct-2509的NVFP4量化版本,通过llmcompressor工具生成。该模型在保持性能的同时显著减少了存储空间和计算资源需求,提升了推理效率。
这是TheDrummer的Behemoth R1 123B v2模型的量化版本,使用llama.cpp和imatrix技术进行量化处理,可在保持较好性能的同时显著减少模型存储空间和计算资源需求,适合在不同设备上运行。
Azure MCP Server是一个实现MCP协议的服务器,为AI代理与Azure服务(如存储、Cosmos DB等)提供无缝连接,支持自然语言命令转换为Azure操作。
MCP Notes是一个基于MCP协议的智能笔记应用,支持AI驱动的笔记管理和网页界面操作,使用DynamoDB存储数据。
MCP记忆服务是一个基于ChromaDB和句子转换器的语义记忆存储系统,为Claude Desktop提供长期记忆和语义搜索功能。
MCP-Mem0是一个为AI代理提供长期记忆功能的模板实现,集成了Model Context Protocol (MCP)服务器和Mem0,支持记忆的存储、检索和语义搜索。
一个基于Playwright的MCP服务器,提供网页自动化工具和笔记存储系统
基于知识图谱的持久化记忆服务器,支持跨会话用户信息存储与检索
FileScopeMCP是一个基于TypeScript的代码分析工具,通过计算文件重要性评分、追踪依赖关系、生成可视化图表和添加文件摘要,帮助开发者快速理解代码库结构。支持多语言项目分析,提供Mermaid图表生成和持久化存储功能,可与Cursor的模型上下文协议集成。
一个基于MCP协议和mem0的代码偏好管理服务器,提供代码片段的存储、检索和搜索功能。
Weaviate的MCP服务器,支持通过Smithery快速安装并与Claude Desktop集成,提供向量搜索和存储功能。
sqlew是一个MCP服务器,为AI代理提供跨会话的共享SQL上下文存储库,通过记录决策原因和约束规则来防止上下文丢失和重复工作,实现高效的团队知识管理和代码一致性。
Nowledge Mem Claude桌面扩展,为Claude AI提供记忆存储和搜索功能,支持用户保存和检索对话记忆
一个基于FastMCP的待办事项服务器,用于Swarmonomicon项目,通过FastMCP接收请求并将任务存储在MongoDB中,供Swarmonomicon的工作器处理。
ServeMyAPI是一个基于macOS Keychain的安全API密钥管理工具,通过MCP协议提供跨项目的密钥存储和访问服务,解决了传统.env文件的安全性和协作问题。
Mem0 MCP服务器是一个为LLM提供持久化记忆能力的模型上下文协议服务,支持云端和本地两种存储模式,实现跨会话的信息存储与检索。
MemoDB MCP是一个基于TypeScript的AI对话与知识管理服务器,提供用户管理、对话数据存储和知识库操作功能。
TaskBoardAI是一个轻量级、基于文件的看板工具,专为AI代理设计,支持JSON文件存储和MCP服务器集成,提供丰富的看板管理功能。
腾讯云COS MCP Server是一个基于MCP协议的服务,无需编码即可让大模型快速接入腾讯云存储(COS)和数据万象(CI)能力,提供文件上传下载、图片处理、视频截帧等云端存储与处理功能。
Alkemi MCP服务器是一个通过STDIO包装的HTTP MCP端点,允许用户连接Snowflake、Google BigQuery、DataBricks等数据源,通过Alkemi平台存储数据库元数据、生成查询并执行,实现团队共享数据查询能力
该项目是一个基于OpenSearch的MCP服务器实现,为Claude等LLM应用提供语义记忆存储和检索功能,支持通过标准协议连接AI工具与数据源。
该项目实现了一个通过MCP协议搜索PubMed文献的服务,包含笔记存储系统和摘要生成功能。