AMD联合IBM与Zyphra推出全球首个全AMD硬件训练的MoE模型ZAYA1,预训练14万亿token,性能媲美Qwen3系列,数学推理接近专业版。采用128节点×8张MI300X显卡集群,算力达750PFLOPs。创新CCA注意力机制融合卷积与压缩嵌入,数据采用课程学习从通用到专业领域过渡。后续将发布优化版本。
IBM宣布裁员数千人,以聚焦软件和AI服务,进行战略重组。裁员影响全球约27万员工的“个位数百分比”,约2700至5000人。公司称此举为常规人员调整,反映科技行业新趋势。
IBM推出Granite4.0Nano系列小型AI模型,专为本地和边缘推理设计,含8个模型,分350M和1B两种规模。采用混合SSM与变换器架构,支持基础和指令模式,基于Apache2.0开源许可,兼容vLLM等流行运行时,提升企业控制力。
IBM发布Granite4.0Nano系列AI模型,参数规模350万至15亿,强调高效与可及性。模型可在笔记本电脑或浏览器本地运行,无需依赖云计算,支持开发者在普通硬件或边缘设备构建应用,突破行业依赖云服务的常规趋势。
利用LlamaIndex和IBM's Docling实现的RAG技术
IBM Granite 3.1:强大的性能,更长的上下文和更多特性
IBM通过光学技术突破,将光速带入生成性AI时代。
IBM Granite 3.0模型,高效能AI语言模型
Etherll
Tashkeel-350M-v2 是一个专门为阿拉伯语文本标音设计的模型,拥有3.5亿参数。该模型基于ibm-granite/granite-4.0-h-350m模型,在Misraj/Sadeed_Tashkeela数据集上进行微调训练而成,能够自动为阿拉伯语文本添加正确的音标符号。
DevQuasar
本项目是基于IBM Granite-4.0-h-350m模型的量化版本,致力于让知识为每个人所用。该模型是一个高效的文本生成模型,经过量化优化后具有更小的模型体积和更快的推理速度。
mlx-community
Granite-4.0-H-1B-8bit 是 IBM Granite 系列的小型语言模型,专门针对 Apple Silicon 芯片优化,采用 8 位量化技术,参数量为 1B,具有高效推理和低资源消耗的特点。
unsloth
Granite-4.0-H-350M是IBM开发的轻量级指令模型,具有350M参数,在多语言处理和指令遵循方面表现出色,专为设备端部署和研究场景设计。
onnx-community
Granite-4.0-1B是IBM开发的轻量级指令模型,基于Granite-4.0-1B-Base微调而成。该模型结合了开源指令数据集和内部合成数据集,采用监督微调、强化学习和模型合并等技术开发,适合设备端部署和研究用例。
Granite-4.0-350M是IBM开发的轻量级指令模型,基于Granite-4.0-350M-Base微调而成。该模型结合了开源指令数据集和内部合成数据集,采用监督微调、强化学习和模型融合等技术开发,具备强大的指令跟随能力,特别适合设备端部署和研究场景。
ibm-granite
Granite-4.0-350M-Base是IBM开发的轻量级仅解码器语言模型,专为资源受限设备设计,支持多语言文本生成和代码补全功能。
Granite-4.0-350M是IBM开发的轻量级指令模型,基于Granite-4.0-350M-Base微调而成。该模型结合了开源指令数据集和内部合成数据集,采用监督微调、强化学习和模型合并技术开发,具备强大的指令跟随能力和工具调用功能。
Granite-4.0-1B-Base是IBM开发的轻量级仅解码器语言模型,专为资源受限设备设计,支持多语言文本生成和代码补全功能。
Granite-4.0-1B是IBM开发的轻量级指令模型,基于Granite-4.0-1B-Base进行微调,结合了开源指令数据集和内部合成数据集,采用监督微调、强化学习和模型合并技术开发而成。
Granite-4.0-H-350M-Base是IBM开发的轻量级仅解码器语言模型,专门为资源受限设备设计,支持多语言文本生成和代码补全功能,可在智能手机或物联网设备上高效运行。
Granite-4.0-H-350M是IBM开发的轻量级指令模型,基于Granite-4.0-H-350M-Base微调而成。该模型结合了开源指令数据集和内部合成数据集,采用监督微调、强化学习和模型合并等多种技术开发,具备强大的指令跟随能力和多语言支持。
Granite-4.0-H-1B-Base是IBM开发的轻量级仅解码器语言模型,专为资源受限设备设计,支持多语言文本生成和代码补全功能。
Granite-4.0-H-1B是IBM Granite团队开发的轻量级指令模型,基于Granite-4.0-H-1B-Base模型,通过监督微调、强化学习和模型融合等技术优化得到。该模型具有强大的指令遵循能力,适合设备端部署和研究用例。
ethicalabs
ethicalabs/granite-4.0-h-small-base-MLX是基于IBM Granite-4.0-H-Small-Base模型转换而来的MLX格式版本,专门为Apple MLX框架优化,提供高效的文本生成能力。
IBM Granite-4.0-H-Tiny模型的5-bit量化版本,专为苹果硅芯片优化。采用Mamba-2与软注意力混合架构,结合混合专家模型(MoE),在保持高质量的同时实现高效推理。
IBM Granite-4.0-H-Tiny是经过苹果硅芯片优化的混合Mamba-2/Transformer模型,采用3位量化技术,专为长上下文、高效推理和企业使用而设计。该模型结合了Mamba-2架构和专家混合技术,在保持表达能力的同时显著降低内存占用。
这是IBM Granite-4.0-h-Tiny模型的4位量化版本,专为Apple Silicon优化,使用MLX框架进行高效推理。模型经过DWQ(动态权重量化)处理,在保持性能的同时显著减小模型大小。
bartowski
本项目是对IBM Granite的granite-4.0-h-small模型进行量化处理后的成果,提供多种量化版本选择,能在不同硬件条件下平衡模型质量和资源占用,满足不同用户的使用需求。
这是IBM Granite-4.0-H-Tiny模型的GGUF量化版本,使用llama.cpp进行多种精度量化处理,在保证性能的同时显著减少模型存储空间和计算资源需求,便于部署和运行。
本项目构建了一个基于IBM Watsonx.ai的检索增强生成(RAG)服务器,使用ChromaDB进行向量索引,并通过模型上下文协议(MCP)暴露接口。该系统能够处理PDF文档并基于文档内容回答问题,实现了将大型语言模型与特定领域知识相结合的智能问答功能。
该项目实现了一个可定制的MCP服务器,用于执行RTE协议,支持多种终端类型和SSL连接,提供Java工具类方便扩展功能。
IBM i MCP服务器是一个基于Model Context Protocol的服务器,为IBM i系统提供SQL工具、监控和自动化功能,支持多种客户端集成和容器化部署
该项目是CData为IBM Cloud Object Storage开发的只读MCP服务器,通过JDBC驱动将云存储数据转换为关系型SQL模型,使LLM(如Claude Desktop)能够通过自然语言查询实时数据。
MCP服务器提供IBM云工具供LLM使用
本项目是一个基于IBM Watsonx.ai和MCP协议的Python聊天机器人服务器,提供医疗咨询功能,支持通过Flask构建Web界面,实现症状诊断和个性化问候。