马斯克旗下xAI公司启动全球首个吉瓦级AI训练集群“Colossus2”,用于驱动Grok聊天机器人。该超级计算机占地约13个足球场,配备10万块英伟达H100芯片,标志着AI算力竞赛进入新阶段。
阿布扎比技术创新研究院推出开源模型Falcon H1R7B,仅7亿参数却展现领先推理性能,挑战“越大越强”观念。其训练分两阶段:先基于Falcon-H1-7B进行监督微调,专注数学与编程能力提升。
SwitchBot在CES 2026推出新款家用机器人Onero H1,定位为“最具可及性的AI家用机器人”。作为去年多功能家庭机器人的升级,Onero H1是一款通用类人机器人,旨在减轻家务负担。它能执行抓取、推送、打开和整理等日常操作,并具备在不同任务和家庭环境中学习适应的能力。
微软开源图像转3D工具TRELLIS.2,仅需一张图片即可快速生成带材质的3D模型,输出.glb格式文件,兼容Blender、Unity等平台。该工具采用4B模型,支持512³至1536³分辨率图像处理,在NVIDIA H100显卡上,生成512³模型仅需约3秒。
提供高性能GPU出租服务,包括B200、H200、RTX4090、H100等型号。即时部署,价格透明。
使用Apple Vision Pro实现人形机器人Unitree H1_2的遥控操作。
FastVideo
FastVideo团队推出的图像转视频模型,属于CausalWan2.2 I2V A14B系列,支持8步推理,能适配从H100到4090等多种GPU,也支持Mac用户使用。
pytorch
这是由PyTorch团队使用torchao进行量化的Qwen3-8B模型,采用int4仅权重量化和AWQ算法。该模型在H100 GPU上可减少53%显存使用并实现1.34倍加速,专门针对mmlu_abstract_algebra任务进行了校准优化。
jet-ai
Jet-Nemotron-4B是NVIDIA推出的高效混合架构语言模型,基于后神经架构搜索和JetBlock线性注意力模块两大核心创新构建,在性能上超越了Qwen3、Qwen2.5、Gemma3和Llama3.2等开源模型,同时在H100 GPU上实现了最高53.6倍的生成吞吐量加速。
Jet-Nemotron是一个新型混合架构语言模型家族,超越了Qwen3、Qwen2.5、Gemma3和Llama3.2等最先进的开源全注意力语言模型,同时实现了显著的效率提升——在H100 GPU上生成吞吐量最高可达53.6倍加速。
Mungert
基于Meta Llama-3.3-70B-Instruct的大语言模型,经过多阶段训练优化,在推理、聊天等任务上表现出色,支持多种语言,适用于多种AI应用场景。采用神经架构搜索技术优化,能够在单个H100-80GB GPU上高效运行。
tiiuae
猎鹰-H1是由TII开发的高性能混合架构语言模型,结合了Transformers和Mamba架构的优势,支持英语和多语言任务。
猎鹰-H1是由TII开发的混合Transformers+Mamba架构的因果解码器专用语言模型,支持英语和多语言任务。
猎鹰-H1是由阿联酋技术创新研究院开发的混合Transformer与曼巴架构的因果解码器模型,支持英语和多语种任务。
猎鹰-H1是由TII开发的高效混合架构语言模型,结合了Transformers和Mamba架构的优势,支持英语和多语言任务。
猎鹰-H1是由TII开发的混合Transformers+Mamba架构的因果解码器专用语言模型,支持英语,性能卓越。
猎鹰H1是由阿联酋技术创新研究院开发的混合架构语言模型,结合Transformer与Mamba架构,支持多语言处理
Phi-4-mini-instruct模型经torchao进行float8动态激活和权重量化,在H100上实现36%显存降低和15-20%速度提升,几乎不影响精度。
h1alexbel
该模型是一个基于Transformers库的模型,具体用途和功能未明确说明。
h1t
基于Stable Diffusion v1.5的TCD LoRA模型,通过轨迹一致性蒸馏技术优化图像生成效率。
基于Stable Diffusion XL的轨迹一致性蒸馏模型,通过创新蒸馏技术实现少步高质量图像生成
transformer3
这是一个使用AutoTrain训练的文本摘要模型,专门针对金融领域文本进行优化
H1B签证工作搜索MCP服务器,使用美国劳工部真实LCA数据,提供H1B赞助公司搜索、职位分析和数据导出功能