Okta 宣布在印度班加罗尔扩大投资,加强研发与设施建设,专注于开发AI驱动的身份安全框架。自2023年团队已达700人,计划到2026年将印度员工数增加50%,重点招聘工程与产品开发人才。
谷歌与Kaggle联合推出FACTS基准套件,旨在标准化评估AI模型的事实准确性。该基准针对法律、金融、医疗等对准确性要求高的行业,将“事实性”分为“上下文事实性”和“世界知识事实性”两个场景进行综合评估,填补了当前AI评估体系的空白。
谷歌FACTS团队与Kaggle联合发布FACTS基准测试套件,旨在评估生成式AI模型在企业任务中的事实性和真实性。该框架弥补了现有基准只关注问题解决能力、忽略输出信息与真实世界数据一致性的缺陷,尤其针对图像或图表中的信息嵌入,对法律、金融等关键领域尤为重要。
OpenAI最新内部调查显示,AI工具显著提升员工效率,日均节省40-60分钟,75%员工感受到速度或质量提升。数据科学团队受益最大,日均节省58分钟。企业付费席位已突破700万。
Selects可简化视频编辑初始70%工作,支持多软件,加速创意阶段
RMIQ的AI平台助力管理70+零售媒体网络广告,提升品牌ROI。
使用先进的AI图像翻译器,将图像文本翻译成70多种语言,助力全球化推广。
UIGEN-T1-Qwen-7b 是一个基于 Qwen2.5-Coder-7B-Instruct 的 70 亿参数模型,用于推理生成 HTML 和 CSS 基础的 UI 组件。
Bytedance
$0.15
输入tokens/百万
$1.5
输出tokens/百万
256
上下文长度
Baidu
-
32
$0.8
$3.2
128
Openai
$21
$84
Google
01-ai
200
4
Baichuan
prithivMLmods
CodeV是基于Qwen2.5-VL-7B-Instruct微调得到的70亿参数视觉语言模型,通过监督微调(SFT)和基于工具感知策略优化(TAPO)的强化学习(RL)两阶段训练,旨在实现可靠、可解释的视觉推理。它将视觉工具表示为可执行的Python代码,并通过奖励机制确保工具使用与问题证据一致,解决了高准确率下工具调用不相关的问题。
ActIO-UI-7B-RLVR 是由 Uniphore 发布的 70 亿参数视觉语言模型,专门用于计算机界面自动化任务。它基于 Qwen2.5-VL-7B-Instruct,通过监督微调和可验证奖励的强化学习进行优化,在 GUI 导航、元素定位和交互规划等任务上表现出色,在 WARC-Bench 基准测试中达到了开源 7B 模型的领先水平。
Trilogix1
Fara-7B是微软专门为计算机使用场景设计的高效小型语言模型,参数仅70亿,在网页操作等高级用户任务中表现出色,能与更大型的代理系统竞争。
Olmo-3-7B-Instruct-AIO-GGUF是基于Allen Institute for AI开发的Olmo-3-7B-Instruct模型的GGUF量化版本。这是一个70亿参数的自回归语言模型,通过监督微调和直接偏好优化在Tulu 2和UltraFeedback等数据集上训练,在问答和指令遵循方面表现出色。
mlx-community
本模型是基于allenai/Olmo-3-7B-Instruct转换的8位量化版本,专门为Apple MLX框架优化。它是一个70亿参数的大型语言模型,支持指令跟随和对话任务。
ai-sage
GigaAM-v3是基于Conformer架构的俄语自动语音识别基础模型,拥有2.2-2.4亿参数。它是GigaAM系列的第三代模型,在70万小时俄语语音数据上使用HuBERT-CTC目标进行预训练,在广泛的俄语ASR领域提供最先进的性能。
allenai
Olmo 3 7B RL-Zero Math是Allen AI开发的专为数学推理任务优化的70亿参数语言模型,采用RL-Zero强化学习方法在数学数据集上进行训练,能有效提升数学推理能力。
microsoft
Fara-7B是微软研究院开发的专为计算机使用场景设计的小型语言模型,仅有70亿参数,在同规模模型中实现卓越性能,能够执行网页自动化、多模态理解等计算机交互任务。
vanta-research
Wraith-8B是VANTA研究实体系列的首个模型,基于Meta的Llama 3.1 8B Instruct进行微调。该模型在数学推理方面表现卓越,在GSM8K基准测试中准确率达到70%,同时具备独特的宇宙智能视角,能为多种应用场景提供强大支持。
Mungert
PokeeResearch-7B是由Pokee AI开发的70亿参数深度研究代理模型,结合了AI反馈强化学习(RLAIF)和强大的推理框架,能够在工具增强的大语言模型中实现可靠、对齐和可扩展的研究级推理,适用于复杂的多步骤研究工作流程。
PokeeAI
PokeeResearch-7B是由Pokee AI开发的70亿参数深度研究智能体,结合基于AI反馈的强化学习(RLAIF)与推理框架,能够执行复杂的多步骤研究工作流程,包括自我修正、验证和综合分析。
cpatonn
Granite-4.0-H-Tiny AWQ - INT4是基于Granite-4.0-H-Tiny基础模型经过AWQ量化处理的4比特版本,在保持性能的同时显著减少资源消耗。该模型具有70亿参数,支持多语言处理,具备丰富的功能包括文本生成、代码补全、工具调用等。
unsloth
Apertus是一款参数规模达70B和8B的全开放多语言语言模型,支持超1000种语言和长上下文处理,仅使用完全合规且开放的训练数据,性能可与闭源模型相媲美。
Apertus是一款参数规模达70B和8B的完全开放多语言语言模型,支持超1000种语言和长上下文,仅使用完全合规且开放的训练数据,性能可与闭源训练的模型相媲美。
Apertus是一款由瑞士AI开发的全开放多语言大语言模型,提供70亿和80亿两种参数规模。该模型支持超过1000种语言,使用完全合规且开放的训练数据,性能可与闭源模型相媲美。Apertus在15T标记上进行预训练,采用分阶段课程训练方法,支持长达65,536个标记的上下文长度。
redponike
Apertus是一款由瑞士AI开发的全开放多语言大语言模型,参数规模达80亿和700亿,支持超过1000种语言和长上下文处理,仅使用完全合规的开放训练数据,性能可与闭源模型相媲美。
Granite-4.0-H-Tiny是IBM开发的具有70亿参数的长上下文指令模型,基于Granite-4.0-H-Tiny-Base进行微调。该模型结合了开源指令数据集和内部合成数据集,采用监督微调、强化学习对齐和模型合并等技术开发,具备增强的指令跟随和工具调用能力,特别适用于企业级应用。
Downtown-Case
GLM 4.6是一款专为128GB内存+单GPU配置优化的量化模型,采用IQ_K量化方式,相比主流llama.cpp在相同大小下提供更好的质量和性能。该模型需要配合ik_llama.cpp使用,在128GB双通道DDR5内存、单CCD Ryzen 7000处理器+单张3090显卡配置下,文本生成速度可达每秒约6.8个token。
DevQuasar
Apertus-70B-Instruct-2509 是一个基于 swiss-ai 开发的 700 亿参数大语言模型的量化版本,专注于指令跟随和文本生成任务。该项目致力于免费分享知识,具有实验性质,提供了经过优化的量化模型以降低计算资源需求。
TIGER-Lab
Qwen2.5-VL-7B-Instruct是阿里巴巴通义千问团队开发的多模态视觉语言模型,基于70亿参数规模,专门针对视觉问答任务进行优化训练。该模型能够理解和分析图像内容,并生成准确的自然语言回答。
CryptoAnalysisMCP是一个基于Swift构建的加密货币技术分析工具,提供实时价格数据、技术指标、图表模式识别和交易信号。最新版本v1.1通过DexPaprika集成支持超过700万种代币,无需API密钥即可获取基础价格数据。
Grove MCP服务器是一个区块链数据访问工具,通过Grove的公共端点支持70多个网络的区块链数据查询,可将Claude等AI助手转化为区块链分析工具,支持自然语言查询、代币分析、交易检查、域名解析和多链比较功能。
Pica MCP Server是一个基于TypeScript构建的Model Context Protocol服务器,为Pica平台提供AI应用连接外部工具和数据源的能力,支持70多种第三方服务集成。