AIbase报道 特斯拉正为其车辆语音助手功能引入更强AI能力。根据特斯拉中国官网最新更新的《特斯拉车机语音助手使用条款》,官方首次明确其语音助手将接入外部大模型技术,合作伙伴包括字节跳动旗下的火山引擎和人工智能公司DeepSeek。双重AI技术加持智能交互条款内容显示,特斯拉语音助手将得到火山引擎提供的Doubao大模型(云雀大模型)和DeepSeek Chat的技术支持。这一技术升级标志着特斯拉在智能座舱领域迈出重要一步,将传统的车控命令扩展至更丰富的AI对话体验。升级后的语音助
近日,特斯拉与字节跳动旗下火山引擎达成重要合作,双方将共同为特斯拉在国内市场的智能座舱交互体验注入新活力。根据合作内容,火山引擎将为特斯拉提供大模型服务,助力其车机系统实现智能化升级。 据特斯拉中国官网最新更新的《特斯拉车机语音助手使用条款》披露,全新上市的特斯拉Model Y L车型将率先搭载豆包大模型与DeepSeek模型,两款国产大模型均通过火山引擎实现接入。这一举措标志着特斯拉在中国市场正式引入国产大模型技术,以提升其车机系统的智能化水平。
腾讯元宝宣布正式接入最新版本的 DeepSeek V.1,用户现可通过电脑版和网页版提前体验这一升级带来的强大功能。这一新模型的发布标志着腾讯在人工智能领域的又一重要进展,旨在为用户提供更高效、更智能的服务。DeepSeek V3.1的更新主要带来了两大突破。首先,在思考速度上,新版本的 DeepSeek V3.1-Think 显著提升了响应时间,能够在更短的时间内给出答案。这一改进使用户能够更快速地抓住灵感,提升工作效率。无论是在日常生活中的疑问,还是在工作中遇到的复杂任务,DeepSeek V3.1都能为
8月22日,腾讯云宣布正式上线DeepSeek-V3.1版本。这一新版本不仅为企业和开发者提供了更稳定、更优质的服务,还通过腾讯云智能体开发平台(ADP)和TI平台同步上线,进一步降低了智能体构建的门槛,推动了AI技术的广泛应用。 腾讯云DeepSeek-V3.1版本的发布,标志着AI技术在云服务领域的又一次重要进步。企业和开发者现在可以通过腾讯云直接调用新版模型的API接口,享受更高效、更智能的服务体验。此次上线的新模型不仅在技术上取得了显著提升,还在多个实际应用场景中展现出了强大的性能和灵活性。 腾讯云智能体开发平台(ADP)也接入了新版DeepSeek-V3.1
聊天机器人AI产品集合,包括GPT-4o, Gemini, Qwen, Deepseek, Claude & Grok。
PPTDetector是准确检测AI生成内容的AI检测器,可检测由ChatGPT,GPT,Gemini,Grok,Claude,Deepseek生成的pptx。
DeepSeek R1-0528 是一款开源大模型,性能媲美 OpenAI o3 模型。
一个旨在推动人工智能民主化的开源项目。
deepseek
$3.6
输入tokens/百万
$15.48
输出tokens/百万
128k
上下文长度
minimax
-
1M
$3.96
$15.77
$4.03
$15.98
baidu
$4
$16
$0.86
$1.3
$0.72
$2.88
$2
$8
32k
$1.94
$7.92
$1.01
$2.02
4.1k
Mungert
AceReason-Nemotron-7B是一款通过强化学习训练的数学和代码推理模型,基于DeepSeek-R1-Distilled-Qwen-7B开发,在多个推理基准测试中表现出色。
ykarout
该模型是基于DeepSeek-R1-0528-Qwen3-8B的微调版本,使用TRL和GRPO方法进行训练,专注于数学推理能力的提升。
mlx-community
DeepSeek-R1-0528 的 5 位量化版本,适用于 MLX 框架。
ertghiu256
基于Qwen 3 4B参数模型微调,提升推理与问题解决能力
QuantFactory
AceReason-Nemotron-7B是一个基于强化学习训练的数学和代码推理模型,从DeepSeek-R1-Distilled-Qwen-7B开始训练,在多个基准测试中表现出色。
基于DeepSeek-R1-0528-Qwen3-8B模型转换的6位量化版本,适用于MLX框架的文本生成任务。
stelterlab
DeepSeek-R1-0528是深度求索公司推出的升级版大语言模型,在推理能力、减少幻觉率等方面有显著提升,整体性能接近领先模型。
kartd
这是一个基于Qwen-14B模型微调的版本,使用GRPO方法进行训练,适用于文本生成任务。
featherless-ai-quants
DeepSeek-R1-Distill-Qwen-14B 是一个经过优化的14B参数规模的大语言模型,由DeepSeek AI发布,基于Qwen架构蒸馏而来,提供多种GGUF量化版本以提升性能。
nvidia
DeepSeek AI 公司的 DeepSeek R1 0528 模型的量化版本,基于优化的 Transformer 架构的自回归语言模型,可用于商业和非商业用途。
Sci-fi-vy
DeepSeek-R1-0528是DeepSeek R1系列的小版本升级模型,通过增加计算资源和算法优化显著提升了推理深度和能力,在数学、编程等多个基准测试中表现出色。
基于DeepSeek-Prover-V2-7B转换的MLX格式模型,适用于文本生成任务
cognitivecomputations
DeepSeek R1 0528的AWQ量化模型,支持使用vLLM在8块80GB GPU上以全上下文长度运行。
QuantTrio
DeepSeek-R1-0528模型的GPTQ量化版本,采用Int4 + 选择性Int8的量化方案,在保证生成质量的同时减小文件大小。
prithivMLmods
DeepSeek-R1-Llama-8B-F32-GGUF 是 DeepSeek-R1-Distill-Llama-8B 的量化版本,采用强化学习直接训练,具备自我验证、反思和生成扩展思维链等能力。
adamo1139
DeepSeek-R1-0528 671B模型的4位AWQ量化版本,适合在高端GPU节点上使用
DeepSeek-R1-0528是DeepSeek R1模型的小版本升级,通过增加计算资源和算法优化显著提升了推理能力,在数学、编程和通用逻辑等多个基准评估中表现出色。
RedHatAI
经过量化处理的DeepSeek-R1-0528模型,通过将权重量化为INT4数据类型,显著降低了GPU内存和磁盘空间的需求。
hxac
DeepSeek-R1-0528-Qwen3-8B的AWQ量化版本,适用于特定场景下的高效推理。
alibayram
基于DeepSeek架构,在土耳其语文本上训练的语言模型,包含多头潜在注意力(MLA)和专家混合(MoE)技术。
DeepSeek MCP服务器是一个为DeepSeek API设计的模型上下文协议服务器,支持与Claude Desktop等MCP兼容应用无缝集成,提供匿名API访问和智能对话管理。
DeepSeek MCP服务器项目,为Claude Desktop等应用提供匿名API代理服务,支持多轮对话和自动模型切换。
Unreal Engine生成式AI支持插件,集成多种前沿LLM/GenAI模型API,提供游戏开发中的AI集成层支持,包括OpenAI、Claude、Deepseek等模型的聊天、结构化输出等功能,并支持Model Control Protocol(MCP)实现场景对象控制、蓝图生成等高级功能。
结合DeepSeek推理与Claude生成的两阶段AI对话服务
Deepseek R1的MCP服务器实现,支持Node.js环境,提供强大的语言模型推理服务。
一个由Claude构建的DeepSeek推理服务项目
通过集成DeepSeek R1的推理引擎增强Claude的复杂任务处理能力
一个基于Model Context Protocol的AI导师服务器,通过Deepseek-Reasoning提供代码审查、设计评估、写作反馈和创意头脑风暴等第二意见服务
一个实现MCP协议的服务器,用于在Claude Desktop中集成Deepseek模型
一个MCP服务器,允许Claude Code在需要深入分析复杂问题时咨询更强大的AI模型(如o3、Gemini 2.5 Pro、DeepSeek Reasoner)。
一个生产级MCP服务器,集成DeepSeek API,提供代码审查、文件管理、API账户管理等功能,支持多模型选择和JSON格式响应。
DeepClaude MCP是一个整合DeepSeek和Claude AI能力的服务器应用,通过双模型协同提供更强大的AI响应服务。
Deepseek R1的MCP服务器实现,支持与Claude Desktop集成,提供强大的语言模型推理服务。
该项目通过集成DeepSeek R1的推理引擎增强Claude的复杂任务处理能力,提供多步骤精确推理支持。
一个基于DeepSeek-V3开发的MCP天气查询智能体项目,通过配置API密钥和运行客户端脚本来实现功能。
一个基于DeepSeek API的MCP类服务器原型,提供终端命令执行和AI聊天集成功能。
Deepseek Thinker MCP Server是一个提供Deepseek推理内容的MCP服务,支持OpenAI API和本地Ollama两种模式,可集成到AI客户端中。
结合DeepSeek推理与Claude生成能力的MCP服务
MCP DeepSeek演示项目是一个基于MCP协议的客户端应用,集成DeepSeek AI实现工具调用和实时通信,包含Next.js前端和SSE服务端。
本地化运行的智能代理系统,结合推理模型与工具调用模型