AIBase
首页
AI资讯
AI产品库
模型广场
MCP服务
AI服务
算力市场
AI应用指南
ZH

模型

查看更多

Pangu-NLP-N2-32K-5.0.1.1

Huawei

Pangu-NLP-N2-32K-5.0.1.1

-

输入tokens/百万

-

输出tokens/百万

32

上下文长度

Pangu-NLP-N2-128K-5.0.1.1

Huawei

Pangu-NLP-N2-128K-5.0.1.1

-

输入tokens/百万

-

输出tokens/百万

128

上下文长度

Pangu-NLP-N4-Reasoner-128K-3.0.1.2

Huawei

Pangu-NLP-N4-Reasoner-128K-3.0.1.2

-

输入tokens/百万

-

输出tokens/百万

128

上下文长度

Pangu-NLP-N2-Reasoner-128K-5.0.0.1

Huawei

Pangu-NLP-N2-Reasoner-128K-5.0.0.1

-

输入tokens/百万

-

输出tokens/百万

128

上下文长度

Pangu-NLP-N1-Reasoner-128K-3.0.1.1

Huawei

Pangu-NLP-N1-Reasoner-128K-3.0.1.1

-

输入tokens/百万

-

输出tokens/百万

128

上下文长度

Pangu-NLP-N2-Reasoner-32K-3.0.1.1

Huawei

Pangu-NLP-N2-Reasoner-32K-3.0.1.1

-

输入tokens/百万

-

输出tokens/百万

32

上下文长度

Pangu-NLP-N4-Reasoner-32K-3.0.1.2

Huawei

Pangu-NLP-N4-Reasoner-32K-3.0.1.2

-

输入tokens/百万

-

输出tokens/百万

32

上下文长度

Pangu-AgentExpert-N2-0.0.2

Huawei

Pangu-AgentExpert-N2-0.0.2

-

输入tokens/百万

-

输出tokens/百万

32

上下文长度

Pangu-AgentExpert-N1-0.0.2

Huawei

Pangu-AgentExpert-N1-0.0.2

-

输入tokens/百万

-

输出tokens/百万

32

上下文长度

Pangu-NLP-N4-4K-3.2.36

Huawei

Pangu-NLP-N4-4K-3.2.36

-

输入tokens/百万

-

输出tokens/百万

4

上下文长度

Qwen_v2.5_0.5b_base

Alibaba

Qwen_v2.5_0.5b_base

$2

输入tokens/百万

-

输出tokens/百万

128

上下文长度

Qwen_v2.5_1.5b_base

Alibaba

Qwen_v2.5_1.5b_base

$2

输入tokens/百万

-

输出tokens/百万

32

上下文长度

Pangu-NLP-N1-128K-3.2.36

Huawei

Pangu-NLP-N1-128K-3.2.36

-

输入tokens/百万

-

输出tokens/百万

128

上下文长度

Pangu-NLP-N1-32K-3.2.36

Huawei

Pangu-NLP-N1-32K-3.2.36

-

输入tokens/百万

-

输出tokens/百万

32

上下文长度

Pangu-NLP-N2-32K-3.1.35

Huawei

Pangu-NLP-N2-32K-3.1.35

-

输入tokens/百万

-

输出tokens/百万

32

上下文长度

Pangu-NLP-N4-32K-2.5.35

Huawei

Pangu-NLP-N4-32K-2.5.35

-

输入tokens/百万

-

输出tokens/百万

32

上下文长度

Hunyuan-Lite

Tencent

Hunyuan-Lite

-

输入tokens/百万

-

输出tokens/百万

250

上下文长度

PP-UIE-14B

Baidu

PP-UIE-14B

-

输入tokens/百万

-

输出tokens/百万

-

上下文长度

PaddleMIX-PP-DocBee

Baidu

PaddleMIX-PP-DocBee

-

输入tokens/百万

-

输出tokens/百万

-

上下文长度

Yi-Large

01-ai

Yi-Large

-

输入tokens/百万

-

输出tokens/百万

32

上下文长度

Financial Roberta Large Sentiment

soleimanian

F

Financial-RoBERTa 是一个预训练的 NLP 模型,专门用于分析金融文本的情感倾向。

自然语言处理TransformersTransformers英语
soleimanian
2.2k
44
AIBase
智启未来,您的人工智能解决方案智库
English简体中文繁體中文にほんご
友情链接:
AI Newsletters AI ToolsMCP ServersAI NewsAIBaseLLM LeaderboardAI Ranking
© 2025AIBase
商务合作网站地图