初创公司Luminal完成530万美元种子轮融资,由Felicis Ventures领投,多位知名投资人参与。公司由前英特尔芯片设计师联合创立,专注于优化计算资源,提升基础设施效率,解决软件易用性对开发者的制约问题。
日本软银集团拟以53.75亿美元收购ABB集团机器人业务,预计2026年完成。ABB机器人部门现有员工约7000人,主营拣选、清洁等工业机器人,2024年收入23亿美元,占ABB总收入的7%。交易尚待监管审批。
2025人工智能产业大会发布数据显示,预计2024年中国AI产业规模超9000亿元,同比增长24%。截至2025年9月,国内AI企业将超5300家,占全球市场15%,展现我国人工智能领域快速发展态势。
Superpanel创始人Julien Emery基于家庭与法律系统打交道的痛苦经历,创建了帮助律所无缝接纳新客户的平台。作为加拿大人,他深感法律服务获取困难且昂贵,尤其是母亲车祸后的遭遇更坚定了其创业决心。该平台旨在解决行业痛点,提升客户体验。
覆盖534种语言的大型语言模型
mistral
$0.72
输入tokens/百万
$2.16
输出tokens/百万
256k
上下文长度
pytorch
这是由PyTorch团队使用torchao进行量化的Qwen3-8B模型,采用int4仅权重量化和AWQ算法。该模型在H100 GPU上可减少53%显存使用并实现1.34倍加速,专门针对mmlu_abstract_algebra任务进行了校准优化。
jet-ai
Jet-Nemotron-4B是NVIDIA推出的高效混合架构语言模型,基于后神经架构搜索和JetBlock线性注意力模块两大核心创新构建,在性能上超越了Qwen3、Qwen2.5、Gemma3和Llama3.2等开源模型,同时在H100 GPU上实现了最高53.6倍的生成吞吐量加速。
Jet-Nemotron是一个新型混合架构语言模型家族,超越了Qwen3、Qwen2.5、Gemma3和Llama3.2等最先进的开源全注意力语言模型,同时实现了显著的效率提升——在H100 GPU上生成吞吐量最高可达53.6倍加速。
SEOKDONG
基于LlaMA3.2 1B模型通过SFT方式微调的韩语语言模型,使用53个领域的韩语数据进行训练,能够理解韩国社会价值和文化,支持文本生成、问答等多种自然语言处理任务。
基于LlaMA3.1微调的韩语大语言模型,适配韩国文化,支持53个领域的韩语任务
PekingU
RT-DETR是首个实时端到端目标检测器,通过高效混合编码器和不确定性最小化查询选择机制,在COCO数据集上达到53.1% AP,108 FPS的性能。
learningdude
基于facebook/wav2vec2-base微调的语音处理模型,在评估集上准确率达53.57%
emre
该模型是基于facebook/wav2vec2-large-xlsr-53在Common Voice 8数据集上微调的鞑靼语(Tatar)自动语音识别模型,测试集WER为53.16%。
vneralla
XLSR-Wav2Vec2是一个多语言语音识别模型,通过跨语言预训练学习共享语音表征,支持53种语言。
echarlaix
这是一个经过剪枝优化的BART-base模型,专为摘要生成任务设计,保留了原始模型53%的权重。