探索AI前沿,掌握行业发展趋势
每日精选AI热点,追踪最新行业动态
精准筛选产品,多维度产品调研
热门AI产品实力、热度、年/月/日排行
提交AI产品信息,助力产品推广和用户转化
一站式AI工具指南,快速找到你需要的工具
涵盖各类AI模型,满足你的开发与研究需求
热门AI大模型性能、热度、年/月/日排行
寻找优质模型提供商,获取可靠模型支持
提交模型信息和服务,精准推广和触达用户
多维度对比大模型,找到最适合你的模型
精准计算大模型使用成本,合理规划预算
多模型实时评测,模型输出结果快速比对
聚集热门MCP服务,快速找到适合你的服务
轻松接入MCP客户端,调用强大的AI能力
学习MCP使用技巧,从入门到精通
热门MCP服务性能排行,帮你找到最佳选择
发布你的MCP服务,推广你的MCP服务
自由测试MCP服务,线上快速体验
快速测试MCP服务,快速上线
通过AI搜索优化服务,让品牌在AI中实现霸屏
检测品牌在AI平台中的可见度
一键检测电脑配置,研判运行模型的兼容性
提供用于训练、评估和测试模型的数据集
提供各类文档文字提取,支持自定义场景
发现与 Per Arne 相关的最受欢迎的开源项目和工具,了解最新的开发趋势和创新。
大规模并行深度强化学习
一个简洁、健壮且统一的PyTorch实现,涵盖了流行的深度强化学习(DRL)算法,包括Q学习、双重DDQN、优先经验回放(PER)、C51、噪声DQN、近端策略优化(PPO)、深度确定性策略梯度(DDPG)、TD3、软演员评论家(SAC)和优势学习(ASL)。
Q学习家族算法的实现。实现包括:DQN、DDQN、双重DQN、PER+DQN、噪声DQN、C51
基于PyTorch的个性化莫罗包络联合学习(pFedMe) (NeurIPS 2020)
基于PyTorch的软演员评论家(SAC)算法实现,并结合优先经验回放(PER)、强调近期经验(ERE)、Munchausen强化学习(Munchausen RL)以及分布式强化学习(D2RL)和并行环境。
一款用于深度学习研究的即时战略游戏
通过辅助单元快速神经网络架构搜索紧凑型语义分割模型的代码,CVPR '19
强化学习的路线图与论文评审
Match BCP 47 language tags with language ranges per RFC 4647
Agno-Go: A High-Performance Multi-Agent System Framework Based on Golang. Inheriting the Agno design philosophy, it leverages Golang's concurrency model and per
一个基于PyTorch的餐厅推荐系统,使用了深度强化学习框架DRR (包含深度确定性策略梯度算法DDPG,优先经验回放PER和概率矩阵分解PMF)。
基于OpenAI Gym框架的DDPG(深度确定性策略梯度)算法Keras实现,并可选用PER(优先经验回放)
基于OpenAI Gym框架,使用Keras实现TD3(双延迟DDPG)算法,并可选使用PER(优先经验回放)
易于阅读和理解的强化学习算法实现
使用 Core ML 的 MLComputePlan 进行每个操作的性能分析
深入学习高级量化技术。学习如何实现和定制线性量化函数,测量量化误差,并使用PyTorch压缩模型权重,从而构建高效易用的AI模型。
深度强化学习学习过程中的代码实现
Automatically generate accurate, per-word video captions with timestamps using Whisper ASR and FFmpeg, perfect for YouTube, social media, and accessibility.
No‑code/low‑code GUI E2E test runner for Selenium. JSON flows, headless/normal, artifacts, per‑project settings.
? I segreti che nessuno ti dice su Claude Code: 8 trucchi per sviluppare 10x più veloce, eliminare i bug e risparmiare il 70% sui costi. Zero teoria, solo strategie che funzionano.