发现与 Clip Iqa 相关的最受欢迎的开源项目和工具,了解最新的开发趋势和创新。
CLIP(对比语言图像预训练模型),根据给定图像预测最相关的文本片段。
利用大型语言模型生成机器人模拟任务
基于CLIP的图像和句子可扩展嵌入、推理和排序
CLIP 的开源实现
BoxMOT:适用于分割、目标检测和姿态估计模型的先进可插拔跟踪模块
借助Segment Anything模型及其他强大的AI模型,轻松完成数据标注。
一个中文版本的CLIP模型,能够实现中文跨模态检索和表征生成。
统一的嵌入式生成和搜索引擎,也提供云端服务 - cloud.marqo.ai
一款开源、准确、易用的视频语音识别和剪辑工具,集成了基于大型语言模型(LLM)的AI剪辑功能。
一个简单的命令行工具,利用OpenAI的CLIP和Siren(隐式神经表示网络)进行文本生成图像。这项技术最初由https://twitter.com/advadnoun创建。
一行命令生成Disco Diffusion艺术作品
OpenMMLab预训练工具箱和基准测试
中文自然语言处理解决方案(涵盖大模型、数据资源、模型构建、模型训练和推理部署)
用 BLIP 和 CLIP 将图像转换成提示词
在iOS设备上运行OpenAI的CLIP模型和苹果的MobileCLIP模型来搜索照片。
超棒的视觉语言模型合集,用于视觉任务
一个开源的评估工具包,用于评估大型多模态模型 (LMMs),支持 220 多个 LMMs 和 80 多个基准测试。
我只是在尝试在我的本地电脑上运行VQGAN+CLIP,而不是依赖谷歌Colab。
一个简单的命令行工具,利用OpenAI的CLIP和BigGAN进行文本生成图像。此技术最初由https://twitter.com/advadnoun创建。
【ECCV 2024】用于多模态理解的视频基础模型与数据