Friend公司在纽约地铁发起大规模广告投放,耗资超100万美元,覆盖车厢内1.1万张卡片、站台1000张海报及130个城市面板。CEO称此举为AI行业最昂贵的营销赌局之一,部分站点广告密集,如West 4th Street几乎被完全占据。
纽约地铁近期出现可穿戴AI设备Friend的醒目广告,以简约白色设计吸引乘客关注。CEO阿维·施弗曼透露,广告投入超100万美元,覆盖超1.1万张车厢广告、1000个站台海报及130个城市广告面,重点投放于纽约西部区域。
暂无描述
AI初创公司FriendliAI获2000万美元种子扩展轮融资,资金将用于加速其推理优化技术平台开发。该平台专注于AI模型推理阶段,通过优化显著减少计算资源需求,提升部署效率并降低成本。
Tolan: Alien Best Friend 是一款以聊天和情感陪伴为核心功能的社交类APP。
AI驱动的桌面角色扮演游戏和世界构建工具
首款AI智能体耳机,无需手机即可语音唤醒AI助手。
智能聊天设备,随时倾听并回应你的心声。
FriendliAI
基于Llama-3.1-8B-Instruct的多语言音频文本转文本模型,支持40多种语言处理
基于meta-llama/Llama-3.2-1B-Instruct权重预加载的多语言文本转文本模型
基于Meta的Llama-3.3-70B-Instruct模型构建的多语言文本处理模型,支持音频到文本转换任务
InternVL3-38B 是一款先进的多模态大语言模型,在多模态感知、推理等能力上表现卓越,相较于前代模型有显著提升,还拓展了工具使用、GUI 代理等多模态能力。
InternVL3-8B是一款先进的多模态大语言模型,具备卓越的多模态感知和推理能力,在工具使用、GUI代理、工业图像分析等多领域表现出色。
InternVL3-1B是InternVL3系列中的1B参数规模多模态大语言模型,整合了InternViT视觉编码器和Qwen2.5语言模型,具备卓越的多模态感知和推理能力。
Ultravox 是一个基于 Llama3.1-8B-Instruct 和 Whisper-small 的多模态语音大语言模型,能够同时处理语音和文本输入。
InternVideo2.5 是一款基于长且丰富的上下文(LRC)建模增强的视频多模态大语言模型(MLLM),构建于 InternVL2.5 之上。
Qwen2-VL-2B-Instruct 是一个多模态视觉语言模型,支持图像文本到文本的任务。
Qwen2-VL-72B-Instruct 是一个多模态视觉语言模型,支持图像和文本的交互,适用于复杂的视觉语言任务。
MiniCPM-V 2.6是一款强大的多模态大语言模型,能够在手机等设备上高效运行,支持单图像、多图像和视频理解任务。
Meta发布的变色龙系列7B参数规模的多模态模型,支持图像文本转文本任务
LLaVA-NeXT-Video-7B-hf 是一个基于视频的多模态模型,能够处理视频和文本输入,生成文本输出。
Phi-3.5-vision是一款轻量级、先进的开源多模态模型,支持128K上下文长度,专注于高质量、富含推理的文本和视觉数据处理。
基于Qwen2-VL-7B-Instruct微调的文档OCR模型,支持多语言文档识别与元数据提取
Meta Llama 3 70B是由Meta开发的大语言模型,具有700亿参数,支持8k上下文长度,适用于英语的商业和研究用途。
C4AI Command R+ 是一个开放权重的1040亿参数研究模型,具备高级功能,包括检索增强生成(RAG)和工具使用以自动化复杂任务。
由FriendliAI量化为FP8精度的Mistral-7B-Instruct-v0.2模型,在保持高精度的同时显著提升推理效率。
astremo
该机器翻译模型使用友好日语语料库训练,旨在通过采用源自拉丁/英语的片假名词汇替代标准中日词汇,使日语对西方人士更易理解/更友好