苹果公司将于2026年3月推出AI元数据标签系统,旨在提升音乐作品中AI使用情况的透明度,帮助用户区分人类创作与算法生成的内容。
苹果公司计划在Apple Music中引入新的元数据标签,要求唱片公司和分销商在上传内容时明确标注AI在音乐创作中的具体参与程度,以提高AI生成音乐的透明度。
苹果公司宣布在Apple Music引入AI透明度标签制度,要求唱片公司和发行商主动标注AI生成或辅助创作的内容,以提升平台内人工智能参与创作内容的透明度。新规通过升级元数据管理系统,对音频元数据进行精细化拓展,包括歌曲封面图、音轨等维度。
苹果公司正全力推进三款AI可穿戴设备的研发进程,涵盖AI智能眼镜、AI别针/吊坠(AI pin or pendant)以及带摄像头的AI AirPods。这些设备均设计为与iPhone无缝连接,并能够与正在开发中的更智能版Siri进行深度交互。 据悉,这三款新品均将集成摄像头功能,使AI能够“洞察”佩戴者周围环境,并就相关问题提供即时解答。
calcuis
FastVLM-0.5B是苹果公司开发的高效视觉语言模型,参数量为5亿,通过GGUF格式优化,可在资源受限环境中实现快速的文本生成和视觉语言理解任务。
gguf-org
FastVLM是由苹果公司开发的轻量级视觉语言模型,参数量为5亿,支持文本生成和视觉语言理解任务。该模型提供了多种量化版本,可通过gguf-connector工具便捷运行。
apple
OpenELM是由苹果公司推出的高效语言模型系列,采用分层缩放策略优化参数分配,提供270M至3B不同规模的预训练及指令调优模型。
timm
AIM-v2是由苹果公司开发的图像编码器模型,基于timm库兼容的架构,适用于图像特征提取任务。
基于CLIP架构的视觉变换器模型,专注于图像特征提取,由苹果公司发布。
基于CLIP架构的ViT-Huge图像编码器,由苹果公司发布的DFN5B-CLIP模型,适用于视觉特征提取任务。
基于CLIP架构的视觉Transformer模型,由苹果公司发布的DFN2B-CLIP图像编码器权重
MobileCLIP-B (LT)是苹果公司推出的高效图文模型,通过多模态强化训练实现快速零样本图像分类,性能优于同类模型。