初创公司Lovable于4月28日在iOS和Android平台推出无代码AI应用构建器,主打“氛围编码”理念,允许用户通过语音或文本AI提示随时随地捕捉灵感并实现移动端即时开发。该工具支持电脑与手机间无缝切换项目进度,并在版本就绪时发送审核通知。此次发布正值苹果公司对“氛围编码”类应用收紧政策,近期苹果以违反开发者准则为由加强监管。
苹果曾考虑下架马斯克的AI应用Grok,因其未能有效处理X平台上的非自愿性别化深度伪造内容。这一低调但强硬的态度在舆论压力下引发外界批评。苹果向美国参议员表示,已关注相关投诉和报道。
苹果公司为Siri工程师团队启动“AI编程训练营”,通过系统性再培训提升其大语言模型工程能力,以支持新一代Siri和iOS系统AI功能开发。此举表明苹果已将AI重塑Siri提升至公司战略高度,旨在追赶谷歌和OpenAI在生成式AI领域的进展。培训内容涵盖模型原理到工程部署全链路,重点聚焦Prompt工程。
苹果公司为留住核心AI人才,向iPhone设计团队发放了价值数十万美元的特别奖金,最高可达40万美元股票,以应对来自OpenAI、Meta等竞争对手的激烈人才争夺。
gguf-org
FastVLM是由苹果公司开发的轻量级视觉语言模型,参数量为5亿,支持文本生成和视觉语言理解任务。该模型提供了多种量化版本,可通过gguf-connector工具便捷运行。
calcuis
FastVLM-0.5B是苹果公司开发的高效视觉语言模型,参数量为5亿,通过GGUF格式优化,可在资源受限环境中实现快速的文本生成和视觉语言理解任务。
apple
OpenELM是由苹果公司推出的高效语言模型系列,采用分层缩放策略优化参数分配,提供270M至3B不同规模的预训练及指令调优模型。
timm
AIM-v2是由苹果公司开发的图像编码器模型,基于timm库兼容的架构,适用于图像特征提取任务。
基于CLIP架构的视觉变换器模型,专注于图像特征提取,由苹果公司发布。
基于CLIP架构的ViT-Huge图像编码器,由苹果公司发布的DFN5B-CLIP模型,适用于视觉特征提取任务。
基于CLIP架构的视觉Transformer模型,由苹果公司发布的DFN2B-CLIP图像编码器权重
MobileCLIP-B (LT)是苹果公司推出的高效图文模型,通过多模态强化训练实现快速零样本图像分类,性能优于同类模型。