深圳地铁在黄木岗枢纽试点智能导盲犬“小蒜”,为视障乘客提供科技出行辅助,属全球轨道交通行业首例。该导盲犬融合多模态3D体素神经网络传感、室内外一体化规控等前沿AI技术,功能全面,展现了人工智能在无障碍出行领域的深度应用与科技向善的温暖力量。
瞳行科技推出国内首款AI助盲眼镜,集成阿里通义千问大模型,为视障人士提供实时出行辅助。产品由眼镜、手机、遥控指环和盲杖协同工作,通过双摄像头实现300毫秒低延迟路况播报,支持识别公交牌、路标及环境概述。技术总监陈刚表示,大模型压缩70%研发成本,加速算法落地。眼镜还具备本地文本识别功能。
我国首个盲童无障碍AI伴读系统“小星”正式上线,由中国盲文出版社与科技公司联合研发。该系统搭载大语言模型,支持盲童通过手机或电脑免费使用,可随时提问书籍内容、词义和情节,满足视障读者特殊阅读需求。
微软推出70亿参数智能助手Fara-7B,可直接在用户设备执行复杂任务。其小巧体积突破数据安全障碍,支持自动化处理敏感工作流(如账户管理、机密数据处理),所有信息无需离开设备。通过视觉识别网页操作,模拟人类鼠标使用方式。
通过 AI 实时翻译打破视频通话中的语言障碍。
实时AI翻译工具,帮助用户在视频通话中跨越语言障碍,无缝沟通。
用先进的人工智能视频翻译打破语言障碍。
盲人会说话的相机
Alibaba
$1
Input tokens/M
$10
Output tokens/M
256
Context Length
$2
$20
-
$8
$240
52
$3.9
$15.2
64
Bytedance
$0.8
$0.15
$1.5
128
Baidu
32
Tencent
$1.6
$4
24
vidi-deshp
这是一个针对实时图像描述生成任务微调的CLIP-GPT2版本,旨在辅助视障人士理解图像内容。
kanlo
基于VideoMAE基础模型微调的视频分析模型,专注于自闭症谱系障碍(ASD)相关的眼神接触识别任务
LearnItAnyway
本项目整合了YOLO目标检测模型与LLaMa 2 7b大语言模型,旨在为视障人士的日常出行提供辅助导航支持。