中新健康|复旦大学团队研发AI大模型 助视障者“看见”世界

11

上海3月2日电 (记者 陈静)只需一枚摄像头和一对耳机,画面能够被转化成语言,描绘场景、提示风险,让视障者出行更安全、生活更便捷……记者2日获悉,在复旦大学自然语言处理实验室(FudanNLP)师生的努力下,基于多模态大模型“复旦·眸思”(MouSi)为视障者量身打造的“听见世界”APP上线,将成为视障人士的生活助手与智能管家。

2023年上半年,复旦大学自然语言处理实验室发布了开发MOSS对话式大型语言模型,被称为中国版的GPT,仅用半年时间多模态模型“眸思”问世。据介绍,“眸思”和基于文本的MOSS不同,它能够理解并识别图片内容,致力于成为视障者的一双“眸”。

基于“眸思”,“听见世界”APP为视障者日常生活需求量身打造街道行走模式、自由问答模式和寻物模式。在街道行走模式中,“眸思”如一位忠实的向导。红绿灯、十字路口、障碍物……它能细致扫描道路情况,提示潜在风险,陪伴视障者安全通行“看不见”的漫漫长路。

在自由问答模式中,“眸思”则像一位贴心的朋友,走进博物馆、艺术馆、公园……捕捉四周景象的每个细节,用声音构建丰富的生活场景,传递每一处日常之美。在寻物模式中,“眸思”将成为一名可靠的管家,被移动过的手杖、最爱口味的牛奶……它可以让视障人士找寻日常物件变得轻松。

复旦大学自然语言处理实验室张奇教授说:“人工智能发展日新月异,科技应该要改变更多人的生活,希望‘眸思’能够帮助视障人士走出家门,让他们可以尝试更多工作,为人生书写更多可能。”据介绍,该项目的主导者都是“初出茅庐”的学生们,在组内头脑风暴会上,年轻学子总能提出开创性想法,能够找到另辟蹊径的解决办法。

自去年9月以来,复旦大学自然语言处理实验室围绕GPT4-v复现多模态大模型,对核心关键点开展研究,希望提升单项任务的准确率和强化大模型的学习。为了更好地感受视障者的难处,团队成员模拟真实情境,蒙眼探索视障者“黑暗”世界。他们邀请视障人士加入,进一步摸清真实而具体的需求。

在基于几亿张图片训练出“眸思”大模型基础上,针对视障者提出的各类需求,团队又用上万张图片进行特殊样本训练,使“眸思”具备能够适配更多场景的能力。据透露,今年上半年,团队将结合AR升级APP内的定位精度细化至亚米级别。下半年,团队希望将“眸思”升级为基于视频的判断。目前,更多模式正在开发中,比如,阅读模式、解说模式等。

据了解,团队计划与NGO组织、智算中心和硬件厂商等开展合作,致力于让视障者免费使用产品和相关服务。预计今年3月“听见世界”APP将完成第一轮测试,在中国一、二线城市和地区同步开启试点,根据算力部署情况进行推广。(完) 【编辑:】

马龙谈再次交手纳纳塞卡兰:曾做好输一局的准备

初筛阳性人员3868例 吉林禁止人员跨省流动

河南惠台“农林32条” 秉持“两岸一家亲”理念

甘肃嘉峪关拓展国际铁人三项体育赛事外延 打造全民狂欢节

湖南衡阳一男子砸伤妻子并殴打儿媳 警方通报

广东监测到“世界上最神秘的鸟”海南虎斑鳽

全产业链创新驱动高质量发展 六个核桃荣膺“中国食品工业70年领军企业”

成都新增1例武汉输入无症状感染者 曾多次到医院就诊

秋冬转换 西藏雅鲁藏布大峡谷风光壮丽

海南高院:已对张家慧干预过的5起案件启动再审纠正程序

对话中德隐形冠军 东北首次交流会议在沈阳举办

宠物伤人 谁应承担责任?

综合消息:俄老年志愿者参加新冠疫苗试验 哈白两国公布疫苗计划

全国政协委员曹菲:建议完善劣迹艺人管理制度

越共中央总书记阮富仲去世

文章版权声明:除非注明,否则均为蓝色未来原创文章,转载或复制请以超链接形式并注明出处。