AI视觉记忆层崛起:Memories.ai联手英伟达,为可穿戴与机器人打造“数字大脑”

当人工智能走出数字世界,进入物理空间时,一个根本性的挑战浮出水面:它如何像人类一样,记住并理解所看到的一切?市场消息显示,一家专注于视觉记忆 (Visual Memory)技术的新锐公司Memories.ai,正通过与半导体巨头英伟达的深度合作,试图为下一代可穿戴设备机器人构建不可或缺的“视觉记忆层”。

从概念到现实:为何AI需要“看见并记住”

最新行业动态指出,AI在文本处理和理解上已取得长足进步,例如ChatGPT的记忆功能、xAI和Google Gemini的记忆工具。然而,这些进展主要集中在文本记忆 (Text-based Memory)领域。对于依赖摄像头和传感器与环境交互的物理AI——无论是智能眼镜还是自主机器人——文本记忆的结构化优势难以直接应用。物理世界的交互本质上是视觉的、连续的、非结构化的。

据熟悉内情的人士透露,Memories.ai的创始团队在开发某科技巨头智能眼镜的AI系统时,深刻意识到这一痛点:如果用户无法有效检索和回忆设备录制的海量视频数据,那么再先进的硬件也形同虚设。这促使他们决定独立创业,专注于解决AI的视觉记忆难题。

技术核心:构建视觉记忆的基础设施与模型

成功构建视觉记忆层需要攻克两大难关:一是基础设施,即将视频数据嵌入、索引成可存储和召回的标准格式;二是训练数据,即获取高质量、真实的视觉场景来训练模型。

  • 模型开发:该公司在2025年7月发布了其大型视觉记忆模型 (Large Visual Memory Model, LVMM)。该模型可被视作一个更轻量、更专注于视觉索引与检索的多模态模型,其功能与近期发布的某些大型嵌入模型有相似之处,但专为实时、高效的视觉记忆优化。该公司已发布第二代LVMM,并与高通达成合作,计划将其模型部署在高通的处理器上。
  • 数据采集:为了获得理想的训练数据,该公司自主研发了名为LUCI的硬件采集设备。该公司强调其无意成为硬件公司,此举纯粹是因为市面上的通用录像设备过于追求高分辨率且耗电严重,无法满足其对于长时间、连续、低功耗记录真实世界场景的需求。

战略合作与商业化路径

该公司在一份最新文件中披露,其已获得总计1600万美元的融资。更重要的是,其与英伟达的合作标志着技术路线的关键一步。Memories.ai将利用英伟达的Cosmos-Reason 2视觉推理模型Metropolis视频分析平台,来加速其视觉记忆技术的开发。

“在商业化方面,我们更专注于模型和基础设施本身,”相关人士表示,“我们坚信可穿戴设备和机器人市场终将爆发,但可能不是现在。我们的任务是先为那个未来铺好路。”

目前,该公司已与多家大型可穿戴设备公司展开合作,尽管具体名单尚未公开。这显示出行业对底层AI感知与记忆能力的迫切需求。

行业影响与未来展望

Memories.ai所探索的视觉记忆层,代表了AI从“感知当下”向“理解过去并指导未来”演进的关键一步。对于行业而言,其潜在影响深远:

  1. 增强现实(AR)与智能眼镜:用户将能通过自然语言询问“我上周在超市见过的那个红酒牌子是什么?”,设备能瞬间从视觉记忆中调取相关画面。
  2. 家庭与服务机器人:机器人能记住物品的惯常摆放位置、家庭成员的面孔与习惯,提供真正个性化、连续性的服务。
  3. 自动驾驶:车辆能记忆复杂路口的历史交通模式、特殊地标,提升导航和决策的可靠性。

这不仅仅是存储视频,而是构建一个可查询、可关联、可推理的视觉知识图谱。随着多模态大模型和边缘计算能力的持续进步,视觉记忆有望成为继大语言模型之后,AI在物理世界落地的下一个核心基础设施。Memories.ai与行业巨头的联手,或许正预示着这个“让AI真正记住世界”的赛道,即将进入加速发展期。

© 版权声明
通义千问广告 - 响应式版
通义千问大模型 免费资源包
7000万tokens 免费领!
额外赠送25%折扣卷
去官网领取优惠

相关文章

暂无评论

none
暂无评论...