据TechCrunch报道,谷歌于本周四宣布,对其AI虚拟试衣功能进行了一项重大更新。现在,用户不再需要上传一张全身照,仅凭一张自拍,就能生成自己的数字分身,并试穿各类服装。这项新功能已于今日在美国市场正式上线。
核心看点:从自拍到数字分身的技术飞跃
过去,使用谷歌的虚拟试衣功能,用户必须提供一张清晰的全身照片。而此次更新彻底改变了这一流程。用户现在只需上传一张自拍照,谷歌背后的Nano Banana模型(即Gemini 2.5 Flash Image模型)便会自动分析用户的面部特征、肤色、发型等关键信息,并据此生成一个逼真的全身数字形象。
具体操作流程如下:
- 用户在谷歌搜索、谷歌购物或谷歌图片中浏览服装商品时,点击商品列表或结果。
- 选择“试穿”图标。
- 系统会提示用户上传一张自拍照或继续使用全身照。
- 用户选择自己通常的服装尺码。
- AI模型将基于自拍生成多个不同姿态的全身试穿效果图。
- 用户可以选择其中一张效果最佳的照片,设置为默认的试穿形象。
谷歌强调,为了满足不同用户的需求,传统的上传全身照片选项依然保留。同时,用户也可以从一系列拥有多样化体型(diverse body types)的预设模特中选择,以确保试穿效果的广泛适用性和包容性。
技术背景:Nano Banana与谷歌的AI购物生态
此次功能升级的核心驱动力是Nano Banana模型。这是谷歌Gemini多模态大模型家族中的一个轻量级但高效的图像处理版本,专门针对实时图像生成和编辑任务进行了优化。它能够从有限的输入信息(如一张自拍)中,智能地推断并合成出符合物理规律和人体结构的完整形象,这是计算机视觉和生成式AI(Generative AI)结合的一次典型应用。
谷歌在AI购物领域的布局由来已久。今年7月,该公司首次推出了虚拟试衣功能,将其整合进覆盖搜索、购物和图片的“购物图谱”(Shopping Graph)生态中。这并非谷歌在该领域的唯一尝试。该公司还拥有一款名为Doppl的独立应用,专门用于AI虚拟试衣。就在本周,Doppl刚刚更新,增加了一个可购物的发现信息流,通过AI生成的商品视频和个性化风格推荐,引导用户发现并试穿新品,几乎每个推荐都附有直达商家的购买链接。
这一系列动作表明,谷歌正试图通过AI技术重塑在线购物体验,解决电商长期以来的痛点——“无法试穿”导致的退货率高、购买决策犹豫等问题。
行业影响分析与评论
谷歌将试衣门槛从“全身照”降至“自拍”,这看似一小步,实则是用户体验和商业逻辑上的一大步。它极大地降低了用户参与成本,有望显著提升该功能的普及率和使用频率。
从技术角度看,这要求AI模型具备更强的推理和生成能力,不仅要“画”出衣服,还要“理解”人体与面部的关联,确保生成的形象自然、连贯。Nano Banana模型的表现,是检验谷歌在轻量化AI应用上是否领先的关键指标。
从行业竞争来看,虚拟试衣已成为电商平台和社交媒体的兵家必争之地。除了谷歌,亚马逊、Snapchat等公司也早已推出类似功能。谷歌此次更新,特别是与Doppl应用及可购物信息流的联动,显示出其构建“搜索-发现-试穿-购买”闭环的野心。其信息流采用AI生成视频的形式,显然是借鉴了TikTok、Instagram等短视频平台的成功经验,旨在以更生动、沉浸的方式展示商品。
然而,挑战与机遇并存。AI生成形象的真实性和准确性(尤其是对特殊体型、复杂服装材质的还原)仍是需要持续优化的技术难点。此外,用户对个人生物识别数据(如面部照片)使用的隐私担忧,也是谷歌必须透明处理和妥善应对的问题。
总体而言,谷歌的这次更新标志着AI在消费级应用上正变得更加无缝和强大。它不仅是技术展示,更是对未来“可视化购物”标准的一次重要定义。如果这项技术能成熟推广,或将深刻改变人们的线上购物习惯,并为服装零售业带来新的增长动力。