以图搜衣:衣+的女性主动购物革命

以图搜衣:衣+的女性主动购物革命

「哇,好漂亮的衣服~」

当看到擦身而过的路人穿着自己喜欢的衣服,女孩子常常希望自己的衣橱也能多这么一件。网络和电商的发达,通过关键词在淘宝搜索相似衣服已经代替了在大街小巷随机寻找的茫然。

或者,不用再在同款、关键词过滤的海洋中痛苦焦灼,试试拍一张照片,就能轻松找到自己想要的那件衣服。

以图搜衣,从被动推荐到主动找寻

衣+(Dress+)是一款主打「以图搜衣」的应用,支持网站、移动端,并将很快登录 Google Glass。

通过拍照或上传已有图片,衣+能快速匹配出相似度极高的服装单品,以「所见即所得」方式帮助用户寻找喜欢的衣服。匹配出的单品按相似度以图片形式排列,包含有 Amazon、天猫、Farfetch、 Heels、H&M 等海内外电商网站的内容。

排前面的衣服价格好高,有没便宜点的同款?花纹好看,图片是长裙有没短裙?喜欢款式却想换个颜色?衣+的搜索结果还可通过价格、类别、颜色等条件改变搜索结果,找到适合自己的那一款。

搜索的结果不仅以「像」为坐标,加入了衣+自己对潮流的看法。「目前国际的时尚主流是欧美」,衣+的团队招募了巴黎留学服装设计师负责「人工优化」搜索结果。其收录的商品以知名品牌店为主,兼顾大量设计师的店铺,不仅能排除质量堪忧、图文不符的情况,还能将时尚潮流兼为输出。

(衣+搜索衣、鞋、包的匹配情况)

喜欢的衣服照片存起来,点击衣+下方中部的彩色「+」,上传图片就能找到同款或类似服装;吃饭时看到邻座女生漂亮衣服偷拍一张找同款,似乎也是女生的隐秘诉求。

衣+希望做到的是改被动为主动,让女生主动追寻和把握属于自己的潮流。淘宝首页、蘑菇街、美丽说等主动推介式的导购太顾及低价,将购物的内容拘在价格的圈子里,更像是强加的购物需求。衣+的内容从 20 元到 5 万元,收录的条件只有质量和「时尚」。

潮流商用化:深度学习+图像识别

「通过拍照或上传图片搜索出相同和相似款时尚服饰购买并社交」,是衣+给自己的诠释。互联网海量图像数据堆积,从中快速找到相似内容的背后,是图像识别搜索和深度学习技术的支撑。

衣+的本质是基于人工智能的图像识别搜索引擎,其图像识别算法采用的是卷积神经网络技术。深度神经网络已经在语音识别、图像识别等领域取得相当大的成功。

(上图左:全连接网络。1000x1000 像素的图像,有 1 百万个隐层神经元,每个隐层神经元都连接图像的每一个像素点,就有 1000x1000x1000000=10^12 个权值参数。上图右:局部连接网络,每一个节点与上层节点同位置附件 10x10 的窗口相连接,则 1 百万个隐层神经元就只有 10^8 个参数。其权值连接个数比原来减少了四个数量级。)

基于电商商品数据,衣+挖掘了多层次商品语义标签。在衣+的数据构造中,包含高层的类别语义(连衣裙、哈伦裤、马丁靴等)、中层的服装风格语义(碎花、方格、宫廷、波西米亚等)、底层的材质和颜色语义(蕾丝、雪纺、宝蓝色等)。「每一张图片都经过特殊值的比对,转化成空间中的多维向量,共 4096 维。通过比较向量在空间里的相似度,从而找到最一致的那张图片。」

「同时我们也引入了高维特征的二值语义索引技术,可以支持海量商品数据的实时检索」。与传统的图像检索技术相比,衣+的图像识别算法能够从海量的商品数据中自动进行特征学习,「并根据用户反馈实现增量学习,不断优化检索算法的精度。」

通过整合斯坦福、新加坡科学院、中国科学院、百度等算法技术的优点,衣+团队将识别精度「从 60%-70% 提高到 90%-98%」,并在复杂背景下的人体检测与衣物的分割、局部自相似图像检索、多标签深度卷积网络、二值语义索引四项关键技术领域居领先地位。

更庞大、更宽广:以图搜物

衣+团队 2013 年末成立于美国硅谷和新加坡,2014 年 7 月于北京设立公司。目前团队成员工作背景包括微软、IBM、百度、金山等大公司,学历背景包括斯坦福、剑桥、新加坡国大、新加坡南洋理工、北大、中科院,团队中还有一位巴黎留学的服装设计师,平均年龄 26 岁。

在创始人张默看来,以图片为入口进入互联世界代表了未来的搜索趋势。今年的百度世界大会上,百度 CEO 李彦宏在会上表示,未来五年语音、图像搜索会超过文字。衣+正是图片搜索中,连通服装购买的细分部分。

(衣+同时还有 PK 明星、互粉等社交功能)

很快衣+将登录 Google Glass 平台,「Google Glass 代表了全新的交互」。而衣+的未来不仅是通往服装这么简单。以图搜物,随时购买看到的、想要的商品,以此通往这个世界的所有部分,谁知道呢?


图像识别衣加
下载极客公园客户端
iOS下载
反馈