我们生活在一个视觉*至高无上的探索世界中。浏览橱窗、无限滚动列表和使用简单视觉提示的微参与是常态。搜索引擎传统上解释文本查询输入并匹配项目和/或按其与输入查询的相关性排序的文档。检索结果的相关性基于对输入查询与匹配项/文档的接近程度进行评分。这种传统方法严重限制用户提供对他们隐含偏好(例如风格和美感)的语言限制解释,这些偏好通常在共享词汇表中不可用。我们的工作目标是通过在搜索中启用视觉第一支点来弥合灵感和发现之间的差距。
图 1:库存中可用的用户所需物品
让我们用一个例子来说明这一点。一位用户拥有一个土耳其民族主题的起居室,并希望为他们最近购买的奶油糖果色沙发购买枕头。根据他们的个人风格,用户使用“土耳其抱枕”开始搜索,查看结果并在此过程中将土耳其枕头中使用的特定图案识别为“kilim”。
他们尝试使用各种文本查询组合来搜索此枕头,例如“orange kilim pillows”、“orange throw kilim pillows”,甚至是广泛搜索“kilim pillows”(图 1 和图 2 中的结果),但没有得到他们想要的结果导致最好的结果。尽管结果高度相关并且与已提供的查询文本最匹配,但是对于这些查询中的每一个,匹配项目的结果差异很大,因为没有显示所有库存,迫使用户查询和查询再次尝试获得查询文本的正确组合。因此,词语无法引出买家打算搜索的风格偏好。
图 2:用户搜索特定项目的各种尝试
在这种情况下,我们需要提供一些功能来帮助吸引狂热客户,方法是邀请他们以更具视觉吸引力的方法浏览他们的分类,让他们对自己喜欢的商品归零。
以下部分将深入探讨搜索团队如何接受这种视觉发现以及推动这种新体验的机制。
搜索查询和检索方法下面描述了如何将用户提交的查询与卖家创建的列表进行匹配。在一个非常高的层次上,一旦卖家创建了清单,与清单相关的元数据,例如它的标题、描述、图像和所有其他属性以及有助于有效检索清单的解释数据,都会被提取并为 Cassini 编制索引, eBay 的搜索引擎 [6]。
当提交查询时,例如“枕头”,查询通过应用程序前端(移动/桌面)提交到搜索服务,搜索服务又在内部利用多种支持机制进行查询重写、扩展等,以及会话上下文化, 以检索可能的最佳匹配列表。