所在分类:  Amazon 所属圈子: Amazon Amazon Review

亚马逊Review权重详解!

发帖2次 被置顶0次 被推荐0次 质量分1星 回帖互动94次 历史交流热度6.06% 历史交流深度0%
首先声明一点,亚马逊从未对外公布过对Review权重的内容,我们对Review权重的理解全是凭想象力。
 
为了更好的找到Review权重的内容,我换了一个思路去理解它,那就是如何甄别假评论。从这个角度出发,我找到了一个网站旨在帮助消费者还原产品的真实评分。总的来说,这个网站和亚马逊都在做同一件事,就是找出假评论且删除它的影响。根据网站的数据可以试着去推出竞争对手的上评方式,或者让我们避免刷单被抓。
 
评分的权重由每个评论者组成,将每个Reviewer的特征整合在一起会对我们很有启发性,理解每个账号的权重出发会帮助我们理解LISTING中评分的权重。
 
权重因素:
1.Easy Graders 易给高评分者
2.Overrepresented participation 过度参与的群组
3.Reviews on high volume days 在评论集中日评论
4.One-Hit Wonders 一次性评论者
5.Substantial repeated phrases 大量重复短语
6.Brand Loyalists 品牌粉丝
7.Brand Monogamists 品牌铁杆粉
8.Incentivized reviews 带鼓励性质的评论
9.Brand Repeaters 品牌重复购买者
10.Take-Back Reviewers 被删过评的用户
11.Unverified purchases 未认证购买
12.Overrepresented word counts 评论字数过度参与组
13.Substantial overlapping history 交叉购买记录
14.Never-Verified Reviewers 黑号
15.Same-Day Reviewers 都在一天留评用户
 
One-Hit Wonders 一次性评论者:
 
这些账户写了一篇评论,这意味着这些账户只评论了某个产品。无偏见的评论者往往是一个网站的长期成员,他们一般不会只针对某个产品做出评论。如果某个产品有过多的一次性评论者,可以表明有操作评论的嫌疑。虽然有许多原因可能会导致某个产品中一次性评论者,但有几个常见的原因包括:假号、或以某种方式诱导不写评论的人群留评。
 
Take-Back Reviewers 被删过评的用户:
 
包括在历史记录中有删除评论的评论者。这些评论者很可疑是因为评论内容很可能是由于违反服务条款而被亚马逊删除。评论者以前曾被抓到操纵评论,不确定他们是否已停止违反规则。
还有一些删评的原因:
1.买家自己想删除。
2.品牌联系到买家以删除评论-通常为负面评论。
3.Amazon认为其违反了规则,则可能会删除评论-通常是正面评论。
4.发布评论后,平台更改了规则导致删除。 例如,在亚马逊更新评论政策后,许多现有的诱导性评论被删除。 另一个例子是,亚马逊降低了每种产品的Vine评论上限,因此删除了许多超过该限制的Vine评论。
 
Single-Day Reviewers 一天评论买家:
 
在一天内发布了所有评论的买家被标记为一天评论买家。这些买家的账号存在疑问是因为他们没有像大多数人那样留评,也不排除心血来潮。
 
Substantial repeated phrases 大量重复短语:
 
如果使用重复短语的评论数量较多,则可能表明该评论不是自然创建的。 但是仍然有很多充分的理由说明重复出现一些短语,这些短语不一定表示评论有偏见。比如电子产品,很多买家都会提到产品的功能,这些词的重复是很正常的。 但是,如果有几位买家完全逐字地写了相同的营销语言或者主观性的词,则可能表明这些买家是枪手。
 
Overrepresented participation 过度参与的群组:
 
1.卖家通过礼物或其他方式让买家评论他们的产品。这会让平时不写评论的买家未为产品写评论,从而导致少留评记录的买家群体过多。
2.卖家找服务商刷,这将导致买家的结构异常。
 
以上是Review权重的影响因素,还有一些解释。网站的内容都是英文,我简单的翻译了一下,如果还存在某些概念的不解可以留评提问,如果好奇关于权重的一些计算方式那么我会找时间翻译一些其他内容。
 
影响权重的不仅仅是买家的账号,还有LISTING下评论的结构,包括句子、上评日期等。
更多的内容可以参考这个网站:reviewmeta.com
 
4.27更新
 
评论词数比较(其中一个维度)
 
通过算法可以发现买家操纵评论的痕迹。首先进行每一篇评论的词数比较,进而识别出不符合常规的内容。尽管买家评论的内容不受个人偏见的影响,但通过这个算法来分析所有评论中的次数可以得出某些评论数组的异常情况,从而辨别出哪些评论内容是虚假的。
 
正常情况下评论的词数是完全随机的,所以在LISTING下的评论应该是处于一个合理的词数分布:有的长,有的短,有的介于两者之间。如果我们看到比正常情况下大很多比例的词数组,那么就有操纵评论的嫌疑。
 
首先将产品的每一个评论放到一个词数组。比如,一篇23字的评论属于“21-25字统计组”,一篇109字的评论属于“101-125字统计组”,一篇600字的评论属于“201+字统计组”。从字数定义我们的评论词数组,仅仅一个产品的词数分布并不能给我们有效的回答,进而需要比较产品类目的所有评论的词数分布作为一个预期分布,最后进行比较。
 
一旦我们得到了产品的词数分布和类目的预期词数分布。我们通过比较这两个分布并找到产品的词数分布远高于类目的预期词数分布的组。对于每一个数量较多的评论词数组进行显著性检验,确保数据不受随机因素或其他因素的影响,最终去判断这个词数组的真实情况。如果一个产品没那么多的评论,我们就通过其他维度去避免随机因素的影响。但如果这些词数组的差异在统计学是显著的,就是不符合假设,就将此组标记为占比过多词数组。(用线性回归和概率论去计算的逻辑)
 
有很多合理的解释去解释为什么一个产品会有一个词数组分布不符合期望的词数组分布。比如一个产品的争议性很高或者用起来很复杂,那么它在201+词数范围会有很多评论。或者有些产品设计的很简单,用起来也很简单,那么在50以下词数范围会有很多评论,就说USB数据线,能写啥,这线又长又细?你看这头又方又正?
 
这就是为什么要将产品的词数分布和类目的预期词数分布进行比较,而不是分析LISTING上的每个评论。不同产品的预期词数分布都有很大的差异,所以要为每一类产品建立不同的预期模型对应其类目的产品。
 
如果有产品不符合假设的词数组,这里面肯定是有人为干预的因素。这些因素其实无法判断是Postive还是Negative,但这些因素会造成评分出现偏差:
 
1.买家叫粉丝来写,或者给礼物。那么为了要礼物的大多会随便写,那么在低词数组会出现一个峰值。
 
2.买家组织“专业评论的人”写又长又详细看起来很诚实的评论,这会导致在较长的词数组出现一个峰值。
 
3.刷单。无论自己的号还是中介,都会在数据上出现问题。典型的人工评论会一次又一次使用某几个词,有的为了节省时间就写那么几个词,这些行为在数据上都会出现异常情况。
 
最后,报告会挑出LISTING中不合理的词数组,如果超出了模型的预期,那么会标记为Unnatural。此外,如果LISTING中词数组很多,那么可以比较某个组的平均评分和其他组的平均评分,如果评分的差异不具备统计学意义或者说超出了合理范围,那么这个LISTING组的评论可信度是非常低的。
 
4.28更新
 
(刀在厨子手里是厨具,在军人手里是武器,对于婴儿来说,刀没有任何用处。)
 
包含重复短语的评论(其中一个维度)
 
判断Review真实性的方法之一是分析LISTING中每个评论使用的短语。首先要意识到我们很难从单个评论的短语得出任何结论,但我们能汇总所有评论中的短语,然后去帮我们确认哪些评论是可能有问题的。
 
重复短语测试的过程比其他测试要复杂一些,首先要为一个既定的产品编辑一个曾在多个评论中使用的短语列表,其次再去确认哪些评论包含了这些短语,最后将他们的平均评分和不包含这些短语的评论的平均评分进行比较。
 
在编辑重复短语列表的方面,我们首先要找到一个LISTING下多个不同评论中出现3个及以上单词组成的短语,另外设置一个公式确保内容的实质性。比如三个字的短语'it was the'不具备任何意义,但'excelled all expectances'是具备实质性的。公式考虑了短语的长度、复杂性和所用单词的类型,确保列表中的每个短语不是日常英语中常用的哪些介词、不定冠词和代词之类的。
 
一旦我们有了重复短语的列表,那么就要检查每一个评论,看看他们是否(以及频率)使用这些短语。我们给每个评论一个权重,从词数、重复短语数量和短语的实质性方面入手。低分表示该评论中很少或没有使用重复短语,超过某个分值的评论会被标记为使用重复短语。
 
如果有很多评论使用某个重复短语,这些评论可能会是有问题的。首先对某些重复短语的使用是很正常的,不能直接说明问题,具体的内容还是要根据自己的判断。比如,我们经常看到买家提到某个产品的功能,这很正常,这是编写一条详细评论的必备内容。但是,如果一群买家一字不差的完全重复使用某种营销短语或主观性语言,那么这些评论是有人为操纵的嫌疑的。
 
为了确定这些评论的属性,我们要将所有带有重复短语的评论分组并确定它们的总体百分比。如果看到有一部分的评论中有重复短语,那并不会马上判定为是有问题的,但过多的评论是会引起嫌疑的。接下来,我们要去对比有重复短语的评论是否比没有重复短语的评论有更高的平均评分,如果有,我们就要检验这个差异是否符合原假设。可以通过一个公式来计算数据,这个公式包含了总评分和重复短语评分的差异,通过数学模型去判断这种差异的合理性。如果有重复词评论的评分比没用重复词的评分高很多,且不符合原假设,那么可以认为这个重复词组的评分是有人为操纵的嫌疑的。(显著性检验)
已邀请:
老菜鸟表示操作过很多“运营技巧”,在解决供应链和物流链的基础上,发现还是暴力推广来得实用高效

要回复问题请先登录注册

x 点击咨询