看了数百个站点进行比较。他们从哪里得到这些网站?过去的客户?那么他们可能会偏向于对 SEO 友好的网站,而不是反映整个网络。点击流数据?然后他们会偏向流行的网站和页面——再一次,不能反映整个网络!从一个不好的样本开始会保证不好的结果。不过,情况会变得更糟。像 Moz 这样的索引会报告我们的总统计数据(我们索引中的链接数或域数)。然而,这可能会产生极大的误导。想象一家餐厅声称拥有世界上最多的葡萄酒选择,拥有超过 1,000,000 瓶葡萄酒。他们可以提出这样的要求,但如果他们实际上
有 1,000,000 瓶相同类型的葡萄酒,或者只有赤霞珠,或半瓶葡萄酒,那就没有用了。当你只是抛出大数字时很容易误导。取而代之的是,从世界各地随机选择葡萄酒并衡量该餐厅是否有库存以及有多少库存会更好。只有这样你才能很好 客户名单 地衡量他们的库存。测量链接索引也是如此——这是我的方法论背后的理论。不幸的是,事实证明,获取网络的随机样本真的很难。在 Moz,我们大多数人的第一个直觉就是随机抽取我们自己索引中的 URL 样本。当然我们不能——这会使样本偏向我们自己的索引,所以我们放弃了这个想法。
下一个想法是:“我们从我们收集的 SERP 中知道所有这些 URL——也许我们可以使用这些。”但我们知道他们会偏向于更高质量的页面。大多数 URL 不为任何东西排名——放弃这个想法。是时候进行更深入的研究了。我启动了谷歌学术,看看是否有其他组织尝试过链接回收:工具、工具无处不在 随着时间的推移,每个链接构建者都开始缩小他们最喜欢的策略和技术。链接回收几乎是我的首选。根据我的经验,这是我们可以用来获得链接的最佳 ROI 活动之一,尤其是到主页的链接,仅仅是因为努力工作——“提