搜索引擎核心算法是什么
搜索引擎核心算法是获得网站网页资料,建立数据库并提供查询的系统。
索引擎的数据库是依靠一个叫“网络机器人(crawlers)”或叫“网络蜘蛛(Spider)”的软件,它通过网络上的各种链接自动获取大量的网页信息内容,并按照一定的规则进行分析和组织。谷歌和百度是典型的搜索引擎系统。
为了更好地服务于web搜索,搜索引擎分析和排序规则也就是说,搜索引擎算法正在发生变化。由于互联网上无数的网站页面,搜索引擎蜘蛛无法将所有网页下载并保存到服务器上。
因此,许多搜索引擎蜘蛛只抓取那些重要的页面,而评估爬行重要性的主要依据是链接宽度(以及外部链接的数量和质量)。
扩展资料:
搜索引擎核心算法的优化:
1、在搜索前,根据条件降低搜索规模。
2、广度优先搜索中,被处理过的节点,充分释放空间。
3、给据问题的约束条件进行剪枝。
4、利用回溯算法进行优化:回溯和深度优先是相似的,区别在于当一个节点被扩展时,不是所有的子节点都被扩展,而是只有一个子节点被扩展。所以它是盲的,但占用的内存更少。
参考资料来源:百度百科-搜索算法
参考资料来源:百度百科-搜索引擎算法
上一篇:百度的反spam很强大
下一篇:五金调机是什么意思
多重随机标签