<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>网络爬虫 &#8211; moneyslow.com</title>
	<atom:link href="https://moneyslow.com/tag/%e7%bd%91%e7%bb%9c%e7%88%ac%e8%99%ab/feed" rel="self" type="application/rss+xml" />
	<link>https://moneyslow.com</link>
	<description>making money with technology</description>
	<lastBuildDate>Mon, 12 Jul 2021 11:49:53 +0000</lastBuildDate>
	<language>en-US</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.7.5</generator>
	<item>
		<title>10大网络爬虫工具</title>
		<link>https://moneyslow.com/10%e5%a4%a7%e7%bd%91%e7%bb%9c%e7%88%ac%e8%99%ab%e5%b7%a5%e5%85%b7.html</link>
		
		<dc:creator><![CDATA[Jkfkgnrk]]></dc:creator>
		<pubDate>Wed, 28 Oct 2015 05:51:23 +0000</pubDate>
				<category><![CDATA[newest]]></category>
		<category><![CDATA[Discuz]]></category>
		<category><![CDATA[linux]]></category>
		<category><![CDATA[mysql]]></category>
		<category><![CDATA[互联网技术]]></category>
		<category><![CDATA[网络爬虫]]></category>
		<guid isPermaLink="false">http://blog.a8z8.com/?p=1692</guid>

					<description><![CDATA[爬虫，即网络爬虫，是一种自动获取网页内容的程序。是搜索引擎的重要组成部分，因此搜索引擎优化很大程度上就是针对爬虫而做出的优化。 网络爬虫是一个自动提取网页的程序，它为搜索引擎从万维网上下载网页，是搜索引擎的重要组成。传统爬虫从一个或若干初始网页的URL开始，获得初始网页上的URL，在抓取网页的过程中，不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。聚焦爬虫的工作流程较为复杂，需要根据一定的网页分析算法过滤与主题无关的链接，保留有用的链接并将其放入等待抓取的URL队列。然后，它将根据一定的搜索策略从队列中选择下一步要抓取的网页URL，并重复上述过程，直到达到系统的某一条件时停止。另外，所有被爬虫抓取的网页将会被系统存贮，进行一定的分析、过滤，并建立索引，以便之后的查询和检索；对于聚焦爬虫来说，这一过程所得到的分析结果还可能对以后的抓取过程给出反馈和指导。 世界上已经成型的爬虫软件多达上百种，本文对较为知名及常见的开源爬虫软件进行梳理，按开发语言进行汇总。虽然搜索引擎也有爬虫，但本次我汇总的只是爬虫软件，而非大型、复杂的搜索引擎，因为很多兄弟只是想爬取数据，而非运营一个搜索引擎。 Java爬虫 1、Arachnid Arachnid是一个基于Java的web spider框架.它包含一个简单的HTML剖析器能够分析包含HTML内容的输入流.通过实现Arachnid的子类就能够开发一个简单的Web spiders并能够在Web站上的每个页面被解析之后增加几行代码调用。 Arachnid的下载包中包含两个spider应用程序例子用于演示如何使用该框架。 特点：微型爬虫框架，含有一个小型HTML解析器 许可证：GPL 2、crawlzilla crawlzilla 是一个帮你轻松建立搜索引擎的自由软件，有了它，你就不用依靠商业公司的搜索引擎，也不用再烦恼公司內部网站资料索引的问题。 由 nutch 专案为核心，并整合更多相关套件，并卡发设计安装与管理UI，让使用者更方便上手。 crawlzilla 除了爬取基本的 html 外，还能分析网页上的文件，如（ doc、pdf、ppt、ooo、rss ）等多种文件格式，让你的搜索引擎不只是网页搜索引擎，而是网站的完整资料索引库。 拥有中文分词能力，让你的搜索更精准。 crawlzilla的特色与目标，最主要就是提供使用者一个方便好用易安裝的搜索平台。 授权协议： Apache License 2 开发语言： Java JavaScript SHELL 操作系统： Linux 项目主页： https://github.com/shunfa/crawlzilla 下载地址： http://sourceforge.net/projects/crawlzilla/ 特点：安装简易，拥有中文分词功能 3、Ex-Crawler Ex-Crawler 是一个网页爬虫，采用 Java 开发，该项目分成两部分，一个是守护进程，另外一个是灵活可配置的 Web 爬虫。使用数据库存储网页信息。 授权协议： GPLv3 开发语言： Java 操作系统： 跨平台 特点：由守护进程执行，使用数据库存储网页信息 4、Heritrix [&#8230;]]]></description>
		
		
		
			</item>
	</channel>
</rss>
