一个实用的C#网页抓取类代码分享
标签:express 创建 ges etc containe options 命令 导入 iter
一个实用的C# 网页抓取类 模拟蜘蛛,类中定义了超多的C#采集文章、网页抓取文章的基础技巧,下面分享代码:
using System;
using System.Data;
using System.Configuration;
using System.Net;
using System.IO;
using System.Text;
using System.Collections.Generic;
using System.Text.RegularExpressions;
using System.Threading;
using System.Web;
namespace MyWebPage
{
public class Link
{
public string Text
{
get;
set;
}
public string NavigateUrl
{
get;
set;
}
}
///
/// 网页类
///
public class WebPage
{
#region 私有成员
private Uri m_uri; //url
private List m_links=new List(); //此网页上的链接
private string m_title=""; //标题
private string m_html=""; //HTML代码
private string m_outstr=""; //网页可输出的纯文本
private bool m_good; //网页是否可用
private int m_pagesize; //网页的大小
private static Dictionary webcookies = new Dictionary();//存放所有网页的Cookie
#endregion
#region 属性
///
/// 通过此属性可获得本网页的网址,只读
///
public string URL
{
get
{
return m_uri.AbsoluteUri;
}
}
///
/// 通过此属性可获得本网页的标题,只读
///
public string Title
{
get
{
if (m_title == "")
{
Regex reg = new Regex(@"(?m)]*>(?(?:\w|\W)*?)[^>]*>", RegexOptions.Multiline | RegexOptions.IgnoreCase);
Match mc = reg.Match(m_html);
if (mc.Success)
m_title = mc.Groups["title"].Value.Trim();
}
return m_title;
}
}
public string M_html
{
get
{
if (m_html == null)
{
m_html = "";
}
return m_html;
}
}
///
/// 此属性获得本网页的所有链接信息,只读
///
public List Links
{
get
{
if (m_links.Count == 0) getLinks();
return m_links;
}
}
///
/// 此属性返回本网页的全部纯文本信息,只读
///
public string Context
{
get
{
if (m_outstr == "") getContext(Int16.MaxValue);
return m_outstr;
}
}
///
/// 此属性获得本网页的大小
///
public int PageSize
{
get
{
return m_pagesize;
}
}
///
/// 此属性获得本网页的所有站内链接
///
public List InsiteLinks
{
get
{
return getSpecialLinksByUrl("^http://" + m_uri.Host, Int16.MaxValue);
}
}
///
/// 此属性表示本网页是否可用
///
public bool IsGood
{
get
{
return m_good;
}
}
///
/// 此属性表示网页的所在的网站
///
public string Host
{
get
{
return m_uri.Host;
}
}
#endregion
///
/// 从HTML代码中分析出链接信息
///
/// List
private List getLinks()
{
if (m_links.Count == 0)
{
Regex[] regex = new Regex[2];
regex[0] = new Regex(@"[^""]*).*?>(?[^([^>\"‘\\s)])+)(\"|‘)?[^>]*>", RegexOptions.IgnoreCase);
for (int i = 0; i ]+>)|(\\s)|(?)|&|\"", RegexOptions.Multiline | RegexOptions.IgnoreCase).Replace(match.Groups["text"].Value, "");
Link link = new Link();
link.Text = text;
link.NavigateUrl = url;
m_links.Add(link);
}
catch (Exception ex) { Console.WriteLine(ex.Message); };
match = match.NextMatch();
}
}
}
return m_links;
}
///
/// 此私有方法从一段HTML文本中提取出一定字数的纯文本
///
/// HTML代码
/// 提取从头数多少个字
/// 是否要链接里面的字
/// 纯文本
private string getFirstNchar(string instr, int firstN, bool withLink)
{
if (m_outstr == "")
{
m_outstr = instr.Clone() as string;
m_outstr = new Regex(@"(?m)[^>]*>", RegexOptions.Multiline | RegexOptions.IgnoreCase).Replace(m_outstr, "");
m_outstr = new Regex(@"(?m)[^>]*>", RegexOptions.Multiline | RegexOptions.IgnoreCase).Replace(m_outstr, "");
m_outstr = new Regex(@"(?m)[^>]*>", RegexOptions.Multiline | RegexOptions.IgnoreCase).Replace(m_outstr, "");
if (!withLink) m_outstr = new Regex(@"(?m)]*>(\w|\W)*?]*>", RegexOptions.Multiline | RegexOptions.IgnoreCase).Replace(m_outstr, "");
Regex objReg = new System.Text.RegularExpressions.Regex("(]+?>)|?", RegexOptions.Multiline | RegexOptions.IgnoreCase);
m_outstr = objReg.Replace(m_outstr, "");
Regex objReg2 = new System.Text.RegularExpressions.Regex("(\\s)+", RegexOptions.Multiline | RegexOptions.IgnoreCase);
m_outstr = objReg2.Replace(m_outstr, " ");
}
return m_outstr.Length > firstN ? m_outstr.Substring(0, firstN) : m_outstr;
}
#region 公有文法
///
/// 此公有方法提取网页中一定字数的纯文本,包括链接文字
///
/// 字数
///
public string getContext(int firstN)
{
return getFirstNchar(m_html, firstN, true);
}
///
/// 此公有方法从本网页的链接中提取一定数量的链接,该链接的URL满足某正则式
///
/// 正则式
/// 返回的链接的个数
/// List
public List getSpecialLinksByUrl(string pattern, int count)
{
if (m_links.Count == 0) getLinks();
List SpecialLinks = new List();
List.Enumerator i;
i = m_links.GetEnumerator();
int cnt = 0;
while (i.MoveNext() && cnt
/// 此公有方法从本网页的链接中提取一定数量的链接,该链接的文字满足某正则式
///
/// 正则式
/// 返回的链接的个数
/// List
public List getSpecialLinksByText(string pattern, int count)
{
if (m_links.Count == 0) getLinks();
List SpecialLinks = new List();
List.Enumerator i;
i = m_links.GetEnumerator();
int cnt = 0;
while (i.MoveNext() && cnt
/// 这公有方法提取本网页的纯文本中满足某正则式的文字
///
/// 正则式
/// 返回文字
public string getSpecialWords(string pattern)
{
if (m_outstr == "") getContext(Int16.MaxValue);
Regex regex = new Regex(pattern, RegexOptions.Multiline | RegexOptions.IgnoreCase);
Match mc = regex.Match(m_outstr);
if (mc.Success)
return mc.Groups[1].Value;
return string.Empty;
}
#endregion
#region 构造函数
private void Init(string _url)
{
try
{
m_uri = new Uri(_url);
m_links = new List();
m_html = "";
m_outstr = "";
m_title = "";
m_good = true;
if (_url.EndsWith(".rar") || _url.EndsWith(".dat") || _url.EndsWith(".msi"))
{
m_good = false;
return;
}
HttpWebRequest rqst = (HttpWebRequest)WebRequest.Create(m_uri);
rqst.AllowAutoRedirect = true;
rqst.MaximumAutomaticRedirections = 3;
rqst.UserAgent = "Mozilla/4.0 (compatible; MSIE 5.01; Windows NT 5.0)";
rqst.KeepAlive = true;
rqst.Timeout = 10000;
lock (WebPage.webcookies)
{
if (WebPage.webcookies.ContainsKey(m_uri.Host))
rqst.CookieContainer = WebPage.webcookies[m_uri.Host];
else
{
CookieContainer cc = new CookieContainer();
WebPage.webcookies[m_uri.Host] = cc;
rqst.CookieContainer = cc;
}
}
HttpWebResponse rsps = (HttpWebResponse)rqst.GetResponse();
Stream sm = rsps.GetResponseStream();
if (!rsps.ContentType.ToLower().StartsWith("text/") || rsps.ContentLength > 1 [^=]+)?\"", RegexOptions.IgnoreCase);
string strcding = regex.Match(m_html).Groups["cding"].Value;
try
{
cding = Encoding.GetEncoding(strcding);
}
catch
{
cding = Encoding.Default;
}
byte[] bytes = Encoding.Default.GetBytes(m_html.ToCharArray());
m_html = cding.GetString(bytes);
if (m_html.Split(‘?‘).Length > 100)
{
m_html = Encoding.Default.GetString(bytes);
}
}
m_pagesize = m_html.Length;
m_uri = rsps.ResponseUri;
rsps.Close();
}
catch (Exception ex)
{
}
}
public WebPage(string _url)
{
string uurl = "";
try
{
uurl = Uri.UnescapeDataString(_url);
_url = uurl;
}
catch { };
Init(_url);
}
#endregion
}
///
/// 主程序编写作者:大黑
/// (WebPage类编写者另有其人,类Link的定义在他博文的留言区,这是他的博文地址http://blog.csdn.net/yysyangyangyangshan/article/details/6661886)
/// 描述:由C#编写的多线程异步抓取网页的网络爬虫控制台程序
/// 功能:目前只能提取网络链接,所用的两个记录文件并不需要很大。网页文本、图片、视频和html代码暂时不能抓取,请见谅。
/// 但需要注意,网页的数目是非常庞大的,如下代码理论上大概可以把整个互联网网页链接都抓下来。
/// 但事实上,由于处理器功能和网络条件(主要是网速)限制,一般的家用电脑最多能胜任12个线程左右的抓取任务,抓取速度有限。可以抓取,但需要时间和耐心。
/// 当然,这个程序把所有链接抓下来是可能的,因为链接占系统空间并不多,而且有记录文件的帮助,已抓取网页的数量可以堆积下去,
/// 甚至可以把所有的互联网网络链接都存取下来,当然,最好是分批次。建议设置maxNum为500-1000左右,慢慢累积下去。
/// 另外因为是控制台程序,有时候显示字符过多会系统会暂停显示,这时候只要点击控制台按下回车键就可以了。程序假死的时候,可以按回车键(Enter)试试。
/// 使用本程序,请确保已创建相应的记录文件,出于简化代码的考虑,本程序做的并不健壮,请见谅。
/// 默认的文件创建在E盘根目录“已抓取网址.txt”和“待抓取网址.txt”这两个文本文件中,使用者需要自行创建这两个文件,注意后缀名不要搞错。
/// 这两个文件里面的链接基本都是有效链接,可以单独处理使用。
/// 本爬虫程序的速度如下:
/// 10线程最快大概400个链接每分钟
/// 6-8线程最快大概200-300个链接每分钟
/// 2-4线程最快大概150-200个链接每分钟
/// 单线程最快大概70-100个链接每分钟
/// 之所以用多线程异步抓取完全是出于效率考虑,本程序多线程同步并不能带来速度的提升,只要抓取的网页不要太多重复和冗余就可以,异步并不意味着错误。
///
class Program
{
//默认的种子网址,可以改动。尽量保持不同的网址,可以提高效率。
//另外注意改的时候“,”符号要注意,别改错了,要英文逗号。
//默认是3线程3个种子网址,最多12线程12个网址,如果要12个以上,可以自己在后面添加。线程设定为12个以上时,必须添加网址,不然会出错
//每个网址对应一个线程,即6线程对应6网址,12线程对应12网址,改默认值的时候要注意parts和数组linkArray的对应关系。
//实测当CPU是i5处理器时,最多运行8-10线程,会伴有严重的卡顿。线程数越高,对CPU要求越高。一般CPU 2-4线程就可以。
static string[] linkArray = {"http://www.163.com/","http://www.sohu.com/","http://www.srcfans.com"};
//设定存放已抓取网址列表的文件路径
static string urlCapturedDir = @"E:\已抓取网址.txt";
//设定存放未抓取网址列表的文件路径
static string myLinkDir = @"E:\待抓取网址.txt";
//同时抓取网址的线程数
private static int parts=4;
//目前抓取的网页数量
private static int count=0;
//设定的最多抓取网页的数量
private static int maxNum=2000;
//待抓取的网址链表
private static List myLink=new List();
//已抓取的网址链表
private static List urlCaptured=new List();
//用于临时存放待抓取的某一个网址
private static string strLink = "";
public Program(string link)
{
myLink.Add(link);
}
public void doWork()
{
Console.WriteLine("working...");
while ((myLink.Count != 0) && (count links)
{
foreach(string s in links)
{
Console.WriteLine(s);
}
}
static void Main(string[] args)
{
//string seedUrl = "http://www.srcfans.com/";
//WebPage webInfo = new WebPage(seedUrl);
//Console.WriteLine( webInfo.Context);//不包含html标签的所有内容
//Console.WriteLine( webInfo.M_html);//包含html标签的内容
//urlCaptured.Add(seedUrl);
//读取已处理网址列表(urlCaptured)
string[] lines = System.IO.File.ReadAllLines(urlCapturedDir);
int urlCapturedIndex = 0;
foreach (string line in lines)
{
//if (!urlCaptured.Contains(line))
{
urlCaptured.Add(line);
urlCapturedIndex++;
if(urlCapturedIndex%2000==0)
{
Console.WriteLine("已导入" + urlCapturedIndex + "项已抓取网址");
}
}
}
// 显示已抓取网址列表
Console.WriteLine("已读取已处理网址列表,共"+urlCaptured.Count+"条信息:");
//foreach (string line in urlCaptured)
//{
// Console.WriteLine(line);
//}
//Console.WriteLine("已处理网址列表显示完毕");
//未抓取网址初始化
string[] lines2 = System.IO.File.ReadAllLines(myLinkDir);
int myLinkIndex = 0;
foreach (string line in lines2)
{
//Contains方法太耗时
//if (!myLink.Contains(line))
{
myLink.Add(line);
myLinkIndex++;
if(myLinkIndex%2000==0)
{
Console.WriteLine("已导入" + myLinkIndex + "项待抓取网址");
}
}
}
// 显示未抓取网址列表
Console.WriteLine("已读取未抓取网址列表,共" + myLink.Count + "条信息:");
//foreach (string line in myLink)
//{
// Console.WriteLine(line);
//}
//Console.WriteLine("未抓取网址列表显示完毕");
System.Threading.Thread[] threads = new System.Threading.Thread[parts];
for (int i = 0; i temp_l = new List();
foreach (string str in urlCaptured)
{
if (!temp_l.Contains(str))
{
temp_l.Add(str);
}
else
{
Console.WriteLine("网址" + str + "重复");
}
}
Console.WriteLine("共有" + (urlCaptured.Count - temp_l.Count) + "项是重复网址");
urlCaptured = temp_l;
Console.WriteLine("已抓取网址写入文件...");
//对已抓取的网址进行排序
urlCaptured.Sort();
using (System.IO.StreamWriter file =
new System.IO.StreamWriter(urlCapturedDir))
{
foreach(string s in urlCaptured)
{
file.WriteLine(s);
}
}
Console.WriteLine("已抓取网址写入完成");
Console.WriteLine("待处理网址写入文件...");
myLink.Sort();
using (System.IO.StreamWriter file =
new System.IO.StreamWriter(myLinkDir))
{
foreach (string s in myLink)
{
file.WriteLine(s);
}
}
Console.WriteLine("待抓取网址写入完成");
//下面的句子表示保持显示当前控制台命令行,不然控制台会一闪而过
Console.WriteLine("按任意键退出...");
Console.ReadKey();
}
}
}
一个实用的C#网页抓取类代码分享
标签:express 创建 ges etc containe options 命令 导入 iter
原文地址:http://www.cnblogs.com/jianghuluanke/p/7533320.html
评论