C#使用NSoup解析HTML的乱码解决

长平狐 发布于 2013/11/25 11:38
阅读 1K+
收藏 2

NSoup是JSoup的Net移植版本。使用方法基本一致。

如果项目涉及HTML的处理,强烈推荐NSoup,毕竟字符串截断太苦逼了。

下载地址:

http://nsoup.codeplex.com/

简单用法如下:

NSoup.Nodes.Document doc = NSoup.NSoupClient.Parse(HtmlString);

处理网络上的页面:

NSoup.Nodes.Document doc = NSoup.NSoupClient.Connect("http://www.cnblogs.com/htynkn/").Get();

但是遗憾的是NSoup默认的编码是UTF-8,处理中文有乱码(对于编码是UTF-8的自然不会有乱码,但是有些GB2312的就可能有乱码,谢谢 forhells的提醒)。

目前我找到两种解决办法:

1.下载网页源代码再处理

WebClient webClient = new WebClient();
String HtmlString=Encoding.GetEncoding("utf-8").GetString(webClient.DownloadData("http://www.cnblogs.com/htynkn/"));
NSoup.Nodes.Document doc = NSoup.NSoupClient.Parse(HtmlString);

2.获得网页的流

WebRequest webRequest=WebRequest.Create("http://www.cnblogs.com/htynkn/");
NSoup.Nodes.Document doc = NSoup.NSoupClient.Parse(webRequest.GetResponse().GetResponseStream(),"utf-8");

第二种用着比较方便,但是我觉得第一种比较合适,毕竟NSoup是个Html解析类,下载网页代码这种事情本来不应该交给它。


原文链接:http://www.cnblogs.com/htynkn/archive/2011/11/05/NSoup_luanma.html
加载中
0
benney
benney

嗯,这个方法不错,不过我们的网页全部都是GB2312的,处理完了之后还得再转回去

返回顶部
顶部