狠狠色丁香婷婷综合尤物/久久精品综合一区二区三区/中国有色金属学报/国产日韩欧美在线观看 - 国产一区二区三区四区五区tv

LOGO OA教程 ERP教程 模切知識交流 PMS教程 CRM教程 開發文檔 其他文檔  
 
網站管理員

C#簡化工作之實現網頁爬蟲獲取數據

freeflydom
2023年11月28日 15:51 本文熱度 633

1、需求

想要獲取網站上所有的氣象信息,網站如下所示:

目前總共有67頁,隨便點開一個如下所示:

需要獲取所有天氣數據,如果靠一個個點開再一個個復制粘貼那么也不知道什么時候才能完成,這個時候就可以使用C#來實現網頁爬蟲獲取這些數據。

2、效果

先來看下實現的效果,所有數據都已存入數據庫中,如下所示:

總共有4萬多條數據。

3、具體實現

構建每一頁的URL

第一頁的網址如下所示:

最后一頁的網址如下所示:

可以發現是有規律的,那么就可以先嘗試構建出每個頁面的URL

    // 發送 GET 請求
   string url = "https://cj.msa.gov.cn/xxgk/xxgkml/aqxx/qxyg/";
   HttpResponseMessage response = await httpClient.GetAsync(url);

   // 處理響應
   if (response.IsSuccessStatusCode)
   {
       string responseBody = await response.Content.ReadAsStringAsync();
       doc.LoadHtml(responseBody);
       //獲取需要的數據所在的節點
       var node = doc.DocumentNode.selectSingleNode("//div[@class=\"page\"]/script");
       string rawText = node.InnerText.Trim();
       // 使用正則表達式來匹配頁數數據
       Regex regex = new Regex(@"\b(\d+)\b");
       Match match = regex.Match(rawText);
       if (match.Success)
       {
           string pageNumber = match.Groups[1].Value;
           Urls = GetUrls(Convert.ToInt32(pageNumber));
           MessageBox.Show($"獲取每個頁面的URL成功,總頁面數為:{Urls.Length}");
       }

   }

//構造每一頁的URL
public string[] GetUrls(int pageNumber)
{
    string[] urls = new string[pageNumber];
    for (int i = 0; i < urls.Length; i++)
    {
        if (i == 0)
        {
            urls[i] = "https://cj.msa.gov.cn/xxgk/xxgkml/aqxx/qxyg/index.shtml";
        }
        else
        {
            urls[i] = $"https://cj.msa.gov.cn/xxgk/xxgkml/aqxx/qxyg/index_{i}.shtml";
        }
    }
    return urls;
}

這里使用了HtmlAgilityPack

HtmlAgilityPack(HAP)是一個用于處理HTML文檔的.NET庫。它允許你方便地從HTML文檔中提取信息,修改HTML結構,并執行其他HTML文檔相關的操作。HtmlAgilityPack 提供了一種靈活而強大的方式來解析和處理HTML,使得在.NET應用程序中進行網頁數據提取和處理變得更加容易。

 // 使用HtmlAgilityPack解析網頁內容
var doc = new HtmlAgilityPack.HtmlDocument();
doc.LoadHtml("需要解析的Html");
//獲取需要的數據所在的節點
var node = doc.DocumentNode.selectSingleNode("XPath");

那么XPath是什么呢?

XPath(XML Path Language)是一種用于在XML文檔中定位和選擇節點的語言。它是W3C(World Wide Web Consortium)的標準,通常用于在XML文檔中執行查詢操作。XPath提供了一種簡潔而強大的方式來導航和操作XML文檔的內容。

構建每一天的URL

獲取到了每一頁的URL之后,我們發現在每一頁的URL都可以獲取關于每一天的URL信息,如下所示:

可以進一步構建每一天的URL,同時可以根據a的文本獲取時間,當然也可以通過其他方式獲取時間,但是這種可以獲取到11點或者17點。

代碼如下所示:

    for (int i = 0; i < Urls.Length; i++)
   {
       // 發送 GET 請求
       string url2 = Urls[i];
       HttpResponseMessage response2 = await httpClient.GetAsync(url2);
       // 處理響應
       if (response2.IsSuccessStatusCode)
       {
           string responseBody2 = await response2.Content.ReadAsStringAsync();
           doc.LoadHtml(responseBody2);
           var nodes = doc.DocumentNode.selectNodes("//div[@class=\"lie\"]/ul/li");
           for (int j = 0; j < nodes.Count; j++)
           {
               var name = nodes[j].ChildNodes[3].InnerText;
               //只有name符合下面的格式才能成功轉換為時間,所以這里需要有一個判斷
               if (name != "" && name.Contains("氣象預告"))
               {
                   var dayUrl = new DayUrl();
                   //string format;
                   //DateTime date;
                   // 定義日期時間格式
                   string format = "yyyy年M月d日H點氣象預告";
                   // 解析字符串為DateTime
                   DateTime date = DateTime.ParseExact(name, format, null);
                   var a = nodes[j].ChildNodes[3];
                   string urlText = a.GetAttributeValue("href", "");
                   string newValue = "https://cj.msa.gov.cn/xxgk/xxgkml/aqxx/qxyg/";
                   string realUrl = "";
                   realUrl = newValue + urlText.Substring(1);
                   dayUrl.Date = date;
                   dayUrl.Url = realUrl;
                   dayUrlList.Add(dayUrl);
               }
               else
               {
                   Debug.WriteLine($"在{name}處,判斷不符合要求");
               }

           }
       }
   }
   // 將數據存入SQLite數據庫
   db.insertable(dayUrlList.OrderBy(x => x.Date).ToList()).executeCommand();
   MessageBox.Show($"獲取每天的URL成功,共有{dayUrlList.Count}條");
}

在這一步驟需要注意的是XPath的書寫,以及每一天URL的構建,以及時間的獲取。

XPath的書寫:

 var nodes = doc.DocumentNode.selectNodes("//div[@class=\"lie\"]/ul/li");

表示一個類名為"lie"的div下的ul標簽下的所有li標簽,如下所示:

構建每一天的URL:

 var a = nodes[j].ChildNodes[3];
string urlText = a.GetAttributeValue("href", "");
string newValue = "https://cj.msa.gov.cn/xxgk/xxgkml/aqxx/qxyg/";
string realUrl = "";
realUrl = newValue + urlText.Substring(1);

這里獲取li標簽下的a標簽,如下所示:

string urlText = a.GetAttributeValue("href", "");

這段代碼獲取a標簽中href屬性的值,這里是./202311/t20231127_3103490.shtml。

 string urlText = a.GetAttributeValue("href", "");
string newValue = "https://cj.msa.gov.cn/xxgk/xxgkml/aqxx/qxyg/";
string realUrl =  newValue + urlText.Substring(1);

這里是在拼接每一天的URL。

var name = nodes[j].ChildNodes[3].InnerText;
// 定義日期時間格式
string format = "yyyy年M月d日H點氣象預告";
// 解析字符串為DateTime
DateTime date = DateTime.ParseExact(name, format, null);

這里是從文本中獲取時間,比如文本的值也就是name的值為:“2023年7月15日17點氣象預告”,name獲得的date就是2023-7-15 17:00。

    // 將數據存入SQLite數據庫
   db.insertable(dayUrlList.OrderBy(x => x.Date).ToList()).executeCommand();
   MessageBox.Show($"獲取每天的URL成功,共有{dayUrlList.Count}條");

這里是將數據存入數據庫中,ORM使用的是SQLSugar,類DayUrl如下:

internal class DayUrl
{
   [SugarColumn(IsPrimaryKey = true, IsIdentity = true)]
   public int Id { get; set; }
   public DateTime Date { get; set; }
   public string Url { get; set; }
}

最后獲取每一天URL的效果如下所示:

獲取溫度數據

需要獲取的內容如下:

設計對應的類如下:

internal class WeatherData
{
   [SugarColumn(IsPrimaryKey = true, IsIdentity = true)]
   public int Id { get; set; }
   public string? StationName { get; set; }
   public string? Weather {  get; set; }
   public string? Tem_Low {  get; set; }
   public string? Tem_High { get; set; }
   public string? Wind {  get; set; }
   public string? Visibility_Low { get; set; }
   public string? Visibility_High { get; set; }
   public string? Fog { get; set; }
   public string? Haze { get; set; }
   public DateTime Date { get; set; }
}

增加了一個時間,方便以后根據時間獲取。

獲取溫度數據的代碼如下:

    var list = db.Queryable<DayUrl>().ToList();
   for (int i = 0; i < list.Count; i++)
   {
       HttpResponseMessage response = await httpClient.GetAsync(list[i].Url);
       // 處理響應
       if (response.IsSuccessStatusCode)
       {
           string responseBody2 = await response.Content.ReadAsStringAsync();
           doc.LoadHtml(responseBody2);
           var nodes = doc.DocumentNode.selectNodes("//table");
           if (nodes != null)
           {
               var table = nodes[5];
               var trs = table.selectNodes("tbody/tr");
               for (int j = 1; j < trs.Count; j++)
               {
                   var tds = trs[j].selectNodes("td");
                   switch (tds.Count)
                   {
                       case 8:
                           var wd8 = new WeatherData();
                   wd8.StationName = tds[0].InnerText.Trim().Replace("&nbsp;", "");
                           wd8.Weather = tds[1].InnerText.Trim().Replace("&nbsp;", "");
                           wd8.Tem_Low = tds[2].InnerText.Trim().Replace("&nbsp;", "");
                           wd8.Tem_High = tds[3].InnerText.Trim().Replace("&nbsp;", "");
                           wd8.Wind = tds[4].InnerText.Trim().Replace("&nbsp;", "");
                           wd8.Visibility_Low = tds[5].InnerText.Trim().Replace("&nbsp;", "");
                           wd8.Visibility_High = tds[6].InnerText.Trim().Replace("&nbsp;", "");
                           wd8.Fog = tds[7].InnerText.Trim().Replace("&nbsp;", "");
                           wd8.Date = list[i].Date;
                           weatherDataList.Add(wd8);
                           break;
                       case 9:
                           var wd9 = new WeatherData();
                           wd9.StationName = tds[0].InnerText.Trim().Replace("&nbsp;", "");
                           wd9.Weather = tds[1].InnerText.Trim().Replace("&nbsp;", "");
                           wd9.Tem_Low = tds[2].InnerText.Trim().Replace("&nbsp;", "");
                           wd9.Tem_High = tds[3].InnerText.Trim().Replace("&nbsp;", "");
                           wd9.Wind = tds[4].InnerText.Trim().Replace("&nbsp;", "");
                           wd9.Visibility_Low = tds[5].InnerText.Trim().Replace("&nbsp;", "");
                           wd9.Visibility_High = tds[6].InnerText.Trim().Replace("&nbsp;", "");
                           wd9.Fog = tds[7].InnerText.Trim().Replace("&nbsp;", "");
                           wd9.Haze = tds[8].InnerText.Trim().Replace("&nbsp;", "");
                           wd9.Date = list[i].Date;
                           weatherDataList.Add(wd9);
                           break;
                       default:
                           break;
                   }


               }
           }
           else
           {
               
             
           }
       }
       // 輸出進度提示
       Debug.WriteLine($"已處理完成第{i}個URL");
   }
   // 將數據存入SQLite數據庫
   db.insertable(weatherDataList.OrderBy(x => x.Date).ToList()).executeCommand();
   MessageBox.Show($"獲取天氣數據成功,共有{weatherDataList.Count}條");

}

這里使用swith case是因為網頁的格式并不是一層不變的,有時候少了一列,沒有霾的數據。

 wd9.StationName = tds[0].InnerText.Trim().Replace("&nbsp;", "");

這里對文本進行這樣處理是因為原始的數據是“\n內容&nbsp\n”,C#中String.Trim()方法會刪除字符串前后的空白,string.Replace("a","b")方法會將字符串中的a換成b。

效果如下所示:

將數據全部都存入數據庫中了。

4、最后

通過這個實例說明了其實C#也是可以實現網頁爬蟲的,對于沒有反爬的情況下是完全適用的,再配合linq做數據處理也是可以的。


作者:mingupupup

原文鏈接:https://www.cnblogs.com/mingupupu/p/17860491.html


該文章在 2023/11/28 15:51:32 編輯過
關鍵字查詢
相關文章
正在查詢...
點晴ERP是一款針對中小制造業的專業生產管理軟件系統,系統成熟度和易用性得到了國內大量中小企業的青睞。
點晴PMS碼頭管理系統主要針對港口碼頭集裝箱與散貨日常運作、調度、堆場、車隊、財務費用、相關報表等業務管理,結合碼頭的業務特點,圍繞調度、堆場作業而開發的。集技術的先進性、管理的有效性于一體,是物流碼頭及其他港口類企業的高效ERP管理信息系統。
點晴WMS倉儲管理系統提供了貨物產品管理,銷售管理,采購管理,倉儲管理,倉庫管理,保質期管理,貨位管理,庫位管理,生產管理,WMS管理系統,標簽打印,條形碼,二維碼管理,批號管理軟件。
點晴免費OA是一款軟件和通用服務都免費,不限功能、不限時間、不限用戶的免費OA協同辦公管理系統。
Copyright 2010-2025 ClickSun All Rights Reserved