文章紧张是利用requests,爬取500彩票网的大乐透数据(注:偶尔娱乐一下),然后利用csv写入表格文件,让大家对爬虫的过程进行大略的理解,废话不多说,直接上代码。
# -- coding: UTF-8 --
import requests #引入,安装直接命令行pip install requests
from bs4 import BeautifulSoup as bs
from collections import Counter
import csv
import os
# 发起要求
lst=[]
#获取url ,如何获取,另文先容
url = 39;http://datachart.500.com/dlt/history/newinc/history.php?start=07001'
#得到数据
data = requests.get(url).text
#解析
data = bs(data,'lxml')
data = data.find('tbody').find_all('tr')
for content in data:
row_tds = content.find_all('td')
lst.append([row_tds[14].string,row_tds[0].string,row_tds[1].string,row_tds[2].string,row_td s[3].string,row_tds[4].string,row_tds[5].string,row_tds[6].string,row_tds[7].string])
#写入表格
with open("Lottery_data.csv",'w') as csvfile:
writer = csv.writer(csvfile)
writer.writerow(['日期','期号','红球1', '红球2', '红球3', '红球4', '红球5', '蓝球1', '蓝球2'])
writer.writerows(lst)
csvfile.close()
复制实行一下吧,原来python这么大略,是不是小有造诣感,关注不走失落,带你更多的理解python。