剑客
关注科技互联网

python 爬虫更新日期维度表中的节假日

我以前的一篇文章介绍了怎么初始化数据仓库中的日期维度表

https://ask.hellobi.com/blog/bailin0007/4773

但是有个缺陷就是里面有两个字段:节假日名称和是否放假是空着的。

python 爬虫更新日期维度表中的节假日

这就带来了很多不便,比如用户想对比最近5年每年七夕和情人节的销售情况,或者统计全部法定假日的信息。难道还要去看哪年哪些日子是法定假日? 本文将介绍用python爬虫去网上爬取节假日信息更新日期维度表, 附件有维度表的excel,下载后导入数据库就能用 。最终效果

python 爬虫更新日期维度表中的节假日

由于是自学的python(恨当初双11没买天善的python教程!)代码写得很丑,效率就更谈不上,只能说是实现了功能。抛砖引玉, 欢迎python老司机指教

去这个网站爬取法定假日信息

python 爬虫更新日期维度表中的节假日

代码:

#coding:utf-8

import requests

import re

import sys

import cx_Oracle

reload(sys)

sys.setdefaultencoding('utf8')

class spider(object):

      def __init__(self):

        print u'开始爬取...'



      #获取网页源码

      def getSource(self,url):

        html = requests.get(url)

        return html.text

       #改变url实现抓取12~16年的假日

      def changePage(self,url,total_page):

        now_page = int(url[25:29])

        page_group = []

        for i in range(now_page,total_page+1):

            link = 'http://fangjia.51240.com/'+str(i)+'__fangjia/'

            page_group.append(link)

        return page_group

       #把页面上假日的table截取出来

      def geteveyTable(self,source):

        everytable = re.findall('(<table width="520".*?</table>)',source,re.S)

        return everytable



      # 修改日期格式以便sql使用

      def  changeType(self, str):

          # str1=re.sub(re.S,str,'(*)','')

          if str.find('~') == -1:

              str = str + '~' + str[7:]

          str1 = str.split('月')

          m1 = str1[0][7:]

          index = str1[1].index('日')

          index2 = str1[1].index('~')



          d1 = str1[1][0:index]

          m2 = str1[1][index2 + 1:]

          d2 = str1[2].split('日')[0]



          if int(m1) < 10:

              m1 = '0' + m1



          if int(d1) < 10:

              d1 = '0' + d1



          if int(m2) < 10:

              m2 = '0' + m2



          if int(d2) < 10:

              d2 = '0' + d2



          return 'between /''+str1[0][0:4]+'-'+m1+'-'+d1+'/' and /''+ str1[0][0:4]+'-'+m2+'-'+d2+'/''



      #更新数据库

      def updateDB(self,url):

          conn = cx_Oracle.connect('showbi', 'soa123', '127.0.0.1:1521/showbi')

          cursor = conn.cursor()

          cursor.execute(url)

          conn.commit()

          cursor.close()

          conn.close()



      #分割源码获得每个假日对应的日期

      def getInfo(self,eachyear):

        info = {}

        ho = re.findall('jiad/">(.*?)</a>',eachyear,re.S)

        year = re.search('<a href="/(.*?)_', eachyear, re.S).group(1)

        a = re.findall('<td>(.*?)</td>',eachyear,re.S)

        j=len(a)

        i=0

        k=0

        while(i< j):

            if i > j:

                continue

            holidayname= ''.join(ho[k])

            temp =  year+'年'+''.join(a[i])

            holiday= self.changeType(str(temp))

            sql ="update dim_dateA set  HolidayName=/'"+holidayname+"/',IsHolidays=1 where to_char(DateKey,'yyyy-mm-dd') "+holiday

            self.updateDB(sql)

            i+=3

            k+=1



if __name__ == '__main__':

     url='http://fangjia.51240.com/2012__fangjia/'

     print u'初始化类..'

     myspider = spider()

     all_links = myspider.changePage(url,2016)

     for link in  all_links:

        print u'正在处理页面..'+link

        html = myspider.getSource(link)

        everyyear = myspider.geteveyTable(html)

        for each in everyyear:

            myspider.getInfo(each)

     print '更新完成!'

爬取全部节日名称

python 爬虫更新日期维度表中的节假日

代码:

#coding:utf-8

import requests

import re

import sys

import cx_Oracle

reload(sys)

sys.setdefaultencoding('utf8')

class spider(object):

      def __init__(self):

        print u'开始爬取...'



      #获取网页源码

      def getSource(self,url):

        html = requests.get(url)

        return html.text

       #改变url实现抓取12~16年的假日

      def changePage(self,url,total_page):

        now_page = int(url[32:36])

        page_group = []

        t = 1

        for i in range(now_page,total_page+1):

            link = 'http://wannianrili.51240.com/?q='+str(i)

            for t in range(1,13):

                if t<10:

                 t1 = '0'+str(t)

                else:

                 t1 = str(t)

                page_group.append(link+'-'+t1)

            t+=1

        return page_group

       #截取节日名称和对应的日期,并更新到数据库

      def geteveyTable(self,source,ym):

        everytable = re.findall('(<div class="wnrl_riqi">.*?</div>)',source,re.S)

        for i in range(0,len(everytable)-1):

           #print ''.join(everytable[i])

           if  everytable[i].find('wnrl_td_bzl wnrl_td_bzl_hong')>0 :

               hdate= ym+'-'+everytable[i].split('</span>')[-3].split('>')[-1]

               hname= everytable[i].split('</span>')[-2].split('>')[-1]

               sql  ="update dim_dateA set  HolidayName=/'"+hname+"/' where to_char(DateKey,'yyyy-mm-dd') =/'"+hdate+"/'"

               self.updateDB(sql)

      #更新数据库

      def updateDB(self,url):

          conn = cx_Oracle.connect('showbi', 'soa123', '127.0.0.1:1521/showbi')

          cursor = conn.cursor()

          cursor.execute(url)

          conn.commit()

          cursor.close()

          conn.close()



if __name__ == '__main__':

     url='http://wannianrili.51240.com/?q=2012-01'

     print u'初始化类..'

     myspider = spider()

     all_links = myspider.changePage(url,2019)

     for link in  all_links:

        print u'正在处理页面..'+link

        html = myspider.getSource(link)

        ym = link[32:]

        everyyear = myspider.geteveyTable(html,ym)

        print '-----------------'

     print '更新完成!'


Cognos,BI技术交流群 347488829

Tableau,BI技术交流群 161474757

分享到:更多 ()

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址