南强小屋 Design By 杰米
本文实例讲述了Python实现的爬取百度文库功能。分享给大家供大家参考,具体如下:
# -*- coding: utf-8 -*- from selenium import webdriver from bs4 import BeautifulSoup from docx import Document from docx.enum.text import WD_ALIGN_PARAGRAPH# 用来居中显示标题 from time import sleep from selenium.webdriver.common.keys import Keys # 浏览器安装路径 #BROWSER_PATH=\'C:\Users\Administrator\AppData\Local\Google\Chrome\Application\chromedriver.exe' #目的URL DEST_URL='https://wenku.baidu.com/view/aa31a84bcf84b9d528ea7a2c.html' #用来保存文档 doc_title = '' doc_content_list = [] def find_doc(driver, init=True): global doc_content_list global doc_title stop_condition = False html = driver.page_source soup1 = BeautifulSoup(html, 'lxml') if (init is True): # 得到标题 title_result = soup1.find('div', attrs={'class': 'doc-title'}) doc_title = title_result.get_text() # 得到文档标题 # 拖动滚动条 init_page = driver.find_element_by_xpath( "//div[@class='foldpagewg-text-con']") print(type(init_page), init_page) driver.execute_script('arguments[0].scrollIntoView();', init_page) init_page.click() init = False else: try: page = driver.find_element_by_xpath( "//div[@class='pagerwg-schedule']") #print(type(next_page), next_page) next_page = driver.find_element_by_class_name("pagerwg-button") station = driver.find_element_by_xpath( "//div[@class='bottombarwg-root border-none']") driver.execute_script('arguments[0].scrollIntoView(false);', station) #js.executeScript("arguments[0].click();",next_page); #sleep(5) '''js = "window.scrollTo(508,600)" driver.execute_script(js)''' next_page.click() except: #结束条件 print("找不到元素") stop_condition = True #next_page.send_keys(Keys.ENTER) # 遍历所有的txt标签标定的文档,将其空格删除,然后进行保存 content_result = soup1.find_all('p', attrs={'class': 'txt'}) for each in content_result: each_text = each.get_text() if ' ' in each_text: text = each_text.replace(' ', '') else: text = each_text # print(each_text) doc_content_list.append(text) # 得到正文内容 sleep(2) # 防止页面加载过慢 if stop_condition is False: doc_title, doc_content_list = find_doc(driver, init) return doc_title, doc_content_list def save(doc_title, doc_content_list): document = Document() heading = document.add_heading(doc_title, 0) heading.alignment = WD_ALIGN_PARAGRAPH.CENTER # 居中显示 for each in doc_content_list: document.add_paragraph(each) # 处理字符编码问题 t_title = doc_title.split()[0] #print(t_title) #document.save('2.docx') document.save('百度文库-%s.docx'% t_title) print("\n\nCompleted: %s.docx, to read." % t_title) driver.quit() if __name__ == '__main__': options = webdriver.ChromeOptions() options.add_argument('user-agent="Mozilla/5.0 (Linux; Android 4.0.4; \ Galaxy Nexus Build/IMM76B) AppleWebKit/535.19 (KHTML, like Gecko) \ Chrome/18.0.1025.133 Mobile Safari/535.19"') #driver = webdriver.Chrome(BROWSER_PATH, chrome_options=options) driver = webdriver.Chrome(chrome_options=options) driver.get(DEST_URL) #JavascriptExecutor js = (JavascriptExecutor) driver; print("**********START**********") title, content = find_doc(driver, True) save(title, content) driver.quit()
更多关于Python相关内容可查看本站专题:《Python Socket编程技巧总结》、《Python正则表达式用法总结》、《Python数据结构与算法教程》、《Python函数使用技巧总结》、《Python字符串操作技巧汇总》、《Python入门与进阶经典教程》及《Python文件与目录操作技巧汇总》
希望本文所述对大家Python程序设计有所帮助。
标签:
Python,爬取,百度文库
南强小屋 Design By 杰米
广告合作:本站广告合作请联系QQ:858582 申请时备注:广告合作(否则不回)
免责声明:本站文章均来自网站采集或用户投稿,网站不提供任何软件下载或自行开发的软件! 如有用户或公司发现本站内容信息存在侵权行为,请邮件告知! 858582#qq.com
免责声明:本站文章均来自网站采集或用户投稿,网站不提供任何软件下载或自行开发的软件! 如有用户或公司发现本站内容信息存在侵权行为,请邮件告知! 858582#qq.com
南强小屋 Design By 杰米
暂无Python实现的爬取百度文库功能示例的评论...
《魔兽世界》大逃杀!60人新游玩模式《强袭风暴》3月21日上线
暴雪近日发布了《魔兽世界》10.2.6 更新内容,新游玩模式《强袭风暴》即将于3月21 日在亚服上线,届时玩家将前往阿拉希高地展开一场 60 人大逃杀对战。
艾泽拉斯的冒险者已经征服了艾泽拉斯的大地及遥远的彼岸。他们在对抗世界上最致命的敌人时展现出过人的手腕,并且成功阻止终结宇宙等级的威胁。当他们在为即将于《魔兽世界》资料片《地心之战》中来袭的萨拉塔斯势力做战斗准备时,他们还需要在熟悉的阿拉希高地面对一个全新的敌人──那就是彼此。在《巨龙崛起》10.2.6 更新的《强袭风暴》中,玩家将会进入一个全新的海盗主题大逃杀式限时活动,其中包含极高的风险和史诗级的奖励。
《强袭风暴》不是普通的战场,作为一个独立于主游戏之外的活动,玩家可以用大逃杀的风格来体验《魔兽世界》,不分职业、不分装备(除了你在赛局中捡到的),光是技巧和战略的强弱之分就能决定出谁才是能坚持到最后的赢家。本次活动将会开放单人和双人模式,玩家在加入海盗主题的预赛大厅区域前,可以从强袭风暴角色画面新增好友。游玩游戏将可以累计名望轨迹,《巨龙崛起》和《魔兽世界:巫妖王之怒 经典版》的玩家都可以获得奖励。