用 Python 爬取网页 PDF 和文档

3 篇文章 0 订阅
订阅专栏

1 爬取网页 PDF

以 https://reader.jojokanbao.cn/rmrb 上 PDF 的下载为例

1.1 在日历控件中输入时间

参考博客: selenium+Python(Js处理日历控件)
网页的日期框中可以直接输入日期
在这里插入图片描述
找到输入框对应的标签,根据 class name 进行内容清楚和输入(如果标签有 id 属性可以根据 id 进行输入框确定),代码如下

browser.find_element_by_class_name('el-input__inner').clear()
browser.find_element_by_class_name('el-input__inner').send_keys('1976-10-09')

在这里插入图片描述
输入日期后需要回车才能刷新页面,使用 selenium 模拟键盘事件参考博客: selenium-模拟键盘事件(回车、删除、刷新等)
实现代码如下

from selenium.webdriver.common.keys import Keys

browser.find_element_by_class_name('el-input__inner').send_keys(Keys.ENTER)

1.2 下载 PDF 文件

使用 selenium 下载 PDF 文件参考博客: python selenium 下载pdf文件
需要将简单的 browser = webdriver.Chrome() 替换为如下代码

# PDF 文件保存路径
down_load_dir = os.path.abspath(".")
options = webdriver.ChromeOptions()
options.add_experimental_option("excludeSwitches", ['enable-automation'])
prefs = {
    "download.default_directory": down_load_dir,
    "download.prompt_for_download": False,
    "download.directory_upgrade": True,
    "plugins.always_open_pdf_externally": True
}
options.add_experimental_option('prefs', prefs)
options.add_argument("--disable-blink-features=AutomationControlled")
browser = webdriver.Chrome(options=options)

1.3 selenium 访问网站被反爬限制封锁

参考博客: python之selenium访问网站被反爬限制封锁解决方法
添加如下代码

browser.execute_cdp_cmd("Page.addScriptToEvaluateOnNewDocument", {
    "source": """
    Object.defineProperty(navigator, 'webdriver', {
      get: () => undefined
    })
  """
})

1.4 完整代码

from selenium import webdriver
from selenium.webdriver.common.keys import Keys
import time
from bs4 import BeautifulSoup
import os


url = 'https://reader.jojokanbao.cn/rmrb'

down_load_dir = os.path.abspath(".")
options = webdriver.ChromeOptions()
options.add_experimental_option("excludeSwitches", ['enable-automation'])
prefs = {
    "download.default_directory": down_load_dir,
    "download.prompt_for_download": False,
    "download.directory_upgrade": True,
    "plugins.always_open_pdf_externally": True
}
options.add_experimental_option('prefs', prefs)
options.add_argument("--disable-blink-features=AutomationControlled")
browser = webdriver.Chrome(options=options)

browser.execute_cdp_cmd("Page.addScriptToEvaluateOnNewDocument", {
    "source": """
    Object.defineProperty(navigator, 'webdriver', {
      get: () => undefined
    })
  """
})

browser.get(url)

browser.find_element_by_class_name('el-input__inner').clear()
browser.find_element_by_class_name('el-input__inner').send_keys('1976-10-09')
# 输入完成后,敲击键盘上的回车键
browser.find_element_by_class_name('el-input__inner').send_keys(Keys.ENTER)
time.sleep(5)

data = browser.page_source
# print(data)
# 获取文档的下载链接
soup = BeautifulSoup(data)
body = soup.find('div', attrs={'class': 'el-col el-col-24 el-col-xs-24 el-col-sm-12 el-col-md-12 el-col-lg-12 el-col-xl-12'})
link = body.find_all("a")[0].get("href")
print(link)

# 有了开始对 options 的设置,这一步可以直接下载 PDF 文档
browser.get(link)
time.sleep(5)
browser.close()

2 爬取网页文档

以 https://www.laoziliao.net/rmrb/ 上的文档下载为例

2.1 遇到的问题

整体实现思路和爬取小说( https://blog.csdn.net/mycsdn5698/article/details/133465660)的一样,实现过程中遇到了一些问题:
(1)BeautifulSoup 怎样获取标签间文本内容
获取标签的某个属性,例如 a 标签的 href 属性,代码如下

data = requests.get(url = url, headers = headers)
data.encoding = 'UTF-8'
soup = BeautifulSoup(data.text, 'html.parser')
body = soup.find('div', attrs={'id': 'month_box'})

for item in body.find_all('a'):
    link = item.get("href")
    print(link)

获取标签间的文本内容
如果标签属性较少,则可以使用正则提取,例子及其代码如下
在这里插入图片描述

findTitle = re.compile(r'<h3 class="card-title text-center text-danger">(.*?)</h3>',re.S)

for card in soup.find_all('div', class_="card mt-2"):
    # 提取标题
    card_title = re.findall(findTitle, str(card))[0]
    print(card_title)

如果标签属性较多,则可以参考博客: beautifulsoup怎样获取标签间文本内容,例子及其代码如下
在这里插入图片描述

data = requests.get(url = news_link, headers = headers)
data.encoding = 'UTF-8'
soup = BeautifulSoup(data.text, 'html.parser')
for context in soup.find_all('div', class_="card mt-2"):
    # 提取标题
    news_title = context.find('h2').string
    print(news_title)

(2)将 br 标签替换为换行符
例子如下
在这里插入图片描述
方法一:使用 get_text()
缺点:br 标签会变成一些空格,而不是换行

for news_context in context.find_all('div', class_="card-body lh-lg"):
    tmp_context = news_context.get_text()
    print(tmp_context)

方法二:参考博客 https://blog.csdn.net/u012587107/article/details/80543977
缺点:str(news_context) 的使用导致 div 标签出现,且 <br> 变成了 <br/>

for news_context in context.find_all('div', class_="card-body lh-lg"):
    tmp_context = (str(news_context).replace('<br>','\n')).replace('<br/>','\n')
    # str(news_context) 的使用导致 <div class="card-body lh-lg"> 和 </div> 也出现了
    tmp_context = (tmp_context.replace('<div class="card-body lh-lg">','')).replace('</div>','')
    # 新闻标题的第一行前是俩Tab,将其替换为四个空格
    tmp_context = tmp_context.replace('  ','    ')
    print(tmp_context)

2.2 完整代码

注意:ANSI 编码的文本在 kindle 打开会有部分乱码,UTF-8 编码的不会

import requests
import re
import time
from bs4 import BeautifulSoup

headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/116.0.0.0 Safari/537.36'}

findTitle = re.compile(r'<h3 class="card-title text-center text-danger">(.*?)</h3>',re.S)


url = "https://www.laoziliao.net/rmrb/1946-06"

# 获取该月内所有日报的链接
data = requests.get(url = url, headers = headers)
data.encoding = 'UTF-8'
soup = BeautifulSoup(data.text, 'html.parser')
body = soup.find('div', attrs={'id': 'month_box'})

for item in body.find_all('a'):
    link = item.get("href")
    # print(link)
    
    # 根据 link 创建每天报纸的 TXT
    # 提取最后一个斜杠后面的字符
    last_slash_index = link.rfind("/")
    if last_slash_index != -1:
        TXT_name = link[last_slash_index + 1:]
        TXT_name = TXT_name.replace("-", "")
    print(TXT_name)
    # ansi 编码用 kindle 打开有乱码
    with open("./TXTs/"+TXT_name+".txt", "w", encoding='utf-8') as f:
        # 访问每天的报纸
        data = requests.get(url = link, headers = headers)
        data.encoding = 'UTF-8'
        soup = BeautifulSoup(data.text, 'html.parser')
    
        # 每一版的内容都放在 class="card mt-2" 的 div 中
        for card in soup.find_all('div', class_="card mt-2"):
            # 提取标题
            card_title = re.findall(findTitle, str(card))[0]
            f.write(card_title + '\n')
            # print(card_title)
        
            # 提取新闻链接
            news = card.find_all('a')
            news_link = news[0].get('href')
            if "#" in news_link:
                index = news_link.index("#")
            news_link = news_link[:index]
            print(news_link)
            time.sleep(1)

            # 访问当天的每一版新闻,每一条新闻都放在 class="card mt-2" 的 div 中
            data = requests.get(url = news_link, headers = headers)
            data.encoding = 'UTF-8'
            soup = BeautifulSoup(data.text, 'html.parser')
            for context in soup.find_all('div', class_="card mt-2"):
                # # 提取标题
                # news_title = context.find('h2').string
                # print(news_title)
                # 提取新闻内容,存放在 class="card-body lh-lg" 的 div 中
                for news_context in context.find_all('div', class_="card-body lh-lg"):
                    # 把<br>换成换行符
                    tmp_context = (str(news_context).replace('<br>','\n')).replace('<br/>','\n')
                    # str(news_context) 的使用导致 <div class="card-body lh-lg"> 和 </div> 也出现了
                    tmp_context = (tmp_context.replace('<div class="card-body lh-lg">','')).replace('</div>','')
                    # 新闻标题的第一行前是俩Tab,将其替换为四个空格
                    tmp_context = tmp_context.replace('  ','    ')
                    f.write(tmp_context + '\n')
                    # print(tmp_context)
            f.write('\n\n')

3 一些资源推荐

除了上述两个作为例子的网站,还有 时光印记经典珍藏系列,可以免费查看部分资料,全部资料的话是收费的。

Python 利用Selenium爬取嵌入网页的PDF(web embedded PDF
Gfrwe的博客
08-11 4751
"plugins.always_open_pdf_externally": True #PDF始终在外部打开#chrome_options.add_experimental_option('detach', True) #webdriver打开浏览器后保持开启,一般用于测试出错用driver.switch_to.frame("myIframe") #由于PDF始终在外部打开,打开PDF文件地址后不会显示PDF,而会出现“打开”按钮,该按钮在iframe中。本句将driver转到Iframe中。
python3爬虫下载网页上的pdf
热门推荐
jonathanzh的博客
11-25 3万+
# coding = UTF-8 # 爬取大学nlp课程的教学pdf文档课件 http://ccl.pku.edu.cn/alcourse/nlp/ import urllib.request import re import os # open the url and read def getHtml(url): page = urllib.request.urlopen(url)
2024爬虫爬取网页pdf(selenium+chrome driver)
wumingzei的博客
07-04 1708
#记录下第一次使用爬虫进行网页pdf爬取过程和踩坑记录#第一次做分析,想要在网上搜寻相关的研究报告之类的,但是总是有很多无关的链接文件或者不完整的引流链接,想到一般来说这种报告都是pdf居多,所以直接选择批量爬取.pdf文件再进行筛选会不会更有效率,于是直接开干。
python 读取pdf文件
最新发布
sz76211822的专栏
08-05 174
【代码】python 读取pdf文件。
python抓取网页中所有pdf文件的笨方法
morgan2018的博客
12-01 8667
进入下载中心: https://www.sensirion.com/en/download-center/ 在网页任意地方点击右键,后选择inspection 右边选择elements 一直向下翻找到 “catgroup downloads" 或者合并第三步,第四步,直接在本页第一个下载链接点击右键,选择inspection 这样可以直接在链接上面看到catgroup downloads 此时可以看到,所有的catgroup downloads,这里面包含了https://ww..
python 批量爬取网页pdf_爬取网页文件并批量解析pdf
weixin_34360879的博客
02-19 4608
很多时候我们需要爬取网上的文件并提取文件的数据做对比,文件一般为pdf格式需要转化为excel表格,现在可以用python实现采集数据到提取数据的全流程操作。一、首先要爬取网页内容下载pdf文件import requestsfrom lxml import htmletree = html.etreeimport osimport timedef main(i):#第一页if i==1:url =...
2023最新使用python爬虫爬取全网.pdf网址并下载需要的pdf文件资源(可设置搜索keyword)!!!
qq_53862860的博客
12-09 3210
先来看看爬取pdf网址的结果,如图:爬取pdf的代码如下: 通过使用verify=False避免被https证书阻止,并使用content-disposition获取原始pdf名称,下载代码如下: 最终效果如图:感谢朋友们阅读,下期再见!!!
python爬虫读取pdf_python爬取网页转换为PDF文件
weixin_39628041的博客
11-24 152
爬虫的起因官方文档或手册虽然可以查阅,但是如果变成纸质版的岂不是更容易翻阅与记忆。如果简单的复制粘贴,不知道何时能够完成。于是便开始想着将android的官方手册爬下来。全篇的实现思路分析网页学会使用beautifulsoup库爬取并导出参考资料:配置在ubuntu下使用pycharm运行成功转pdf需要下载wkhtmltopdf具体过程网页分析如下所示的一个网页,要做的是获取该网页的正文和标题,...
python 爬取网页内容并保存为pdf格式
09-16
利用Python爬取网页中的图片内容,并将其转换为pdf格式的文件。
批量抓取网页pdf文件
weixin_33923148的博客
02-14 2293
任务:批量抓取网页pdf文件 有一个excel,里面有数千条指向pdf下载链接的网页地址,现在,需要批量抓取这些网页地址中的pdf文件。python环境: anaconda3openpyxlbeautifulsoup4 读取excel,获取网页地址 使用openpyxl库,读取.xslx文件;(曾尝试使用xlrd库读取.xsl文件,但无法...
python爬虫读取pdf_Python读取PDF内容
weixin_39855944的博客
11-20 559
1,引言晚上翻看《Python网络数据采集》这本书,看到读取PDF内容的代码,想起来前几天集搜客刚刚发布了一个抓取网页pdf内容的抓取规则,这个规则能够把pdf内容当成html来做网页抓取。神奇之处要归功于Firefox解析PDF的能力,能够把pdf格式转换成html标签,比如,div之类的标签,从而用GooSeeker网页抓取软件像抓普通网页一样抓取结构化内容。从而产生了一个问题:用Python...
爬取含有PDF的网页
08-28
对含有PDF的网站,爬取含有PDF的网页,java放入jar包以后直接输入网站执行即可
Python提取PDF内容的方法(文本、图像、线条等)
12-31
1.安装PDFminer3k 使用pip 命令安装 pip install pdfminer3k 2.编写测试 你可以在这里获得官方参考:PDFMiner 如果你不喜欢看英文的官方文档,这里的翻译也许对你有帮助:中文PDFMiner文档 下面的程序,我拓展了官方给出的例子,你可以通过这个例子统计出来你的pdf文件一共包含哪些内容,比如文本框,曲线,图片等 #!/usr/bin/python # -*- coding: utf-8 -*- __author__ = 'yooongchun' import sys import importlib importlib.reload(
python爬取网页内容转换为PDF文件
09-20
Python编程领域,有时我们需要将网络上的网页内容抓取下来并...总的来说,Python提供了丰富的库来实现网页爬取和转换,只需理解每个库的功能,并根据实际情况进行适当调整,就可以构建出自己的网页到PDF转换工具。
利用Python爬取教程并转为PDF文档
2401_83703866的博客
04-22 710
外链图片转存中…(img-BU4Kjeyw-1713761674975)]
python爬取CSDN文章并保存为pdf文档
m0_74830349的博客
10-07 1583
确保已经安装了requests、parsel和pdfkit。安装失败可能的原因:1.pip不是内部命令需要设置python的环境变量2.安装到一半出现很多红色报错网络连接超时,切换成国内镜像源3.安装成功了,但是pycharm调用失败I.是否安装多个python版本II.pycharm里面python解释器是否设置好。
Python批量爬虫下载PDF文件代码实现
阿黎逸阳的博客
08-20 3807
python批量爬虫下载pdf文件
python使用pdfminer解析页面内容,得到内容的详细坐标
呆萌的代Ma
11-29 1723
官方文档地址:https://pdfminersix.readthedocs.io/en/latest/reference/index.html github地址:https://github.com/pdfminer/pdfminer.six pdfminer与pdf基本概念:https://euske.github.io/pdfminer/programming.html 使用pdfminer需要首先安装: pip install pdfminer.six 示例 import requests im
python爬取知网pdf
07-04
### 回答1: Python可以使用爬虫技术来爬取知网上的PDF文件。以下是一种实现方式: 1. 导入相关的库:首先要导入所需的库,包括 requests、BeautifulSoup和os。 2. 获取页面链接:使用requests库向知网发送请求,获取包含PDF文件的页面的源代码。可以使用`requests.get()`方法来获取网页内容,并使用`response.text`来获取文本内容。 3. 解析页面:使用BeautifulSoup库来解析网页源代码,提取出PDF文件的链接。可以使用`BeautifulSoup()`方法将网页源代码转换成BeautifulSoup对象,然后使用`find_all()`方法查找所有的链接标签,过滤出PDF文件的链接。 4. 下载PDF文件:遍历上一步获得的PDF文件链接列表,使用requests库下载PDF文件。可以使用`requests.get()`方法向服务器发送请求,并使用`response.content`获取二进制数据,最后将数据写入本地的PDF文件。 5. 保存PDF文件:使用os库中的方法来保存下载的PDF文件。可以使用`open()`方法打开一个文件,然后将二进制数据写入文件中保存。 以上是使用Python爬取知网上PDF文件的简单流程。需要注意的是,为了遵守爬虫的道德规范,应该尊重知网的网站规则,并且避免过度频繁地爬取数据,以防止对网站造成负担。 ### 回答2: 要使用Python爬取知网PDF文件,可以按照以下步骤进行: 1. 导入所需的Python库,如requests、BeautifulSoup和urllib等。 2. 使用requests库发送GET请求获取想要爬取的知网论文页面的源代码。 3. 使用BeautifulSoup库解析源代码,提取出论文的标题、作者、摘要等信息,并获取到下载PDF文件的链接。 4. 使用urllib库下载PDF文件。可以使用urlopen函数打开文件链接,并使用open方法将文件保存到本地。 以下是一个简单的示例代码: ```python import requests from bs4 import BeautifulSoup import urllib # 发送GET请求获取页面源代码 url = '知网论文页面链接' headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3"} response = requests.get(url, headers=headers) source_code = response.text # 使用BeautifulSoup库解析源代码获取下载链接 soup = BeautifulSoup(source_code, 'lxml') pdf_link = soup.find('a', {'class': 'pdfDownloadIcon'})['href'] # 下载PDF文件 urllib.request.urlretrieve(pdf_link, '保存路径') ``` 请注意,以上示例代码中的"知网论文页面链接"需要替换成实际的知网论文页面链接,"保存路径"需要替换成希望保存PDF文件的本地路径。同时,该示例代码仅适用于获取单篇论文的PDF文件,如果需要批量爬取多篇论文的PDF文件,需要在代码中加入相应的循环处理逻辑。 ### 回答3: Python可以使用多种库和技术来爬取知网的PDF文献。 首先,我们可以使用requests库来向知网发送请求并获取响应。我们需要使用知网提供的搜索API来搜索我们需要的文献,并将搜索关键词作为参数传递给API。接下来,我们可以解析响应的JSON数据,提取出文献的URL和其他相关信息。 一旦我们获得了文献的URL,我们可以使用requests库再次发送请求来获取文献的内容。需要确保在请求的头部中添加Referer字段,以确保我们具有访问权限。 为了处理PDF文档,我们可以使用第三方库如pdfminer或PyPDF2来解析和提取其中的文本信息,或者直接将PDF保存到本地。 为了实现登录和获取权限,我们可能需要使用模拟登录技术,如使用selenium库来模拟真实浏览器环境。 除了上述库和技术外,我们还可以借助其他辅助库和工具来增加爬取效率和提升爬取结果的质量,如多线程或异步请求库,如aiohttp和asyncio。 需要注意的是,爬取知网的PDF文献需要遵守知网的使用规则和法律法规。同时,保护知识产权也是非常重要的,不能滥用爬虫技术。
写文章

热门文章

  • 用 Python 爬取网页 PDF 和文档 5661
  • 用 Python 爬取网页漫画 896
  • LaTeX 海报模板 759
  • 用 Python 爬取网页小说 732
  • Dude 的安装和简单使用 567

分类专栏

  • 学术论文写作 3篇
  • 英文学习 1篇
  • 网络管理 1篇
  • LaTeX 使用 2篇
  • Python 应用 3篇
  • Java笔记
  • Java基础知识 1篇
  • 资料库 1篇

最新评论

  • Dude 的安装和简单使用

    mycsdn5698: 只要是同一个子网,应当是可以扫出来的

  • Dude 的安装和简单使用

    weixin_42407929: 麻烦问下 不同网段可以扫出来吗

  • Dude 的安装和简单使用

    CSDN-Ada助手: 恭喜您写了第5篇博客!看来您对Dude 的安装和简单使用有了深入的了解。接下来,我建议您可以深入研究Dude 的高级功能,或者分享一些实际应用案例,这样可以让读者更加深入地了解这个工具的实际价值。期待您的下一篇博客!

  • LaTeX 的使用技巧

    CSDN-Ada助手: 恭喜您写了第6篇博客!标题上的“LaTeX 的使用技巧”听起来非常有吸引力。您已经展示了对LaTeX的深入了解,并且在分享使用技巧方面给读者带来了很大的帮助。作为一个创作者,您的持续创作是令人钦佩的,您的博客内容一定对许多人都有启发和帮助。 在下一步的创作中,或许您可以考虑进一步扩展LaTeX的使用范围,例如介绍一些高级技巧或者分享一些实用的模板。您也可以关注读者的反馈,了解他们对LaTeX的特定需求,以此来指导您下一篇博客的内容选择。非常期待您未来的创作,祝您一切顺利!

  • 使用 Git 上传&更新本地文件到 GitHub

    CSDN-Ada助手: 恭喜您写了第12篇博客,题为“使用 Git 上传&更新本地文件到 GitHub”。非常高兴看到您持续创作,并将这个主题分享给读者。对于使用 Git 上传和更新本地文件到 GitHub,您提供了很棒的指导。在下一步的创作中,或许您可以考虑探索更多关于 Git 的高级功能,如分支管理或合并操作等。再次恭喜您的努力,期待您未来更多的博客分享!

大家在看

  • UI自动化测试(python)Web端4.0
  • 【JAVA开源】基于Vue和SpringBoot网上购物商城
  • 828华为云征文|华为云Flexus云服务器X实例之openEuler系统下部署OpenCart开源电子商务平台 424
  • 6个大模型的核心技术!零基础入门大模型(非常详细)收藏这一篇就够了! 1127
  • SSM的垃圾分类管理系统

最新文章

  • 使用 Git 上传&更新本地文件到 GitHub
  • Origin 入门
  • 论文写作中需要注意的事项
2023年12篇

目录

目录

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

玻璃钢生产厂家昆明市玻璃钢雕塑设计公司玻璃钢浮雕学校镂空雕塑定制吉林多彩玻璃钢雕塑供应商龙岩玻璃钢花盆厂古塔玻璃钢雕塑厂家南山玻璃钢雕塑制品海南主题公园玻璃钢雕塑大量销售水景玻璃钢彩绘雕塑制作厂家玻璃钢花盆厂家批发零售淮南卡通玻璃钢雕塑价格阜阳卡通玻璃钢雕塑厂济源花朵玻璃钢人物雕塑弧形玻璃钢花盆厂家许昌标识标牌玻璃钢人物雕塑报价嘉峪关大型玻璃钢雕塑多少钱端州玻璃钢卡通雕塑厂家云南玻璃钢雕塑的设计哪家好廊坊玻璃钢雕塑厂家美陈包装商场韶关玻璃钢雕塑厂湖北创意玻璃钢雕塑生产厂家玻璃钢雕塑感恩图江西玻璃钢雕塑品商场运动时尚区美陈济南玻璃钢雕塑培训昔阳县商场美陈玻璃钢雕塑能用多少年延安卡通玻璃钢雕塑定做上海卡通玻璃钢雕塑制作人物玻璃钢雕塑小品香港通过《维护国家安全条例》两大学生合买彩票中奖一人不认账让美丽中国“从细节出发”19岁小伙救下5人后溺亡 多方发声单亲妈妈陷入热恋 14岁儿子报警汪小菲曝离婚始末遭遇山火的松茸之乡雅江山火三名扑火人员牺牲系谣言何赛飞追着代拍打萧美琴窜访捷克 外交部回应卫健委通报少年有偿捐血浆16次猝死手机成瘾是影响睡眠质量重要因素高校汽车撞人致3死16伤 司机系学生315晚会后胖东来又人满为患了小米汽车超级工厂正式揭幕中国拥有亿元资产的家庭达13.3万户周杰伦一审败诉网易男孩8年未见母亲被告知被遗忘许家印被限制高消费饲养员用铁锨驱打大熊猫被辞退男子被猫抓伤后确诊“猫抓病”特朗普无法缴纳4.54亿美元罚金倪萍分享减重40斤方法联合利华开始重组张家界的山上“长”满了韩国人?张立群任西安交通大学校长杨倩无缘巴黎奥运“重生之我在北大当嫡校长”黑马情侣提车了专访95后高颜值猪保姆考生莫言也上北大硕士复试名单了网友洛杉矶偶遇贾玲专家建议不必谈骨泥色变沉迷短剧的人就像掉进了杀猪盘奥巴马现身唐宁街 黑色着装引猜测七年后宇文玥被薅头发捞上岸事业单位女子向同事水杯投不明物质凯特王妃现身!外出购物视频曝光河南驻马店通报西平中学跳楼事件王树国卸任西安交大校长 师生送别恒大被罚41.75亿到底怎么缴男子被流浪猫绊倒 投喂者赔24万房客欠租失踪 房东直发愁西双版纳热带植物园回应蜉蝣大爆发钱人豪晒法院裁定实锤抄袭外国人感慨凌晨的中国很安全胖东来员工每周单休无小长假白宫:哈马斯三号人物被杀测试车高速逃费 小米:已补缴老人退休金被冒领16年 金额超20万

玻璃钢生产厂家 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化