文本内容获取-python爬虫

12 篇文章 3 订阅
订阅专栏

前言

本文汇总各种方法对web爬取的方法。
国内无法访问Google,在必应也可以使用高级检索指令来过滤内容,可以获取大部分表层网络和少部分深层网络的内容,使用这种技术互联网上绝大部分能访问的资源应该都是可以获取的,这取决于搜索引擎的网络爬虫爬取的广度和深度,个人建议使用顶级的搜索引擎。或者使用聚合多个搜索引擎的结果的搜索引擎,它没有爬虫,而是针对其它搜索引擎返回的结果进行处理
找资源个人建议使用网盘搜索引擎(比如罗马盘,​史莱​姆搜索,以及资源网站和资源导航网站)和BT搜索引擎(电影娱乐资源丰富些,去中心化)。公开的个人网盘的资源质量相对较高,找电子书资源很适合。网盘搜索引擎使用爬虫技术爬取特定网站公布的网盘资源信息,有些结合调用搜索引擎API的返回的结果,资源还是比较全的,但是百度网盘大部分私密的资源是无法获取的,还有公布了但是不知道验证码的资源也是无法获取的。如果可以获取百度网盘用户列表和用户资源列表,将网盘资源解析为直链就更好了,但是用户隐私将被侵犯。

★一些网站和论坛也可以获取不好找的资源,有些需要注册账号和使用积分。这些网站或许资源不全面,但是在某些专业方向资源丰富,有些只是内部共享交流,外面找不到的。
当然如果拥有顶级的黑客技术,潜在能访问的资源是能访问的,整个互联网的存储设备都是你外存。
使用网络爬虫和搜索引擎API+搜索引擎高级检索技术对特定资源、信息网站(打★这些网站)进行采集处理分析。Web API,URL及其参数。★自己用Python写爬虫程序。​

目的

本文通过python工具,对网页信息进行爬取下载

原理

借鉴:
1、python网络爬虫入门篇: https://www.cnblogs.com/wenwei-blog/p/10435602.html:其博客对python部分学习比较基础,可学习
2、结合http协议的爬虫介绍: https://www.cnblogs.com/sss4/p/7809821.html

要点

一、基本原理
模拟浏览器发送请求(获取网页代码)——>提取有用的数据——>存放于数据库或文件中
二、使用的库
Requests:用python语言基于urllib编写的,采用的是Apache2 Licensed开源协议的HTTP库。
URL管理器:管理待爬取的url集合和已爬取的url集合,传送待爬取的url给网页下载器。
网页下载器(urllib):爬取url对应的网页,存储成字符串,传送给网页解析器。
网页解析器(BeautifulSoup):解析出有价值的数据,存储下来,同时补充url到URL管理器。

准备工作

python工具下载安装:详情请移步到 这里
库安装:window系统,进入cmd,输入pip install 对应库名称,若遇到意外,请移步到 这里

爬取工作

分为两部分,一是初级的,获取网页全部内容,较简单,入门操作学习;二是高级的,获取网页特定内容,即获取自己想要的内容,这个需要借用很多种方法,难点之处。

一、获取网页全部内容

方法一:使用基于urllib编写的requests库

官方学习requests链接
一、代码1

import requests
req = requests.get("目标网址")
print(req.text)

1、代码解析如下:

import request:导入request库

req = requests.get(“目标网址”):requests.get函数对目标网址进行处理,并把传回值赋值到变量req中,存储在变量req中有很多内容,其中网页内容会固定存在req.txt中

print(req.txt):打印出网页内容

2、应用案例

import requests
req = requests.get("https://rate.bot.com.tw/xrt?Lang=zh-TW")
print(req.text)

输入如下结果:
在这里插入图片描述
3、故障收集
故障1:报如下error
在这里插入图片描述
解决办法:将.py名字修改成不以requests命名。
二、代码二
1、代码和解析:

#一、requests库的get()方法:命令:requests.get(url,params=None,**kwargs)
#1、url:拟获取页面的url链接
#2、params:url中的额外参数,字典活字节流格式,可选
#**kwargs:12个控制访问的参数
import requests
def getHTMLText(url):
    try:
        r = requests.get(url,timeout=30)
        r.raise_for_status()
        r.encoding = r.apparent_encoding
        return r.text
    except:
        return "产生异常"

if __name__ == "__main__":
    url = "http://www.baidu.com"
    print(getHTMLText(url))

执行结果如下:
在这里插入图片描述
2、应用

import requests
url = 'http://product.dangdang.com/26487763.html'
try:
    r = requests.get(url)
    r.raise_for_status()
    r.encoding =r.apparent_encoding
    print(r.text[:1000])
except IOError as e:
    print(str(e))

执行结果出现如下问题:
HTTPConnectionPool(host=‘127.0.0.1’, port=80): Max retries exceeded with url: /26487763.html (Caused by NewConnectionError(‘<urllib3.connection.HTTPConnection object at 0x000002019275A2B0>: Failed to establish a new connection: [WinError 10061] 由于目标计算机积极拒绝,无法连接。’))
报错原因:当当网拒绝不合理的浏览器访问,查看http请求头:
在这里插入图片描述

#命令:requests.method(url,**kwargs)
#解析:1、method:请求方式,对应有get/put/post等7种
#2、url:获取页面的url链接
#3、**kwargs:控制访问的参数,均为可选项,共13个,其中一个,params:字典或字节系列,作为参数增加到url中;headers:字典,http定制头
import requests
url = 'http://product.dangdang.com/26487763.html'
try:
    hd = {'user-agent':'Mozilla/5.0'} 
    r = requests.get(url,headers=hd)  #这里的headers=hd,是上述解析中的http定制头的写法
    r.raise_for_status()
    r.encoding =r.apparent_encoding
    print(r.text[:1000])
except IOError as e:
    print(str(e))

执行结果如下:
在这里插入图片描述

方法二:使用网页下载urllib

学习请移步这里

import urllib.request

response = urllib.request.urlopen('http://www.baidu.com')
buff = response.read()
html = buff.decode("utf8")
print(html)

二、获取网页特定内容

方法一:使用网页解析Beautiful Soup——标签类内容

Beautiful Soup提供一些简单的、python式的函数用来处理导航、搜索、修改分析“标签树”等功能。它是一个工具箱,通过解析文档为用户提供需要抓取的数据,因为简单,所以不需要多少代码就可以写出一个完整的应用程序。
Beautiful Soup自动将输入文档转换为Unicode编码,输出文档转换为utf-8编码。你不需要考虑编码方式,除非文档没有指定一个编码方式,这时,Beautiful Soup就不能自动识别编码方式了。然后,你仅仅需要说明一下原始编码方式就可以了。
Beautiful Soup已成为和lxml、html6lib一样出色的python解释器,为用户灵活地提供不同的解析策略或强劲的速度。
库安装:pip install beautifulsoup4
1、核心代码解析如下
在这里插入图片描述

soup = BeautifulSoup(req.text,features="html.parser")  

用html解析器(parser)来分析我们requests得到的html文字内容,soup就是我们解析出来的结果

company_item = soup.find("div",class_="detail_head")  

find是查找,find_all查找全部。查找标记名是div并且class属性是detail_head的全部元素

dd = company_item.text.strip()

strip() 方法用于移除字符串头尾指定的字符(默认为空格或换行符)或字符序列。在这里就是移除多余的尖括号的html数据
2、应用案例
示例1:
在这里插入图片描述

import requests   #导入我们需要的requests功能模块
from bs4 import BeautifulSoup  #使用BeautifulSoup这个功能模块来把充满尖括号的html数据变为更好用的格式,from bs4 import BeautifulSoup这个是说从bs4这个功能模块中导入BeautifulSoup,是的,因为bs4中包含了多个模块,BeautifulSoup只是其中一个

req = requests.get(url="https://www.crrcgo.cc/admin/crr_supplier.html?page=1")  #使用get方式获取该网页的数据。实际上我们获取到的就是浏览器打开百度网址时候首页画面的数据信息
#print(req.text)   #把我们获取数据的文字(text)内容输出(print)出来
req.encoding = "utf-8"  #指定获取的网页内容,即第二句定义req的内容,用utf-8编码
html = req.text   #指定获取的网页内容,即第二句定义req的内容,用text
soup = BeautifulSoup(req.text,features="html.parser")  #用html解析器(parser)来分析我们requests得到的html文字内容,soup就是我们解析出来的结果
company_item = soup.find("div",class_="detail_head")  #find是查找,find_all查找全部。查找标记名是div并且class属性是detail_head的全部元素
dd = company_item.text.strip()   #strip() 方法用于移除字符串头尾指定的字符(默认为空格或换行符)或字符序列。在这里就是移除多余的尖括号的html数据
print(dd)

示例2:
在这里插入图片描述
获取class_=的内容,操作如下:
在这里插入图片描述
3、不足
(1)当想获取的数据,网页F12选中后发现不是< p >的内容,代码执行失败
在这里插入图片描述
在这里插入图片描述
(2)失败案例2
在这里插入图片描述
在这里插入图片描述
搜索:AttributeError: ‘NoneType’ object has no attribute ‘text’

方法二:使用基于网页下载urlib编写的request——标签类内容

添加头等信息headers,headers是解决requests请求反爬的方法之一,相当于我们进去这个网页的服务器本身,假装自己本身在爬取数据。对反爬虫网页,可以设置一些headers信息,模拟成浏览器取访问网站 。
在这里插入图片描述

header = {
    "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.130 Safari/537.36"
}
import requests
from lxml import html
url = 'https://movie.douban.com/' #爬取的网址
header = { "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.130 Safari/537.36"} #heard,反爬克星
page = requests.Session().get(url, headers=header)
tree = html.fromstring(page.text)
result = tree.xpath('//div[@class="nav-items"]//a/text()')# 参数查询方式如下下图
print(result)

结果如下:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

方法三:使用pandas库——表格类内容

方法1:使用pandas库

import pandas
dfs = pandas.read_html("目标网址")
print(dfs[0])

1、代码解析如下:

dfs = pandas.read_html(“目标网址”):使用pandas.read_html函数对目标网址处理,把传回的结果保存在dfs变量,存储在dfs变量的内容有很多,但只要pandas有侦测到表格资料,就会放在第0号元素里面

print(dfs[0]):根据pandas的特性,使用print将dfs第0号元素打印出来

2、应用案例

import pandas

dfs = pandas.read_html("https://rate.bot.com.tw/xrt?Lang=zh-TW")
print(dfs[0])

方法四:正则表达式

方法五:Scrapy框架

附录

https://blog.csdn.net/Appleyk/article/details/78070098
爬取网址数据很仔细的教程,推荐推荐

Python爬取网页文本内容
weixin_56452427的博客
02-02 813
利用Python爬取当前网页所有文本内容
Python-python爬虫由浅入深
08-10
Python Python爬虫由浅入深》 Python作为一门易学且功能强大的编程语言,尤其在Web爬虫领域,有着广泛的应用。Web爬虫是一种自动提取网页信息的程序,它能够帮助我们批量获取网络上的数据,进行数据分析、信息...
python获取爬取到的网页上的文本内容
JR0505的博客
09-27 225
python获取解析网页中所需要的文本元素
python爬虫简单入门(爬网页文本信息)
WANGJUNAIJIAO的博客
12-05 1063
python爬虫简单入门(爬网页文本信息) 环境 python 3.8.2 Shell 也可以使用PyCharm 一、爬网页文本基本步骤 1、请求目标网页,用requests请求,如果还没有安装,打开cmd,输入下面命令进行安装 pip install requests...
Python怎么使用爬虫获取网页内容
最新发布
Maisuluo的博客
08-09 72
浏览器画网页的流程,是浏览器将用户输入的网址告诉网站的服务器,然后网站的服务器将网址对应的网页返回给浏览器,由浏览器将网页画出来。网页文件和我们平时打交道的文件没什么不同,平时我们知道 Word 文件,后缀名为 .doc, 通过 Word 可以打开。图片文件后缀名为 .jpg,通过 Photoshop 可以打开;而网页则是后缀名为 .html,通过浏览器可以打开的文件。
Python爬虫入门学习——网页批量爬取文本
weixin_55154866的博客
12-04 2999
Python爬虫小白入门,文章首先介绍爬虫概念,以及爬虫的合法性问题。基于对网页的HTML编码的初步了解,介绍了两个第三方库,requests和BeautifulSoup库。进而进阶至小说文本爬取,再深入到爬取小说并规整格式至txt...
python爬取网页文本_Python入门,以及简单爬取网页文本内容
weixin_39979159的博客
11-20 232
最近痴迷于Python的逻辑控制,还有爬虫的一方面,原本的目标是拷贝老师上课时U盘的数据。后来发现基础知识掌握的并不是很牢固。便去借了一本Python基础和两本爬虫框架的书。便开始了自己的入坑之旅言归正传前期准备Import requests;我们需要引入这个包。但是有些用户环境并不具备这个包,那么我们就会在引入的时候报错这个样子相信大家都不愿意看到那么便出现了一下解决方案我们需要打开Cmd 然后...
Python爬虫(3) --爬取网页文本
m0_74896766的博客
07-21 3096
指定url:找到网页地址发送请求:requests请求获取你想要的数据:文本接收,请求到的内容数据解析:xpath语言:定位到目标位置re正则匹配:精准取出目标内容,去除杂质。
python爬虫爬取文本(以免费网站的小说为例)
weixin_46477226的博客
11-10 2297
参考了一篇爬取豆瓣250榜单的代码。 # -*- codeing = utf-8 -*- from bs4 import BeautifulSoup # 网页解析,获取数据 import re # 正则表达式,进行文字匹配 import urllib.request, urllib.error # 制定URL,获取网页数据 prestr="<div class=\"content\">" poststr="\\n<!-- /content -->\\n<div clas
人工智能-项目实践-网络爬虫-通过python爬虫获取人民网、新浪等网站新闻作为训练集,基于BERT构建新闻文本分类模型
12-27
人工智能-项目实践-网络爬虫-通过python爬虫获取人民网、新浪等网站新闻作为训练集,基于BERT构建新闻文本分类模型 通过python爬虫获取人民网、新浪等网站新闻作为训练集,基于BERT构建新闻文本分类模型,并结合...
Python实现简单爬虫,可抓取文本及图片
12-02
Python实现简单爬虫,可抓取文本及图片 简单,有部分注释,有兴趣的可以与我交流,共同进步~ 目前只是抓取ousha网站上的,这个对于东西不同的网站还是差异性比较大的。
python简单爬虫抓取网页内容实例
06-08
一个简单的python示例,实现抓取 嗅事百科 首页内容 ,大家可以自行运行测试
python爬虫文档
12-13
python爬虫与项目实战,网络爬虫是一个自动提取网页的程序,它为搜索引擎从万维网上下载网页,是搜索引擎的重要组成。 随着网络的迅速发展,万维网成为大量信息的载体,如何有效地提取并利用这些信息成为一个巨大的挑战。搜索引擎(Search Engine),例如传统的通用搜索引擎AltaVista,Yahoo!和Google等,作为一个辅助人们检索信息的工具成为用户访问万维网的入口和指南。但是,这些通用性搜索引擎也存在着一定的局限性,如: (1)不同领域、不同背景的用户往往具有不同的检索目的和需求,通用搜索引擎所返回的结果包含大量用户不关心的网页。 (2)通用搜索引擎的目标是尽可能大的网络覆盖率,有限的搜索引擎服务器资源与无限的网络数据资源之间的矛盾将进一步加深。 (3)万维网数据形式的丰富和网络技术的不断发展,图片、数据库、音频、视频多媒体等不同数据大量出现,通用搜索引擎往往对这些信息含量密集且具有一定结构的数据无能为力,不能很好地发现和获取。 (4)通用搜索引擎大多提供基于关键字的检索,难以支持根据语义信息提出的查询。 网络爬虫 为了解决上述问题,定向抓取相关网页资源的聚焦爬虫应运而生。聚焦爬虫是一个自动下载网页的程序,它根据既定的抓取目标,有选择的访问万维网上的网页与相关的链接,获取所需要的信息。与通用爬虫(general purpose web crawler)不同,聚焦爬虫并不追求大的覆盖,而将目标定为抓取与某一特定主题内容相关的网页,为面向主题的用户查询准备数据资源。 传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。聚焦爬虫的工作流程较为复杂,需要根据一定的网页分析算法过滤与主题无关的链接,保留有用的链接并将其放入等待抓取的URL队列。然后,它将根据一定的搜索策略从队列中选择下一步要抓取的网页URL,并重复上述过程,直到达到系统的某一条件时停止。另外,所有被爬虫抓取的网页将会被系统存贮,进行一定的分析、过滤,并建立索引,以便之后的查询和检索;对于聚焦爬虫来说,这一过程所得到的分析结果还可能对以后的抓取过程给出反馈和指导。
zhaopin-python爬虫案例-招聘网站信息爬取.rar
05-31
Python爬虫是数据获取的一个重要工具,它允许开发者通过编写特定的代码来模拟浏览器行为,自动遍历并解析网页,提取所需的数据。在这个案例中,我们可能需要用到以下几个核心知识点: 1. **Python基础**:理解...
xiaChuFang-python爬虫案例-下厨房网站信息爬取.rar
05-31
Python爬虫技术是现代数据分析和信息获取的重要工具,尤其在互联网大数据时代,爬虫技术的应用日益广泛。本案例以“下厨房”网站为例,深入讲解如何利用Python进行网页数据抓取,旨在帮助读者掌握基本的网络爬虫技能...
爱卡汽车车型口碑点评评论-python爬虫源代码2022
05-04
在本项目中,"爱卡汽车车型口碑点评评论-python爬虫源代码2022" 提供了一种利用Python爬虫技术从爱卡汽车网站抓取汽车车型的用户口碑和评论的方法。通过运行源代码,我们可以获取指定车型的全部评价数据,并将其整理...
python爬取网页文字_用python爬取网页文本内容,让你快速浏览网站内容
weixin_39586265的博客
11-20 1324
大家好,我是咿哑呀。今天我教大家学习网络爬虫,这个爬虫能够爬取网页文本内容,提高大家浏览网页的速度。下面我把代码贴出,大家仔细研究:from urllib import request, parsefrom urllib.parse import quoteimport stringimport chardetfrom bs4 import BeautifulSoupimport reimport...
Python爬虫实战:从数据获取文本分析
"Python爬虫实战案例-爬虫文本分析.pptx" 在Python编程领域,爬虫是一种用于自动化地从互联网上收集信息的程序。本资料主要关注Python爬虫的实战应用以及文本分析,适合对网络数据抓取感兴趣的初学者和有一定基础...
写文章

热门文章

  • 英语词根词缀记忆大全 41595
  • html--蛆 40875
  • 网络安全面试题 21803
  • 油猴脚本自动填写问卷星 13792
  • 案例:数据提取/数据获取/爬虫—工具篇—影刀 13567

分类专栏

  • 数学—管理类联考—知识+记忆篇 付费 28篇
  • 数学—管理类联考—知识+题库 付费 23篇
  • HCIE-Cloud Computing LAB考试备考 付费 17篇
  • 云计算汇总 付费 47篇
  • CCIE重认证 付费 8篇
  • 华为云计算备考:故障排查 付费 7篇
  • 逻辑—管理类联考—知识+题库 付费 88篇
  • 监控 13篇
  • 在职研生活&学习 3篇
  • PMP 63篇
  • 逻辑—管理类联考—知识+记忆篇 7篇
  • 管理类联考复试 48篇
  • 私人
  • html 159篇
  • 简历 13篇
  • python 12篇
  • python-历史篇 3篇
  • python-入门篇 3篇
  • python-游戏篇 2篇
  • python基础篇 47篇
  • python-爬虫篇 2篇
  • python-开心篇 1篇
  • python产品篇 14篇
  • python-题库篇 3篇
  • python-自动化篇-运维 14篇
  • python-自动化篇-办公 11篇
  • python分享篇 42篇
  • python-可视化篇 3篇
  • python常见问题 1篇
  • 自动化
  • RPA机器人自动化 15篇
  • 学习记忆 58篇
  • 写作—管理类联考—知识+记忆篇 4篇
  • 读书会 1篇
  • 扶摇直上1万里 22篇
  • 英语—记忆 44篇
  • 英语--口语
  • 英语—管理类联考—知识+记忆篇 25篇
  • 英语—语法 6篇
  • 每天一分享 6篇
  • 视频 3篇
  • 华为云计算实验备考:模拟测试 7篇
  • manim 1篇
  • 系统规划与管理师考试 1篇
  • 管理类专业学位联考MBA,EME—share 244篇
  • 一建 4篇
  • 民航知识
  • Markdown语法学习 2篇
  • 工具 2篇
  • 稿件
  • 运维
  • bat 2篇
  • 安全
  • 网络 2篇
  • 就业 7篇
  • 工作 3篇

最新评论

  • 管理类联考——英语——趣味篇——词根词汇——按“认识自然、认识自我、改造自然、情感智力、人与社会”分类”

    fo安方: https://blog.csdn.net/stqer/article/details/131167138

  • 管理类联考——英语——趣味篇——词根词汇——按“认识自然、认识自我、改造自然、情感智力、人与社会”分类”

    zl1099: 如何看全文呢

  • python-自动化篇-终极工具-用GUI自动控制键盘和鼠标-pyautogui-键盘

    PerfXCloud大模型平台: 这篇文章详细介绍了植物大战僵尸的游戏设计和编码技巧,还提供了游戏源码,对学习Python和游戏开发很有帮助,挺不错的资源。

  • python-自动化篇-终极工具-用GUI自动控制键盘和鼠标-pyautogui-鼠标

    m0_72298740: 我直接关注

  • python认证考试-PECP-30-02备考

    blg_whzy: 请问现在是不是只能考30-02了

大家在看

  • 【Python爬虫系列】_022.异步文件操作aiofiles 580
  • 链表的增删改查
  • 【Chrome】开发一个Chrome扩展以及常见问题的解决方案
  • 字符集&&字符流
  • C++重生之我是001 1

最新文章

  • PMP--二模--解题--41-50
  • PMP--二模--解题--31-40
  • 视频——实战篇——发布
2024
09月 52篇
08月 25篇
07月 36篇
06月 56篇
05月 60篇
04月 55篇
03月 64篇
02月 65篇
01月 39篇
2023年588篇
2022年72篇

目录

目录

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

fo安方

觉得俺的文章还行,感谢打赏,爱

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或 充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

玻璃钢生产厂家南京设计玻璃钢雕塑公司贵州景观玻璃钢雕塑批发济南玻璃钢跑步人物雕塑西山区玻璃钢雕塑洪江玻璃钢胸像雕塑高端玻璃钢雕塑全国发货藤县玻璃钢雕塑价格室外玻璃钢动物雕塑多少钱商场美陈橱窗考察丽江市玻璃钢雕塑设计要多少钱内蒙古玻璃钢雕塑设计哪家好武汉景观园林玻璃钢景观雕塑和田气球商场美陈装饰哪家有名湖北水果玻璃钢雕塑多少钱顶级商场美陈南通秋季商场美陈山东泡沫玻璃钢雕塑人物雕像玻璃钢雕塑有哪些全新玻璃钢雕塑厂家服务至上玻璃钢花盆玻璃钢花盆濮阳玻璃钢卡通雕塑玻璃钢名侦探柯南雕塑安徽玻璃钢牛动物雕塑定制户外发光玻璃钢雕塑嘉兴玻璃钢头像雕塑海南玻璃钢雕塑厂家品质售后无忧玻璃钢蘑菇雕塑生产上海大型商场创意商业美陈步骤福州玻璃钢雕塑哪家好天津环保玻璃钢雕塑定制香港通过《维护国家安全条例》两大学生合买彩票中奖一人不认账让美丽中国“从细节出发”19岁小伙救下5人后溺亡 多方发声单亲妈妈陷入热恋 14岁儿子报警汪小菲曝离婚始末遭遇山火的松茸之乡雅江山火三名扑火人员牺牲系谣言何赛飞追着代拍打萧美琴窜访捷克 外交部回应卫健委通报少年有偿捐血浆16次猝死手机成瘾是影响睡眠质量重要因素高校汽车撞人致3死16伤 司机系学生315晚会后胖东来又人满为患了小米汽车超级工厂正式揭幕中国拥有亿元资产的家庭达13.3万户周杰伦一审败诉网易男孩8年未见母亲被告知被遗忘许家印被限制高消费饲养员用铁锨驱打大熊猫被辞退男子被猫抓伤后确诊“猫抓病”特朗普无法缴纳4.54亿美元罚金倪萍分享减重40斤方法联合利华开始重组张家界的山上“长”满了韩国人?张立群任西安交通大学校长杨倩无缘巴黎奥运“重生之我在北大当嫡校长”黑马情侣提车了专访95后高颜值猪保姆考生莫言也上北大硕士复试名单了网友洛杉矶偶遇贾玲专家建议不必谈骨泥色变沉迷短剧的人就像掉进了杀猪盘奥巴马现身唐宁街 黑色着装引猜测七年后宇文玥被薅头发捞上岸事业单位女子向同事水杯投不明物质凯特王妃现身!外出购物视频曝光河南驻马店通报西平中学跳楼事件王树国卸任西安交大校长 师生送别恒大被罚41.75亿到底怎么缴男子被流浪猫绊倒 投喂者赔24万房客欠租失踪 房东直发愁西双版纳热带植物园回应蜉蝣大爆发钱人豪晒法院裁定实锤抄袭外国人感慨凌晨的中国很安全胖东来员工每周单休无小长假白宫:哈马斯三号人物被杀测试车高速逃费 小米:已补缴老人退休金被冒领16年 金额超20万

玻璃钢生产厂家 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化