Transformer详解,中文版架构图

38 篇文章 7 订阅
订阅专栏

 

2.2.1 “编码器-解码器”架构
Seq2Seq 思想就是将网络的输入输出分别看作不同的序列,然后实现序列到序列
的映射,其经典实现结构就是“编码器-解码器”框架。编码器-解码器框架如图 2.7 所
示。


图2.7 编码器-解码器的基本框架


在 Seq2Seq 思想应用于自然语言处理之初,编码器解码器主要使用的是 RNN 及
其变体。针对输入,编码器会先遍历输入序列,根据循环神经网络的特性,每一层的
输入都包含了当前层的输入前一层的隐藏状态,而新的隐藏状态则会被用作下一层
的输入编码器一般只保留最后一层的隐藏状态,作为整个输入的语义向量,送入解

码器中,而这个语义向量输入解码器后会被看作是解码器初始的隐藏状态。
但由于循环神经网络本身的结构特性,如果输入序列过长,模型性能就会明显的
降低。这是因为使用循环神经网络只会将最后一层的隐藏状态作为表征整个输入文本
的语义向量,而句子中靠前的序列就会产生信息丢失问题。同时,在输出序列中,因
为输入的是已经损失了的语义向量,某些词对应的原始文本词已经在编码时丢失了。

图2.8 注意力机制原理示意图
为了解决这个问题,后续的相关工作中引入了注意力机制。注意力机制本质上借
鉴了人眼视觉处理信息的能力,可以概述为两个阶段:判断需要特别注意输入的哪个
部分;然后把资源优先分配给重要的部分。放在神经网络中,注意力机制就可以理解
为:在预测结果的时候把注意力侧重放在不同的特征上。
从数学上来讲,注意力机制[25]的计算可以被描述为一个查询(Query)到一系列
键值对(Key-Value)的映射。注意力机制计算的原理如图 2.8 所示:
其计算方式也可以归纳为两个步骤:
(1)先使用查询 Query 和键 Key 计算权重系数 ,求相似性的方法有点乘、权
重、余弦相似性等等,再用 SoftMax 操作对权重归一化,得到( ( , ))softmax f Q K

 

(2)第二个阶段再对 Value 进行加权求和,计算得到注意力的输出:

“编码器-解码器”框架引入注意力机制后,使用编码器对输入序列进行编码,首
先得到语义向量,然后可以得到一个所有语义向量的加权和,称之为语境
向量 ,使用代表注意力的权重参数,则语境向量可以表示为:


解码过程中,每一个输出词的概率可以由语境向量、前一层的隐状态共同确定:


其中,f 和g 分别代表非线性变换,一般指的是多层神经网络; 代表输出序列
中的一个词, 代表对应的隐状态;此外,注意力的权重参数可以使用另外的神经
网络计算得到的:
 


2.2.2 Transformer 网络


注意力机制在 Seq2Seq 中的应用在各项自然语言生成任务中都有提升。之后
Google 在 2017 年提出了 Transformer[13]模型,使用注意力机制、全连接前馈层、残差
连接组成的网络结构替代了 RNN,在多个自然语言处理任务乃至视觉任务上都有了
很大的提升。
Transformer 的整体结构如图 2.9 所示,也遵循“编码器-解码器”架构,编码器模
块主要由两个子层组成,分别是多头注意力机制(Multi-Head Self-attention Mechanism,
MHSM)和全连接前馈层(Fully Connected Feed-Forward Network),每个子层之后都
添加了层归一化(Layer Normalization,LN)和残差连接(Residual Connection)。

解码器块由三个子层组成,第一层是具有掩蔽功能的多头注意力层,可以防止信息泄露
第二层是整合编码器输出上一层解码器输出的多头注意力层;

第三层是全连接前置反馈层,同样每个子层后都添加了层归一化和残差连接


 

 模型中的点积注意力机制可以由以下公式表示:( , , ) ( )

而多头注意力就是通过h 个不一样的线性变换一起对输入的, ,Q K V 进行投影,并
进行点积注意力计算,最后再把不同的结果拼接起来。多头注意力的公式表示如

其中,d 为模型的维度,并且 为最后的线性投影层的权重矩阵
点积注意力机制与多头注意力机制的对比如图 2.10 所示。

 


图2.10 点积注意力与多头注意力机制示意图
全连接前馈层的作用是为模型提供非线性变化,由两个线性层和一个激活函数组
成,可以由下式表示:1 1 2 2( ) max(0, )FFN x xW b W b= + +
(2-18)
此外,对于文本而言,单词出现位置与顺序也很重要,Transformer 为了能保留文
本中的序列顺序及位置信息,提出了利用正余弦函数来保留序列中标记的相对或绝对
位置的方法。具体做法是利用正余弦函数对序列进行编码,并与输入嵌入语句向量进
行求和。2
( ,2 ) ( 10000 )modeli d
pos iPE sin pos=
(2-19)2
( ,2 1) ( 10000 )modeli d
pos iPE cos pos+ =
(2-20)
2.2.3 复制机制和指针机制
Seq2Seq 模型用于文本摘要有三个问题,即:倾向于生成重复文本、无法处理未
登录词问题(Out-of-Vocabulary,OOV)和无法准确复制真实细节。于是,指针生成
 

 

 

 

 

 

Transformer详解.pptx
06-15
本课件是对论文 Attention is all you need 的导读与NLP领域经典模型 Transformer详解,通过介绍传统Seq2Seq 模型及 Attention ,引入 Transformer 模型,并对其架构进行宏观微观的解读,然后详细介绍Transformer每一步的工作流程,最后给出 Transformer 在训练阶段的细节提要,以及推理阶段的解码策略等内容。
Transformer架构详解
m0_63260018的博客
12-18 3970
Transformer是一种深度学习模型,最初是由Vaswani等人在2017年的论文《Attention Is All You Need》中提出的。这种模型在自然语言处理(NLP)领域特别流行,它引入了一种新的机制——自注意力(self-attention),使得模型能够更加高效和有效地处理序列数据。
【神经网络学习日记(6)】Transformer结构详解
Spark_lr的博客
09-17 1255
Transformer模型的结构主要分为四个主要模块:输入、输出、编码器(Encoder)、解码器(Decoder)。本文介绍了Encoder-Decoder的基本框架,讲解了注意力机制的核心概念。
Transformertransformer模型结构学习笔记
shuaixio的博客
07-07 1477
transformer架构,encoder-decoder层,encoder子层介绍,decoder子层介绍,注意力机制,自注意力,交叉注意力,因果注意力,多头注意力,掩码注意力,前馈神经网络,非线性
BERT大火却不懂Transformer?读这一篇就够了
热门推荐
BigDataDigest的博客
01-08 1万+
大数据文摘与百度NLP联合出品编译:张驰、毅航、Conrad、龙心尘编者按:前一段时间谷歌推出的BERT模型在11项NLP任务中夺得STOA结果,引爆了整个NLP界。而BERT取得成功的一个关键因素是Transformer的强大作用。谷歌的Transformer模型最早是用于机器翻译任务,当时达到了STOA效果。Transformer改进了RNN最被人诟病的训练慢的缺点,利用self-attent...
一文彻底搞懂Transformer - 总体架构
m0_59164304的博客
07-16 2846
*****c**输入嵌入:将输入的文本转换为向量,便于模型处理。位置编码:给输入向量添加位置信息,因为Transformer并行处理数据而不依赖顺序。多头注意力:让模型同时关注输入序列的不同部分,捕获复杂的依赖关系。残差连接与层归一化:通过添加跨层连接和标准化输出,帮助模型更好地训练,防止梯度问题。带掩码的多头注意力:在生成文本时,确保模型只依赖已知的信息,而不是未来的内容。前馈网络:对输入进行非线性变换,提取更高级别的特征。****
图解 Transformer
张贤的博客
08-25 724
本文翻译自 : http://jalammar.github.io/illustrated-transformer/。是我看过的把 Transformer 讲解得最好的文章:这篇文章从输入开始,一步一步演示了数据在 Transformer 中的流动过程。由于看过一些中文翻译的文章,感觉不够好,所以我自己翻译了一个版本,在一些难以直译的地方,我加入了一些原文没有的文字说明,来更好地解释概念。另外,我添加了一些简单的代码,实现了一个基本的 self-attention 以及 multi-head attent.
Transformer(二)--论文理解:transformer 结构详解
12-10 1万+
文章目录1. transformer的基本结构2. 模块详解2.1 模块1:Positional Embedding(以下简称PE模块):2.2 模块2:Multi-Head Attention(多头注意力机制)2.2.1 Scaled Dot-Product Attention(缩放的点积注意力机制)2.2.2 Multi_Head(多头机制)2.3 模块3:ADD2.4 模块4:Layer Normalization2.5 模块5:Feed Forward NetWork2.6 模块6:Masked M
Transformer架构解析
wdn blog
05-21 5754
Transformer 是第一个完全依赖自注意力来计算其输入和输出表示,而不是使用序列对齐 RNN 或卷积的模型。
图解 Transformer [译]
weixin_42907150的博客
01-19 388
在处理矩阵时,我们可以用一个公式来简化自注意力层输出计算的第二步到第六步的过程。自注意力计算的矩阵表示形式。
“AI”科普丨Transformer架构图解最强教程!
kaka0722ww的博客
04-10 2305
今天给大家分享一篇关于深度学习模型Transformer的文章。我愿称之为讲解Transformer模型最好的文章。
Transformer万字详解
Tian__Gao的博客
05-16 1084
Vision Transformer一、Transformer起源(李宏毅)1.self-attention 一、Transformer起源(李宏毅) 1.self-attention 现实中有很多情况需要把a set of vectors(may change length)作为输入,比如一段英文“this is a cat”,可以把其进行one-hot encoding(独热编码)也可以对其进行word embedding(给每个词一个向量,这个向量有语义的信息,比如说把word embedding画出
Transformer模型详解及代码实现
专注计算机视觉算法训练,算法优化部署以及SDK开发的知识分享。
04-15 1151
本文详细解析了Transformer整体模型结构,并深入分析了各个layer层的原理及给出了计算公式,针对每个 layer、block 都给出了较为详细的代码实现方便深入理解网络结构。
模型架构选择:从传统NLP到Transformer
AI天才研究院
03-02 176
自然语言处理(NLP)是人工智能的重要分支,旨在使计算机能够理解、解释和生成人类语言。随着互联网的发展和数据量的激增,NLP技术在文本分类、机器翻译、情感分析、问答系统等多个领域得到了广泛应用。然而,NLP任务的复杂性和多样性对模型架构提出了巨大挑战。传统的NLP模型架构,如基于规则的方法、统计模型、词袋模型等,虽然在早期取得了一定的成果,但随着数据规模和任务复杂度的增加,这些方法逐渐暴露出其局限性。为了应对这些挑战,研究人员不断探索新的模型架构,从传统的RNN、CNN,到近年来备受瞩目的Transform
【大模型】AutoDL部署AI绘图大模型Stable Diffusion使用详解
congge
09-22 6206
AutoDL部署AI绘图大模型Stable Diffusion使用详解
训练Transformer模型
AI天才研究院
10-07 953
训练Transformer模型 作者:禅与计算机程序设计艺术 / Zen and the Art of Computer Programming 1. 背景介绍 1.1 问题的由来 自2017年Transformer模型横空出世以来
图解transformer
summer_45的博客
09-07 707
基于RNN结合Attention的seq2seq模型的缺点:无法对整个序列输入进行并行计算。本文介绍了Transformer模型,他是基于编码器-解码器结构的用于解决seq2seq的一种架构。它结合了注意力机制,使得模型并行计算能力增强;它结合了多头注意力机制,使得模型能够关注到更多方面的信息。
解析transformer中的各模块结构
m0_73776435的博客
05-02 1317
transformer是一种编解码(encoder-decoer)结构,用于自然语言处理、计算机视觉等领域,编解码结构是当前大模型必包含的部分。编解码结构图:transformer模块编码输入得到特征,然后解码得到输出。transformer论文的一张经典图:结合transformer论文和代码,模块主要包括了:词嵌入模块(input embedding)位置编码模块(Positional Encoding)多头注意力机制模块(Multi-Head Attention)
【大模型】图解Transformers架构
最新发布
m0_59163425的博客
10-08 991
对于Transformers的重要性我想不用多说了。先来个整体视角:再逐步分解开来:Transformer 是一种神经网络,擅长理解序列数据的上下文并从中生成新的数据。它们是首个仅依赖自注意力机制,而不使用 RNN 或卷积的模型。想象一个用于语言翻译的 Transformer 是一个黑盒子。🎩• 输入:一句话(某种语言)。• 输出:它的翻译。但是,这个黑盒子内部发生了什么?让我们一探究竟!🔍• 输入:西班牙语句子 “¿De quién es?
Transformer 网络结构网络架构图
01-12
抱歉,由于引用内容中没有提供具体的网络架构图,我无法为您提供Transformer网络结构的详细介绍。但是,我可以简要介绍一下Transformer网络的主要组成部分。 Transformer网络是一种基于注意力机制的神经网络架构,主要用于自然语言处理和计算机视觉任务。它由编码器和解码器两个部分组成,每个部分都由多个层堆叠而成。 编码器由多个相同的层组成,每个层都包含两个子层:多头自注意力机制和全连接前馈网络。多头自注意力机制用于捕捉输入序列中的上下文信息,而全连接前馈网络则用于对注意力机制的输出进行进一步处理。每个子层之后都会添加层归一化和残差连接,以提高网络的稳定性和训练效果。 解码器也由多个相同的层组成,除了编码器的子层外,解码器还包含一个额外的子层,用于对编码器输出进行注意力机制的处理。这样可以使解码器能够根据编码器的输出生成目标序列。 总的来说,Transformer网络通过注意力机制和全连接前馈网络来建模输入序列之间的关系,并且通过层归一化和残差连接来提高网络的性能和训练效果。
写文章

热门文章

  • 知识图谱构建全流程 64648
  • 多头注意力比单头好在哪? 26530
  • 大语言模型的指令微调(Instruction Tuning)最全综述:从数据集到技术全解析 25398
  • MetaGPT技术全解析:另一个AutoGPT,一个可以替代小型软件开发团队的配备齐全的软件开发GPT,产品经理、系统设计、代码实现一条龙 14419
  • mapjoin的使用方法以及注意事项 13220

分类专栏

  • LLM大语言模型 付费 451篇
  • 知识图谱KnowledgeGraph 付费 57篇
  • 多模态MLLM大模型面试指南 付费 21篇
  • 大模型LLM面试指南 付费 35篇
  • AIGC面试专栏 付费 4篇
  • 代码大模型之力扣评估 2篇
  • AI学术/期刊/会议相关信息,发表资讯 11篇
  • 代码注释生成 5篇
  • AI编程之代码大模型研究 64篇
  • 小语言模型 4篇
  • 代码模型微调 1篇
  • AI科研/相关文章/科研方向/科研工具 24篇
  • AI驱动的科研-科研自动化 11篇
  • 代码评估 7篇
  • 代码搜索 1篇
  • 人形机器人/机器人学/具身智能/仿人机器人/真正通用AI 15篇
  • 提示工程/大模型使用教程PromptEngineering 16篇
  • 伟大的工程师集锦-以激励自己 10篇
  • AI_LLM_Agent智能体 22篇
  • 人脸识别与分类 2篇
  • 多模态大规模图像分类/植物分类 19篇
  • 室内场景数据集 2篇
  • 图片生成-用作训练 3篇
  • 科技产业观察 2篇
  • 大语言模型LLM
  • 计算机博士后与博士 3篇
  • AIGC/视频生成、SORA、StableDiffusion 20篇
  • 数据科学算法竞赛 7篇
  • Linux小工具 1篇
  • 计算机视觉CV 15篇
  • CV-目标检测-Object Detection 7篇
  • 多模态基座模型FloundationModel 1篇
  • 多模态大模型VisualLLM 25篇
  • CV-图像分割-SAM 3篇
  • InternVL2书生蒲语多模态大模型/源码解析 17篇
  • GitHub学习与贡献成为Contributor 6篇
  • swift微调框架源码解析 7篇
  • LlaMa-Factory源码解析 17篇
  • 华为国产昇腾/曙光NPU硬件大模型 8篇
  • 人类溃败史 1篇
  • 大模型技术文章(转载) 1篇
  • 混合专家模型MOE 47篇
  • 大模型/增量预训练CPT 17篇
  • AI商业/产品/投融资前沿 21篇
  • 预训练语言模型 16篇
  • 大模型数据准备/预处理 13篇
  • 爬虫/网页自动化/数据获取
  • 多模态语音模型/大语音模型 15篇
  • transformers源码解析 16篇
  • 浪潮源大模型Yuan-LLM 6篇
  • Qwen千问源码解析及介绍 21篇
  • 大模型量化/部署 6篇
  • LLM分布式训练框架DeepSpeed/accelerate 29篇
  • 力扣leetcode算法与数据结构刷题 196篇
  • 大模型强化学习LLM/DPO/PPO/RLHF 30篇
  • AI+医疗 20篇
  • 开发及效率工具使用PycharmVS Code 6篇
  • 前沿AI大模型论文翻译与解读 22篇
  • 大模型RAG检索增强/知识库 21篇
  • Llama源码解析 5篇
  • 大语言LLM评测 13篇
  • Python 73篇
  • 搜索算法 4篇
  • 算法与人生-人生优化算法 4篇
  • 人机交互 1篇
  • 语音识别 1篇
  • 专家系统 2篇
  • Pytorch源码解析 1篇
  • 科研制图 1篇
  • KG图神经网络GNN、GCN、GCT 66篇
  • 大语言模型LLM应用-领域微调或角色化 19篇
  • C++大模型加速源码解析 1篇
  • 时间序列 1篇
  • NLP自然语言处理 38篇
  • 知识图谱
  • 人工智能哲学 5篇
  • 硬科学与自动化 1篇
  • 图神经源码解析 2篇
  • 编程/AI/项目/人生随想哲学 2篇
  • AGI生成式新闻或相关八卦/周边 26篇
  • 脑科学与认知科学 22篇
  • 算法竞赛结果记录 1篇
  • 量化金融 70篇
  • 如何学习 2篇
  • 中华传统易经与九运 4篇
  • 多伦对话 1篇
  • 力扣合集大放送 5篇
  • ChatGLM源码解析 23篇
  • 对话系统QA-Rasa 11篇
  • baichuan大模型 - 源码解析 9篇
  • OpenAI GPT4使用 8篇
  • 信息熵与信息差-信息差的数学原理 2篇
  • GPT情感计算 1篇
  • 认知计算-多模态 4篇
  • 少样本大语言模型LIMA 1篇
  • 可解释可信机器学习 - 因果 6篇
  • 生物信息学Bio 2篇
  • OCR文字识别 8篇
  • 推荐系统 89篇
  • 回归任务 3篇
  • 特征工程 2篇
  • Linux 5篇
  • 数据挖掘 26篇
  • 大数据 21篇
  • C++ 45篇
  • 集成学习 5篇
  • Hadoop 7篇
  • 机器学习指标 9篇
  • SQL 7篇
  • Redis 6篇
  • wangluo 2篇
  • 推荐系统周边 4篇
  • 深度学习 7篇
  • 剑指Offer 17篇
  • 机器学习 8篇
  • 数据科学 7篇
  • OpenCV 4篇
  • C++编译 3篇
  • OpenVINO 2篇
  • 智能驾驶 14篇
  • 驾驶规划模块 2篇
  • C++ STL标准模板库 3篇
  • 多语言编程 2篇
  • python机器学习 12篇

最新评论

  • 论文笔记122_AI_The AI Scientist

    CSDN-Ada助手: 你好,CSDN 开始提供 #论文阅读# 的列表服务了。请看:https://blog.csdn.net/nav/advanced-technology/paper-reading?utm_source=csdn_ai_ada_blog_reply 。如果你有更多需求,请来这里 https://gitcode.net/csdn/csdn-tags/-/issues/34?utm_source=csdn_ai_ada_blog_reply 给我们提。

  • Transformer详解,中文版架构图

    000小白: 谢谢分享表情包表情包表情包

  • HumanEval是如何进行代码评估的:从数据构成、评估逻辑到pass@k指标计算

    AI生成曾小健: 试着订阅一下呢?

  • HumanEval是如何进行代码评估的:从数据构成、评估逻辑到pass@k指标计算

    早起学习晚上搬砖: 怎么忽然又要订阅了

  • fastllm 大模型推理加速 c++库

    AI生成曾小健: 你不看可以不要看。别在这里骂人

大家在看

  • 实用的kali密码生成工具(crunch) 94
  • jsp高校实验项目预约管理系统389c1--程序+源码+数据库+调试部署+开发环境
  • 【强化学习】—— Q-learning算法 353
  • Zotero高效秘籍:学术达人必备的7款插件
  • Altium Designer 入门基础教程(五)

最新文章

  • 讯飞星火数学编程超GPT-4o,联手华为干仗大模型!启动智算平台,助攻小艺声音修复
  • [sci四区-]ICG: A Machine Learning Benchmark Dataset and Baselines for Inline Code Comment-Java Funcom
  • [代码生成-力扣评估]DeepSeek-Coder: When the Large Language Model MeetsProgramming - The Rise of Code Int长文
2024
10月 169篇
09月 69篇
08月 134篇
07月 264篇
06月 85篇
05月 81篇
04月 124篇
03月 88篇
02月 33篇
01月 11篇
2023年407篇
2022年192篇
2021年449篇
2020年2篇
2019年2篇
2018年6篇

目录

目录

分类专栏

目录

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

AI生成曾小健

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或 充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

玻璃钢生产厂家玻璃钢校园雕塑多少钱信阳铸造玻璃钢仿铜雕塑美陈玻璃钢人物雕塑泉州晋江玻璃钢雕塑生产厂家六安学校玻璃钢雕塑市场美陈冬季商场天津景区玻璃钢雕塑供应商贵阳玻璃钢人像雕塑图片玻璃钢熊猫雕塑城景区猪年商场美陈装饰主题云浮玻璃钢人物雕塑公司南宁多彩玻璃钢雕塑嘉峪关动物玻璃钢雕塑哪家好平凉仿真玻璃钢雕塑定做杭州商场玻璃钢花盆黑龙江仿铜玻璃钢雕塑价格杭州生产玻璃钢雕塑厂家通道商场美陈批发价丽水商场美陈商城玻璃钢雕塑厂家龙门玻璃钢造型雕塑杭州玻璃钢人物雕塑制作江苏常用商场美陈哪家好东莞玻璃钢雕塑摆件哪家好上海秦春玻璃钢雕塑铜仁玻璃钢座椅雕塑厂家枣庄玻璃钢雕塑达州玻璃钢雕塑摆件施工厂家北京常见商场美陈多少钱室外爱心玻璃钢雕塑香港通过《维护国家安全条例》两大学生合买彩票中奖一人不认账让美丽中国“从细节出发”19岁小伙救下5人后溺亡 多方发声单亲妈妈陷入热恋 14岁儿子报警汪小菲曝离婚始末遭遇山火的松茸之乡雅江山火三名扑火人员牺牲系谣言何赛飞追着代拍打萧美琴窜访捷克 外交部回应卫健委通报少年有偿捐血浆16次猝死手机成瘾是影响睡眠质量重要因素高校汽车撞人致3死16伤 司机系学生315晚会后胖东来又人满为患了小米汽车超级工厂正式揭幕中国拥有亿元资产的家庭达13.3万户周杰伦一审败诉网易男孩8年未见母亲被告知被遗忘许家印被限制高消费饲养员用铁锨驱打大熊猫被辞退男子被猫抓伤后确诊“猫抓病”特朗普无法缴纳4.54亿美元罚金倪萍分享减重40斤方法联合利华开始重组张家界的山上“长”满了韩国人?张立群任西安交通大学校长杨倩无缘巴黎奥运“重生之我在北大当嫡校长”黑马情侣提车了专访95后高颜值猪保姆考生莫言也上北大硕士复试名单了网友洛杉矶偶遇贾玲专家建议不必谈骨泥色变沉迷短剧的人就像掉进了杀猪盘奥巴马现身唐宁街 黑色着装引猜测七年后宇文玥被薅头发捞上岸事业单位女子向同事水杯投不明物质凯特王妃现身!外出购物视频曝光河南驻马店通报西平中学跳楼事件王树国卸任西安交大校长 师生送别恒大被罚41.75亿到底怎么缴男子被流浪猫绊倒 投喂者赔24万房客欠租失踪 房东直发愁西双版纳热带植物园回应蜉蝣大爆发钱人豪晒法院裁定实锤抄袭外国人感慨凌晨的中国很安全胖东来员工每周单休无小长假白宫:哈马斯三号人物被杀测试车高速逃费 小米:已补缴老人退休金被冒领16年 金额超20万

玻璃钢生产厂家 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化