对于Transformer 模型----可以从哪些地方进行创新和改进

Vit,全称 Vision Transformer,是Transformer在CV方向的应用,是NLP与CV的相互联系、相互促进、相互影响。
自Transformer应用进计算机视觉领域以来,与其相结合的新模型大都表现出了不错的效果。但是,这个过程仍然存在很多值得改进的空间,借鉴其它论文,看看他们是如何思考并改进的。

改进思路

一,分块的改进

论文:Vision Transformer with Progressive Sampling(ICCV2021)
源码

ViT采用的是一种直接明了的标记化(tokenization)方案,该方案将一幅图像分割成一系列规则间隔的patches,这些patches被线性投影到tokens中。通过这种方式,图像被转换成数百个视觉tokens。

这样的方法有以下的问题:

  1. 硬分割可能会分离出一些高度相关的区域,这些区域应该用同一组参数建模,这破坏了对象原有的结构,并使得输入patches的信息量变得较少。比如,一整个狗,会被分成几个部分,使得任务变成了要基于某一个部分的识别挑战。
  2. tokens被放置在规则的网格上,而与底层图像内容无关,无法很好地建立起各层图像间的联系。并且,大多数网格聚焦在不感兴趣的背景上,这可能导致感兴趣的前景对象(图像目标)淹没在干扰信号中。

改进思路
人类视觉系统以一种完全不同的方式组织视觉信息,而不是一次不加区别地处理整个场景。取而代之的是,它循序渐进地、选择性地将注意力集中在视觉空间的有趣部分,无论何时何地需要它,而忽略不感兴趣的部分,随着时间的推移,结合来自不同注视的信息来理解场景。

受上述过程的启发,论文提出了一种新的基于transformer的渐进采样(Progressive Sampling)模块,该模块能够学习从哪里看图像,以缓解ViT中简单的tokens化方案带来的问题。

**论文提出的模块不是从固定位置采样,而是以迭代的方式更新采样位置。**在每次迭代中,当前采样步骤的tokens被馈送到transformer编码层,并预测一组采样偏移量以更新下一步的采样位置。该机制利用transformer的能力来捕获全局信息,通过结合本地上下文和当前tokens的位置来估计对感兴趣区域的偏移量。这样,注意力就会像人类视觉一样,一步一步地集中到图像的可辨别区域。

二、相对位置编码的反思与改进

论文:Rethinking and Improving Relative Position Encoding for Vision Transformer(ICCV2021)
源码

思考
transformer位置表示的编码方法主要有两类。一个是绝对的,另一个是相对的。

绝对方法将输入tokens的绝对位置从1编码到最大序列长度。也就是说,每个位置都有单独的编码向量。然后将编码向量与输入Tokens组合,以将位置信息输入给模型。

相对位置方法对输入tokens之间的相对距离进行编码,并学习tokens之间的成对关系。相对位置编码(relative position encoding, RPE)通常通过具有与self-attention模块中的 query 和 key 交互的可学习参数的查询表来计算。这样的方案允许模块捕获Tokens之间非常长的依赖关系。

相对位置编码在自然语言处理中被证明是有效的。然而,在计算机视觉中,这种效果仍然不清楚。最近很少有文献对其进行阐述,但在Vision Transformer方面却得出了有争议的结论。

例如,Dosovitski等人观察到相对位置编码与绝对位置编码相比没有带来任何增益。相反,Srinivaset等人发现相对位置编码可以诱导明显的增益,优于绝对位置编码。此外,最近的工作声称相对位置编码不能和绝对位置编码一样好用。这些工作对相对位置编码在模型中的有效性得出了不同的结论,这促使我们重新审视和反思相对位置编码在Vision Transformer中的应用。

另一方面,语言建模采用原始相对位置编码,输入数据为一维单词序列。但对于视觉任务,输入通常是2D图像或视频序列,其中像素具有高度空间结构。目前尚不清楚:从一维到二维的扩展是否适用于视觉模型;方向信息在视觉任务中是否重要

改进思路

  1. 论文分析了相对位置编码中的几个关键因素,包括相对方向、上下文重要性、query、key、value和相对位置嵌入之间的交互以及计算代价。该分析对相对位置编码有了全面的理解,并为新方法的设计提供了经验指导。
  2. 提出了一种高效的相对编码实现方法,适用于高分辨率输入图像,如目标检测、语义分割等Tokens可能非常大的场合。
  3. 综合考虑效率和通用性,提出了四种新的vision transformer的相对位置编码方法,称为image PRE(IPRE)。这些方法很简单,可以很容易地插入self-attention层。实验表明,在不调整任何超参数和设置的情况下,该方法在ImageNet和COCO上分别比其原始模型DeiTS和DETR-ResNet50提高了1.5%(top-1ACC)和1.3%(MAP)。
  4. 实验证明,在图像分类任务中,相对位置编码可以代替绝对编码。同时,绝对编码对于目标检测是必要的,其中像素位置对于目标定位是重要的

三、Encoder的改进

关于Encoder的改进,大部分都是在将transformer用于具体任务时,针对各个任务的特点或出现的问题进行改进的。虽然不一定是一个通用的模型,但其在改进过程体系的改进思路仍值得学习和借鉴。

TransFER
论文:TransFER: Learning Relation-Aware Facial Expression Representations With Transformers(ICCV2021)

表情识别具有类内相似性小、类间相似性大的特点。同时,需要提取不同的局部表征来对不同的表情进行分类。即使某些局部块(patches)不可见,更多样化的局部块也可以发挥作用。同时,不同的局部块可以相互补充
在这里插入图片描述
如图所示,仅根据嘴巴区域(列2)很难区分惊讶(第1行)和愤怒(第2行)。我们提出的TransFER模型探索了不同的关系感知面部部位,如眼睛(第3列,第1行)和眉毛之间的区域(第3列,第2行),这有助于区分这些不同的表情。

因此,应该在全局范围内探索不同局部块(patches)之间的关系,突出重要的块(patches),抑制无用的块(patches)

改进思路
论文提出了TransFER模型来学习不同关系感知的FER局部表示

  1. 提出了随机丢弃注意力图的多注意丢弃算法(Multi-Attention Dropping, MAD)。通过这种方式,推动模型去探索除最具区分性的局部斑块之外的综合局部斑块,自适应地聚焦于不同的局部斑块。当某些部位因姿势变化或遮挡而不可见时,此方式特别有用。
  2. Vision Transformer(VIT)适用于FER,称为VIT-FER,用于对多个局部块之间的连接进行建模。由于采用全局范围对每个局部块进行增强,充分挖掘了多个局部块之间的互补性,提高了识别性能。
  3. 多头自我注意(multi-head self-attention)使VIT能够在不同位置共同关注来自不同信息子空间的特征。然而,由于没有明确的指导,可能会建立冗余关系。为解决这一问题,提出了随机丢弃一个自我注意的多头自我注意丢弃(Multi-head Self-Attention Dropping, MSAD)方法。在这种情况下,如果放弃了self-attention,模型就被迫从其他地方学习有用的关系。因此,不同局部块之间的丰富关系被挖掘出来,从而使FER受益。

结合新的MADMASD模块,提出了最终的体系架构,称为TransFER

三、SOTA

论文:SOTR: Segmenting Objects with Transformers(ICCV2021)
源码

目前来看,transformer用于语义分割方面还在一些不足。一方面,transformer在提取低层特征时表现不佳,导致对小目标的错误预测。另一方面,由于特征映射的广泛性,需要大量的内存和时间,特别是在训练阶段

改进思路
为了克服这些缺点,论文提出了一种创新的自下而上的模型SOTR,该模型结合了CNN和transformer的优点。

  1. 论文提出了一种创新的CNN-Transformer-hybrid实例分割框架,称为SOTR。它可以有效地对局部连接和远程依赖进行建模,利用输入域中的CNN主干和transformer编码器,使它们具有高度的表现力。更重要的是,SOTR通过直接分割对象实例而不依赖于box检测,大大简化了整个流水线。在这里插入图片描述
  2. 设计了双注意力,这是一种新的position-sensitive self-attention机制,是为transformer量身定做的。与原来的transformer相比,SOTR这种设计良好的结构在计算量和内存上都有很大的节省,特别是对于像实例分割这样的密集预测的大输入
  3. 除了纯粹基于transformer的模型外,提出的SOTR不需要在大数据集上进行预训练,就可以很好地推广归纳偏差。因此,SOTR更容易应用于数据量不足的情况
  4. 在MS Coco基准上,SOTR的性能达到了使用ResNet-101-FPN主干的AP的40.2%,在精确度上超过了大多数最SOTA方法。此外,由于twin transformer对全局信息的提取,SOTR在中型物体(59.0%)和大型物体(73.0%)上表现出明显更好的性能。

四、PnP-DETR

论文:PnP-DETR: Towards Efficient Visual Analysis With Transformers
源码

将transformer网络应用于图像特征映射可能在计算上代价高昂,这主要是由于对长展平的特征向量的注意操作。这些特征可能是冗余的:除了感兴趣的对象之外,自然图像通常包含巨大的背景区域,这些背景区域可能在相应的特征表示中占据很大一部分;而且,一些区分特征向量可能已经足以检测对象。

现有的提高transformer效率的工作主要集中在加速注意操作上,很少考虑上面讨论的空间冗余

改进思路
为了解决上述局限性,论文开发了一个可学习的轮询和池化(Poll and Pool, PnP)采样模块。它的目的是将图像特征图压缩成由精细特征向量和少量粗略特征向量组成的抽象特征集。

从输入特征图中确定性地采样精细特征向量,以捕捉精细前景信息,这对于检测目标是至关重要的。粗略特征向量聚合来自背景位置的信息,所产生的上下文信息有助于更好地识别和定位对象。然后,transformer对细粗特征空间内的信息交互进行建模,并获得最终结果

由于抽象集比直接扁平化的图像特征图短得多,因此transformer的计算量大大减少,并且主要分布在前景位置(即大概率为有效的空间位置信息)。这种方法与提高transformer效率的方法是正交的,可以进一步与它们结合得到更有效的模型。
在这里插入图片描述

五、PiT

论文:Rethinking Spatial Dimensions of Vision Transformers
源码

CNN 以大空间尺寸和小通道尺寸的特征开始,并逐渐增加通道尺寸,同时减小空间尺寸。由于称为空间池化的层,这种维度转换是必不可少的。现代
CNN 架构,包括 AlexNet、ResNet和 EfficientNet,都遵循这一设计原则。

池化层与每一层的感受野大小密切相关。 一些研究表明,池化层有助于网络的表现力和泛化性能。 然而,与 CNN 不同的是**,ViT
不使用池化层,而是在所有层中使用相同大小的空间**。

改进思路
论文验证了 CNN 上池化层的优势。实验表明,池化层证明了 ResNet 的模型能力和泛化性能。为了将池化层的优势扩展到 ViT,论文提出了一种基于池化的视觉transformers (PiT)
在这里插入图片描述
PiT 是一种与池化层相结合的transformer架构。它可以像在 ResNet 中一样减少 ViT 结构中的空间大小。

最后,为了分析 ViT 中池化层的效果,论文测量了 ViT 的空间交互比,类似于卷积架构的感受野大小。论文展示了池化层具有控制自注意力层中发生的空间交互大小的作用,这类似于卷积架构的感受野控制

六、Swin Transformer

论文:Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
源码

论文试图扩展Transformer的适用性,使其可以作为计算机视觉的通用主干,就像它在NLP中所做的那样,也可以像CNNs在视觉中所做的那样。

论文提到,将transformer在语言领域的高性能转换到视觉领域的重大挑战可以用这两种模式之间的差异来解释。这些不同之处之一涉及到规模。

与作为语言transformer中处理的基本元素的单词tokens不同,视觉元素在尺度上可以有很大的变化,这是一个在诸如目标检测之类的任务中受到关注的问题。在现有的基于transformer的模型中,tokens都是固定比例的,这一特性不适合这些视觉应用

另一个不同之处在于,与文本段落中的文字相比,图像中像素的分辨率要高得多。存在许多视觉任务,如语义分割,需要在像素级别进行密集预测,这对于高分辨率图像上的Transformer来说是很困难的,因为它的self-attention的计算复杂度是图像大小的二次方

改进思路
为了克服这些问题,论文提出了一种通用的Transformer骨干网,称为Swin Transformer,它构造了分层的特征映射,并且计算复杂度与图像大小成线性关系。
在这里插入图片描述
如图1(A)所示,Swin Transformer通过从小块(灰色轮廓)开始,逐渐合并更深的Transformer层中的相邻块来构建分层表示

有了这些分层的特征图,Swin Transformer模型可以方便地利用先进的技术进行密集预测,如特征金字塔网络(FPN)或U-Net。线性计算复杂度是通过在分割图像(红色轮廓)的非重叠窗口内局部计算self-attention来实现的。每个窗口中的patches数量是固定的,因此复杂度与图像大小成线性关系

这些优点使得Swin Transformer适合作为各种视觉任务的通用主干,而不是以前基于Transformer的架构,后者生成单一分辨率的特征地图,并且具有二次方复杂性。
在这里插入图片描述
Swin Transformer的一个关键设计元素是窗口分区在连续的self-attention层之间的移动,如图2所示。移动的窗口桥接了前一层的窗口,提供了它们之间的连接,显著增强了建模能力

这种策略在实际延迟方面也是有效的:一个窗口内的所有query patch都共享相同的key集,这便于硬件中的内存访问。相反,较早的基于滑动窗口的self-attention方法由于不同query像素的不同key集而在一般硬件上受到低延迟的影响。

实验表明,所提出的移位窗口方法比滑动窗口方法具有更低的延迟,但在建模能力上是相似的。事实证明,移位窗口方法对于全MLP体系结构也是有益的。

七、TimeSformer

论文:Is Space-Time Attention All You Need for Video Understanding?
源码

视频理解与NLP有很多的相似的地方。首先,视频和语句都具有序列性;而且,一个字只能与语句中其它字联系才能理解,在视频行为中一个片段也需要与视频的上下文相关联。于是,论文期望NLP中这种long-range self-attention模型可以在视频模型中也有很高的表现

在视频领域,2D或3D卷积是用来提取时空特征的主流操作,但卷积操作比较明显的一个问题是感受野是有限的,若要获得全局感受野,需要堆叠很多层卷积层,它们的信息传播路径比较长。而self-attention这种操作可以很轻松地获得全局感受野,捕获局部和长范围的依赖关系。

卷积操作的另一个问题是受到内存的限制,特别是视频领域,往往需要在高分辨率和长范围帧之间权衡。而最近几年一些研究者的工作指出Transformer可以比CNN获得更快的训练和推理,因此在同样计算量预算下,transformer可以使用更大学习容量。

标准的self-attention需要计算所有tokens相互之间的相似性,这样的做法就是计算量比较大,因此需要考虑如何利用self-attention来处理图像块。论文比较了这方面的几种处理方式:Joint
Space-Time Attention、Sparse Local Global Attention 和Axial
Attention。这几种方式的共同点是采用ViT中的方式将图像进行分块,而它们之间的区别在于如何用self
attention来处理这些块。论文提出Divided attention的方式具有最好的表现。

在这里插入图片描述

八、增加Decoder

论文:End-to-End Object Detection with Transformers
源码

详细请见: 详情链接
本文仅作学习记录和分享,侵权请联系删除。

让我坚定自己的选择,在自己的感兴趣的、喜欢的道路上越走越远,不断进步、不断深挖吧!

磨人的Big_data
关注 关注
  • 7
    点赞
  • 112
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
大语言模型系列 - Transformer
丁爸的博客
08-05 1332
Transformer模型作为一种基于注意力机制的神经网络模型,在自然语言处理等领域取得了显著成就,并逐渐被应用于其他领域。随着技术的不断发展和完善,Transformer模型有望在更多领域发挥重要作用。
Transformer及其改进型总结
Steve Wang's blog
09-09 4267
Transformer是Google提出的用来解决LSTM建模长期依赖乏力的问题全新架构模型,同时其网络架构的设计全部考虑如何并行化,包括self-attenion机制、multi-head self-attention机制、FFW全部都是可以并行计算的,Add&Norm中Add类似预ResNet的shortcut,是为了解决深层模型梯度消失的问题,LayerNorm可以加速计算,这全部都是在为后面的大规模预训练模型做准备。Transformer的提出在NLP中具有里程碑式的意义,现在取得成功的B.
Document-Transformer:使用文档级上下文改进Transformer转换模型
02-25
使用文档级上下文改进变压器翻译模型 内容 介绍 这是我们工作的实现,将Transformer扩展为集成文档级上下文[ ]。 该实现在 用法 注意:用法不是用户友好的。 以后可能会改善。 训练标准的变压器模型,请参考的用户手册。 假设model_baseline / model.ckpt-30000在验证集上表现最佳。 使用以下命令生成虚拟的改进Transformer模型: python THUMT/thumt/bin/trainer_ctx.py --inputs [source corpus] [target corpus] \ --context [context corpus] \ --vocabulary [source
总结9种提速又提效的Transformer优化方案
最新发布
weixin_35170789的博客
08-27 124
前言Transformer目前已经成为人工智能领域的主流模型,应用非常广泛。然而Transformer中注意力机制计算代价较高,随着序列长度的增加,这个计算量还会持续上升。为了解决这个问题,业内出现了许多Transformer的魔改工作,以优化Transformer的运行效率。我这次就给大家分享9篇对Transformer...
深度学习 Transformer机制
Fantastic
10-30 6225
Transformer
论文阅读《Rethinking and Improving Relative Position Encoding for Vision Transformer
lzh666hhh的博客
08-19 1836
动机 相对位置编码在自然语言处理任务中被证明是有效的,而在视觉任务中更常见绝对位置编码,那么相对位置编码在视觉任务中是否有用? 如果有用,是哪些因素起到了作用? 贡献 验证了相对位置编码的有效性 验证了相对位置编码中不同因素起到的作用 方法 问题一:以前的相对位置编码都依赖于input embeddings,那么编码是否可以独立于输入 探究方法:设计了两种相对位置编码的模式,偏置模式(独立输入)和上下文模式(考虑与查询、键或值的交互) 偏置模式 rij为可学习标量,表示位置i和j之
Transformer模型改进
mudongcd0419的博客
11-07 2466
计算机视觉中的transformer模型创新思路总结
qq_29462849的博客
12-05 3064
点击上方“计算机视觉工坊”,选择“星标”干货第一时间送达作者丨仿佛若有光来源丨CV技术指南编辑丨极市平台导读本文回顾了ViT的结构,总结了计算机视觉中的transformer的主要改进思...
Swin-Transformer-main(截止到2022年12月23日).zip
12-23
Transformer模型最初是由Vaswani等人在2017年的论文《Attention is All You Need》中提出的,其核心在于注意力机制,替代了传统的卷积神经网络(CNN)中的局部感受野,使得模型可以全局处理输入序列,提高了序列处理...
探索深度学习的未来:Transformer-XL模型解析与实践
07-27
Transformer-XL 的核心创新在于引入了循环机制,使得模型能够处理比传统 Transformer 更长的序列,同时保持了训练效率和泛化能力。这对于处理长文本数据尤为重要,因为在实际应用中,很多文本数据的长度远远超过了...
transformer-xl-master_xl_transformer_
09-29
Transformer-XL是Transformer模型的一个扩展版本,主要针对原始Transformer模型在处理长序列时存在的局限性进行了优化。Transformer模型由Google在2017年提出,它通过自注意力机制(Self-Attention)彻底改变了序列...
Python库 | se3-transformer-pytorch-0.2.6.tar.gz
03-10
深度学习领域,尤其是在3D卷积神经网络(3D CNNs)和Transformer模型中,se3-transformer-pytorch库的应用潜力巨大。它能帮助研究人员和工程师构建更加精确的3D对象识别模型改进3D场景理解,甚至推动新的几何...
Transformer 的结构改进与替代方案
hellozhxy的博客
03-09 1495
自从 Transformer 结构被提出以来,以 BERT 为代表的 Encoder 模型,以 GPT 为代表的 Decoder 模型,以 ViT 为代表的 CV 模型,都烜赫一时。时至今日,几乎所有的 LLM 也都是 Transformer 结构,尽管不时也会有新的结构被提出来,但 Transformer 的江湖地位仍然无可撼动。希望通过以上问题的思考和讨论,能够帮助我们更好地使用Transformer、理解Transformer、优化Transformer改进Transformer
魔改Transformer!9种提速又提效的模型优化方案
python12345678_的博客
07-04 1474
Transformer目前已经成为人工智能领域的主流模型,应用非常广泛。然而Transformer中注意力机制计算代价较高,随着序列长度的增加,这个计算量还会持续上升。为了解决这个问题,业内出现了许多Transformer的魔改工作,以优化Transformer的运行效率。我这次就给大家。文章主要涉及4个方向:稀疏注意力机制、Transformer处理长文本、Transformer运行提效以及卷积Attention,原文及源码都已整理。
人人都能用的创新点:魔改Transformer
m0_59235245的博客
08-04 1016
Transformer目前已经成为人工智能领域的主流模型,应用非常广泛。然而Transformer中注意力机制计算代价较高,随着序列长度的增加,这个计算量还会持续上升。为了解决这个问题,业内出现了许多Transformer的魔改工作,以优化Transformer的运行效率。我这次就给大家分享,以方便大家更高效地使用模型,寻找论文创新点。
Transformer模型的9种常见结构与改进方法
m0_52464237的博客
01-03 2287
2.Transformer-XL:在原始Transformer的基础上,通过引入分段循环机制和相对位置编码来处理长序列数据,解决原始Transformer在处理长序列时遇到的问题。5.GPT系列:基于Transformer的生成式预训练模型,包括GPT、GPT-2、GPT-3等多个版本,通过不同的预训练方法和参数调整来提高生成式任务的性能。6.XLNet:结合了Transformer-XL和BERT的优点,通过引入自回归和自编码的混合训练方式,提高模型对上下文信息的捕捉能力。
Transformer原理以及运行机制
m0_61296035的博客
11-03 7432
1.Transformer的“前世今生” transformer最开始是在
Transform机制(1)
爱学习爱运动的专栏
01-03 1375
本文是对李宏毅老师的课程进行了整理。 视频地址为: https://www.bilibili.com/video/BV1Wv411h7kN?p=35 1 引入 Transform的应用场景 2 基本原理 Transform机制由编码器(Encoder)和解码器(Decoder)构成。 编码器:输入是一组向量序列,输出为一组向量序列,attention(注意力机制)、CNN、RNN等都可以作为Encoder; 解码器:根据编码器的输出,利用Begin特殊符号、输入向量序列得到后续的输出向量序列(如一段文字
Transformer模型改进-GPT
mudongcd0419的博客
11-07 1808
transformer短文本分类改进
07-28
根据引用\[1\]中的代码,transformer是用于计算TF-IDF权值的。TF-IDF是一种常用的文本特征提取方法,它可以衡量一个词在文本中的重要程度。然而,在短文本分类任务中,TF-IDF矩阵往往非常稀疏,因为短文本中的词汇量有限。因此,简单地将TF-IDF矩阵与信息增益(IG)相乘可能不会有很大的改进效果。 为了改进短文本分类的效果,可以考虑使用一些数据增强技术。引用\[2\]中提到了一种名为EDA(Easy Data Augmentation)的技术,它可以通过对原始文本进行一系列简单的操作(如同义词替换、随机插入、随机交换和随机删除)来生成新的训练样本。这样可以增加训练数据的多样性,提高模型的泛化能力。 另外,引用\[3\]中提到了使用远监督的方式对非结构化文本进行"伪标注"的方法。这种方法可以根据一个质量较高的词典对文本进行标注,从而获取新的词汇。然而,在垂直领域中,由于命名实体的多义性,远监督的效果可能有限。因此,在进行远监督标注时,需要注意对命名实体进行有效的区分。 综上所述,对于transformer短文本分类的改进,可以考虑使用数据增强技术(如EDA)来增加训练数据的多样性,提高模型的泛化能力。此外,可以结合远监督的方式对非结构化文本进行标注,但需要注意命名实体的区分。 #### 引用[.reference_title] - *1* [短文本分类总结](https://blog.csdn.net/erinapple/article/details/80537963)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down1,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* *3* [二分类最优阈值确定_医疗健康领域的短文本解析探索(二)](https://blog.csdn.net/weixin_39924329/article/details/111050000)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
写文章

热门文章

  • 计算机领域各大顶会顶刊集合梳理 21646
  • 详细理解(学习笔记) | DETR(整合了Transformer的目标检测框架) DETR入门解读以及Transformer的实操实现 11922
  • 批大小(超参数,batch size),它的设置范围、大小为什么都是2的幂次?可以有所改变吗? 9484
  • 对于Transformer 模型----可以从哪些地方进行创新和改进 6355
  • 如何解决训练集、测试集分布不一致的问题 5598

最新评论

  • 详细理解(学习笔记) | DETR(整合了Transformer的目标检测框架) DETR入门解读以及Transformer的实操实现

    dylanabcfg: 我的预训练权重下载的是官方的resnet50,可以用这个吗?我改了代码还是下载不了detr的权重,有人知道是为什么么?

  • 目标检测,YOLOV:Making Still Image Object Detectors Great at Video Object Detection. 图像对象检测器在视频对象检测方面的表现

    weixin_45734021: 你好,能否加一个联系方式,我现在也在研究这个方向的

  • 目标检测,YOLOV:Making Still Image Object Detectors Great at Video Object Detection. 图像对象检测器在视频对象检测方面的表现

    weixin_45734021: 你好,能否加一下联系方式,因为我也是这个方向d1

  • 计算机领域各大顶会顶刊集合梳理

    全栈小社恐: 怎么只有和AI的呀?

  • 详细理解(学习笔记) | DETR(整合了Transformer的目标检测框架) DETR入门解读以及Transformer的实操实现

    麦田里的捡穗狗: 谢谢大佬表情包

大家在看

  • CAD知识点概览 CAD数据交换与二次开发
  • Cmd终端详解
  • JavaWeb的小结07 5
  • 【SSL-RL】自监督强化学习:事后经验回放 (HER)算法 380
  • 改变函数调用上下文:apply与call方法详解及实例 1717

最新文章

  • YOLOv1-7全系列模型大合集,学习记录和思考
  • 学习总结,神经网络模型中的优化器入门,以及了解如何选择更合适的优化器
  • 神经网络模型中常用的归一化方法了解
2023年6篇
2022年13篇

目录

目录

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

玻璃钢生产厂家汕尾大象玻璃钢卡通雕塑江西公园玻璃钢雕塑订做价格西安欧式玻璃钢雕塑定做价格成都最好的玻璃钢雕塑制作厂松原玻璃钢雕塑公司亳州小品系列玻璃钢雕塑定做福建玻璃钢花盆价格景区玻璃钢雕塑方法北京玻璃钢雕塑灯价格专业校园玻璃钢雕塑报价玻璃钢雕塑参数蜘蛛侠玻璃钢雕塑品牌玻璃钢卡通雕塑供应商场中庭吊球美陈工厂清远玻璃钢抽象雕塑荔湾商场美陈商场美陈台阶开封景观园林玻璃钢景观雕塑潮州雕塑玻璃钢广西卡通造型玻璃钢雕塑厂家商场美陈地堆施工优质的玻璃钢雕塑定制长春商场美陈山西水景玻璃钢雕塑张家界公园玻璃钢雕塑厂家嘉兴玻璃钢雕塑订做价格济南户外商场美陈江苏镜面玻璃钢雕塑哪家好商场美陈灯光投影玻璃钢雕塑场香港通过《维护国家安全条例》两大学生合买彩票中奖一人不认账让美丽中国“从细节出发”19岁小伙救下5人后溺亡 多方发声单亲妈妈陷入热恋 14岁儿子报警汪小菲曝离婚始末遭遇山火的松茸之乡雅江山火三名扑火人员牺牲系谣言何赛飞追着代拍打萧美琴窜访捷克 外交部回应卫健委通报少年有偿捐血浆16次猝死手机成瘾是影响睡眠质量重要因素高校汽车撞人致3死16伤 司机系学生315晚会后胖东来又人满为患了小米汽车超级工厂正式揭幕中国拥有亿元资产的家庭达13.3万户周杰伦一审败诉网易男孩8年未见母亲被告知被遗忘许家印被限制高消费饲养员用铁锨驱打大熊猫被辞退男子被猫抓伤后确诊“猫抓病”特朗普无法缴纳4.54亿美元罚金倪萍分享减重40斤方法联合利华开始重组张家界的山上“长”满了韩国人?张立群任西安交通大学校长杨倩无缘巴黎奥运“重生之我在北大当嫡校长”黑马情侣提车了专访95后高颜值猪保姆考生莫言也上北大硕士复试名单了网友洛杉矶偶遇贾玲专家建议不必谈骨泥色变沉迷短剧的人就像掉进了杀猪盘奥巴马现身唐宁街 黑色着装引猜测七年后宇文玥被薅头发捞上岸事业单位女子向同事水杯投不明物质凯特王妃现身!外出购物视频曝光河南驻马店通报西平中学跳楼事件王树国卸任西安交大校长 师生送别恒大被罚41.75亿到底怎么缴男子被流浪猫绊倒 投喂者赔24万房客欠租失踪 房东直发愁西双版纳热带植物园回应蜉蝣大爆发钱人豪晒法院裁定实锤抄袭外国人感慨凌晨的中国很安全胖东来员工每周单休无小长假白宫:哈马斯三号人物被杀测试车高速逃费 小米:已补缴老人退休金被冒领16年 金额超20万

玻璃钢生产厂家 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化