Language Is Not All You Need: Aligning Perception with Language Models翻译

20 篇文章 3 订阅
订阅专栏
KOSMOS-1是一种多模态大语言模型,能够感知通用模态,支持零样本和迁移学习。通过在大规模多模态语料库中训练,KOSMOS-1能处理语言、视觉和跨模态任务,展示出强大的多模态理解和推理能力。此外,模型通过从语言到多模态的知识迁移增强性能,并通过RavenIQ测试展示了非语言推理能力。
摘要由CSDN通过智能技术生成

摘要

对语言,多模态感知,行动和世界建模的大量融合是迈向通用人工只智能的关键一步。在这项工作中,我们介绍了KOSMOS-1,这是一种Multimodal Large Language Model (MLLM),可以感知通用模态,基于上下文进行学习(即few-shot),并遵循指令(即zero-shot)。具体来说,我们在网络规模的多模态语料库中从头开始训练KOSMOS-1,包括任意交替的文本和图像,图像解释对以及文本数据。我们在各种任务上不进行梯度更新和微调,来评估了各种设置,包括zero-shot,few-shot和多模态思维链。实验结果表明,KOSMOS-1在下面几个任务上产生了令人惊讶的表现:(i)语言理解,生成和OCR无关的NLP任务(直接以文档图像作为输入),(ii)视觉语言任务,包括多模态对话,图像释义,视觉问答,(iii)视觉任务,例如带有描述的图像识别(通过文本指令指定类别)。我们还表明,MLLM可以从跨模态前迁移受益,即从语言到多模态,以及从多模态到语言来迁移知识。此外,我们引入了Raven IQ测试的数据集,该数据集诊断了MLLM的非语言推理能力。

1.Introduction: From LLMs to MLLMs

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
  大型语言模型(LLM)已成功地作为各种自然语言任务的通用接口。只要我们能够将输入和输出转换为文本,基于LLM的接口就可以适应该任务。例如,摘要任务的输入是文档,输出是其摘要。因此,我们可以将输入文档提供给语言模型,然后产生生成的摘要。
  尽管LLM被成功应用在自然语言处理领域,但它仍致力于使用LLM来处理多模态数据,例如图像和音频。作为智力的基本组成部分,多模态感知是在知识获取和对现实世界的基础方面实现通用人工智能的必要条件。更重要的是,解锁多模态输入大大扩展了语言模型在更高价值领域的应用,例如多模态机器学习,文档智能和机器人技术。
  在这项工作中,我们介绍了KOSMOS-1,这是一种 Multimodal Large Language Model (MLLM),可以感知通用模态,基于上下文进行学习(即few-shot),并遵循指令(即zero-shot)。目的是将感知与LLM保持对齐,以便模型能够看和说。具体来说,我们遵循METALM方法从头开始训练KOSMOS-1模型。如图1所示,基于Transformer的语言模型被视为通用目标接口,并且感知模块与语言模型相连。我们在网络规模的多模态语料库上训练该模型,即文本数据,任意交替的图像和文本数据以及图像释义对。此外,我们通过迁移纯语言数据来校准跨模态的指令遵循能力。
  如表1所示,KOSMOS-1模型本质上支持语言,感知语言和视觉任务能力。我们还在图2和图3中提供了一些生成示例。除了各种自然语言任务外,KOSMOS-1模型还可以处理各种感知密集型任务,视觉对话,视觉解释,视觉问答,图像释义, 简单的数学方程,OCR和带描述的zero-shot图像分类。我们还按照Raven’s Progressive Matrices 构建了IQ测试基准,该基准评估了MLLM的非语言推理能力。示例表明,多模态感知的支持使新LLM具有应用到新任务的机会。此外,我们表明MLLM与LLM相比获得更好的常识性推理能力,这表明跨模态迁移有助于知识获取。
  关键要点如下:
  From LLMs to MLLMs。正确处理感知是迈向通用人工智能的必要步骤。感知多模态输入的能力对LLM至关重要。首先,多模态感知使LLM能够获得除文本描述外的常识性知识。其次,将感知与LLM对齐为新任务(例如机器人技术和文档智能)打开了大门。第三,感知能力统一了各种API,因为图形用户界面是与之交互的最自然和通用的方式。例如,MLLM可以直接读取屏幕或从收据中提取数字。我们在网络规模的多模态语料库上训练KOSMOS-1模型,该模型可确保从不同的来源中学习。我们不仅使用大型文本语料库,还使用高质量的图像释义对,以及网络上任意交替的图像和文本文档。
  Language models as general-purpose interfaces。遵循METALM中提出的理念,我们将语言模型视为通用任务层。由于开放的输出空间,我们能够将各种预测任务统一为文本。此外,语言模型可以很好地处理自然语言指令和动作序列(例如编程语言)。LLM还用作基本推理器,这是对复杂任务的感知模块的补充。因此,将世界,动作和多模态感知与通用接口(即语言模型)相结合是很自然的。
  New capabilities of MLLMs。如表1所示,除了以前的LLM中发现的能力外,MLLM还具有了新的用途和能力。首先,我们可以使用自然语言指令和演示阳历来进行zero-shot和few-shot多模态学习。其次,我们通过评估Raven IQ测试来观察到非语言推理的有希望的信号,该测试衡量了人类的流体推理能力。第三,MLLM自然支持通用模态的多轮交互能力,例如多模态对话。
在这里插入图片描述

2.KOSMOS-1: A Multimodal Large Language Model

如图1所示,KOSMOS-1是一个多模态模型,可以感知通用模态,遵循指令,基于上下文进行学习并生成输出。给定先前的上下文,该模型学会以自回归方式生成文本。具体而言,KOSMOS-1的主干网络是基于Transformer的因果语言模型。除文本外,其他模态作为嵌入被带入到语言模型中。Transformer解码器充当以多模态作为输入的通用目标接口。我们在多模态语料库上训练KOSMOS-1,该语料库包括单模态数据,跨模态对数据和交替多模态数据。一旦训练了模型,我们就可以在语言任务和多模态任务上直接评估zero-shot和few-shot设置下的模型。

2.1 Input Representation在这里插入图片描述

Transformer解码器以统一的方式感知通用模态。对于输入格式,我们将输入平铺为包含特殊字符的序列。具体来说,我们使用 < s > <s> <s> < / s > </s> </s>表示序列的开始和结束。特殊字符 < i m a g e > <image> <image> < / i m a g e > </image> </image>表示编码图像嵌入的开始和结尾。例如,“ < s >   d o c u m e n t   < / s > <s>~document~</s> <s> document </s>”是文本输入,“ < s >   p a r a g r a p h   < s > < i m a g e > i m a g e   E m b e d d i n g   < / i m a g e >   p a r a g r a p h   < / s > <s>~paragraph~<s><image>image~Embedding~</image>~paragraph~</s> <s> paragraph <s><image>image Embedding </image> paragraph </s>”是一个交替的图像 - 文本输入。附录中的表21显示了一些输入格式的示例。
  嵌入模块用于将文本字符和其他输入模态编码为向量。然后将嵌入带入到解码器中。对于输入字符,我们使用查找表将它们映射到嵌入中。对于连续信号(例如,图像和音频)的方式,也可以将输入表示为离散code,然后将其视为“外部语言”。在这项工作中,遵循[HSD+22],我们采用视觉编码器作为输入图像的嵌入模块。另外,一个Resampler被用于作为注意力池化机制,来减小图像嵌入的数目。

2.2 Multimodal Large Language Models (MLLMs)

在获得输入序列的嵌入后,我们将其带入基于Transformer的解码器。从左到右的因果模型以自回归方式处理该序列,该序列通过以过去时刻上的序列为条件来产生下一时刻的字符。因果mask用于对未来的信息屏蔽。Transformer上的softmax分类器用于生成在词表上的字符。
  MLLM作为通用目标接口,可以用自然语言和多模态输入进行交互。只要我们可以将输入表示为向量,该框架就可以灵活地处理各种数据类型。MLLM结合了两个最好的技术。首先,语言模型自然继承了上下文学习和指令遵循的能力。其次,通过对多模态语料库进行训练,来使感知与语言模型保持对齐。
  该实现基于TorchScale库,该库是为大型模型训练而设计的。与标准Transformer结构相比,我们包括了以下修改:
  MAGNETO。我们将的Transformer一个变体MAGNETO用作主要结构。MAGNETO具有更好的训练稳定性和跨模态的出色表现。它为每个子层(即多头自注意力和前向网络)引入了一个额外的LayerNorm。该方法具有一种理论上得出的初始化方法,可以从根本上改善优化,这使我们能够稳定的情况下有效地扩展模型。
  XPOS。我们采用XPOS相对位置编码来进行更好的长篇上下文建模。该方法可以更好地泛华到不同的长度,即在可以以较短序列进行训练,同时以较长序列进行推理。此外,XPO可以优化注意力的分辨率,以便更精确地捕获位置信息。XPOS方法在插值和外推设置中也是有效的。

2.3 Training Objective

KOSMOS-1的训练是在网络规模的多模态语料库上进行的,包括单模态数据(例如,文本语料库),跨模态对数据(例如,图像释义对)和交替的多模态数据(例如,任意交替图像和文字的文档)。具体而言,我们使用单模态数据进行表示学习。例如,使用文本数据预训练指令遵循,上下文学习和各种语言任务进行语言建模。此外,跨模态对和交替的数据学会使对通用模态的感知与语言模型保持对齐。交替的数据也自然适合多模态语言建模任务。我们在第3.1节中介绍了训练数据收集的更多详细信息。
  这些模型使用下一个token预测任务进行训练,即,根据上下文学习生成下一个字符。训练目标是最大化训练样例中token的对数似然。请注意,只有在训练损失中考虑离散字符,例如文本字符。多模态语言建模是训练模型的可扩展方式。更重要的是,各种能力的出现使训练任务有利于下游应用。

3.Model Training

3.1 Multimodal Training Data

这些模型在网络规模的多模态语料库上训练。训练数据集由文本语料库,图像释义对以及图像和文本的交替数据组成。
  Text Corpora。我们用The Pile和Common Crawl (CC) 训练模型。The Pile是用于训练大规模语言模型的大型英语文本数据集,该数据集是由各种数据源产生的。我们没有对GitHub,Arxiv,Stack Exchange和PubMed Central的数据进行拆分。我们还包括Common Crawl 快照(2020-50和2021-04)数据集,CC-Stories和RealNews数据集。整个数据集都被对文档进行了精确去重和模糊去重,并过滤以排除下游任务数据。有关训练文本语料库的详细说明,请参阅附录B.1.1。
  Image-Caption Pairs。图像释义对由几个数据集构建,包括英语LAION-2B,LAION-400M,COYO-700M和Conceptual Captions。通过提取图像源和相应的alt-text,从Common Crawl网络数据的网页中收集英语LAION-2B,LAION-400M和COYO-700M。Conceptual Captions也来自互联网网页。更多详细信息可以在附录B.1.2中找到。
  Interleaved Image-Text Data。我们从Common Crawl快照中收集了交题的多模态数据,该数据是网页公开可用的档案。我们使用一个过滤程序从快照中的原始2B网页中选择约71M的网页。然后,我们从每个选定的网页的HTML提取文本和图像。对于每个文档,我们将图像数量限制在五个以内,以减少噪声和冗余。我们还随机丢弃只有一张图像的文档的一半来增加多样性。有关数据收集过程的更多详细信息在附录B.1.3中提供。通过使用此语料库,我们使KOSMOS-1能够处理交替的文本和图像,并提高其few-shot能力。

3.2 Training Setup

MLLM组件具有24层,其中有2048个隐藏维度,FFN中间大小为8192和32个注意力头,得到约1.3B的参数。我们使用Magneto的初始化来优化稳定性。为了更快的收敛,图像表示是从具有1024个特征维度的CLIP ViT-L/14模型中获得的。在训练期间,图像预处理成224×224分辨率。训练期间,除了最后一层,我们冻结了其余CLIP模型的参数。KOSMOS-1的参数总数约为1.6B。有关超参数的更多详细信息可以在附录A中找到。
  我们使用的batch size为120万个token(来自文本语料库中的50万个token,来自图像释义对的50万个token,以及来自交替数据的20万个token),并以30万个步长训练KOSMOS-1,相当于约3600亿token。我们采用 β = ( 0.9 , 0.98 ) β=(0.9,0.98) β=(0.9,0.98)的AdamW优化器。我们将重量衰减设置为 0.01 0.01 0.01,然后将dropout率设置为 0.1 0.1 0.1。对于前375个热启动步骤,学习率从0提高到 2 e − 4 2e-4 2e4,并在其余的训练步骤中线性衰减至 0 0 0。我们使用SentencePiece来对文本进行tokenize。 我们以“full-sentence”格式预处理数据,该格式将每个输入序列用完整句子进行组合,这些句子是从一个或多个文档中连续采样的。

3.3 Language-Only Instruction Tuning

为了使KOSMOS-1与人类指示更好地保持对劲,我们执行纯语言指令微调。具体来说,我们以f (instructions, inputs, and outputs) 格式使用指令数据来继续训练模型。指令数据是纯语言的,它与训练语料库混合在一起。微调过程是作为语言建模进行的。请注意,损失中未考虑指令和输入。第4.9.1节表明,指令遵循能力的改进可以迁移到多模态。
  我们将Unnatural Instructions和FLANv2结合在一起,作为我们的指令数据集。Unnatural Instructions是通过使用大型语言模型为各种自然语言处理任务生成指令而创建的数据集。它的核心数据集中有68,478个instruction-input-output三元组。FLANv2是一个涵盖不同类型的语言理解任务的数据集的集合,例如阅读理解,常识性推理和封闭式书本问答。我们从FLANv2中随机选择54K指令样例以增加我们的指令数据集。附录A.2中描述了训练超参数设置的详细信息。

Language Is Not All You Need:跨模态的大语言模型
人工智能曾小健
07-15 222
向人工通用智能迈进的关键步骤在于语言、多模态感知、行为以及世界模型的大融合。在这项研究中,我们引入了KOSMOS-1,一种可以感知通用模态、在上下文中学习(即 few-shot 学习)并遵循指令(即 zero-shot 学习)的多模态大型语言模型(MLLM)。具体来说,我们从头开始训练 KOSMOS-1,在网页规模的多模态语料库上进行训练,包括任意交错的文本和图像,图像-标题对,以及文本数据。
关于大语言模型的论文和学习资源集合
05-14 205
【代码】关于大语言模型的论文和学习资源集合。
【多模态】KOSMOS - Language Is Not All You Need: Aligning Perception with Language Models
vivid
08-16 850
论文:Language Is Not All You Need: Aligning Perception with Language Models链接:https://arxiv.org/pdf/2302.14045。
微软亚研院:Language Is Not All You Need
zandaoguang的博客
03-01 101
点击上方“视学算法”,选择加"星标"或“置顶”重磅干货,第一时间送达鱼羊 发自 凹非寺量子位 | 公众号 QbitAI还记得这张把谷歌AI搞得团团转的经典梗图吗?现在,微软亚研院的新AI可算是把它研究明白了。拿着这张图问它图里有啥,它会回答:我看着像鸭子。但如果你试图跟它battle,它就会改口:看上去更像兔子。并且还解释得条条是道:图里有兔子耳朵。是不是有点能看得懂图的ChatGPT内味儿了?这...
AI_Papers周刊:第四期
与君共勉,一起学习
03-05 1031
标题:KOSMOS-1:语言不是你所需要的全部:将感知与语言模型相结合作者:Shaohan Huang, Li Dong, Wenhui Wang, Yaru Hao, Saksham Singhal, Shuming Ma, Tengchao Lv文章链接:https://arxiv.org/abs/2302.14045 语言、多模式感知、动作和世界建模的大融合是通向通用人工智能的关键一步。在这项工作中,我们介绍了 Kosmos-1,这是一种多模态大型语言模型 (MLLM),它可以感知一般模
CVPR 2021最全论文开放下载!附pdf下载链接!
中科院AI算法工程师的博客
06-18 1万+
CVPR 2021最全论文开放,附所有pdf下载链接!
【大模型】大语言模型简介
热门推荐
AI天才研究院
04-03 2万+
因此,模型规模增长是必然趋势,当推进大模型规模不断增长的时候,涌现能力的出现会让任务的效果更加出色。有趣的是,当参数规模超过一定水平时,这些扩大的语言模型不仅实现了显着的性能提升,而且还表现出一些小规模语言模型所不具备的特殊能力。如 Google 发布的多模态具身视觉语言模型 PaLM-E,由540B 的 PaLM 文本模型和 22B 的 VIT 图像模型构成,两者集成处理多模态信息,所以它的总模型规模是 566B。随着模型规模的不断增长,任务效果也持续增长,说明这类任务对大模型中知识蕴涵的数量要求较高。
多模态大语言基座模型KOSMOS-1《Language Is Not All You Need: Aligning Perception with Language Models》论文简要介绍
qq_37261357的博客
04-09 1316
本文是关于NIPS2024论文《Language Is Not All You Need: Aligning Perception with Language Models》的简要介绍。这项工作提出了一个多模态大语言模型框架:KOSMOS-1,在语言理解、生成、无OCR的自然语言处理、感知-语言任务和视觉任务等方面的出色表现。
3月“ChatGPT”相关热门论文-AMiner
AI_Conf的博客
04-04 4264
3月ChatGPT相关热门论文合集!
ChatGPT is not all you need,一文看尽SOTA生成式AI模型:6大公司9大类别21个模型全回顾(三)
u012744245的博客
02-15 3725
上月,来自西班牙科米利亚斯主教大学(Comillas Pontifical University)的研究人员提交了一篇综述论文《ChatGPT is not all you need. A State of the Art Review of large Generative AI models》,将生成式模型按照任务模态、领域分成9大类,并总结了2022年发布的21个生成式模型的能力和局限性。这些局限性包括缺少特定任务下的大型数据集,以及需要高昂的计算资源等。
DINO&DINO v2:颠覆自监督视觉特征表示学习
家鸽的代码屋
10-15 1249
DINO系列学习总结
量子人工智能
最新发布
qh0526wy的博客
10-20 370
解铃还须系铃人,自然界背后的量子理论定律产生的算力提升难题,只有深刻地认识并加以利用,以物理计算逻辑的革新解决量子物理的限制,才可以真正地再次带来算力飞速提升的黄金时代,而智能算力的极速扩张仍然会是许多年之后社会经济和科学研究的主要诉求,量子人工智能是迎合以上需求的开端。相比量子计算编程,深度学习开发者已经颇具规模并形成了自己的生态,PyTorch 更是其中的佼佼者,重新开发一个深度学习工具包并不是最难的,难的是已经形成的开源代码和开发者技能、习惯的培养并不是一时能够改变的。
反向传播算法与随机搜索算法的比较
我想静静
10-17 372
在这篇文章中,我们将通过一个简单的线性回归问题来比较反向传播算法和随机搜索算法的性能。我们将使用Python代码来实现这两种算法,并可视化它们的梯度下降过程。
open-cd中的changerformer网络结构分析
始于足下
10-17 777
通过上述内容,我们可以根据参数文件中的内容提取opencd中任意网络结构,或采用timm来设置主干网络结构,或添加到自己的训练框架中如pytorch_segmentation中进行训练。相应的,我们可以进一步去学习mmalb的框架结构。
AI大模型带来哪些创业机遇?
金木编程
10-16 436
低代码开发平台:创业者可以构建基于大模型的低代码或无代码平台,帮助用户快速生成应用程序、自动化工作流程,尤其是为中小企业提供高效的数字化转型方案。数据治理工具:帮助企业管理和优化大数据集,确保数据的质量、安全性和隐私保护,特别是在医疗、金融等对数据合规性要求较高的领域。自动化写作:为市场营销、新闻、广告、社交媒体等行业开发自动内容生成工具,帮助企业快速生成高质量的文案、广告词和新闻稿。AI 艺术生成:通过大模型生成数字艺术作品、视频剪辑、音乐,帮助创作者快速创作,并提供创意工具给个人和企业用户。
新质技术之生成式AI、大模型、多模态技术开发与应用研修班
Lynn121的博客
10-17 634
在当前的科技飞速发展的时代,生成式人工智能、大模型、多模态技术的出现正为企业的数字化转型带来革命性变革。该研修班特别设计了为期四天的课程,从生成式AI的核心概念入手,逐步深入探讨大模型的应用开发以及多模态技术的集成运用。通过此次研修班,学员不仅能获得最新的AI技术知识,还能获得行业权威机构的职业技能认证,这将极大提升其在未来职场中的竞争力。本次研修班采取理论与实战相结合的培训模式,旨在让学员不仅能够全面掌握生成式AI、大模型和多模态技术的最新理论,还能通过实战练习,掌握将这些技术应用于实际业务。
self-instruct: aligning language model with self generated instructions
04-30
Self-instruct是一种用于对齐语言模型和自动生成的指令的方法。通过这种方法,我们可以训练语言模型自动生成指令,从而提高模型性能。 这种方法的基本思想是将模型训练成一个生成器,能够基于当前状态的描述来生成一系列指令。然后,这些指令被用来指导模型的下一步行动,以便它能够遵循指令执行任务。 例如,在自动驾驶车辆的情况下,模型需要根据当前的路况和行驶条件来做出决策。我们可以通过使用self-instruct方法来为模型生成指令,告诉它何时加速、何时减速或转向。这些指令将保证模型能够更好地应对变化,并使其更加安全和可靠。 总体来说,self-instruct方法为模型提供了一种自我监督的机制,可以指导模型的行为并改善其性能。它是一种有前途的方法,在自动驾驶、智能家居等领域有广泛的应用前景。
写文章

热门文章

  • DSSM|基于Transformer的语义相似度计算模型DSSM及代码开源 11736
  • 百度开源 FAQ 问答系统(AnyQ)|FAQ数据集的添加 11039
  • Attention Is All You Need翻译 10156
  • 百度开源 FAQ 问答系统(AnyQ)安装---Linux(无docker) 8394
  • 基于知识图谱问答(KBQA)|语义依存分析及代码开源 8111

分类专栏

  • LLM-tokenizer 3篇
  • LLM-综述 6篇
  • LLM-数据 10篇
  • LLM-训练 15篇
  • LLM-轻量化 4篇
  • LLM-推理 5篇
  • LLM-融合 3篇
  • LLM-评测 4篇
  • LLM-Agent 22篇
  • LLM-模拟 3篇
  • LLM-提示工程 9篇
  • LLM-长序列 6篇
  • LLM-VLM 20篇
  • LLM-Speech 6篇
  • DL应用-量化交易(multivar-forecase) 2篇
  • 无监督-对比学习 7篇
  • 优化-神经结构搜索 16篇
  • 强化学习-序列决策 1篇
  • 强化学习-策略优化 6篇
  • 强化学习-模型 4篇
  • 强化学习-应用 5篇
  • 强化学习-模仿学习 2篇
  • 问答-任务型问答 12篇
  • 问答-基于开放领域问答 15篇
  • 问答-基于知识图谱问答 2篇
  • 问答-开源问答系统 6篇
  • 对话-用户模拟器 2篇
  • 对话-对话管理 5篇
  • 解析-关系抽取 5篇
  • 解析-语义角色标注 2篇
  • 解析-文本分类 5篇
  • 匹配-语义相似度计算 5篇
  • 生成-解码算法 1篇
  • 生成-文本摘要 23篇
  • 生成-图像生成 4篇
  • 生成-对话生成 10篇
  • 生成-数学推理 12篇
  • 生成-可控生成 14篇
  • 生成-机器翻译 23篇
  • 生成-语法错误纠正 21篇
  • 语音-语音识别 9篇
  • 模型-GNN 4篇
  • 模型-SNN 1篇
  • 模型-diffusion 2篇
  • 模型-FLOW 4篇
  • 模型-CNN 1篇
  • 模型-EncoderDecoder 14篇
  • 模型-语言模型 33篇
  • 模型-MLP 3篇
  • 模型-RNNs 1篇
  • 基础-损失函数 1篇
  • 基础-微调 5篇
  • 基础-模型蒸馏 5篇
  • 基础-残差连接 1篇
  • 基础-正则化 2篇
  • 基础-正规化 2篇
  • 基础-随机过程 5篇
  • 基础-优化器激活函数 5篇
  • 基础-数据处理 1篇

最新评论

  • Sparse Low-rank Adaptation of Pre-trained Language Models翻译

    qq_23966231: 大佬用什么翻译软件, 符号都处理的这么好

  • Generate & Rank: A Multi-task Framework for Math Word Problems

    lyconghk: 请教个问题,这种针对math expression的decoder,词表里面的token有什么?另外论文中说用特殊符号num1, num2, num3等等去替换问题中里面的数字,如果同一个数字例如5,出现两次,但这两个5其实是针对不同东西的,例如5元和5支笔,这样需要怎么处理?

  • Inter-GPS: Interpretable Geometry Problem Solving翻译

    Renaissance_2237: 感谢翻译!

  • “Low-Resource” Text Classification: A Parameter-Free Classification Method with Compressors翻译

    uuup111: 但是这篇文章的代码中好像有问题,导致了标签泄漏,,改正这个错误之后,效果变成了最差的https://kenschutte.com/gzip-knn-paper/

  • Denoising Diffusion Probabilistic Models翻译

    筑梦师King: 我真服了哈哈哈哈哈哈哈毕设要求翻译英文文献,好多相关的论文都被翻译过了

大家在看

  • 【数据结构】TreeMap 和 TreeSet 676
  • Dockerfile 详解 578
  • 我,28岁,应不应该从从普通工程师转行到AI?
  • 如何快速部署Linux操作系统? 177
  • 基于nodejs+vue基于的合租匹配系统[开题+源码+程序+论文]计算机毕业设计

最新文章

  • SoundStream: An End-to-End Neural Audio Codec翻译
  • High-Fidelity Audio Compression with Improved RVQGAN翻译
  • Let’s Verify Step by Step翻译
2024
10月 4篇
09月 6篇
08月 8篇
07月 6篇
06月 5篇
05月 8篇
04月 4篇
03月 6篇
02月 4篇
01月 3篇
2023年80篇
2022年81篇
2021年86篇
2020年75篇
2019年39篇
2018年13篇

目录

目录

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

玻璃钢生产厂家玻璃钢花盆图片及价格正宗玻璃钢雕塑厂家性价比出众滁州商场大厅美陈福建开业商场美陈销售厂家开封水景玻璃钢人物雕塑厂家南京酒店玻璃钢雕塑设计商场中厅美陈厂家溧阳商场美陈河南小型玻璃钢雕塑摆件商场美陈的目的长沙河源玻璃钢卡通雕塑商场室内美陈创意玻璃钢卡通座椅雕塑湘西玻璃钢座椅雕塑价格商场 美陈玻璃钢雕塑怎么喷漆河南创意玻璃钢雕塑多少钱天筑玻璃钢雕塑价格乐陵玻璃钢花盆厂家玻璃钢景观雕塑哪个品牌好山东公园玻璃钢雕塑销售厂家安徽动物玻璃钢雕塑哪家便宜辽宁景区玻璃钢雕塑生产厂家商场 春季 美陈淮安玻璃钢雕塑浮雕肇庆美陈玻璃钢动物雕塑银川玻璃钢景观雕塑珠海玻璃钢动物雕塑直销价格宣威市玻璃钢雕塑设计报价临潼玻璃钢雕塑批发香港通过《维护国家安全条例》两大学生合买彩票中奖一人不认账让美丽中国“从细节出发”19岁小伙救下5人后溺亡 多方发声单亲妈妈陷入热恋 14岁儿子报警汪小菲曝离婚始末遭遇山火的松茸之乡雅江山火三名扑火人员牺牲系谣言何赛飞追着代拍打萧美琴窜访捷克 外交部回应卫健委通报少年有偿捐血浆16次猝死手机成瘾是影响睡眠质量重要因素高校汽车撞人致3死16伤 司机系学生315晚会后胖东来又人满为患了小米汽车超级工厂正式揭幕中国拥有亿元资产的家庭达13.3万户周杰伦一审败诉网易男孩8年未见母亲被告知被遗忘许家印被限制高消费饲养员用铁锨驱打大熊猫被辞退男子被猫抓伤后确诊“猫抓病”特朗普无法缴纳4.54亿美元罚金倪萍分享减重40斤方法联合利华开始重组张家界的山上“长”满了韩国人?张立群任西安交通大学校长杨倩无缘巴黎奥运“重生之我在北大当嫡校长”黑马情侣提车了专访95后高颜值猪保姆考生莫言也上北大硕士复试名单了网友洛杉矶偶遇贾玲专家建议不必谈骨泥色变沉迷短剧的人就像掉进了杀猪盘奥巴马现身唐宁街 黑色着装引猜测七年后宇文玥被薅头发捞上岸事业单位女子向同事水杯投不明物质凯特王妃现身!外出购物视频曝光河南驻马店通报西平中学跳楼事件王树国卸任西安交大校长 师生送别恒大被罚41.75亿到底怎么缴男子被流浪猫绊倒 投喂者赔24万房客欠租失踪 房东直发愁西双版纳热带植物园回应蜉蝣大爆发钱人豪晒法院裁定实锤抄袭外国人感慨凌晨的中国很安全胖东来员工每周单休无小长假白宫:哈马斯三号人物被杀测试车高速逃费 小米:已补缴老人退休金被冒领16年 金额超20万

玻璃钢生产厂家 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化