Enforcing Temporal Consistency in Video Depth Estimation–视频深度估计

code:https://github.com/yu-li/TCMonoDepth

在视频估计领域,现有的单眼深度估计方法利用单张图像和差强人意的时间稳定性。这通常意味着需要后处理手段。一些基于深度的视频估计利用重建框架如SFM、序列建模。这些方法在某些方面做了系列假设,因此真实应用时具有一定的局限性。

文章提出一种简单的方法,旨在提高视频深度估计时的时间一致性。没有任何后处理和额外计算成本的情况。
具体:从视频数据中学习了一个先验,这个先验可以直接施加到任何单一图像的单目深度方法。
测试时只是逐帧进行端到端的正向推理,没有任何顺序模块或多帧模块。
此外提出了一个评估指标,定量衡量时间一致性的视频深度预测。它不需要标记深度地面真相,只评估连续帧之间的闪烁。一份主观研究表明,提出的度量标准与用户的视觉感知是一致的,一致性得分较高的结果确实是首选。
这些特点使文章方法成为一种实用的视频深度估计器,可以预测真实场景的密集深度,并支持多种基于视频深度的应用。

作者介绍了一种简单而有效的方法来加强视频深度估计的时间一致性。一个基本假设:如果连续帧中对应的像素漂移很多,闪烁就会出现。通过对这种对应下的预测进行约束和对齐,引导模型在单帧推理下产生具有强一致性的深度估计。同时,定义了一个度量来公平地评估深度估计结果随时间的稳定性,其不需要标记的地面真值进行处理。

一种新的评估指标,测量视频深度估计结果的稳定性。实验表明,该指标是OK的,并与人类视觉判断深度一致。提出了一种有效的方法在训练过程中施加时间限制。然后学习该模型,只有单一帧输入的情况下,产生稳定的深度预测。将该方法扩展到没有深度地面真值的动态视频。展示了可以很容易地使用未标记的视频强制约束和规范模型。主观研究表明,作者方法提供了更好的一致性值和可察觉的较少闪烁的结果。

时间一致性度量:

强制一致的模型应该在整个周期内,得到不包含明显闪烁的深度估计结果。两个连续的深度图的变化通常来自几个方面:

1、场景中物体的移动
2、镜头的变换和旋转
3、同一区域意外频繁的漂移
对于高帧率的视频,帧与帧之间的变化较小,连续两帧之间的深度值在对应像素上应该几乎相同。基于单图像的方法通常对帧间的这种变化没有任何限制,因此会出现闪烁现象,使得在三维坐标中属于同一单位的像素深度值在时间轴上发生频繁而随机的漂移。

为了测量连续深度结果的稳定性,需要在每对连续帧中识别相应的像素,并确定这些像素在整个视频中如何波动。在前人对语义分割一致性评估的基础上,很容易提出用光流搜索对应像素点的思想。

度量指标

本文模型建立在单张图像深度估计,旨在将学习时间一致性强加到原始深度网络上。

训练阶段:

将两个相邻帧,分别进行相应的深度估计,遵循单张图像深度估计方法,可以测量深度估计与地面真实深度的差,这只是传统的深度预测精度的损失,在训练中被最小化。前向传递、损失计算和后向传递分别适用于两帧。

时间一致性损失-目的:减少两个连续帧之间的深度偏移。 由于两个坐标系之间存在运动,需要在测量距离之前对其进行补偿。

关于数据集的标签:

数据集:难以捕获大尺度、多样化的视频深度数据集。作者建议使用从最先进的单眼深度方法中提取的监督。具体来说,使用MiDaS网络作为教师,对来自多个数据集的大量数据进行预训练。MiDaS已被证明具有良好的泛化能力,适合一般深度估计目标。在这种情况下,前面描述的管道仍然适用,但只是将MiDaS网络的输出作为监督信号Dt *。

实验结果:

第一行:来自NYU的输入帧。
第二行:使用BTS生成的深度估计图。
第三行:使用CLSTM生成的深度估计映射。
最后一行:作者方法生成的深度估计图。
为了更好地可视化视频稳定性,将不同帧和深度估计的相同区域放大并拼接在最后一列上。
视频深度估计和数字条纹的视觉比较是从连续的帧中裁剪出来的。
最先进的基于单图像的方法MiDaS[32]可以产生帧级高质量的深度图,
但随着时间的推移会有明显的闪烁。
将时间一致性引入深度估计模型后,作者方法可以预测时间上更稳定的深度预测。

总结:

在这项工作中,作者介绍了一种简单而有效的方法来提高单帧深度估计下视频深度估计的时间一致性。同时还提出了一种时间一致性度量,该度量与人类对视频稳定性的感知相一致。实验表明,作者方法可以表现出更稳定的深度估计,并且可以推广到动态真实世界的视频中,而不需要相应的深度地面真值。

AIGC的一些记录

摘自:https://zhuanlan.zhihu.com/p/615522634

最近AIGC发展的也太太太太太太快了,感觉完全follow不上了,我对text to image的认知还停留在stackgan上,汗颜。

这里总结了几篇比较新的survey,记录一下

A Comprehensive Survey of AI-Generated Content (AIGC): A History of Generative AI from GAN to ChatGPT

ChatGPT is not all you need. A State of the Art Review of large Generative AI models

现有的一下GAI技术

这几年的一些GAI技术的总结,包括了ChatGPT (文本到文本的对话模型)与 DALL-E-2(文本到图像的生成模型) , Codex(文本到代码的生成模型) ,Dreamfusion (文本到3D图像), Flamingo(图像到文本),Phenaki (文本到视频),AudioLM(文本到音频),Galactica(文本到科学文本),AlphaTensor(自动搜索高性能的矩阵运算逻辑)

实际上,ChatGPT 和其他生成式人工智能 (GAI) 技术属于人工智能生成内容 (AIGC) 的范畴,涉及通过人工智能模型创建数字内容,例如图像、音乐和自然语言。

AIGC 的目标是使内容创建过程更加高效和易于访问,从而能够以更快的速度制作高质量的内容

AIGC是通过从人类提供的指令中提取和理解意图信息,并根据其知识和意图信息生成内容来实现的。近年来,大型模型在 AIGC 中变得越来越重要,因为它们提供了更好的意图提取,从而改进了生成结果。随着数据的增长和模型的规模,模型可以学习的分布变得更加全面和接近现实,从而导致更真实和高质量的内容生成。

生成式 AI 模型的分类
按发布日期列出的涵盖模型。除了 2021 年发布的 LaMDA 和 2023 年发布的 Muse 之外,所有模型都在 2022 年发布。

为了能够训练这些巨大的模型,必须拥有强大的计算能力和一支技术精湛、经验丰富的数据科学和数据工程团队。因此,目前暂时只有下图中所示的公司,成功部署并将生成式人工智能模型投入商用。

在参与初创公司的主要公司方面,请注意微软向 OpenAI 投资了 10 亿美元,并帮助他们开发模型。

另外,请注意谷歌在 2014 年收购了 Deepmind。

在大学方面,请注意 VisualGPT 是由 KAUST、卡内基梅隆大学和南洋理工大学开发的

人体运动扩散模型是由以色列特拉维夫大学开发的。

同样,还有一些其他的项目是由公司与大学合作开发的。具体来说,Stable Diffsion(Runway、Stability AI 和 LMU MUNICH)、Soundify(Runway 和卡内基梅隆大学)和 DreamFusion(谷歌和加州大学伯克利分校)就是这种情况 。

INTRODUCTION

近年来,人工智能生成内容 (AIGC) 获得了计算机科学界以外的广泛关注,整个社会开始对大型科技公司构建的各种内容生成产品感兴趣 [3],例如 ChatGPT [4]和 DALL-E2 [5]。AIGC 是指使用先进的生成式 AI (GAI) 技术生成的内容,而不是由人类作者创建,它可以在短时间内自动创建大量内容。例如,ChatGPT 是 OpenAI 开发的用于构建对话式 AI 系统的语言模型,它可以有效地理解并以有意义的方式响应人类语言输入。此外,DALL-E-2 是另一个由 OpenAI 开发的最先进的 GAI 模型,它能够在几分钟内根据文本描述创建独特的高质量图像,例如“An astronaut riding a horse ina photorealistic style”,如下图所示。由于AIGC取得的骄人成绩,很多人认为这将是人工智能的新时代,对全世界产生重大影响。

从技术上讲,AIGC 是指在给定可以帮助教导和引导模型完成任务的人类指令后,利用 GAI 算法生成满足指令的内容。这个生成过程通常包括两个步骤:从人类指令中提取意图信息,并根据提取的意图生成内容。然而,正如之前的研究 [6, 7] 所证明的那样,包含上述两个步骤的 GAI 模型范例并不完全新颖,实际上例如text to image的应用,早年的stackgan等就已经在做这类事情了。

与之前的工作相比,最近 AIGC 的核心进步主要体现在使用了更大的数据集上训练更复杂的生成模型、使用更大的基础模型架构以及能够访问的更加广泛的计算资源的结果

例如GPT-3的主框架与GPT-2保持一致,但预训练数据量从WebText[8](38GB)增长到CommonCrawl[9](过滤后570GB),基础模型大小从 1.5B 增长到 175B。因此,GPT-3 在各种任务上比 GPT-2 具有更好的泛化能力,例如人类意图提取(NLP中存在模型顿悟的现象,即当参数量超过某个大小之后,下游任务的performance会发生突飞猛进的情况)。

除了数据量和计算能力提升带来的好处之外,研究人员也在探索将新技术与 GAI 算法相结合的方法。例如,ChatGPT 利用人类反馈 (RLHF) [10-12] 的强化学习来确定给定指令的最合适响应,从而随着时间的推移提高模型的可靠性和准确性。这种方法让 ChatGPT 能够更好地理解人类在长对话中的偏好。同时,在计算机视觉中,Stability.AI 于 2022 年提出的stable diffusion [13] 在图像生成方面也取得了巨大的成功。与以前的方法不同,生成扩散模型可以通过控制探索和利用之间的权衡来帮助生成高分辨率图像,从而使生成图像的多样性与训练数据的相似性和谐地结合在一起。

通过结合这些进步,模型在 AIGC 任务中取得了重大进展,并已被各个行业采用,包括艺术 [14]、广告 [15] 和教育 [16]。在不久的将来,AIGC 将继续成为机器学习研究的重要领域。因此,对过去的研究进行广泛审查并确定该领域的未解决问题至关重要。本次调研是首次聚焦AIGC领域的核心技术和应用。

单模态和多模态的AIGC技术

图 2. AIGC 概览。一般来说,GAI模型可以分为两类:单模态模型和多模态模型。单模态模型从与生成的内容模态相同的模态接收指令,而多模态模型接受跨模态指令并产生不同模态的结果。

生成式人工智能(AIGC)的历史

nlp的前transformer时代的AIGC

生成模型在人工智能领域有着悠久的历史,可以追溯到 1950 年代随着隐马尔可夫模型 (HMM) [20] 和高斯混合模型 (GMM) [21] 的发展。这些模型生成序列数据,例如语音和时间序列。然而,直到深度学习的出现,生成模型的性能才得到显着改善。在早期的深度生成模型中,不同领域总体上没有太多重叠。在自然语言处理(NLP)中,传统的句子生成方法是使用 N-gram 语言建模 [22] 来学习单词分布,然后搜索最佳序列。但是,这种方法不能有效地适应长句子。为了解决这个问题,循环神经网络 (RNN) [23] 后来被引入用于语言建模任务,允许建模相对较长的依赖关系。随后开发了长短期记忆 (LSTM) [24] 和门控循环单元 (GRU) [25],它们利用门控机制在训练期间控制记忆。这些方法能够处理样本 [26] 中的大约 200 个标记,这标志着与 N-gram 语言模型相比有了显着的改进。

cv领域的前transformer时代的AIGC

同时,在计算机视觉(CV)中,在基于深度学习的方法出现之前,传统的图像生成算法使用纹理合成 [27] 和纹理映射 [28] 等技术。这些算法基于手工设计的特征,生成复杂多样图像的能力有限。2014 年,生成对抗网络 (GANs) [29] 首次被提出,这是该领域的一个重要里程碑,因为它在各种应用中取得了令人瞩目的成果。变分自动编码器 (VAE) [30] 和扩散生成模型 [31] 等其他方法也已被开发用于对图像生成过程进行更细粒度的控制以及生成高质量图像的能力

后transformer时代的发展

生成模型在各个领域的进步遵循了不同的路径,但最终出现了交叉点:transformer 架构 [32]。由 Vaswani 等人介绍。对于 2017 年的 NLP 任务,Transformer 后来被应用到 CV 中,然后成为各个领域许多生成模型的主导骨干 [9,33,34]。在 NLP 领域,许多著名的大型语言模型,例如 BERT 和 GPT,都采用 transformer 架构作为它们的主要构建块,与以前的构建块(即 LSTM 和 GRU)相比具有优势。在 CV 中,Vision Transformer (ViT) [35] 和 Swin Transformer [36] 后来通过将 transformer 架构与视觉组件相结合,进一步采用了这一概念,使其能够应用于基于图像的下游

除了 transformer 对单个模态的改进之外,这种交集还使来自不同领域的模型能够融合在一起以用于多模态任务。多模态模型的一个这样的例子是 CLIP [37]。CLIP 是一种联合视觉语言模型,将 transformer 架构与视觉组件相结合,使其能够在大量文本和图像数据上进行训练。由于它在预训练过程中结合了视觉和语言知识,因此它也可以用作多模态提示生成中的图像编码器。总而言之,基于 transformer 的模型的出现彻底改变了 AI 生成,并使大规模训练成为可能。

近年来,研究人员也开始引入基于这些模型的新技术。例如,在 NLP 中,人们有时更喜欢prompt learning[38],而不是微调(finetune),这是指在提示中包含从数据集中选择的几个示例,以帮助模型更好地理解任务要求。

图 3. 生成式人工智能在 CV、NLP 和 VL 中的历史(VL=cv+nlp)

自监督学习的提出(包括了cv中的各类花哨的对比学习方法,以及nlp中的pretrain task本身都可以归类为自监督学习)提供了更强大的原始输入的representations。

未来,随着AIGC变得越来越重要,将会引入越来越多的技术,为这一领域注入活力。

目前的一些知名工作

DALL·E 2

由 OpenAI 创建,能够根据包含文本描述的提示生成原始、真实和逼真的图像和艺术 [10]。幸运的是,可以使用 OPENAI API 访问此模型。特别是,DALL·E 2 设法结合了概念、属性和不同的风格。为此,它使用了 CLIP 。CLIP(对比语言-图像预训练)是一种在各种(图像、文本)对上训练的神经网络 [25]。使用 CLIP,可以用自然语言来指导预测最相关的文本片段,给定图像,该模型最近已合并为图像的成功表示学习器。具体而言,CLIP 嵌入具有几个理想的特性:它们对图像分布偏移具有鲁棒性,具有令人印象深刻的零样本能力,并且经过微调以实现最先进的结果。为了获得完整的图像生成模型,CLIP 图像嵌入解码器模块与先验模型相结合,从给定的文本标题生成可能的 CLIP 图像嵌入。我们在下图中说明了从提示生成的图像。从提示“A shiba inu wearing a beret and black turtleneck”生成的图像。

openai并未开放dalle2的源码,不过有一个不错的开源实现:https://github.com/lucidrains/DALLE2-pytorch​github.com/lucidrains/DALLE2-pytorch

IMAGEN

Imagen 是一种文本到图像扩散模型 [17],由大型transformer语言模型组成。至关重要的是,使用该模型观察到的主要发现是,在纯文本语料库上预先训练的大型语言模型在编码文本以进行图像合成方面非常有效 [28]。准确地说,使用 Imagen,已经发现增加语言模型的大小比增加图像扩散模型的大小更能提高样本保真度和图像-文本的语义一致性。该模型由谷歌创建,API 可以在他们的网页上找到。为了评估他们的模型,谷歌创建了 Drawbench,这是一组 200 个提示,支持文本到图像模型的评估和比较。最具体地说,该模型基于预训练的文本编码器(如 BERT [12]),该编码器执行从文本到一系列词嵌入的映射,以及将这些嵌入映射到分辨率不断提高的图像的级联条件扩散模型。我们在下图 中显示了根据提示生成的图像。

提示“一只可爱的柯基犬住在寿司做的房子里”生成的图像。

同样,google并没有开放imagen的源码,不过同一个作者(这个人真的太屌了,算法开发怪兽)开放了自己的实现:https://github.com/lucidrains/imagen-pytorch​github.com/lucidrains/imagen-pytorch

Stable diffusion

Stable diffusion是一种潜在扩散模型,它是开源的,由慕尼黑大学的 CompVis 小组开发。该模型与其他模型的主要区别在于使用了潜在扩散模型,并且它执行图像修改,因为它可以在其潜在空间中执行操作。对于 Stable Diffusion,我们可以通过他们的网站使用 API。更具体地说,Stable Diffusion 由两部分组成:文本编码器和图像生成器 [17]。图像信息创建者完全在潜在空间中工作。此属性使其比以前在像素空间中工作的扩散模型更快。我们在图 7 中展示了一个稳定扩散图像示例。

相对而言,Stable diffusion的开源代码就多多了,https://github.com/CompVis/stable-diffusion​github.com/CompVis/stable-diffusionhttps://github.com/Stability-AI/stablediffusion​github.com/Stability-AI/stablediffusion

除了官方放出的代码之外,keras-cv作为keras唯一官方的专门做cv的library也放出了基础版本stable diffusion的实现:https://github.com/keras-team/keras-cv/blob/master/keras_cv/models/stable_diffusion/stable_diffusion.py​github.com/keras-team/keras-cv/blob/master/keras_cv/models/stable_diffusion/stable_diffusion.py

另外一个就是huggingface开放的diffuser了:https://github.com/huggingface/diffusers​github.com/huggingface/diffusers

Muse

该模型是一种文本到图像转换器模型,可实现最先进的图像生成,同时比扩散或自回归模型更高效 [6]。具体来说,它是在离散标记空间中的掩码建模任务上进行训练的。因此,由于使用了离散令牌并且需要更少的采样迭代,它更有效。与自回归模型 Parti 相比,Muse 由于并行解码而更加高效。Muse 在推理时间上比 Imagen-3B 或 Parti-3B 快 10 倍,比 Stable Diffusion v 1.4 快 3 倍。Muse也比 Stable Diffusion 更快,尽管这两个模型都在 VQGAN 的潜在空间中工作

前面描述的模型处理文本提示到 2D 图像的映射。但是,对于游戏等行业,需要生成 3D 图像。下面简要介绍两种文本到 3D 模型:Dreamfusion 和 Magic3D。

同样,google并未开放muse的开源代码,仍旧是这个巨佬。。。我丢https://github.com/lucidrains/muse-maskgit-pytorch​github.com/lucidrains/muse-maskgit-pytorch

Dreamfusion

DreamFusion 是由 Google Research 开发的文本到 3D 模型,它使用预训练的 2D 文本到图像扩散模型来执行文本到 3D 合成 [24]。特别是,Dreamfusion 将以前的 CLIP 技术替换为从 2D 扩散模型中提取的损失。具体来说,扩散模型可以用作一般连续优化问题中的损失来生成样本。至关重要的是,参数空间中的采样比像素中的采样要困难得多,因为我们想要创建从随机角度渲染时看起来像好的图像的 3D 模型。为了解决这个问题,这个模型使用了一个可微分的生成器。其他方法侧重于对像素进行采样,但是,该模型侧重于创建从随机角度渲染时看起来像好图像的 3D 模型。

Dreamfusion 从一个特定角度创建的图像以及可以从其他文本提示生成的所有变体。为了看到完整的动画图像,我们建议访问 Dreamfusion 的网页。

图 8. 左侧显示了 Dreamfusion 生成的 3D 松鼠。然后,其他图像包含对松鼠生成的修改,带有文本提示,如“穿夹克”

Magic3D

该模型是NVIDIA公司制作的文本转3D模型。虽然 Dreamfusion 模型取得了显着的效果,但该方法存在两个问题:主要是处理时间长和生成的图像质量低。然而,Magic3D 使用两阶段优化框架 [20] 解决了这些问题。首先,Magic3D 先验构建低分辨率扩散,然后使用稀疏 3D 哈希网格结构进行加速。使用它,带纹理的 3D 网格模型通过高效的可区分渲染进一步优化。相比之下,在人类评估方面,该模型取得了更好的结果,因为 61.7% 的人更喜欢该模型而不是 DreamFusion。正如我们在图 9 中看到的,与 DreamFusion 相比,Magic3D 在几何和纹理方面实现了更高质量的 3D 形状。

图 9. 由 Magic3D 和 Dreamfusion 生成的 3D 图像,其中“我们的”指的是 Magic3D。我们可以看到总共 8 个文本提示以及两个模型从该提示生成的图像。

有时,获取描述图像的文本也很有用,这恰好是对前面分析的图像到文本的模型的逆映射。下面将简单分析执行此任务的两个模型以及其他模型:Flamingo 和 VisualGPT。

Flamingo

一种由 Deepmind 创建的视觉语言模型,它在广泛的开放式视觉和语言任务中使用少量学习,只需提示一些输入/输出示例 [1]。具体来说,Flamingo 的输入包含视觉条件自回归文本生成模型,能够摄取一系列与图像和/或视频交错的文本标记,并生成文本作为输出。对模型连同照片或视频进行查询,然后模型使用文本答案进行回答。可以在图 10 中观察到一些示例。Flamingo 模型利用两个互补模型:一个分析视觉场景的视觉模型和一个执行基本推理形式的大型语言模型。语言模型是在大量文本数据上训练的。

图 10. 包含图像和文本的输入提示以及来自 Flamingo 的输出生成的文本响应。每列都包含一个示例,我们可以在其中看到 Flamingo 如何使用文本中的图像回答问题。

VisualGPT

VisualGPT 是 OpenAI [7] 制作的图像字幕模型。具体来说,VisualGPT 利用预训练语言模型 GPT-2 [5] 中的知识。为了弥合不同模态之间的语义鸿沟,一种新颖的编码器-解码器注意机制[33]被设计为具有不饱和整流门函数。至关重要的是,该模型的最大优势在于它不需要像其他图像到文本模型那样多的数据。特别是,提高图像字幕网络中的数据效率将使快速数据管理、稀有物体的描述以及专业领域的应用成为可能。最有趣的是,这个模型的 API 可以在 GitHub 上找到。我们在图 11 中包含了模型针对提供给模型的三幅图像生成的文本提示的三个示例。

正如我们在前面的内容中看到的,现在可以从文本生成图像。因此,下一个合乎逻辑的步骤是生成视频

Phenaki

该模型由 Google Research 开发,能够在给定一系列文本提示的情况下执行逼真的视频合成 [34]。最有趣的是,我们可以从 GitHub 访问模型的 API。特别是,Phenaki 是第一个可以从开放域时间变量提示生成视频的模型。为了解决数据问题,它对大型图像-文本对数据集以及较少数量的视频-文本示例进行联合训练,可以产生超出视频数据集可用范围的泛化。这主要是由于图像文本数据集有数十亿个输入,而文本视频数据集要小得多。同样,限制来自可变长度视频的计算能力。

该模型由三部分组成:C-ViT 编码器、训练转换器和视频生成器。编码器获得视频的压缩表示。第一个标记被转换为嵌入。接下来是时间变换器,然后是空间变换器。在空间变换器的输出之后,他们在没有激活的情况下应用单个线性投影将标记映射回像素空间。因此,即使提示是新的概念组合,该模型也会根据开放域提示生成时间上连贯且多样化的视频。视频可能长达几分钟,而模型是在 1.4 秒的视频上训练的。下面我们在图 12 和图 13 中显示了通过一系列文本提示以及从一系列文本提示和图像创建视频的一些示例。

图 12. Phenaki 模型在给出四种不同提示时创建的图像序列。
图 13. Phenaki 模型在给定图像和提示的情况下创建的图像序列。我们可以看到模型如何根据文本提示操作给定的图像。

Soundify

在视频编辑中,声音占故事的一半。但是,对于专业的视频编辑,问题来自于寻找合适的声音、对齐声音、视频和调整参数 [21]。为了解决这个问题,Soundify 是 Runway 开发的一个将音效与视频相匹配的系统。该系统使用优质音效库和 CLIP(一种具有前面提到的零镜头图像分类功能的神经网络)。具体来说,该系统分为三部分:分类、同步和混合。通过对视频中的发声器进行分类,分类将效果与视频相匹配。为了减少不同的声音发射器,视频根据绝对颜色直方图距离进行分割。在同步部分,确定间隔,将效果标签与每个帧进行比较,并精确定位高于阈值的连续匹配。在混音部分,效果被分成大约一秒的块。至关重要的是,块是通过淡入淡出拼接的。

图像并不是唯一重要的非结构化数据格式。对于视频、音乐和许多上下文,音频可能至关重要。因此,我们在本小节中分析输入信息为文本且输出信息为音频的三个模型。

AudioLM

此模型由 Google 开发,用于生成具有长期一致性的高质量音频。特别是,AudioLM 将输入音频映射到一系列离散标记中,并将音频生成作为该表示空间中的语言建模任务 [4]。通过对大量原始音频波形进行训练,AudioLM 学会在给出简短提示的情况下生成自然且连贯的连续音。尽管在没有任何音乐符号表示的情况下接受训练,但该方法可以通过生成连贯的钢琴音乐延续来扩展到语音之外。与其他模型一样,可以通过 GitHub 找到 API。音频信号涉及多个抽象尺度。在音频合成方面,多个音阶使得在显示一致性的同时实现高音频质量非常具有挑战性。该模型通过结合神经音频压缩、自监督表示学习和语言建模方面的最新进展来实现这一目标。

在主观评价方面,评分者被要求听一段 10 秒的样本,并判断它是人类语音还是合成延续。基于收集到的 1000 个评分,该率为 51.2%,这与随机分配标签相比没有统计学意义。这告诉我们,人类无法区分合成样本和真实样本。

Jukebox

这是一个由 OpenAI 开发的模型,可以在原始音频域 [13] 中通过唱歌生成音乐。同样,它的 API 可以在 GitHub 中找到。以前,文本到音乐类型中的早期模型以指定时间、音高和速度的钢琴卷轴的形式象征性地生成音乐。具有挑战性的方面是尝试将音乐直接制作为一段音频的非符号方法。事实上,原始音频的空间维度非常高,这使得问题非常具有挑战性。因此,关键问题是对原始音频进行建模会产生远程依赖性,这使得学习音乐的高级语义在计算上具有挑战性。

为了解决这个问题,该模型试图通过分层 VQ-VAE 架构来解决它,将音频压缩到离散空间 [14],损失函数旨在保留最多的信息量。该模型可制作摇滚、嘻哈和爵士等不同流派的歌曲。但是,该模型仅限于英文歌曲。具体来说,它的训练数据集来自 LyricWiki 的 120 万首歌曲。VQ-VAE 有 50 亿个参数,并在 9 秒的音频片段上训练了 3 天。

Whisper

该模型是由 OpenAI 开发的音频到文本转换器。它完成了该领域的几项任务:多语言语音识别、翻译和语言识别[26]。与之前的案例一样,它的 API 可以在 GitHub 网站上找到。语音识别系统的目标应该是开箱即用地在广泛的环境中可靠地工作,而不需要为每个部署分布对解码器进行有监督的微调。这很难,因为缺乏高质量的预训练解码器。

具体来说,这个模型是在 680,000 小时的标记音频数据上训练的。这些数据是从互联网上收集的,这导致了一个非常多样化的数据集,涵盖了来自许多不同环境、录音设置、说话者和语言的广泛分布的音频。该模型确保数据集仅来自人声,因为机器学习语音会损害模型。文件在 30 秒的片段中被破坏,与该时间片段内出现的转录子集配对。该模型有一个编码器-解码器转换器,因为该架构已被验证可以可靠地扩展。我们可以通过下图观察模型的架构特征。我们可以看到不同类型的数据和学习顺序。

以前的模型都是将一种非结构化数据类型转换为另一种数据类型。但是,对于文本,将文本转换为另一种文本以满足一般问答等任务非常有用。以下四种模型处理文本,也输出文本,以满足不同的需求。

ChatGPT

流行的 ChatGPT 是 OpenAI 的一种模型,它以对话方式进行交互。众所周知,该模型会回答后续问题、挑战不正确的前提并拒绝不适当的请求。更具体地说,ChatGPT 背后的算法基于转换器。然而,训练是通过人类反馈的强化学习进行的。特别是,初始模型是使用有监督的微调进行训练的:人类 AI 训练员将提供他们扮演双方的对话,即用户和 AI 助手。然后,这些人将获得模型编写的回复,以帮助他们撰写回复。该数据集与 InstructGPT [3] 的数据集混合,后者被转换为对话格式。可以在他们的网站上找到演示,也可以在 OpenAI 的网站上找到 API。我们在图 14 中总结了 ChatGPT 训练的主要步骤,可在 ChatGPT 演示网站上找到。最后,ChatGPT 还能够生成代码和简单的数学运算。

LaMDA

LaMDA 是对话应用程序的语言模型 [32]。与大多数其他语言模型不同,LaMDA 接受了对话训练。它是一系列专门用于对话的基于 Transformer 的神经语言模型,具有多达 137B 个参数,并在 1.56T 公共对话数据和网络文本的单词上进行了预训练。微调可以确保模型的安全性和事实基础。只有 0.001% 的训练数据用于微调,这是该模型的一大成就。特别是,对话模式利用了 Transformer 在文本中呈现长期依赖关系的能力。具体来说,它们通常非常适合模型缩放。因此,LaMDA 使用单个模型来执行多项任务:它生成多个响应,这些响应经过安全过滤,基于外部知识源并重新排序以找到最高质量的响应。我们在图 15 中说明了与模型的对话示例。

PEER

由 Meta AI 研究开发的协作语言模型,在编辑历史上进行训练以涵盖整个写作过程 [29]。它基于四个图 14. ChatGPT 的训练步骤,将监督学习与强化学习相结合。步骤:计划、编辑、解释和重复。重复这些步骤,直到文本处于不需要进一步更新的令人满意的状态。该模型允许将撰写论文的任务分解为多个更容易的子任务。此外,该模型还允许人类随时进行干预并将模型引导至任何方向。

它主要接受维基百科编辑历史的训练。该方法是一种自我训练,使用模型来填充缺失的数据,然后在该合成数据上训练其他模型。这样做的缺点来自评论非常嘈杂和缺乏引用,这试图通过并不总是有效的检索系统来弥补。该框架基于迭代过程。制定计划、收集文件、执行编辑和解释它的整个过程可以重复多次,直到得出一个文本序列。对于训练,使用了 DeepSpeed transformer。

Meta AI Speech from Brain

Meta AI 开发的模型,用于帮助无法通过语音、打字或手势进行交流的人们 [11]。以前的技术依赖于需要神经外科干预的侵入性大脑记录技术。该模型试图直接从非侵入性大脑记录中解码语言。这将提供更安全、更具可扩展性的解决方案,使更多人受益。这种提出的方​​法的挑战来自每个人大脑中的噪声和差异以及传感器的放置位置。深度学习模型通过对比学习进行训练,并用于最大限度地对齐非侵入性大脑记录和语音。一种称为 wave2vec 2.0 的自监督学习模型。用于识别听有声读物的志愿者大脑中语音的复杂表征。用于测量神经元活动的两种非侵入性技术是脑电图和脑磁图。

训练数据来自四个开源数据集,代表 169 名志愿者收听有声读物的 150 小时录音。EEG 和 MEG 记录被插入大脑模型,该模型由具有残留连接的标准深度卷积网络组成。这些录音来自个人的大脑。然后,该模型同时具有声音的语音模型和 MEG 数据的大脑模型。结果表明,该算法的几个组成部分有利于解码性能。同样,分析表明该算法随着 EEG 和 MEG 记录的增加而改进。这项研究表明,尽管数据存在噪声和可变性,但经过自我监督训练的 AI 可以解码感知语音。这项研究的最大局限在于它侧重于语音感知,但最终目标是将这项工作扩展到语音生成。

虽然我们已经介绍了文本到文本模型,但并非所有文本都遵循相同的语法。一种特殊类型的文本是代码。在编程中,知道如何将想法转化为代码是必不可少的。为此,Codex 和 Alphacode 模型会有所帮助。

Codex

由 OpenAI 创建的 AI 系统,可将文本翻译成代码。它是一种通用编程模型,因为它基本上可以应用于任何编程任务 [8]。编程可以分为两部分:将问题分解为更简单的问题,并将这些问题映射到已经存在的现有代码(库、API 或函数)中。第二部分是程序员时间限制最多的部分,也是Codex最擅长的地方。为训练收集的数据是 2020 年 5 月从托管在 GitHub 上的公共软件存储库收集的,其中包含 179GB 的 1 MB 以下的唯一 Python 文件。该模型是根据 GPT-3 进行微调的,GPT-3 已经包含强大的自然语言表示。演示和 API 可以在 Open AI 的网站上找到。

Alphacode

其他语言模型已经展示了令人印象深刻的代码生成能力,但这些系统在评估更复杂、未见过的问题时仍然表现不佳。然而,Alphacode 是一个用于为需要更深入推理的问题生成代码的系统 [19]。三个组成部分是实现这一成就的关键:拥有用于训练和评估的广泛数据集、大型且高效的基于 Transformer 的架构以及大规模模型采样。在训练方面,该模型首先通过总计 715.1 GB 代码的 GitHub 存储库进行预训练。这是一个比 Codex 的预训练数据集更广泛的数据集。为了更好地训练,从 Codeforces 平台引入了微调数据集。通过这个平台,代码竞赛在验证阶段进行,我们在这个阶段提高了模型的性能。关于基于转换器的架构,他们使用编码器-解码器转换器架构。与常用的解码器架构相比,这种架构允许双向描述和额外的灵活性。同样,他们使用浅层编码器和深度编码器来提高模型的效率。为了降低采样成本,使用了多查询注意力。

即使是科学文本也正在成为生成式人工智能的目标。尽管要在该领域取得成功还有很长的路要走,但研究自动科学文本生成的首次尝试至关重要。

Galactica

Galactica 是 Meta AI 和 Papers with Code 开发的自动组织科学的新型大型模型。该模型的主要优点是能够对其进行多个时期的训练而不会过度拟合,其中上游和下游性能通过使用重复标记得到改善。数据集设计对该方法至关重要,因为所有数据均以通用降价格式处理,以混合不同来源的知识。引文通过特定的标记进行处理,该标记允许研究人员在给定任何输入上下文的情况下预测引文。模型预测引用的能力随着规模的扩大而提高,并且模型在引用分布方面变得更好。此外,该模型可以执行涉及 SMILES 化学公式和蛋白质序列的多模态任务。具体而言,Galactica 在仅解码器设置中使用 Transformer 架构,并为所有模型尺寸激活 GeLU。

Minerva

能够使用逐步推理解决数学和科学问题的语言模型。Minerva 非常明确地专注于为此目的收集训练数据。它解决定量推理问题,大规模制作模型并采用一流的推理技术。具体来说,Minerva 通过逐步生成解决方案来解决这些问题,这意味着包括计算和符号操作,而不需要计算器等外部工具。

Alphatensor

由研究公司 Deepmind 创建的 Alphatensor 因其发现新算法的能力而成为业界完全革命性的模型 [15]。在已发布的示例中,Alpha Tensor 创建了一种更高效的矩阵乘法算法,这非常重要,因为提高算法的效率会影响很多计算,从神经网络到科学计算例程。

该方法基于深度强化学习方法,其中训练代理 AlphaTensor 玩单人游戏,目标是在有限因子空间内找到张量分解。在 TensorGame 的每一步,玩家选择如何组合矩阵的不同条目以进行相乘。根据达到正确乘法结果所需的选定运算次数分配分数。为了解决代理 TensorGame,开发了 AlphaTensor。AlphaTensor 使用专门的神经网络架构来利用合成训练游戏的对称性。

GATO

GATO是Deepmind做的一个单一的通才智能体。它作为一种多模式、多任务、多实施的通才政策 [27]。具有相同权重的相同网络可以承载与播放 Atari、字幕图像、聊天、堆叠积木等截然不同的功能。在所有任务中使用单一神经序列模型有很多好处。它减少了对具有归纳偏差的手工制定政策模型的需求。它增加了训练数据的数量和多样性。这个通用代理在许多任务上都取得了成功,并且可以用很少的额外数据进行调整以在更多任务上取得成功。 r 在模型规模的操作点进行训练,允许实时控制现实世界的机器人,目前在 GATO 的情况下约为 1.2B 参数。

AIGC 的基础

基础模型

Transformer

Transformer 是许多最先进模型的骨干架构,例如 GPT-3 [9]、DALL-E-2 [5]、Codex [2] 和 Gopher [39]。它最初被提出是为了解决传统模型(如 RNN)在处理可变长度序列和上下文感知方面的局限性。Transformer 架构主要基于一种自注意力机制,该机制允许模型关注输入序列中的不同部分。 Transformer 由编码器和解码器组成。编码器接收输入序列并生成隐藏表示,而解码器接收隐藏表示并生成输出序列。编码器和解码器的每一层都由多头注意力和前馈神经网络组成。多头注意力是 Transformer 的核心组件,它学习根据令牌的相关性为令牌分配不同的权重。这种信息路由方法使模型能够更好地处理长期依赖性,从而提高各种 NLP 任务的性能。Transformer 的另一个优点是其架构使其高度可并行化,并允许数据战胜归纳偏差 [40]。此属性使 transformer 非常适合大规模预训练,使基于 transformer 的模型能够适应不同的下游任务。

Pre-trained Language Models(PLM)

自从引入 Transformer 架构以来,由于其并行性和学习能力,它已成为自然语言处理中的主导选择。通常,这些基于 transformer 的预训练语言模型通常可以根据其训练任务分为两类:autoregressive language modeling和masked language modeling [41]。给定一个由多个标记组成的句子,掩码语言建模的目标,例如 BERT [42] 和 RoBERTa [43],是指在给定上下文信息的情况下预测掩码标记的概率。掩蔽语言建模最著名的例子是 BERT [42],它包括掩蔽语言建模和下一句预测任务。

RoBERTa [43] 使用与 BERT 相同的架构,通过增加预训练数据量和纳入更具挑战性的预训练目标来提高其性能。同样基于 BERT 的 XL-Net [44] 结合了置换操作来更改每次训练迭代的预测顺序,从而使模型能够跨令牌学习更多信息。自回归语言建模,例如 GPT-3 [9] 和 OPT [45],是在给定先前标记的情况下对下一个标记的概率进行建模,因此是从左到右的语言建模。与掩码语言模型不同,自回归模型更适合生成任务。

Reinforcement Learning from Human Feedback

尽管接受了大规模数据的训练,AIGC 可能并不总是产生符合用户意图的输出,其中包括对有用性和真实性的考虑。为了更好地使 AIGC 输出与人类偏好保持一致,人类反馈强化学习 (RLHF) 已应用于各种应用程序中的模型微调,例如 Sparrow、InstructGPT 和 ChatGPT [10、46]

通常,RLHF 的整个流程包括以下三个步骤:预训练、奖励学习和强化学习微调。首先,语言模型 �0

作为初始语言模型在大规模数据集上进行了预训练。由于 �0 对于人类给定的input x给出的答案可能不符合人类的目的,因此

在第二步中,我们训练奖励模型来编码多样化和复杂的人类偏好。具体来说,给定相同的 ,不同的生成答案

由人类以人肉的方式进行评估(这成本我擦)

随后使用 ELO [47] 等算法转移到逐点奖励标量

在最后一步中,语言模型 被微调以使用强化学习最大化学习到的奖励函数。为了稳定 RL 训练,Proximal Policy Optimization (PPO) 通常用作 RL 算法。在 RL 训练的每一集中,都会考虑一个经验估计的 KL 惩罚项,以防止模型输出一些特殊的东西来欺骗奖励模型。具体来说,每一步的总奖励

给出,其中

是学习的奖励模型,

是 KL 惩罚项,

是经过训练的策略。有关 RLHF 的更多详细信息,请参阅 [48]。

(RLHF的部分可以参考这篇文章的精彩描述Akiko:从零实现ChatGPT——RLHF技术笔记734 赞同 · 44 评论文章

尽管 RLHF 通过结合流利性显示出可喜的结果,但由于缺乏公开可用的基准和实施资源,这一领域的进展受到阻碍,导致人们认为 RL 是 NLP 的一种具有挑战性的方法。为了解决这个问题,最近引入了一个名为 RL4LMs [49] 的开源库,它包含用于在基于 LM 的生成上微调和评估 RL 算法的构建块。

除了人类反馈之外,最新的对话代理 Claude 支持宪法 AI [50],其中奖励模型是通过 RL 从 AI 反馈 (RLAIF) 中学习的。批评和 AI 反馈都以从“宪法”中得出的一小组原则为指导,这是人类唯一提供给Claude的东西。AI 反馈侧重于通过解释其对危险查询的反对意见来控制输出以降低危害。此外,最近对 RLAIF [51] 的初步理论分析证明了 RLHF 的经验成功,并为语言模型的专门 RLHF 算法设计提供了新的见解。

Computing

硬件

近年来,硬件的显着进步促进了大规模模型的训练。过去,使用 CPU 训练大型神经网络可能需要几天甚至几周的时间。但是,随着更强大的计算资源的出现,这个过程被加速了几个数量级。例如,NVIDIA A100 GPU 在 BERT-large 推理期间的速度是 V100 的 7 倍,是 T42 的 11 倍。此外,谷歌的张量处理单元 (TPU) 专为深度学习而设计,与当前一代的 A100 GPU3 相比,可提供更高的计算性能。这种计算能力的快速进步显着提高了 AI 模型训练的效率,并为开发大型复杂模型开辟了新的可能性。

分布式训练

另一个重大改进是分布式训练。在传统的机器学习中,训练通常在使用单个处理器的单个机器上执行。这种方法适用于小型数据集和模型,但在处理大型数据集和复杂模型时,这种方法显然不切实际。在分布式训练中,训练工作负载分配给多个处理器或机器,从而可以更快地训练模型。一些公司还发布了简化深度学习堆栈分布式训练过程的框架 [53-55]。这些框架提供的工具和 API 允许开发人员轻松地将他们的训练工作负载分布在多个处理器或机器上,而无需管理底层基础设施。

云计算

云计算在训练大规模模型方面也发挥了至关重要的作用。以前,模型通常在本地进行训练。现在,随着 AWS 和 Azure 等云计算服务提供对强大计算资源的访问,深度学习研究人员和从业者可以根据需要启动大型 GPU 或 TPU 集群来训练大型模型。总的来说,这些进步使得能够开发出更复杂、更准确的模型,为 AI 研究和应用的各个领域开辟了新的可能性。

生成式人工智能

单模态模型

在本节中,我们将介绍最先进的单模态生成模型。这些模型旨在接受特定的原始数据模态作为输入,例如文本或图像,然后以与输入相同的模态生成预测。我们将讨论这些模型中使用的一些最有前途的方法和技术,包括生成语言模型,例如 GPT3 [9]、BART [34]、T5 [56],以及生成视觉模型,例如 GAN [29]、 VAE [30] 和normalizng flow [57]。

生成式语言模型

生成语言模型 (GLM) 是一种 NLP 模型,经过训练可以根据输入数据中的模式和结构生成可读的人类语言。这些模型可用于广泛的 NLP 任务,例如对话系统 [58]、翻译 [59] 和问答 [60]。

最近,预训练语言模型的使用已成为 NLP 领域的主流技术。通常,当前最先进的预训练语言模型可分为屏蔽语言模型(编码器)、自回归语言模型(解码器)和编码器-解码器语言模型,如图 4 所示

解码器模型广泛用于文本生成,而编码器模型主要应用于分类任务。通过结合这两种结构的优势,编码器-解码器模型可以利用上下文信息和自回归属性来提高各种任务的性能。本次调查的主要重点是生成模型。在以下部分中,我们将深入研究解码器和编码器-解码器架构的最新进展。

解码器模型

基于自回归解码器的语言模型最突出的例子之一是 GPT [61],它是一种基于transformer的模型,它利用自我注意机制同时处理序列中的所有单词。GPT 接受了基于先前单词的下一个单词预测任务的训练,使其能够生成连贯的文本。随后,GPT-2 [62] 和 GPT-3 [9] 保持自回归从左到右的训练方法,同时扩大模型参数并利用基本网络文本以外的多样化数据集。

Gopher [39] 使用类似 GPT 的结构,但将 LayerNorm [63] 替换为 RSNorm,其中在原始 layernorm 结构中添加了residual connection以维护信息。除了增强了norm function外,其他几项研究也集中在优化注意力机制上。BLOOM [64] 与 GPT-3 具有相同的结构,但 BLOOM 没有使用稀疏注意力,而是使用全注意力网络,更适合建模长依赖关系。 [65] 提出了 Megatron,它扩展了常用的架构。

在此之上,后续的比较突破性的发展的典型例子为instructgpt,

下图为InstructGPT [10] 的架构。

首先,演示数据由人工标记器收集,并用于微调 GPT-3。然后从语言模型中抽取提示和相应的答案,人工贴标签者将从最好到最差的答案进行排序。此数据用于训练奖励模型。最后,使用经过训练的奖励模型,可以根据人类标注者的偏好优化语言模型。

GPT-3、BERT 和 T5 具有分布式训练目标以处理大量数据。这种方法后来也被 MT-NLG [66] 和 OPT [45] 采用。除了模型架构和预训练任务方面的进步外,在改进语言模型的微调过程方面也付出了巨大的努力。例如,InstructGPT [10] 利用预训练的 GPT-3 并使用 RLHF 进行微调,允许模型根据人类标记的排名反馈来学习偏好。

编码器-解码器模型

一种主要的编码器-解码器方法是文本到文本传输转换器 (T5) [56],它将基于transformer的编码器和解码器组合在一起进行预训练。T5 采用“文本到文本”方法,这意味着它将输入和输出数据转换为标准化的文本格式。这使得 T5 可以使用相同的模型架构在广泛的 NLP 任务上进行训练,例如机器翻译、问答、摘要等。正如其名称所述,Switch Transformer [67] 利用“切换”(指简化的 MoE 路由算法)在 T5 上进行并行训练。与基本模型相比,该模型在相同的计算资源下成功地获得了更大的规模和更好的性能。另一种广泛使用的改进 T5 的方法是 ExT5 [68],它由 Google 于 2021 年提出,扩展了之前 T5 模型的规模。与 T5 相比,ExT5 继续在 C4 和 ExMix 上进行预训练,ExMix 是跨不同领域的 107 个受监督 NLP 任务的组合。另一种广泛使用的编码器-解码器方法是 BART [34],它融合了 BERT 的双向编码器和 GPT 的自回归解码器,使其能够利用编码器的双向建模能力,同时保留生成任务的自回归属性。HTLM [69] 利用 BART 去噪目标对超文本语言进行建模,其中包含有关文档级结构的有价值信息。该模型还在各种生成任务的零样本学习上实现了最先进的性能。

相反,DQ-BART [70] 旨在使用蒸馏和量化将 BART 压缩成更小的模型,从而在各种下游任务上实现 BART 的原始性能。

生成式视觉模型

生成对抗网络 (GAN) 在图像生成研究领域的基于深度学习的比较早的成功的工作了。GAN 由两部分组成,生成器和鉴别器。生成器尝试学习真实示例的分布以生成新数据,而鉴别器则确定输入是否来自真实数据空间。

生成器和鉴别器的结构极大地影响了 GAN 的训练稳定性和性能。LAPGAN [71] 使用拉普拉斯金字塔框架 [72] 中的级联卷积网络以从粗到精的方式生成高质量图像。 A. Radford 等人。 [73] 提出 DCGANs 结构,一类具有架构约束的 CNN,作为无监督学习的强大解决方案。Progressive GAN [74] 逐渐增加生成器和鉴别器,从低分辨率开始并添加层以对更精细的细节进行建模,从而实现更快、更稳定的训练并生成高质量的图像。由于传统的卷积 GAN 仅基于低分辨率特征图中的空间局部点生成高分辨率细节,SAGAN [75] 引入了注意力驱动的远程依赖建模和光谱归一化,以改善训练动态。此外,从复杂的数据集中生成高分辨率和多样化的样本仍然是一个挑战。为了解决这个问题,BigGAN [76] 被提议作为 GAN 的大规模 TPU 实现。StyleGAN [77] 通过分离高级属性和变体来改进 GAN,允许在质量指标、插值和分离方面进行直观控制和更好的性能。 [78, 79] 专注于逆映射——将数据投影回潜在空间,从而为辅助辨别任务提供有用的特征表示。为了解决模式崩溃和改进生成模型,D2GAN [80] 和 GMAN [81] 方法都通过结合额外的鉴别器扩展了传统的 GAN。MGAN [82] 和 MAD-GAN [83] 通过合并多个生成器和一个鉴别器来解决模式崩溃问题。CoGAN [84] 由一对具有权重共享约束的 GAN 组成,允许从单独的边缘分布中学习联合分布,而不需要训练集中的相应图像。

代表性变种:由于生成器的潜在向量 是高度非结构化的,InfoGAN [85] 提出了另一种潜在代码 来提取实际数据空间的重要结构化特征。在 CGANs [86-88] 中,生成器和鉴别器以附加信息为条件,例如类标签或来自其他模态的数据,以生成以特定属性为条件的样本。 f-GAN [89] 允许使用任何 f-divergence 作为训练生成模型的目标函数。f-divergence 的选择为控制生成样本的质量和训练模型的难度之间的权衡提供了一个灵活的框架。

目标函数:生成模型的目标是匹配真实的数据分布。WGAN [90] 和 LS-GAN [91, 92] 旨在使用真实数据密度的 Lipschitz 正则性条件对损失函数进行正则化,以便更好地泛化和生成真实的新数据。 [93] 是一种权重归一化技术,旨在稳定 GAN 中鉴别器的训练。车等。 [94] 正则化目标,可以稳定 GAN 模型的训练。UGAN [95] 通过定义关于鉴别器展开优化的生成器目标来稳定 GAN 的训练。 [96] 通过从真实/生成的数据对中采样来提高鉴别器的相对性,以提高生成器生成的数据分布的稳定性和覆盖率。

VAE:在变分贝叶斯推理 [97] 之后,变分自动编码器 (VAE) 是一种生成模型,它试图将数据反映到概率分布中,并学习接近其原始输入的重建。

复杂的先验:重写变分自动编码器的变分证据下限目标 (ELBO) 有助于改善变分界限 [98]。由于真正的聚合后验是难以处理的,VampPrior [99] 引入了以可学习的伪输入为条件的后验先验的变分混合。 [100–102] 提出围绕随机抽样过程跳过连接以捕获数据分布的不同方面。

正则化自动编码器: [1, 103, 104] 将正则化引入编码器的潜在空间,并在不符合任意选择的先验条件的情况下产生平滑且具有代表性的潜在空间。 [105] 提出了一种多尺度分层组织来对较大的图像进行建模。

flow:归一化流是通过一系列可逆和可微映射从简单到复杂的分布转换。

Coupling and autoregressive flows:通过[57]中的耦合方法学习数据的非线性确定性变换,使变换后的数据符合因式分布。丁等人。 [106] 提出多尺度流在生成方向上逐渐向分布引入维度。耦合层更灵活的推广是自回归流 [107–109],它允许将并行密度估计作为通用逼近器。

Convolutional and Residual Flows:郑等。 [110] 使用一维卷积 (ConvFlow) 和 Hoogeboom 等人。 [111] 为建模 d×d 卷积提供了更通用的解决方案。他们利用三角形结构来改善输入之间的相互作用并有效地计算行列式。RevNets [112] 和 iRevNets [113] 率先构建了基于残差连接的可逆网络架构,缓解了梯度消失问题。此外,残差连接可以看作是一阶常微分方程 (ODE) [114] 的离散化,以提高参数效率。

Diffusion:生成扩散模型 (GDM) 是一类前沿的基于概率的生成模型,展示了计算机视觉领域的最新成果。它的工作原理是通过多级噪声扰动逐步破坏数据,然后学习反转此过程以生成样本。

Model Formulations:扩散模型主要分为三类。DDPM [115]分别应用两个马尔可夫链来逐步破坏具有高斯噪声的数据,并通过学习马尔可夫转移核来逆转前向扩散过程。基于分数的生成模型 (SGM) 直接作用于数据对数密度的梯度,也就是分数函数。NCSN[31] 用多尺度增强噪声扰动数据,并通过以所有噪声水平为条件的神经网络联合估计所有此类噪声数据分布的得分函数。由于完全分离的训练和推理步骤,它享有灵活的采样。Score SDE [116] 将前两个公式概括为连续设置,其中噪声扰动和去噪过程是随机微分方程的解。事实证明,概率流 ODE 也可以用来模拟逆向过程。

Training Enhancement:训练增强旨在通过引入来自另一个预训练模型或额外可训练超参数的先验知识来改进采样。受知识蒸馏思想的启发,Salimans 等人。 [117] 建议逐步将知识从预训练的复杂教师模型提取到更快的学生模型,这可以将采样步骤减半。TDPM [118] 和 ES-DDPM [119] 通过提前停止截断扩散过程来提高采样速度。为了从非高斯分布初始化的逆向过程生成样本,引入了另一种预训练的生成模型,如 VAE 或 GAN 来近似这种分布。法兰赛斯等。 [120] 将训练步骤的数量制定为变量以实现最佳权衡。改进的 DDPM [121] 首先通过将噪声尺度项添加到损失函数中来引入噪声尺度调整。同时,San Romans 等人 [122] 引入了噪声预测网络以逐步调整噪声调度。这种噪声调度学习通过在训练和推理期间有效地引导噪声的随机游走来改进重建。

Efficient Training-free Sampling:无需额外训练,免训练采样直接减少离散化时间步长的数量,同时最大限度地减少离散化误差。在相同的训练目标下,DDIM [123] 将 DDPM 推广到一类非马尔可夫扩散过程并引入跳跃加速。这可以提供更短的生成马尔可夫链。AnalyticDPM [124] 通过估计最优模型逆向方差的解析形式和 KL-divergence w.r.t 其得分函数来提供更有效的推理。还有一些作品 [125, 126] 通过动态规划直接计算出最佳采样轨迹。

Noise Distribution:噪声扰动的分布是扩散模型的重要组成部分,其中大部分是高斯分布。同时,以更多的自由度拟合这种分布可以提高性能。Nachmani 等人。 [127] 证明 Gamma 分布可以改善图像和语音的生成,高斯分布的混合也优于单一分布。此外,冷扩散 [128] 提出了一个更普遍的结论,即噪声可以设置为任何分布作为生成行为扩散模型并不强烈依赖于噪声分布的选择。除了噪声扰动,CCDF [129] 表明没有必要从高斯分布进行初始化,它可以通过简单的前向扩散减少采样步骤,但噪声初始化更好。

Mixed Modeling:混合建模旨在将扩散模型与另一类生成模型相结合,以充分利用它们的所有优点,从而提供更强的表现力或更高的采样速度。DiffuseVAE [130] 通过使用 VAE 生成的模糊图像重建调节扩散采样过程,将标准 VAE 合并到 DDPM 管道中。LSGM [131] 在 VAE 的潜在空间中训练 SGM,将 SGM 泛化为非连续数据,并使 SGM 在小空间内学习更流畅。去噪扩散 GAN [132] 将条件 GAN 引入 DDPM 管道,以使用更具表现力的多模态分布参数化去噪过程,从而提供大的去噪步骤。DiffFlow [133] 将流函数集成到图 8 中。

生成视觉语言的一般结构。我们将生成过程分为编码器部分和解码器部分。编码器模型会将输入编码为潜在表示,然后解码器会将此表示解码为生成的输出。

基于 SDE 的扩散模型的轨迹,这使得向前的步骤也可以训练。从噪声扰动中引入的随机性赋予归一化流更强的表达能力,而可训练的正向过程大大减少了扩散轨迹长度。因此,DiffFlow 能够以更好的采样效率学习边界更清晰的分布。

单模态本身相对多模态简单一些,因为不需要额外的跨模态的一些特殊设计,单模态模型。。。额,话说去掉了多模态模型之后其它的vit,resnet,bert,tabnet,tft这些不都是传统的单模态模型么。。

多模态模型

多模态生成是当今 AIGC 的重要组成部分。多模态生成的目标是通过学习数据中的多模态连接和交互来学习生成原始模态的模型 [7]。模态之间的这种联系和相互作用有时可能非常复杂,这使得与单模态表示空间相比,多模态表示空间难以学习。然而,随着前面章节中提到的强大的特定于模式的基础架构的出现,越来越多的方法被提出来应对这一挑战。在本节中,我们介绍了视觉语言生成、文本音频生成、文本图生成和文本代码生成方面最先进的多模态模型。由于大多数多模态生成模型总是与实际应用高度相关,因此本节将主要从下游任务的角度进行介绍。

视觉语言生成

编码器-解码器架构是一种广泛使用的框架,用于解决计算机视觉和自然语言处理中的单峰生成问题。在多模态生成中,特别是在视觉语言生成中,这种方法经常被用作基础架构。编码器负责学习输入数据的上下文表示,而解码器用于生成反映跨模态交互、结构和表示中连贯性的原始模态。在下文中,我们对最先进的视觉语言编码器进行了全面调查,然后对解码器组件进行了阐述。

视觉语言编码器。最近,用于单一模态的编码器的开发取得了显着进步,引发了如何从多种模态中学习上下文表示的问题。一种常见的方法是使用融合函数组合特定于模态的编码器,然后利用多个预训练任务来对齐表示空间 [37、134、135]。一般来说。这些编码器模型可以分为两类,级联编码器和交叉对齐编码器 [7](说白了就是单塔和双塔)。

两种类型的视觉语言编码器:级联编码器和交叉对齐编码器。前者直接单塔内直接交互,后者在双塔之间存在约束(例如clip中的dual encoder)。

级联编码器(单塔)

多模态之间的交互的最直接的思路是连接来自单个编码器的嵌入。马东什么:多模态206 赞同 · 3 评论文章

一个早期的例子是 VisualBERT [134],它利用了 BERT的结构(如下图)。马东什么:多模态一个早期的例子是 VisualBERT [134],它利用了 BERT的结构(如下图)。

其中,bert作为文本编码器,CNN 作为图像编码器。来自图像编码器的嵌入将直接合并到 BERT 的token嵌入中,用的是joint representation

允许模型隐式学习对齐的联合表示空间

使用了隐式对齐

所谓隐式就是放到一个layer组件中做自由的交互,显式则是同一个样本的不同模态视角之间做一些距离计算之类的进行约束

VisualBERT 还利用了与 BERT 一样的多任务预训练范式,使用两个基于视觉的语言模型目标:使用图像和句子图像预测进行掩码语言建模。此外,VisualBERT 还结合了一些特定于模态的pretrain task。

另一个例子是 VL-BERT [136],它与 VisualBERT 具有相似的架构。

与 VisualBERT 不同,VL-BERT 使用 Faster R-CNN [137] 作为感兴趣区域 (ROI) 提取器,并利用提取的 ROI 信息作为图像区域嵌入。VL-BERT 还包括一个额外的预训练任务,即带有语言线索的mask ROI 分类,以更好地结合视觉信息。后来,基于与 VisualBERT 相同的架构,提出了 UNITER [138],

uniter具有不同的训练目标。UNITER使用掩码语言建模、掩码区域建模、图像文本匹配预测和词区域对齐预测作为其预训练任务。通过这种方式,UNITER 可以学习信息丰富的上下文嵌入。为此,我们看到级联编码器通常基于相同的 BERT 架构,并使用类似 BERT 的任务进行预训练。然而,这些模型总是涉及非常复杂的预训练过程、数据收集和损失设计。为了解决这个问题,[135] 提出了 SimVLM,它通过将 PrefixLM 设置为训练目标并直接使用 ViT 作为文本编码器和图像编码器来简化视觉语言模型的预训练过程。与以前的方法相比,SimVLM 在多种视觉语言任务上实现了最先进的性能,并且架构大大简化。

交叉对齐编码器(双塔or多塔)

另一种学习上下文表示的方法是查看模态之间的成对交互 [7]。与单塔结构不同,交叉对齐编码器始终使用双塔结构,其中每个模态一个塔,然后使用交叉模态编码器学习联合表示空间

LXMERT [139] 使用 Transformers 提取图像特征和文本特征,

然后添加多模态交叉注意力模块进行协调学习。生成的输出嵌入将是视觉嵌入、语言嵌入和多模态嵌入。该模型还使用多个多模态任务进行了预训练。

同样,ViLBERT [140] 利用cross transformer模块来对齐两种模式。

给定视觉和语言嵌入,一种特定模态的key和value将被输入到另一种模态的注意力模块中,以生成包含这两种信息的集合注意力嵌入。通常,这些模型都利用跨层将信息融合到联合表示空间中。然而,由于其大量参数,在这种情况下使用transformer架构将是低效的。为了简化训练过程和计算,CLIP [37] 使用点积作为交叉层,比 使用cross Transformer 做多个模态之间的交互更高效,能够实现高效的大规模下游训练。此外,CLIP 在大量成对数据上进行了训练,这已被证明优于许多其他模型

文本解码器

给定某种模态的表示,视觉语言解码器的主要目的是将其转换为任务指定的某种原始模态(不同模态之间的translation)。这里主要关注文本到图像解码器(例如以文生图)和图像到文本的解码器(例如图片注释)。

图像到文本解码器 ,通常从编码器获取上下文表示,并将该表示解码为句子。随着大型语言模型的出现和有效性的验证,许多架构现在选择性地冻结语言解码器组件。因此,文本解码器可以大致分为两类:联合训练模型和冻结编码器

联合训练的解码器

联合训练的解码器是指在解码表示时需要完整的交叉模式训练的解码器。图像本到文本生成的挑战通常在于在预训练期间如何对齐两种模式因此,这类模型需要更强大的编码器而不是解码器。为了应对这一挑战,许多模型优先构建强大的编码器,然后将其与相对轻量级的解码器模型相结合。例如,VLP [138] 和 ALBEF [141] 利用一个简单的转换器解码器来解码信息:

ALBEF

BLIP [142] 在预训练期间将编码器和解码器结合在一起,允许多模式空间对齐以实现理解和生成目标。

BLIP 由三部分组成,一个用于提取图像和文本特征的单模态编码器,一个接受图像和文本特征作为输入的图像文本编码器,以及一个接受图像特征并输出文本的图像接地文本解码器。除了对齐的编码器和解码器结构,作者还设计了几个相应的预训练任务来帮助模型更好地学习多模态依赖。

冻结编码器

另一种有效执行图像到文本生成任务的方法是冻结大型语言模型并仅训练图像编码器,这也可以看作是执行多模态prompt的一种方法。由于 NLP 中prompt和in context learning的成功,人们越来越关注这种性质的方法。这让人们质疑这种方法在多模式环境中是否也有效。Frozen [143] 首先将in context learning引入视觉语言任务。它冻结了语言模型,只训练图像编码器。生成的图像表示将嵌入到语言模型的输入嵌入中。该方法在各种零样本和少样本视觉语言任务中实现了最先进的性能

后来,Alayrac 等人提出了 Flamingo [144],它进一步探索了多模态的in context learning。Flamingo 涉及冻结视觉编码器和冻结语言编码器以获得视觉语言表示,并利用门控交叉注意力密集层将图像表示融合为文本表示。最近,[145] 提出了一种用冻结语言模型实现 Visual和nlp 交互的方法,使模型能够生成交错的多模态数据。该方法还冻结输入编码器并训练文本到图像和图像到文本的线性映射,以进一步编码和解码生成的嵌入。然而,为什么这种基于prompt的方法在多模态生成中起作用仍然是一个问题。此外还提出了一些作品来回答这个问题。梅鲁洛等。提出了一种在冻结图像编码器和文本编码器之间注入线性投影的方法[146]。在训练期间,只调整线性投影。实验结果表明,具有相似大小的冻结语言模型通常在将视觉信息转换为语言方面表现同样出色,但经过语言监督预训练的图像编码器(如 CLIP 文本编码器)可以对额外信息进行编码,从而在视觉语言任务上表现得更好。

图像解码器

text to image generation是指给定一个指令,生成一个与该指令对应的图像。同样,图像生成中常用的模型也遵循编码器-解码器架构,其中编码器更侧重于学习语言信息,解码器更侧重于利用学习到的信息来限制图像合成。一般来说,最近的工作可以分为两类,基于 GAN 的方法和基于扩散的方法(btw在扩散模型之前基本都是走的gan,vae,gan的工作多的一笔)

基于 GAN 的解码器

给定文本编码器

,基于 GAN 的方法结合了鉴别器 和生成器 ,其中生成器 接受由

生成的文本嵌入和噪声向量 以生成输出

,这些输出与真实样本一起输入到鉴别器 分布

[147]。该领域的一个著名模型是 StackGAN [148]。 StackGAN 架构由两个阶段组成:调节阶段和细化阶段。

在调节阶段,模型将文本描述作为输入并生成低分辨率图像。然后将该图像送入细化阶段,在该阶段进一步细化以生成与文本描述相匹配的高分辨率图像。

AttnGAN [149] 是另一种基于 StackGAN 架构的文本到图像合成模型。Attngan 在 StackGAN 架构中加入了注意力机制,以进一步提高生成图像的质量。然而,这些模型在指令学习过程中主要使用相对简单的文本编码器,这可能会导致一定的信息丢失。

StyleCLIP [150] 是一种最新的文本到图像合成模型,它使用对比学习来对齐文本和图像特征。它基于 StyleGAN [77] 架构,产生了对以前的文本到图像合成模型(如 StackGAN)的重​​大进步。StyleCLIP 还遵循编码器-解码器结构,使用文本编码器对指令进行编码,使用图像解码器合成新图像。StyleCLIP 的一项关键创新是它使用对比学习来对齐文本和图像特征。通过训练模型以最大化文本和图像特征之间的相似性,同时最小化不同文本和图像对之间的相似性,StyleCLIP 能够学习文本和图像特征之间更有效的映射,从而产生更高质量的图像合成(这种translation之间的对齐一般都是显式的,sample中image和text是一一对应的)。

基于扩散的解码器

生成图像建模最近在使用扩散模型方面取得了巨大成功。这些模型也已应用于文本到图像的生成。例如,GLIDE [151] 将消融扩散模型 (ADM) 引入到文本到图像的生成中。与之前基于扩散的方法相比,GLIDE 使用具有 3.5B 参数的更大模型和更大的成对数据集,在许多基准测试中取得了更好的结果。与 GLIDE 不同,Imagen [152] 将冻结的 T5 语言模型与超分辨率扩散模型相结合。

图 11. DALL-E-2 的模型结构。虚线上方是CLIP预训练过程,旨在对齐视觉和语言模态。虚线下方是图像生成过程。文本编码器接受指令并将其编码为表示,然后先验网络和扩散模型解码该表示以生成最终输出。

冻结编码器将对文本指令进行编码并生成嵌入,然后第一个扩散模型将相应地生成低分辨率图像。第二个扩散模型接受带有文本嵌入的图像并输出高分辨率图像。DALL-E-2 [5] 将 CLIP 编码器与扩散解码器相结合,用于图像生成和编辑任务。与 Imagen 相比,DALL-E-2 利用先验网络在文本嵌入和图像嵌入之间进行转换。除了模型设计方面的进步外,这些基于扩散的模型与以前的生成方法之间的另一个主要区别是,这些基于扩散的模型通常在具有更多参数的更大数据集上进行训练,这使得它们有可能学习比其他模型更好的表示。

除了前面提到的方法,还有使用 VAE 作为解码器的作品。例如,Ramesh 等人。提出了 DALL-E [33],这是一种零镜头图像生成器,它利用 dVAE 作为图像编码器和解码器,BPE 作为文本编码器,并在推理过程中使用预训练的 CLIP。

其它

文本音频生成:

近年来,文本-音频多模式处理领域取得了显着增长。该领域的大多数模型要么专注于合成任务,例如语音合成,要么专注于识别任务,例如自动语音识别。它们指的是将书面文本转换为口头语音或将人类语音准确转录为机器可读文本的过程。然而,文本音频生成是一项不同的任务,涉及使用多模式模型创建新颖的音频或文本。虽然相关,但文本音频生成、合成和识别任务在其目标和用于实现这些目标的技术方面有所不同。在这项工作中,我们专注于文本音频生成而不是合成或识别任务。

AdaSpeech [153] 被提议通过在梅尔谱解码器中利用两个声学编码器和条件层归一化,使用有限的语音数据有效地定制高质量的新语音。由于之前的研究在风格转换方面存在局限性,Lombard [154] 利用频谱整形和动态范围压缩 [155] 在存在噪声的情况下生成高度清晰的语音。Cross-lingual generation 是另一项有影响力的跨语言语音传输工作。 [156] 可以产生多种语言的高质量语音,并通过使用音素输入表示和对抗性损失项来跨语言传输语音,从而将说话者身份与语音内容区分开来。

文本音乐生成

[157] 提出了一种针对音频和歌词的深度跨模态相关学习架构,其中模态间典型相关分析用于计算音频和歌词之间时间结构的相似性。为了更好地学习社交媒体内容,JTAV [158] 使用跨模态融合和专注池技术融合了文本、听觉和视觉信息。与 JTAV 不同,[159] 结合了与音乐更相关的多种类型的信息,例如播放列表-曲目交互和流派元数据,并将它们的潜在表示对齐以模拟独特的音乐作品。此外,还有一些工作专注于在给定音频作为输入的情况下生成文本信息,例如描述和字幕。 [160] 提出通过结合音频内容分析和自然语言处理来利用每个曲目的信息来生成音乐播放列表的描述。MusCaps [161] 是一种音乐音频字幕模型,它通过多模式编码器处理音频文本输入并利用音频数据预训练来生成音乐音频内容的描述,以获得有效的音乐特征表示。对于音乐和语言预训练,Manco 等人。 [162] 提出了一种多模式架构,它使用弱对齐文本作为唯一的监督信号来学习通用音乐音频表示。CLAP [163] 是另一种从自然语言监督中学习音频概念的方法,它利用两个编码器和对比学习将音频和文本描述带入联合多模态空间。

文本到graph生成

文本图生成是一个重要的多模态主题,可以在很大程度上释放 NLP 系统的潜力。自然语言文本本质上是模糊的,因为它携带了各种冗余信息,而且逻辑组织也很弱。同时,有利于机器处理结构化、组织良好和压缩形式的内容。知识图谱(KG)是语言处理系统中将语义内部状态之间的关系反映为图结构的结构化意义表示。并且越来越多的作品从文本中提取 KG 以辅助文本生成,这些文本包含跨多个句子的复杂思想。语义解析也可以表述为文本到图形生成的问题。它旨在将自然语言文本转换为逻辑形式,主要是抽象意义表示(AMR)[164],这是一种广泛覆盖的句子级语义表示。与 text-to-KG generation 相比,它强调提供机器可解释的表示而不是构建语义网络。相反,KG-to-text generation 旨在基于已构建的 KG 生成流畅且逻辑连贯的文本。除了 NLP 领域,文本图形生成也可以推动计算机辅助药物设计的发展。有新兴的工作将高度结构化的分子图与语言描述联系起来,这有助于人类理解深刻的分子知识和新分子探索。下面,我们简要概述这四个主题中的一些代表作品。

文本到knowledge graph的生成

李等。 [165] 将文本到 KG 的构建视为知识图谱完成(KGC)的过程,其中缺失的术语逐渐被推理覆盖。采用双线性模型和另一个基于 DNN 的模型来嵌入项并计算任意元组的分数以进行加法运算。KG-BERT [166] 利用预训练语言模型的力量在 KGC 期间捕获更多上下文信息。这个想法是通过微调的 BERT 模型将三元组表示为文本序列,并将图补全模型表示为序列分类问题。马拉维亚等。 [167] 提出了一种结合图卷积网络(GCN)的方法来提取更多的结构和语义上下文。它还通过引入图形扩充和渐进屏蔽策略来解决图形稀疏性和可扩展性问题。或者,另一行作品 [168-170] 直接查询预训练的语言模型以获得语义知识网络。具体来说,语言模型被反复提示以预测完形填空句中的掩码项,以获取相关知识。CycleGT [171] 是一种无监督方法,允许 text-KG 双向翻译。采用无监督循环训练策略提供自我监督,使整个训练过程可以使用非平行文本和图形数据。利用类似的策略,DualTKB [172] 进一步证明,即使在弱监督环境下,模型性能也可以大大提高。卢等人。[173] 提出了一个统一的文本到图形框架,它包含了大多数信息提取任务。同时,预定义模式的使用可能会限制其对节点和边的不同文本形式的泛化。Grapher [174] 通过在两个独立的阶段生成节点和边来有效地执行端到端文本到 KG 的构建。具体来说,预训练的语言模型首先使用实体​​提取任务进行微调以生成节点。随后,引入焦点损失和稀疏邻接矩阵来解决边缘构建过程中的偏斜边缘分布问题。

知识图到文本生成

GTR-LSTM [176] 是一个序列到序列的编码器解码器框架,它从线性化的 KG 三元组生成文本。它可以处理 KG 中的循环以捕获全局信息。同时,其线性化图的性质仍然会导致相当大的结构信息丢失,尤其是对于大型图。为了解决这个问题,Song 等人。 [177] 使用图状态 LSTM 对图语义进行编码,该图状态 LSTM 可以在一系列状态转换期间在节点之间传播信息。它被证明能够对节点之间的非本地交互进行建模,同时由于高度并行化也很高效。赵等。[175] 提出 DUALENC,一种双编码模型,以弥合输入图和输出文本之间的结构差异。具体来说,它利用基于 GCN 的图形编码器来提取结构信息,同时还采用神经规划器来创建图形的顺序内容计划,以生成线性输出文本。或者,Koncel-Kedziorski 等人。 [178] 使用从图形注意力网络 (GAT) [179] 扩展而来的基于转换器的架构对文本生成的图形结构进行编码。这个想法是通过使用自我注意机制遍历其局部邻域来计算 KG 的节点表示。相反,Ribeiro 等人。 [180] 专注于联合利用局部和全局节点编码策略从图形上下文中捕获补充信息。HetGT [181] 改编自 transformer,旨在独立地对图中的不同关系进行建模,以避免通过简单地混合它们来避免信息丢失。输入图首先被转化为异构Levi图,然后根据每个部分的异构性拆分成子图,用于未来的信息聚合。

语义解析

早期作品 [182、183] 将语义解析表述为序列到序列生成问题。然而,AMR 本质上是一个结构化对象。序列到序列问题设置只能捕获浅层词序列信息,同时可能忽略丰富的句法和语义信息。吕等。 [184] 通过将 AMR 表示为根标记的有向无环图 (DAG),将语义解析建模为图预测问题。这将需要图中的节点与句子中的单词之间的对齐。提出了一种将对齐视为联合概率模型中的潜在变量的神经解析器,用于 AMR 解析期间的节点对齐和边缘预测。陈等。 [185] 通过神经序列到动作 RNN 模型构建具有动作集的语义图。通过在解码过程中整合结构和语义约束来加强解析过程。张等。 [186] 通过基于无对准器注意力的模型解决 AMR 解析中的重入属性出现的问题,该模型将问题表述为序列到图的转换。利用指针生成器网络,证明可以使用有限的标记 AMR 数据有效地训练模型。Fancellu 等人。 [187] 提出了一种图感知顺序模型来构建用于 AMR 图预测的线性化图。在没有潜在变量的情况下,它可以确保每个格式正确的字符串仅与一种新颖的图形感知字符串重写策略的一个派生配对。

文本分子生成

Text2Mol [189] 是一种跨模态信息检索系统,用于检索基于语言描述的分子图。基于 BERT 的文本编码器和 MLP-GCN 组合分子编码器用于在语义空间中创建多模态嵌入,通过对比学习与配对数据对齐。MolT5 [190] 没有从现有分子中检索,而是提出了一个自我监督的学习框架,用于文本条件从头分子生成和分子字幕。它通过预训练和微调策略解决了跨模态数据对的稀缺性。具体来说,它使用去噪目标在未配对的文本和分子字符串上预训练模型,然后使用有限的配对数据进行微调。然而,受其线性化图形性质的限制,分子的基于字符串的表示不是唯一的并且可能导致结构信息丢失。为了解决这个问题,MoMu [188] 引入了一个基于图的多模态框架,该框架通过对比学习联合训练两个独立的编码器,以与弱配对的跨模态数据进行语义空间对齐。除了从头分子图生成之外,它还可以适应各种下游任务。

文本代码生成

文本代码生成旨在从自然语言描述中自动生成有效的程序代码或提供编码辅助。LLM 最近在从自然语言 (NL) 描述生成编程语言 (PL) 代码方面展现出巨大潜力。早期的作品直接将文本代码生成制定为纯语言生成任务。然而,NL 和 PL 是具有固有不同模态的数据类型,在语义空间对齐期间,额外的策略对于捕获 NL 和 PL 之间的相互依赖性至关重要。与 NL 数据相比,PL 数据还封装了丰富的结构信息和不同的语法,这使得从 PL 上下文中理解语义信息更具挑战性。此外,文本代码模型也应该是多语言的,因为它们可以提供更好的泛化能力。下面主要介绍以自然语言描述为条件的代码生成模型。我们还审查了其他基于语言的编码辅助模型。

文本条件编程代码生成

CodeBERT [191] 是一种基于双峰 Transformer 的预训练文本代码模型,可以捕获 NL 和 PL 之间的语义联系。它采用混合目标函数,利用二项式 NL-PL 配对数据进行模型训练,单峰 PL 代码数据分别用于学习更好的生成器,以在语义空间中对齐 NL 和 PL。该模型进一步在六种多语言 PL 上进行了预训练,以实现更好的泛化。CuBERT [192] 与 CodeBERT 具有相似的模型架构,同时它不需要在函数的自然语言描述与其主体之间执行句子分离以进行句子对表示。CodeT5 [193] 提出了一种预训练的编码器-解码器 Transformer 模型,它可以更好地从代码中捕获上下文语义信息。具体来说,它引入了新颖的标识符感知预训练任务,通过从代码令牌中区分标识符并在屏蔽时恢复它们来保留关键令牌类型信息。PLBART [194] 将双峰文本代码模型从生成任务扩展到更广泛的判别任务类别,例如统一框架下的克隆和漏洞代码检测。另一行作品 [195、196] 引入了程序图的概念 [197] 以显式建模 PL 代码底层的结构以协助生成。程序图被构造为抽象语法树 (AST),以封装来自程序特定语义和语法的知识。

交互式编程系统

由于 NL 的内在歧义,文本代码生成受到编程代码生成的棘手搜索空间和用户意图的不当规范的共同挑战。CODEGEN [198] 提出了一种多轮程序合成方法,该方法将以单个复杂的 NL 规范为条件的程序合成分解为由一系列用户意图控制的渐进生成。它以自回归变换器的形式构建,学习给定先前标记的下一个标记的条件分布,并在 PL 和 NL 数据上进行训练。TDUIF [199] 通过形式化用户意图和提供更易于理解的用户反馈来扩展交互式编程框架。它进一步实现了可扩展的自动算法评估,不需要用户在循环中,具有高保真用户交互建模。

AIGC的应用

聊天机器人

聊天机器人是一种计算机程序,旨在通过基于文本的界面模拟与人类用户的对话。聊天机器人通常使用语言模型以对话方式理解和响应用户查询和输入。它们可以被编程来执行范围广泛的任务,例如,提供客户支持和回答常见问题。图14.当前研究领域、应用与相关公司的关系图,其中深蓝色圆圈代表研究领域,浅蓝色圆圈代表应用,绿色圆圈代表公司。

最突出的例子是Xiaoice[200]。 XiaoIce 由 Microsoft 的一组研究人员和工程师开发,使用了自然语言处理、机器学习和知识表示方面的最先进技术。Xiaoice的一个重要特征是它能够表达同理心,这是通过使用情感分析方法实现的,让小冰像人一样表现。2020 年,谷歌提出了 Meena [201],这是一个在社交媒体对话上训练的多轮开放域聊天机器人,它实现了最先进的交互式 SSA 分数和困惑度。最近,微软发布了他们最新版本的 Bing,其中包含 ChatGPT,使用户能够提出开放域或条件问题并通过对话获得结果。这为未来聊天机器人的发展提供了新的可能性。

艺术画

人工智能艺术生成是指使用计算机算法来创作原创艺术作品。这些算法在现有艺术品的大型数据集上进行训练,并使用机器学习技术生成模仿著名艺术家的风格和技巧或探索新艺术风格的新作品。随着基于扩散的模型的快速发展,越来越多的公司推出了他们的艺术生成产品。该领域最显着的进步之一是由 OpenAI 推出的 DALL-E 系列。DALL-E [1],即现在的 Craiyon,最初是在 VQ-VAE 和 CLIP 上构建的,然后diffusion也应用到这个产品上,成为 DALL-E2 [5]。DreamStudio [13] 由 Stability.ai 创建,是一种文本到图像生成服务,它利用stable diffusion根据给定的短语或句子生成图像。该技术提供与 DALL-E-2 相当的性能,但处理速度更快,使其成为许多用户的热门选择。由 Google 开发的 Imagen [152] 在其图像编辑和生成服务中使用diffusion。在一篇博客文章中,谷歌报告说他们与人类评分者进行了一项研究,以评估人工智能生成的图像的质量。结果表明,Imagen 在并排比较中优于其他模型,人类评分者更喜欢样本质量和图像文本对齐方面的评分更高。

音乐

深度音乐生成是指利用深度学习技术和人工智能算法生成新颖原创的音乐作品。一个突出的方法是以钢琴卷的形式产生音乐的象征性表示。这种方法需要为每个要演奏的音符指定时间、音高、速度和乐器。AIVA 4 是最著名的例子之一,由 Aiva Technologies 于 2016 年开发。它可以生成多种风格的音乐片段,包括电子、流行、爵士等,并且可以在各种环境中使用。作为全球首位被交响乐组织认可的人工智能作曲家,AIVA获得了SACEM音乐学会作曲家的全球地位。 OpenAI 在 2020 年开发了 Jukebox [203]。它在原始音频领域以不同的流派和艺术风格生成带有歌声的音乐。Jukebox 在音乐质量、连贯性、音频样本持续时间以及受艺术家、流派和歌词影响的能力方面被认为是一个飞跃。

代码

基于人工智能的编程系统通常旨在完成代码完成、源代码到伪代码映射、程序修复、API 序列预测、用户反馈和自然语言到代码生成等任务。最近,强大的 LLM 的出现将基于 AI 的编程的边界向前推进了一大步。CodeGPT [204] 是由 OpenAI 开发的开源代码生成模型,它与 GPT 系列中的许多其他模型一样遵循 transformer 架构。它可以针对各种代码生成任务进行微调,例如代码补全、摘要或基于大量源代码数据的翻译。CodeParrot [205] 是一个编程学习平台,在编码过程中为用户提供个性化的反馈和帮助。以渐进式人机交互的方式设计了各种交互练习和编程挑战。一个独特的功能是脚手架策略,它将复杂的任务拆分为更小且易于管理的步骤,以帮助学生逐渐建立他们的编码技能。与大多数以前的模型相比,Codex [206] 在更大、更多样化的数据集上进行了训练,这是向前迈出的重要一步。具体来说,它旨在从头开始生成完整的编码程序,而 CodeGPT 只能生成完成给定提示的代码片段。它还享有适应多种编程语言的好处,可以提供更好的灵活性和通用性。

教育

AIGC 有可能通过利用多模态数据(例如教程视频、学术论文和其他高质量信息)在教育方面取得重大进展,从而改善个性化教育体验。在学术方面,Google Research 引入了 Minerva [207],它建立在 PaLM 通用语言模型 [209] 和一个额外的以科学和数学为中心的数据集之上,以解决大学水平的多步定量任务,涵盖代数,概率论、物理学、数论、初等微积分、几何学、生物学、电气工程、化学、天文学和机器学习。例如,它可以给出证明任何

不等式

的分步细节,它还可以在其他三种选择(包括钠、铬和铝)中正确识别镅作为放射性元素。正如博客 5 中所述,Minerva 通过组合技术在推理任务上实现了最先进的性能,包括少量提示、思维链或便签本提示以及多数表决。虽然 Minerva 的表现仍然低于人类表现,但随着不断改进和未来的进步,AIGC 可以提供负担得起的个性化数学导师。商用方面,巧匠教育科技宣布将开发一款基于AIGC的自​​动课程、AI导师、在线教育自适应学习的班级机器人产品,预计2023年第四季度出货。

AIGC 的效率

在过去的十年中,具有神经网络的深度生成 AI 模型一直主导着机器学习领域,其兴起归功于 2012 年的 ImageNet 竞赛 [210],这导致了一场创建更深、更复杂模型的竞赛。在自然语言理解中也可以看到这种趋势,其中开发了具有大量参数的模型,例如 BERT 和 GPT-3。然而,不断增加的模型占用空间和复杂性,以及训练和部署所需的成本和资源,对现实世界中的实际部署提出了挑战。核心挑战是效率,可以分解如下:

(1)推断的效率:这涉及到在实际应用中部署模型进行推理的问题,即计算模型在给定输入下的输出。推理效率主要与模型的大小、速度和资源消耗(例如,磁盘和内存使用)有关。

(2)训练的效率:这包括影响模型训练速度和资源需求的因素,例如训练时间、内存占用以及在多个设备上的可扩展性。它还可能包括关于在特定任务上实现最佳性能所需数据量的考虑。

Prompt Learning(提示学习)

Prompt learning 是近年来在预训练大型语言模型的背景下提出的一个相对较新的概念。以前,要对给定的输入 进行预测 ,传统监督学习的目标是找到一个预测概率

的语言模型。通过快速学习,目标变成了找到一个模板

直接预测概率

[211]。因此,使用语言模型的目标变成了通过提供指定要完成的任务的提示来鼓励预训练模型进行预测。通常,prompt learning会冻结语言模型,直接对其进行few-shot或zeroshot学习。这使得语言模型能够在大量原始文本数据上进行预训练,并适应新的领域而无需再次调整。因此,Prompt Learning可以帮助节省大量时间和精力

Traditional Prompt Learning

利用语言模型进行提示学习的过程可以分为两个主要阶段:prompt engineering和answer engineering。

Prompt engineering:一般来说,常用的提示工程有两种形式:离散提示和连续提示。离散提示通常由人类为特定任务手动设计,而连续提示被添加到输入嵌入中以传达特定于任务的信息。

Answer engineering:重新制定任务后,语言模型根据提供的提示生成的答案需要映射到ground truth空间。Answer engineering有不同的范式,包括离散搜索空间和连续搜索空间。由于该主题与分类任务更密切相关,我们建议感兴趣的读者自己去看相关的综述了解更多信息。

除了单提示学习法外,还有多提示法。这些方法主要侧重于在推理过程中将多个提示组合在一起作为输入以提高预测的鲁棒性,这比依赖单个提示更有效。多提示学习的另一种方法是提示增强,旨在通过提供已经回答的额外提示来帮助模型回答问题。

In-context Learning

最近,In-context Learning作为提高语言模型性能的有效方法受到了广泛关注。这种方法是提示学习的一个子集,涉及使用预训练的语言模型作为主干,以及向提示添加一些输入标签演示对和说明。上下文学习已被证明在指导语言模型产生更好的答案方面非常有效,这些答案更符合给定的提示。最近的一些研究还表明,上下文学习可以被视为一种隐式微调形式,因为它使模型能够学习如何根据输入提示更准确地生成答案。

预训练基础模型的效率

在 AIGC 框架的背景下,每个提议方法的基本组成部分都涉及利用大型预训练基础模型 (PFM) [212]。PFM,如 BERT [42]、GPT2 [62] 和 RoBERTa [43],通过在广泛的 NLP 任务上取得最先进的结果,彻底改变了自然语言处理领域。然而,这些模型非常大且计算量大,可能导致效率问题。当使用有限的计算资源工作时尤其如此,例如在个人计算机上或在处理能力有限的云环境中。为了解决这些效率问题,最近的许多工作都致力于探索更具成本效益的预训练方法来预训练大规模 PFM。学习算法的有效性取决于训练方法和模型架构效率。例如,ELECTRA [213] 引入了一个 RTD 任务来预测每个输入标记是否被其他标记替换,从而使 ELECTRA 能够针对所有输入标记进行训练。除了有效的训练方法外,模型架构效率也有助于提高 PFM 效率。通过降低 Transformer 算法的复杂性,大多数基于 Transformer 算法的 PFM 可能会受益于更高效的模型架构。

Model Compression

模型压缩是减小模型尺寸和提高计算效率的有效途径。它需要更少的计算资源和内存,比原始模型更能满足各种应用的需求,其策略可分为两类:参数压缩和结构压缩。参数压缩方法包括参数剪枝、参数量化、低秩分解和参数共享。参数剪枝基于相当大的 PFM 删除冗余参数,而参数量化将模型参数减少到低阶数,而不会对模型性能产生显着影响。低秩分解降低了高维参数向量的维数,参数共享映射模型参数以减少它们的数量。结构压缩是指设计新的紧凑网络结构并采用知识蒸馏,其中通过软标签等技术将从较大的教师模型中学到的知识转移到较小的学生模型中。例如,DistilBERT [214] 使用知识蒸馏来压缩 BERT,将其大小减小 40%,同时保持其 97% 的语言理解能力。ALBERT 使用分解嵌入参数化和跨层参数共享来减少模型参数的数量。

虽然 AIGC 有可能在许多不同的应用程序中非常有用,但它也引发了对安全和隐私的重大担忧。在本节中,我们将讨论揭示 AIGC“黑暗”面的研究以及为确保 AIGC 能够以安全和负责任的方式使用而提出的对策。

安全/隐私

pass 不感兴趣

未解决的问题和未来的方向

高风险应用程序。尽管社区见证了 AIGC 在图像、文本和音频生成方面的巨大成功,但这些领域可以说具有更高的容错性。相反,用于高风险应用的 AIGC,包括医疗保健 [248]、金融服务 [249]、自动驾驶汽车 [250] 和科学发现 [251],仍然具有挑战性。在这些领域中,任务是关键任务,需要高度的准确性、可靠性、透明度以及更少或接近零的容错能力。例如,用于自动组织科学的大型语言模型 Galactica [252] 可以执行知识密集型科学任务,并且在多个基准任务上具有良好的性能。由于以权威的口吻对其产生的有偏见和不正确的结果进行了强烈批评,其公开演示在首次发布后仅三天就被从该服务中删除。对于这些高风险应用程序中的生成模型来说,提供置信度分数、推理和源信息以及生成的结果至关重要。只有当专业人员了解这些结果的来源和来源时,他们才能自信地在他们的任务中使用这些工具。

专业化和泛化。 AIGC 依赖于基础模型的选择,这些模型在不同的数据集上进行训练,包括基于爬网的 [37] 和精心策划的 [252]。[230] 中指出,“在更多样化的数据集上进行训练并不总是比更专业的基础模型对下游性能更好。”然而,高度专业化的数据集的管理可能既耗时又不划算。更好地理解跨域表示以及它们如何适应测试时间分布变化可能会指导设计训练数据集以平衡专业化和泛化。

Continual Learning and Retraining 人类知识库不断扩大,新任务不断涌现。要生成具有最新信息的内容,不仅需要模型“记住”所学知识,还需要能够从新获取的信息中进行学习和推理。对于某些场景[253],在保持预训练基础模型不变的情况下,对下游任务进行持续学习就足够了。必要时 [254],可以对基础模型进行持续学习。然而,也有人观察到,持续学习可能并不总是优于重新训练的模型 [255]。这就需要了解何时应该选择持续学习策略以及何时选择再培训策略。此外,从头开始训练基础模型可能会让人望而却步,因此 AIGC 下一代基础模型的模块化设计可能会阐明模型的哪些部分应该重新训练。

Reasoning 推理是人类智能的重要组成部分,它使我们能够得出推论、做出决定和解决复杂问题。然而,即使使用大规模数据集进行训练,有时 GAI 模型在常识推理任务中仍然会失败 [256、257]。最近,越来越多的研究人员开始关注这个问题。思想链 (CoT) 提示 [256] 是一种很有前途的解决方案,可以应对生成式 AI 模型中的推理挑战。它旨在增强大型语言模型在问答上下文中学习逻辑推理的能力。通过解释人类用来得出模型答案的逻辑推理过程,他们可以遵循与人类处理推理相同的道路。通过采用这种方法,大型语言模型可以在需要逻辑推理的任务中实现更高的准确性和更好的性能。CoT 还应用于其他领域,如视觉语言问答 [257] 和代码生成 [258]。然而,如何根据特定任务构建这些CoT提示仍然是一个问题。

Scaling up 放大一直是大规模预训练中的一个常见问题。模型训练总是受到计算预算、可用数据集和模型大小的限制。随着预训练模型规模的增加,训练所需的时间和资源也显着增加。这对寻求利用大规模预训练来完成自然语言理解、计算机视觉和语音识别等各种任务的研究人员和组织提出了挑战。

另一个问题与使用大规模数据集进行预训练的效果有关,如果模型大小和数据量等实验超参数设计不当,可能无法产生最佳结果。因此,次优的超参数可能会导致浪费资源消耗,并且无法通过进一步的训练获得预期的结果。已经提出了几项工作来解决这些问题。霍夫曼等人。 [259] 引入了一个正式的比例定律来根据参数的数量和数据集的大小来预测模型的性能。这项工作为了解扩大规模时这些关键因素之间的关系提供了一个有用的框架。Aghajanyan 等人。 [260] 进行实证分析以验证霍夫曼比例定律,并提出一个额外的公式来探索多模态模型训练设置中不同训练任务之间的关系。这些发现为大规模模型训练的复杂性以及跨不同训练领域优化性能的细微差别提供了宝贵的见解。

TensorRT 7 动态输入和输出

教程文档:

【1】https://docs.nvidia.com/deeplearning/tensorrt/index.html

【2】https://developer.nvidia.com/zh-cn/tensorrt

【3】Nvidia TensorRT文档——开发者指南

【4】github: https://github.com/NVIDIA/TensorRT

[5] pytorch-onnx-tensorrt全链路简单教程(支持动态输入)

[6] Pytorch转onnx, TensorRT踩坑实录

流程:

(1)Torch模型转onnx

(2)Onnx转TensorRT engine文件

(3)TensorRT加载engine文件并实现推理

Torch模型转onnx

def torch_2_onnx(model, MODEL_ONNX_PATH ):
    OPERATOR_EXPORT_TYPE = torch._C._onnx.OperatorExportTypes.ONNX
    """
    这里构建网络的输入,有几个就构建几个
    和网络正常的inference时输入一致就可以
    """
    org_dummy_input = (inputs_1, inputs_2, inputs_3, inputs_4)
 
    #这是支持动态输入和输出的第一步
    #每一个输入和输出中动态的维度都要在此注明,下标从0开始
    dynamic_axes = {
                        'inputs_1': {0:'batch_size', 1:'text_length'},
                        'inputs_2': {0:'batch_size', 1:'text_length'},
                        'inputs_3': {0:'batch_size', 1:'text_length'},
                        'inputs_4': {0:'batch_size', 1:'text_length'},
                        'outputs': {0:'batch_size', 1:'text_length'},
                        }
    output = torch.onnx.export( model,
                                org_dummy_input,
                                MODEL_ONNX_PATH,
                                verbose=True,
                                opset_version=11,
                                operator_export_type=OPERATOR_EXPORT_TYPE,
                                input_names=['inputs_1', 'inputs_2', 'inputs_3', 'inputs_4'],
                                    output_names=['outputs'],
                                    dynamic_axes=dynamic_axes
                                )
    print("Export of model to {}".format(MODEL_ONNX_PATH))


使用onnxruntime进行验证

1. 安装onnxruntime

pip install onnxruntime
2. 使用onnxruntime验证

import onnxruntime as ort
	
ort_session = ort.InferenceSession('xxx.onnx')
img = cv2.imread('test.jpg')
net_input = preprocess(img) # 你的预处理函数
outputs = ort_session.run(None, {ort_session.get_inputs()[0].name: net_input})
print(outputs)

3. 上面的这段代码有一点需要注意,可以发现通过ort_session.get_inputs()[0].name可以得到输入的tensor名称,同理,也可以通过ort_session.get_outputs()[0].name来获得输出tensor的名称,如果你的网络有两个输出,则使用ort_session.get_outputs()[0].name和ort_session.get_outputs()[1].name来获得,这里得到的名称在后续tensorrt调用中会使用

onnx转TensorRT的engine文件


import tensorrt as trt
import sys
import os

def ONNX_build_engine(onnx_file_path, write_engine = False):
    '''
    通过加载onnx文件,构建engine
    :param onnx_file_path: onnx文件路径
    :return: engine
    '''
    G_LOGGER = trt.Logger(trt.Logger.WARNING)
    # 1、动态输入第一点必须要写的
    explicit_batch = 1 << (int)(trt.NetworkDefinitionCreationFlag.EXPLICIT_BATCH) 
    batch_size = 10 # trt推理时最大支持的batchsize
    with trt.Builder(G_LOGGER) as builder, builder.create_network(explicit_batch) as network, trt.OnnxParser(network, G_LOGGER) as parser:
        builder.max_batch_size = batch_size
        config = builder.create_builder_config()
        config.max_workspace_size = common.GiB(2) #common文件可以自己去tensorrt官方例程下面找
        config.set_flag(trt.BuilderFlag.FP16)
        print('Loading ONNX file from path {}...'.format(onnx_file_path))
        with open(onnx_file_path, 'rb') as model:
            print('Beginning ONNX file parsing')
            parser.parse(model.read())
        print('Completed parsing of ONNX file')
        print('Building an engine from file {}; this may take a while...'.format(onnx_file_path))
        # 重点 
        profile = builder.create_optimization_profile() #动态输入时候需要 分别为最小输入、常规输入、最大输入
        # 有几个输入就要写几个profile.set_shape 名字和转onnx的时候要对应
        profile.set_shape("inputs_1", (1,3), (1,256), (10,512))
        profile.set_shape("inputs_2", (1,3), (1,256), (10,512)) 
        profile.set_shape("inputs_3", (1,3), (1,256), (10,512)) 
        profile.set_shape("inputs_4", (1,3), (1,256), (10,512)) 
        config.add_optimization_profile(profile)
 
        engine = builder.build_engine(network, config)
        print("Completed creating Engine")
        # 保存engine文件
        if write_engine:
            engine_file_path = 'correction_fp16.trt'
            with open(engine_file_path, "wb") as f:
                f.write(engine.serialize())
        return engine

TensorRT 加载engine文件并进行推理

def trt_inference(engine_file):
    #此处的输入应当转成numpy的array,同时dtype一定要和原网络一致不然结果会不对
    inputs_1= np.array(inputs_1, dtype=np.int32, order='C')
    inputs_2= np.array(inputs_2, dtype=np.int32, order='C')
    inputs_3= np.array(inputs_3, dtype=np.int32, order='C')
    inputs_4= np.array(inputs_4, dtype=np.int32, order='C')
    with get_engine(engine_file) as engine, engine.create_execution_context() as context:
        #增加部分 动态输入需要
        context.active_optimization_profile = 0
        origin_inputshape=context.get_binding_shape(0)
        origin_inputshape[0],origin_inputshape[1]=inputs_1.shape
        context.set_binding_shape(0, (origin_inputshape)) #若每个输入的size不一样,可根据inputs_i的size更改对应的context中的size
        context.set_binding_shape(1, (origin_inputshape))
        context.set_binding_shape(2, (origin_inputshape))
        context.set_binding_shape(3, (origin_inputshape))
        #增加代码结束
        inputs, outputs, bindings, stream = common.allocate_buffers(engine, context)
        # Do inference
        inputs[0].host = inputs_1
        inputs[1].host = inputs_2
        inputs[2].host = inputs_3
        inputs[3].host = inputs_4
        trt_outputs = common.do_inference_v2(context, bindings=bindings, inputs=inputs, outputs=outputs, stream=stream)


def get_engine(engine_path ):
    logger = trt.Logger(trt.Logger.INFO)
    trt.init_libnvinfer_plugins(logger, namespace="")
    with open(engine_path, 'rb') as f, trt.Runtime(logger) as runtime:
        return runtime.deserialize_cuda_engine(f.read())

common文件中的allcate_buffers()函数:

def allocate_buffers(engine, context):
    inputs = []
    outputs = []
    bindings = []
    stream = cuda.Stream()
    for i, binding in enumerate(engine):
        size = trt.volume(context.get_binding_shape(i))
        dtype = trt.nptype(engine.get_binding_dtype(binding))
        # Allocate host and device buffers
        host_mem = cuda.pagelocked_empty(size, dtype)
        device_mem = cuda.mem_alloc(host_mem.nbytes)
        # Append the device buffer to device bindings.
        bindings.append(int(device_mem))
        # Append to the appropriate list.
        if engine.binding_is_input(binding):
            inputs.append(HostDeviceMem(host_mem, device_mem))
        else:
            outputs.append(HostDeviceMem(host_mem, device_mem))
    return inputs, outputs, bindings, stream

Elasticsearch

ES既是搜索引擎又是数据库:ElasticSearch究竟是不是数据库?历来存在争议.它是搜索引擎,千真万确,而它是数据库,需要看数据库的界定范围.广义上讲,关系型数据库,对象型数据库,搜索引擎,文件,都可以算作是数据库.数据库是用来存储数据的,为服务应用提供了数据的读写功能,即数据的添加,修改,删除,查询四种基本功能.

1.关系型数据库,诸如:transact-sql,plsql,mysql,firebird,maria等,具备了增删改查四种基本功能.

2.对象型数据库,诸如:redis,mongo等,也具备了增删改查四种基本功能.

3.搜索引擎,就是提到的elasticsearch,也具备了增删改查四种基本功能.

4.文件,比如:sqlite,也具备了增删改查四种基本功能.

ES: 基于Lucene框架的搜索引擎产品。you know for search. 提供了restful风格的操作接口。

ELK,日志检索

Lucene:是一个非常高效的全文检索引擎框架。Java开发的,只提供单机功能。

ES的一些核心概念:

1、索引index:关系型数据库中的table

2、文档document:行

3、字段 field text/keyword/byte:列

4、映射Mapping: Schema

5、查询方式 DSL:SQL ES新版本也支持SQL

6、分片sharding和副本replicas:index都是由sharding组成的。每个sharding都有一个或多个备份。ES集群健康状态。

1)Elasticsearch是搜索引擎

Elasticsearch在搜索引擎数据库领域排名绝对第一,内核基于Lucene构建,支持全文搜索是职责所在,提供了丰富友好的API。个人早期基于Lucene构建搜索应用,需要考虑的因素太多,自接触到Elasticsearch就再无自主开发搜索应用。普通工程师要想掌控Lucene需要一些代价,且很多机制并不完善,需要做大量的周边辅助程序,而Elasticsearch几乎都已经帮你做完了。

2)Elasticsearch不是搜索引擎

说它不是搜索引擎,估计很多从业者不认可,在个人涉及到的项目中,传统意义上用Elasticsearch来做全文检索的项目占比越来越少,多数时候是用来做精确查询加速,查询条件很多,可以任意组合,查询速度很快,替代其它很多数据库复杂条件查询的场景需求;甚至有的数据库产品直接使用Elasticsearch做二级索引,如HBase、Redis等。Elasticsearch由于自身的一些特性,更像一个多模数据库。

图示:Elasticsearch综合数据库排名热度已经到第7

3)Elasticsearch是数据库

Elasticsearch使用Json格式来承载数据模型,已经成为事实上的文档型数据库,虽然底层存储不是Json格式,同类型产品有大名鼎鼎的MongoDB,不过二者在产品定位上有差别,Elasticsearch更加擅长的基于查询搜索的分析型数据库,倾向OLAP;MongoDB定位于事务型应用层面OLTP,虽然也支持数据分析,笔者简单应用过之后再无使用,谁用谁知道。

4)Elasticsearch不是数据库

Elasticsearch不是关系型数据库,内部数据更新采用乐观锁,无严格的ACID事务特性,任何企图将它用在关系型数据库场景的应用都会有很多问题,很多其它领域的从业者喜欢拿这个来作为它的缺陷,重申这不是Elasticsearch的本质缺陷,是产品设计定位如此。

图示:Elastic擅长的应用场景

2、ES做什么

Elasticsearch虽然是基于Lucene构建,但应用领域确实非常宽泛。

1)全文检索

Elasticsearch靠全文检索起步,将Lucene开发包做成一个数据产品,屏蔽了Lucene各种复杂的设置,为开发人员提供了很友好的便利。很多传统的关系型数据库也提供全文检索,有的是基于Lucene内嵌,有的是基于自研,与Elasticsearch比较起来,功能单一,性能也表现不是很好,扩展性几乎没有。

如果,你的应用有全文检索需求,建议你优先迁移到Elasticsearch平台上来,其提供丰富的Full text queries会让你惊讶,一次用爽,一直用爽。

图示:Elasticsearch官方搜索文档

2)应用查询

Elasticsearch最擅长的就是查询,基于倒排索引核心算法,查询性能强于B-Tree类型所有数据产品,尤其是关系型数据库方面。当数据量超过千万或者上亿时,数据检索的效率非常明显。

个人更看中的是Elasticsearch在通用查询应用场景,关系型数据库由于索引的左侧原则限制,索引执行必须有严格的顺序,如果查询字段很少,可以通过创建少量索引提高查询性能,如果查询字段很多且字段无序,那索引就失去了意义;相反Elasticsearch是默认全部字段都会创建索引,且全部字段查询无需保证顺序,所以我们在业务应用系统中,大量用Elasticsearch替代关系型数据库做通用查询,自此之后对于关系型数据库的查询就很排斥,除了最简单的查询,其余的复杂条件查询全部走Elasticsearch。

3)大数据领域

Elasticserach已经成为大数据平台对外提供查询的重要组成部分之一。大数据平台将原始数据经过迭代计算,之后结果输出到一个数据库提供查询,特别是大批量的明细数据。

这里会面临几个问题,一个问题是大批量明细数据的输出,如何能在极短的时间内写到数据库,传统上很多数据平台选择关系型数据库提供查询,比如MySQL,之前在这方面吃过不少亏,瞬间写入性能极差,根本无法满足要求。另一个问题是对外查询,如何能像应用系统一样提供性能极好的查询,不限制查询条件,不限制字段顺序,支持较高的并发,支持海量数据快速检索,也只有Elasticsearch能够做到比较均衡的检索。

从官方的发布版本新特性来看,Elasticseacrch志在大数据分析领域,提供了基于列示存储的数据聚合,支持的聚合功能非常多,性能表现也不错,笔者有幸之前大规模深度使用过,颇有感受。

Elasticsearch为了深入数据分析领域,产品又提供了数据Rollup与数据Transform功能,让检索分析更上一层楼。在数据Rollup领域,Apache Druid的竞争能力很强,笔者之前做过一些对比,单纯的比较确实不如Druid,但自Elasticsearch增加了Transfrom功能,且单独创建了一个Transfrom的节点角色,个人更加看好Elasticseach,跳出了Rollup基于时间序列的限制。

图示:Rollup执行过程数据转换示意图

4)日志检索

著名的ELK三件套,讲的就是Elasticsearch,Logstash,Kibana,专门针对日志采集、存储、查询设计的产品组合。很多第一次接触到Elasticsearch的朋友,都会以为Elasticsearch是专门做日志的,其实这些都是误解,只是说它很擅长这个领域,在此领域大有作为,名气很大。

日志自身特点没有什么通用的规范性,人为的随意性很大,日志内容也是任意的,更加需求全文检索能力,传统技术手段本身做全文检索很是吃力。而Elasticsearch本身起步就是靠全文检索,再加上其分布式架构的特性,非常符合海量日志快速检索的场景。今天如果还发现有IT从业人员用传统的技术手段做日志检索,应该要打屁股了。

如今已经从ELK三件套发展到Elastic Stack了,新增加了很多非常有用的产品,大大增强了日志检索领域。

5)监控领域

指标监控,Elasticsearch进入此领域比较晚,却赶上了好时代,Elasticsearch由于其倒排索引核心算法,也是支持时序数据场景的,性能也是相当不错的,在功能性上完全压住时序数据库。

Elasticsearch搞监控得益于其提供的Elastic Stack产品生态,丰富完善,很多时候监控需要立体化,除了指标之外,还需要有各种日志的采集分析,如果用其它纯指标监控产品,如Promethues,遇到有日志分析的需求,还必须使用Elasticsearch,这对于技术栈来说,又扩增了,相应的掌控能力会下降,个人精力有限,无法同时掌握很多种数据产品,如此选择一个更加通用的产品才符合现实。

图示 :Elastic性能对比时序数据库(来自腾讯云分享)

6)机器学习

机器学习最近几年风吹的很大,很多数据产品都集成了,Elasticsearch也必须有,而且做的更好,真正将机器学习落地成为一个产品 ,简化使用,所见所得;而不像其它数据产品,仅仅集成算法包,使用者还必须开发很多应用支持。

Elasticsearch机器学习提供了两种方式,一种是异常检测类型,属于无监督学习,采用聚类模型,通常应用在安全分析领域,检测异常访问等;一种是数据帧分析,属于分类与回归,属于监督学习,可用于在业务模型领域,如电商行业,价格模型分析。

Elasticsearch本身是数据平台,集成了部分机器学习算法,同时又集成了Kibana可视化操作,使得从数据采集、到模型训练、到模型预测应用都可以一键式完成。

Elasticserach提供的机器学习套件,个人认为最应该应用在数据质量这个领域,帮助大数据平台自动检测数据质量,从而降低人力提供效率。

图示 :机器学习应用示意图(截图)

需求等级

Elasticsearch整个的技术栈非常复杂,涉及到的理论与技术点非常多,完全掌握并不现实,作为一个IT从业者,首先是定位好自己的角色,依据角色需求去学习掌握必备的知识点。以下是笔者对于一个技术产品的划分模型:

1、概念

Elasticsearch涉及到的概念很多,核心概念其实就那么几个,对于一个新手来说,掌握概念目的是为了建立起自己的知识思维模型,将之后学习到的知识点做一个很好的归纳划分;对于一个其它数据产品的老手来说 ,掌握概念的目的是为了与其它数据产品划分比较,深入的了解各自的优劣,在之后工作中若有遇到新的业务场景,可以迅速做出抉择。

IT从业者普遍都有个感受,IT技术发展太快了,各种技术框架产品层出不穷,学习掌握太难了,跟不上节奏。其实个人反倒觉得变化不大,基础理论核心概念并没有什么本质的发展变化,无非是工程技术实操变了很多,但这些是需要深入实践才需要的,对于概念上无需要。

作为一个技术总监,前端工程师工作1~2年的问题都可以问倒他,这是大家对于概念认知需求不一样。

图示:Elasticsearch核心概念

2、开发

开发工程师的职责是将需求变成可以落地运行的代码。Elasticsearch的应用开发工作总结起来就是增删改查,掌握必备的ES REST API,熟练运用足以。笔者之前任职某物流速运公司,负责Elasticsearch相关的工作,公司Elasticsearch的需求很多,尤其是查询方面,ES最厉害的查询是DSL,这个查询语法需要经常练习使用,否则很容易忘记,当每次有人询问时,都安排一个工程师专门负责各种解答,他在编写DSL方面非常熟练,帮助了很多的工程师新手使用Elasticsearch,屏蔽了很多细节,若有一些难搞定的问题,会由我来解决,另外一方面作为负责人的我偶然还要请他帮忙编写DSL。

Elasticsearch后面提供了SQL查询的功能,但比较局限,复杂的查询聚合必须回到DSL。

图示:DSL语法复杂度较高

3、架构

Elasticsearch集群架构总体比较复杂,首先得深入了解Elasticseach背后实现的原理,包括集群原理、索引原理、数据写入过程、数据查询过程等;其次要有很多案例实战的机会,遇到很多挑战问题 ,逐一排除解决,增加自己的经验。

对于开发工程师来说,满足日常需求开发无需掌握这些,但对于Elasticsearch技术负责人,就非常有必要了,面对各种应用需求,要能从架构思维去平衡,比如日志场景集群需求、大数据分析场景需求、应用系统复杂查询场景需求等,从实际情况设计集群架构以及资源分配等。

4、运维

Elasticsearch本质是一个数据库,也需要有专门的DBA运维,只是更偏重应用层面,所以运维职责相对传统DBA没有那么严苛。对于集群层面必须掌握集群搭建,集群扩容、集群升级、集群安全、集群监控告警等;另外对于数据层面运维,必须掌握数据备份与还原、数据的生命周期管理,还有一些日常问题诊断等。

5、源码

Elasticsearch本身是开源,阅读源码是个很好的学习手段,很多独特的特性官方操作文档并没有写出来,需要从源码中提炼,如集群节点之间的连接数是多少,但对于多数Elasticsearch从业者来说,却非必要。了解到国内主要是头部大厂需要深入源码定制化改造,更多的是集中在应用的便捷性改造,而非结构性的改造,Elastic原厂公司有几百人的团队做产品研发,而国内多数公司就极少的人,所以从产量上来说,根本不是一个等级的。

如果把Elasticsearch比喻为一件军事武器,对于士兵来说 ,熟练运用才是最重要的,至于改造应该是武器制造商的职责,一个士兵可以使用很多武器装备,用最佳的组合才能打赢一场战争,而不是去深入原理然后造轮子,容易本末倒置。

6、算法

算法应该算是数据产品本质的区别,关系型数据库索引算法主要是基于B-Tree, Elasticserach索引算法主要是倒排索引,算法的本质决定了它们的应用边界,擅长的应用领域。

通常掌握一个新的数据产品时,个人的做法是看它的关键算法。早期做过一个地理位置搜索相关的项目,基于某个坐标搜索周边的坐标信息,开始的时候采用的是三角函数动态计算的方式,数据量大一点,扫描一张数据表要很久;后面接触到Geohash算法,按照算法将坐标编码,存储在数据库中,基于前缀匹配查询,性能高效几个数量级,感叹算法的伟大;再后面发现有专门的数据库产品集成了Geohash算法,使用起来就更简单了。

Elasticsearch集成很多算法,每种算法实现都有它的应用场景。

拥抱ES的方法

1、官方文档

Elasticsearch早期出过一本参考手册《Elastic权威指南》,是一本很好的入门手册,从概念到实战都有涉及,缺点是版本针对的2.0,过于陈旧,除去核心概念,其余的皆不适用,当前最新版本已经是7.7了,跨度太大,Elasticsearch在跨度大的版本之间升级稍微比较麻烦,索引数据几乎是不兼容的,升级之后需要重建数据才可。

Elasticsearch当前最好的参考资料是官方文档,资料最全,同步发布版本,且同时可以参考多个版本。Elasticsearch官方参考文档也是最乱的,什么资料都有,系统的看完之后感觉仍在此山中,有点类似一本字典,看完了字典,依然写不好作文;而且资料还是英文的,至此就阻挡了国内大部分程序进入。

但想要学习Elasticsearch,官方文档至少要看过几遍,便于迅速查询定位。

图示:官方文档截图说明

2、系统学习

Elasticsearch成名很早,国内也有很多视频课程,多数比较碎片,或是纸上谈兵,缺乏实战经验。Elasticsearch有一些专门的书籍,建议购买阅读,国内深度一些的推荐《Elasticsearch源码解析与优化实战》,国外推荐《Elasticsearch实战》,而且看书还有助于培养系统思维。

Elasticsearch技术栈功能特性很多,系统学习要保持好的心态,持之以恒,需要很长时间,也需要参考很多资料。

3、背后原理

Elasticsearch是站在巨人肩膀上产品,背后借鉴了很多设计思想,集成了很多算法,官方的参考文档在技术原理探讨这块并没有深入,仅仅点到为止。想要深入了解,必须得另辟蹊径。

Elastic官方的博客有很多优质的文章,很多人因为英文的缘故会忽视掉,里面有很多关键的实现原理,图文并茂,写得非常不错;另外国内一些云厂商由于提供了Elasticsearch云产品,需要深度定制开发,也会有一些深入原理系列的文章,可以去阅读参考,加深理解。对于已经有比较好的编程思维的人,也可以直接去下载官方源码,设置断点调试阅读。

4、项目实战

项目实战是非常有效的学习途径,考过驾照的朋友都深有体会,教练一上来就直接让你操练车,通过很多次的练习就掌握了。Elasticsearch擅长的领域很多,总结一句话就是“非强事务ACID场景皆可适用”,所以可以做的事情也很多。

日志领域的需求会让你对于数据写入量非常的关心,不断的调整优化策略,提高吞吐量,降低资源消耗;业务系统的需求会让你对数据一致性与时效性特别关心,从其它数据库同步到ES,关注数据同步的速度,关注数据的准确性,不断的调整你的技术方案与策略;大数据领域的需求会让你对于查询与聚合特别关注,海量的数据需要快速的检索,也需要快速的聚合结果。

项目实战的过程,就是一个挖坑填坑的过程,实战场景多了,解决的问题多了,自然就掌握得很好了。

数据存储方案 –NAS

NAS(Network Attached Storage:网络附属存储),简单来说,就是个人或中小型企业私用的网络存储服务器。区别于百度云,坚果云等公有云存储,由于NAS的硬件是在本地放置,所以可以称为私有云。

简单解释NAS就是私人的7*24小时在线的存储服务器,1996年美国硅谷首先提出NAS概念,把存储设备和网络接口集成在一起,直接通过网络存取数据。网络附属存储(NAS)是一种专业的网络文件存储及文件备份设备。它通过自带的网络接口把存储设备直接连入到网络中,实现海量数据的网络共享,把应用程序服务器从繁重的I/O负载中解脱出来,从而把存储功能从通用文件服务器中分离出来,获得更高的存取效率,更低的存储成本。硬件层面上NAS就是一台电脑,但是跟普通电脑的技能点分配还是略有区别的。

1、 Network Attached Storage

NAS 的全称是 Network Attached Storage,翻译成中文就是网络附加存储。我们来拆解一下就是网络、附加、存储。存不需要过多的解释,就是来存储东西的。附加的意思就是这块存储可以轻松的附加上,或者取下而不影响系统使用。对比我们电脑上的硬盘,就不能说是附加的。因为电脑硬盘不能随便的取下,而且硬盘取下来之后你的电脑就没法用了。网络的意思是想要访问存储里面的内容,需要有网络才行,不管是公网还是局域网反正得有网。

简单来说,NAS 提供存储服务,可用通过网络来访问存储里面的内容

2、超大容量

NAS 作为一台存储服务器,它的主要功能是存储,相比于我们普通的硬盘,NAS 最大的特点是存储空间共享,也就是网络访问。基于网络访问就可以实现其他很多功能如数据同步,照片备份,重要资料备份等等。NAS 的容量是很大的,一般都是以 T 为单位(1TB = 1024GB)。NAS 存储本身也是可以扩展的,通过累计叠加多个硬盘容量,可以扩大存储空间。NAS 系统一天 24 小时待命,没有用一会关机一会儿这种说法。因此 NAS 对磁盘的稳定性要求很高。

3、数据共享

任何设备,只要你能连上 NAS 并且赋予了访问权限,你就可以访问 NAS 中存储的数据。我们可以在手机、笔记本、iPad、智能电视上访问 NAS 中的数据。就像使用本地存储一样,非常的方便。NAS 的一个使用场景是办公共享,在一个局域网内可以实现办公的连续性。当文件在电脑被编辑保存之后,可以用 iPad 接着编辑。

4、安全存储

企业最看重这一点。安全对于企业来说,主要从两方面来讲,一是数据不能丢,而是数据不能泄露给别人。NAS 都具备强大的数据备份功能,可以提供安全不丢失的数据存储,这解决了上面的第一个问题;而解决第二个问题的方式也很简单,自己保存数据,不要用第三方的服务就行。

NAS 的使用场景:视频下载\备份手机上的照片,文件

NAS有一个重要的功能,异地访问,现在的家庭用户基本都没有自己的公网IP,就算是有路由器,内网穿透,端口映射等等的设置也是相当繁琐的。当然成品NAS一般都有自己的中转服务器可以实现异地访问的功能,但是传输速度相当感人。

Novelty in Science–A guide for reviewers

作者:Michael J. Black

迈克尔·布莱克(Michael J. Black)是出生在美国的计算机科学家,在德国图宾根工作。他是马克斯·普朗克智能系统研究所的创始理事,负责领导感知系统部门的计算机视觉,机器学习和计算机图形研究。他还是图宾根大学的名誉教授。

研究价值 = 新意度 x 有效性 x 问题大小 ,这篇博客的标题叫做科学中的新意度,来看看大佬是如何解释 论文新意度的(Novelty)。

审稿人对怎样才能使一篇论文被 CVPR 这样的顶级会议所接受有着强烈的想法。他们知道,要进入这样的会议是很难的,而且得到一篇论文是很有声望的。
因此,被录用的论文必须是非常特别的。这是事实,但什么使一篇论文特别呢?许多审稿人关注的一个重点是新颖性。但什么是科学中的新颖性?

我看到评审员经常把复杂性、难度和技术性误认为是新颖性。在科学评审中,新颖性似乎意味着这些东西。我们最好把 “新颖性 “这个词从审查说明中去掉,用来代替。

美感消除了 “技术性 “和 “复杂性 “的概念,并更多地涉及到科学新颖性的核心。 一幅画可以是美丽的,即使它很简单,技术复杂度很低。一张纸也可以。毕加索的一个小插曲可以和伦勃朗的复杂画作一样美丽。考虑到美,让我们看看审查员对新颖性的一些常见误解。

Reviewers have strong ideas about what makes a paper acceptable in top conferences like CVPR. They know that getting into such conferences is hard and that getting a paper in is prestigious. So, the papers that get in must be really special. This is true, but what makes a paper special? A key focus of many reviewers is novelty. But what is novelty in science?

I see reviewers regularly mistake complexity, difficulty, and technicality for novelty. In science reviewing, novelty seems to imply these things. We might be better served by removing the word “novelty” from the review instructions and replacing it with beauty

Beauty removes the notions of “technical” and “complex” and gets more to the heart of scientific novelty.  A painting can be beautiful even if it is simple and the technical complexity is low. So can a paper. A little squiggle of paint by Picasso can be as beautiful as an intricate painting by Rembrandt.  

Keeping beauty in mind, let’s look at some common reviewer misunderstandings about novelty.

Novelty as complexity

The simplicity of an idea is often confused with a lack of novelty when exactly the opposite is often true.  A common review critique is

The idea is very simple. It just changes one term in the loss and everything else is the same as prior work.

If nobody thought to change that one term, then it is ipso facto novel. The inventive insight is to realize that a small change could have a big effect and to formulate the new loss.  

Such reviews lead my students to say that we should make an idea appear more complex so that reviewers will find it of higher value.  I value simplicity over unnecessary complexity; the simpler the better. Taking an existing network and replacing one thing is better science than concocting a whole new network just to make it look more complex.

Novelty as difficulty

It’s hard to get a paper into a top conference, therefore reviewers often feel that the ideas and technical details must be difficult.  The authors have to shed blood, sweat, and tears to deserve a paper. Inexperienced reviewers, in particular, like to see that the authors have really worked hard. 

Formulating a simple idea means stripping away the unnecessary to reveal the core of something. This is one of the most useful things that a scientist can do. 

A simple idea can be important. But it can also be trivial. This is where reviewers struggle. A trivial idea is an unimportant idea. If a paper has a simple idea that works better than the state of the art, then it is most likely not trivial.  The authors are onto something and the field will be interested.

Novelty as surprise

Novelty and surprise are closely related. A novel idea is a surprising one by definition — it’s one that nobody in the field thought of.  But there is a flip side to this as surprise is a fleeting emotion. If you hear a good idea, there is a moment of surprise and then, the better it is, the more obvious it may seem. A common review:

The idea is obvious because the authors just combined two well known ideas.

Obvious is the opposite of novelty. So, if an idea is obvious after you’ve heard it, reviewers quickly assume it isn’t novel.  The novelty, however, must be evaluated before the idea existed. The inventive novelty was to have the idea in the first place.  If it is easy to explain and obvious in hindsight, this in no way diminishes the creativity (and novelty) of the idea.

Novelty as technical novelty

The most common misconception of reviewers is that novelty pertains to technical details. Novelty (and value) come in many forms in papers. A new dataset can be novel if it does something no other dataset has done, even if all the methods used to generate the dataset are well known. A new use of an old method can be novel if nobody ever thought to use it this way. Replacing a complex algorithm with a simple one provides insight. 

Novelty reveals itself in as many ways as beauty. Before critiquing a paper for a lack to technical novelty ask yourself if the true novelty lies elsewhere.

Novelty as usefulness or value

Not all novel ideas are useful. Just the property of being new does not connote value.  We want new ideas that lead us somewhere.  Here, reviewers need to be very careful.  It’s very hard to know where a new idea will take the field because any predictions that we make are based on the field as it is today.

A common review I get is

The authors describe a new method but I don’t know why anyone needs this.

Lack of utility is indeed an issue but it is very hard to assess with a new idea. Reviewers should be careful here and aware that we all have limited imagination. 

A personal note

My early career was built on seeing and formalizing connections between two established fields: robust statistics and Markov random fields. The novelty arose from the fact that nobody had put these ideas together before. It turned out to be a fertile space with many surprising connections that led to new theory. Fortunately, these connections also turned out to be valuable, resulting in practical algorithms that were state of the art. 

With hindsight, the connection between robust statistics and outliers in computer vision seems obvious. Today, the use of robust estimators in vision is the norm and seems no more novel than breathing air. But to see the connections for the first time, before others saw them, was like breathing for the first time. 

There is little in life more exciting than that spark of realization in science when you glimpse a new way of seeing.  You feel as if you were the first to stand on a mountain peak. You are seeing the world for a moment the way nobody before you has ever seen it. This is novelty and it happens in an instant but is enabled by all of one’s experience. 

The resulting paper embodies the translation of the idea into code, experiments, and text. In this translation, the beauty of the spark may be only dimly glimpsed.  My request of reviewers is to try to imagine the darkness before the spark. 

总结:

1、新意度 !=复杂度、困难度、惊讶度、技术新意度、有效性

2、新意度 ~=优美 (要懂得欣赏)

我记得

我带着比身体重的行李 游入尼罗河底 经过几道闪电 看到一堆光圈 不确定是不是这里
我看到几个人站在一起 他们拿着剪刀摘走我的行李 擦拭我的脑袋 没有机会返回去

直到我听见一个声音 我确定是你
可你怎记得我
我带来了另界的消息 可我怎么告知你
注定失忆着相遇

我记得这里是片树林 后面有个山坡 山坡上的枣树每当秋天到来 我们把枣装满口袋
我记得除了朋友我还 做过你的叔父 你总喜欢跟在我的屁股后面 只是为了那几个铜钱
我记得我们曾是恋人 后来战争爆发 你上战场后就再也没有回来 直到收不到你的信
我们总这样重复分离 却要重新开始 相互送别对方 说着来世再见 再次失忆着相聚

呜 呜 呜 呜…
快来抱抱 快来抱抱我
呜 呜 呜 呜…
快来抱抱 快来抱抱我

在路上我遇到了一位故去多年的人 她是如此年轻 扎着过肩马尾 露出和你一样的笑
她和我讲了很多关于你成长的故事 在星空另一端 思念从未停止 如同墓碑上的名字
不要哭我最亲爱的人 我最好的玩伴 时空是个圆圈 直行或是转弯 我们最终都会相见
在城池的某个拐角处 在夕阳西下时 在万家灯火的某一扇窗纱里 人们失忆着相聚

呜 快来抱抱 快来抱抱我
呜 快来抱抱 快来抱抱我 我终于找到你

船长

赵雷

请告诉我寂寞的时长
那里是否铺满花儿的香
在海上漂了很久会觉得岸上很晃
雨打湿了衣裳就适应了海水的凉

海北的路上没有信号
海北的灯光比繁星亮
海北的机车妹匆匆忙
海北的空调像是冬天一样冷得让我
缩成一只小鸟 缩成一只小鸟
可是没有人知道
我是刚刚经过暴风雨回到岸上的船长
会到岸的船长
而我却迷失方向
像是气球一样四处撞

槟榔一定配香烟才够爽
海北的男孩讲话有些娘娘腔
尽管看上去他们更强壮
但是我有胆量去征服海洋

上天没有给我华丽的皮囊
至今学不会打领结穿西装
海北没有适合我的衣裳
我喜欢光着膀子露出胸膛

吃饱的乌鸦在叫
迟到的学生赛跑
妩媚的夜让我想念我的船和那些被雨淋湿的海鸟
哭泣的乌云在飘
沉默的大地在摇
我开始习惯热流里涌来的爆米花味道

我的心总有一些问号
我的心总有一些孤傲
我的心总有一些潦倒
但从来没有任何事能把我困扰

我的心总有一些荒谬
我的心总有一些寂寥
我的心总有一些征兆
所以我停靠海北
来到海北 在海北
这里的人也会因为爱情喝得烂醉
一样拥挤的海北
璀璨的海北
哦 baby
我无法入睡

听歌

何必管一片海
有多么澎湃
何必管那山岗
它高在什么地方
只愿这颗跳动不停的心
永远有慈爱
好让这世间冰冷的胸膛
如盛开的暖阳
旅人等在那里
虔诚仰望着云开
咏唱回荡那里
伴着寂寞的旅程
心中这一只鹰
在哪里翱翔
心中这一朵花
它开在那片草原

少年游

芦叶满汀洲,寒沙带浅流。二十年重过南楼。柳下系船犹未稳,能几日,又中秋。黄鹤断矶头,故人今在否?旧江山浑是新愁。欲买桂花同载酒,终不似,少年游。 《唐多令》宋·刘过

少年偏爱摇摇欲坠的日落黄,殊不知此刻正拥有的,是一生中最明媚的曙光。

春日游,杏花吹满头。陌上谁家年少,足风流。

韶华不为少年留,恨悠悠,几时休。

可是我现在依然不太会转弯
虽然孤单的人偶尔也想有个伴
冷风又吹的时候想说
这生活会不会有点难
难道是因为当初有话没讲完
堵在喉咙里却始终不敢大声喊
算了 别哭 ————-毛不易《呓语》