CV攻城狮入门VIT(visiontransformer)之旅——近年超火的Transformer你再不了解就晚了!

近年来,VIT模型真是屠戮各项榜单啊,就像是15年的resnet,不管是物体分类,目标检测还是语义分割的榜单前几名基本都是用VIT实现的!!!朋友,相信你点进来了也是了解了VIT的强大,想一睹VIT的风采。正如我的标题所说,作为一名CV程序员,没有接触过NLP(自然语言处理)的内容,这给理解VIT带来了一定的难度,但是为了紧跟时代潮流,我们还是得硬着头皮往transformer的浪潮里冲一冲。那么这里我准备做一个VIT的入门系列,打算一共分为三篇来讲述,计划如下:

那么下面我们就要开始了,给大家详细的唠唠transformer!!!准备发车

在介绍transformer的整体框架之前,我先来简单说说我们为什么采用transformer结构,即transformer结构有什么优势呢?在NLP中,在transformer出现之前,主流的框架是RNN和LSTM,但这些框架都有一个共同的缺陷,就是程序难以并行化。举个例子,我们期望用RNN来进行语言的翻译任务,即输入ILoveChina,输出我爱中国。对于RNN来说,要是现在我们要输出中国,就必须先输出我和爱,这个过程是难以并行的,即我们必须先得到一些东西才能进行下一步。【注:这里不知大家能否听懂哈,但只要知道传统架构有难以并行化的缺陷即可】

这样的话,就可以顺理成章的提出transformer了,其最主要就是解决了类似RNN框架难以并行的特点。后文我也会详细介绍transformer是如何进行并行处理数据的。

现在就让我们来看看transformer的整体框架,如下图所示:【注:下图图片公式皆为论文中所截,这里整理到了一起】

看了上图,不用想太多,你就是不理解,我想任谁第一眼看到这堆玩意都是懵逼的,但是没关系,后面我会慢慢的解析这个图。

在写这部分之前呢,我觉得有必要提醒一下大家,对于我下面讲述的内容你可能会很难理解selfAttention为什么会这么做,我给的意见是大家先不用过多的在意,而是先了解selfAttention的过程,这个过程理解后,你可能就会对selfAttention产生自己独特的认识,当然这部分介绍完后我也会给出自己的理解供大家参考。此外,这部分我会先给出selfAttention的执行步骤,然后会结合代码帮大家更深入的理解这个过程,大家务必耐心看完!!!

在每给出一个执行步骤后,我都会列出这部分执行的图解公式,其实这些都是一些矩阵运算,如下图所示:

这里在给出此步骤的图解公式:

这部分的图解公式如下:

step2:

step3:

step4:

这部分会根据上述的理论过程结合代码加深各位的理解。此外,这部分我也会分步骤介绍,但会细化理论部分的步骤,这样大家理解起来会更舒服,但整体的步骤是没有变的。

我们定义的输入有三个,它们的维度都是1×4的,将它们放在一起构成一个3×4的输入张量,代码如下:

importtorchx=[[1,0,1,0],#Input1[0,2,0,2],#Input2[1,1,1,1]#Input3]x=torch.tensor(x,dtype=torch.float32)我们来看看输入x的结果:

attn_scores=querys@keys.T计算得到的attn_scores结果如下:

将上步得到的attn_scores输入softmax层,代码如下:

fromtorch.nn.functionalimportsoftmaxattn_scores_softmax=softmax(attn_scores,dim=-1)我们可以来看看attn_scores_softmax的结果:

tensor([[6.3379e-02,4.6831e-01,4.6831e-01],[6.0337e-06,9.8201e-01,1.7986e-02],[2.9539e-04,8.8054e-01,1.1917e-01]])上面的结果有效数字太多了,后文不好教学展示,因此我们对attn_scores_softmax的结果取小数点后一位,即attn_scores_softmax变成下列形式:

attn_scores_softmax=[[0.0,0.5,0.5],[0.0,1.0,0.0],[0.0,0.9,0.1]]##转换为tensor格式attn_scores_softmax=torch.tensor(attn_scores_softmax)##输出attn_scores_softmax结果#tensor([[0.0000,0.5000,0.5000],#[0.0000,1.0000,0.0000],#[0.0000,0.9000,0.1000]])step6:将attn_scores_softmax与矩阵V相乘这部分代码如下:

outputs=attn_scores_softmax@values这里可以看一下这部分的输出:

讲到这里,我相信大家已经知道问题就出在输入输出的维度上的,那么后文我们就会默认经过Attention模块后输入输出的维度保持不变。

最后我们来对照整体框架的第一张图来看看selfAttention的过程,如下图:

到这里,selfAttention的内容就介绍完了。我自认为讲解得算是比较清楚的了,希望能对大家有所帮助。

Multi-HeadAttention称为多头注意力机制,其实你理解了上文的自注意力机制(selfAttention),再来看这部分其实就很简单了,下面就跟着我一起来学学吧!!!

我们可以将上述结果分成两个head进行处理,如下图所示:

你会发现head1和head2就是我们前面所说的selfAttention里面的元素,这样会从head1和head2得到对应输出,如下图所示:

这一步我们会将上一步不同head输出的结果进行Concat拼接,如下图所示:

同样的,这里我们也来对照整体框架中的图片来看看Multi-HeadAttenton的过程,如下图所示:

你会发现这副图画的比较抽象,用虚影表示出多个head的情景,我想大家是能够理解的。需要注意的一点是上图中的Linear操作其实就是指我们对原数据乘一个矩阵进行变换。

那么到这里,Multi-HeadAttention的内容就介绍完了,希望能对大家有所帮助。

encoder模块结构如下图黄色虚线框内所示:

首先我们要先介绍一下输入,即上图InputEmbedding+PositionalEncoding部分,因为这部分我认为内容还是挺多的,因此放在了附录部分,大家可先点击查看。

这部分操作的表达式如下:

是不是发现这种表达式一下子就把上图的结构都展现出来了呢,所以数学真的很奇妙!!!

这部分是不是发现还蛮简单滴,同样,希望大家都有所收获!!!

decoder的结构如下图黄色虚线框内所示:

我觉得这部分最难理解的就是训练和测试是不同的,下面我将分为训练阶段和测试阶段来为大家讲解这个decoder模块。

接着我们来看看decoder的输入和输出是什么:

对于这个输入输出你现在可能还不是很理解,接下来我会慢慢分析。

傻瓜!!!这当然是我们训练的结果啦!!!不然这傻瓜机器怎么会这么智能。我简单的画个图为大家解释解释。

到这里,我相信大家对decoder整体的训练已经有了一个较清晰的认识。下面我就来结合decoder的结构图来看看decoder里到底都有些什么。

得到输入矩阵和Mask矩阵,两者维度一致。图中显示遮挡位置的值为0。可以发现单词0只能使用单词0的信息,单词1可以使用单词0和单词1的信息。

上述过程只展示的是一个Head的情况,输出了Z,最后应该把所有Head的结果拼接,使最终的Z和输入X的维度一致。

最后会进入Linear+Softmax层,最终输出预测的单词,因为Mask的存在,使得单词0的输出Z(0,)只包含单词0的信息,如下:

Softmax根据输出矩阵的每一行预测下一个单词,如下图所示:

那么很明显测试阶段我们是无法做并行化处理的!!!

另外,作为CV程序员的我们,往往对CNN网络是更加熟悉的。那么CNN和Transformer中的self-Attention是否有什么联系呢?大家可以去网上找找资料,其实CNN可以看作是一种简化版的self-Attention,或者说self-Attention是一种复杂化的CNN,它们的大致关系如下:

我们知道越复杂的模型,往往就需要更多的参数来训练,因此在训练Transformer时就需要更多的数据,关于这一点在后面讲述的VIT模型中会有体现,敬请期待吧!!!

这部分来谈谈encoder的输入部分,其结构示意图如下:

上图主要包含两个概念,一个是InputEmbedding,一个是PositionalEncoding。下面就来逐一的进行介绍。

可以看出,上图可以用一串数字表示出“秃头小苏”这四个汉字,如用1000表示“秃”,用0100表示“头”......

但是这种表示方法是否存在缺陷呢?大家都可以思考思考,我给出两点如下:

那么我们采用什么方法来缓解这种问题呢?答案就是Embedding!!!那么何为Embedding呢,我的理解就是改变原来输入input的维度,。比如我们现在分别先用“1”,“2”,“3”,“4”分别代表“秃”,“头”,“小”,“苏”这四个字,然后将“1”,“2”,“3”,“4”送入embedding层,代码如下:

importtorchimporttorch.nnasnnembedding=nn.Embedding(5,3)input=torch.IntTensor([[1,2,3,4]])上文代码(5,3)中的3就代表我们输出每个单词的维度,可以看一下输出结果,如下图所示:

输出矩阵的每一行都代表了一个词,如第一行[0.2095-0.63380.5679]代表1,即代表“秃”。

我们可以修改一下Embedding的参数,将(5,3)换成(5,4),如下:

importtorchimporttorch.nnasnnembedding=nn.Embedding(5,4)input=torch.IntTensor([[1,2,3,4]])这时我们在来看看输出结果,此时每个词就是一个4维向量:

最后我们来大致看看通过Embedding后会达到怎样的效果:

参考一下。

通过上文的介绍,我们知道没有位置编码会导致不管我们的输入顺序如何变换,对于最后的结果是没有影响的,这肯定不是我们期望看到的。那我们就给它整个位置编码呗!可是我们应该采用什么方式的位置编码呢?我想大家可以很自然的想到一个,那就是一个词标一个数字就得了呗,如下表所示:

这种编码操作简单,但是编码长度是不可控的,即词的个数越多,后面编码词越大,这样的方式其实不是理想的。

那我们还可以使用什么编码方式呢?既然上述所述编码规则是编码长度不可控,那么就可以通过除以词的长度将其控制在0-1的范围内呀,如下表所示:

你或许觉得这种编码方式还是蛮不错的,但是呢这种方式会导致结果的尺寸会随着词的长度变换而不断变换,即上例中我们每个词编码结果的间距是0.25,但是要是我们有100个词,有100个词时,这个间距又会变成多少呢?这种尺度的不统一,对模型的训练是不友好的。

“你一会介绍这个方法,这个方法不行;一会介绍那个方法,那个方法不行。那到底行不行!!!”,~~呜呜,大佬们别喷啊,我这是想让大家看看有哪些思路,况且论文中所给的编码方式也不一定是最好的,大家都可以多想想嘛。那么下面就给各位老大爷带来论文中关于此部分的位置编码方式,公式如下:

再来看看“头”的编码,如下:

我相信通过上面的例子你应该已经对这种方式的位置编码有所了解了,即你知道了如何用这种方式来对某个词进行编码。但是你可能会问,为什么用这个方式来进行位置编码呢?即这种位置编码的优势在哪里呢?这里我为大家呈现3点:

第3点说明:

通过上图可以看出,对于pos+k位置的位置编码可以表示位pos位置和k位置的线性组合。这样的线性组合意味着某个位置向量蕴含了其它位置向量的信息。

最后,我们再来看看这张图:

大家觉得这个解释怎么样呢?我当时看到就觉得这实在是太妙了。那么这部分就为大家呈现这么多了,同样希望大家都收获满满喔!!!

THE END
1.在线画图软件免费,rpa,机器人,自动化KlekiKleki 在线绘图工具,真实画笔工具、图层,图像编辑。 无插件、免费。 导入、保存,以及上传图像。更多内容请查看https://kleki.com/?lang=zh-CN VisionOn在线做图|在线白板|在线画图_VisionOn_新一代轻量 网页VisionOn是一个轻量在线图形工具,实现了Visio的大部分功能,满足流程图、电路图、平面制图、软件设计...https://www.wdlinux.cn/html/ruanjian/20240926/940.html
2.可意视觉丨COOYEVISION画图为生DD可意视觉丨COOYE VISION,画图为生DD,空间,家装设计,效果图,餐厅,客厅,软装设计,站酷网,中国设计师互动平台.https://m.zcool.com.cn/work/ZNjkxMTQ0ODQ=.html
3.LEDVISION使用手册.pdf免费在线预览全文 LEDVISION 使用手册 LEDVISION 使 用 手 册 目录 第一章 简介 1 1.1 概述1 1.2 软件运行环境2 第二章 安装与卸载 3 2.1 软件安装3 2.2 软件卸载5 第三章 LEDVISION概述 6 3.1 认识LEDVISION软件界面6 3.2 菜单和工具条按钮7 3.3 主工具条10 3.4 播放页面右键菜单11 3.5 节目编辑工具栏...https://max.book118.com/html/2017/0908/132626546.shtm
4....diffusion,支持oss,支持dalle3gpt4vision免费使用,直接通过docker拉取镜像启动即可使用,需要把命令里的版本号改成社区版本号,不需要授权码。 在无后台版本基础上,限制了一些功能,包括: 1.上传文件只支持minio存储。 2.限制了支持上传文件的模型,vision或者claude模型可以上传图片,Whisper上传语音文件,mj和dall-e-3画图会上传到minio。 https://gitee.com/vual/ChatGPT-Next-Web-Pro
1.Vision软件下载指南与体验分享评测专业设计服务摘要:本篇文章主要介绍了Vision软件的下载指南及体验分享。通过简洁明了的语言,向读者阐述了软件的下载步骤和安装过程。作者还分享了个人使用Vision软件的体验,包括软件的功能特点、操作体验以及使用效果等方面。文章...http://m.xingyuesj.com/post/131.html
2.vision画图相关vision画图vision 画图相关ZhengXinTang 已于2024-03-14 10:31:10 修改 阅读量1.3k 收藏 11 点赞数 5 分类专栏: # 环境相关 文章标签: 人工智能 版权 GitCode 开源社区 文章已被社区收录 加入社区环境相关 专栏收录该内容 30 篇文章 0 订阅 订阅专栏 本文介绍了如何在Visio2013中调整加法器符号的位置,去除页面...https://blog.csdn.net/chumingqian/article/details/136307393
3.visio绘制深度学习的mlp使用visio绘图的个人总结目录 基本使用记录 自定义模板 自定义功能区 快速设置形状格式 连接点 问题记录 对齐!! 形状旋转指定角度 图形内部绘图 图层——在已有图片的基础上绘制 自绘区域填充颜色 绘图辅助线、参考线 2022用visio绘了几张图,有些搜索的问题,记录一 基本框图: https://blog.51cto.com/u_14191/11815922
4.哪些在线画图工具能够标尺寸?3、Vision On Vision On 是很多人都在使用的一款在线画图工具,适合画各种的流程图、思维导图和电路图等等多种图,少不了的就是标尺寸的功能,毕竟工程管理的图可是非常注重标尺寸的,身为专业的在线画图工具,并且能够画工程管理的图,标尺寸属于必备功能了,所以,有需要的小伙伴也可以使用这一款在线画图工具来进行标尺...https://js.design/special/article/online-drawing-dimensioning.html
5.Vision安卓版下载Vision软件官方下载安装安卓版v1.23Vision安卓版(Visio画图几个技巧)是一个非常有用的Vision,它可以帮助安排日常生活和管理时间。可以轻松快速地安排日常计划、清晰的日历工具、实用的时间管理工具、设置自己的时间管理、标准化学习优先级、打卡日常生活,并在应用程序中丰富生活乐趣。 Vision安卓版好不好用? http://www.mdpda.com/app/apk8480515.html
6.透视软件TEOVISIONTeowinArchiExpo建筑设计网上展览会为您提供透视软件产品详细信息。规格型号:TEOVISION,公司品牌:Teowin。直接联系品牌厂商,查询价格和经销网络。寻找更多国外精选透视软件产品和供应商采购信息,尽在ArchiExpo。https://www.archiexpo.cn/prod/teowin/product-167860-2485352.html
7.艾媒商舆情监测百度文小言升级首日,画图功能调用量激增200%;中秋...文小言数据显示,升级首日迎来数百万用户使用自由订阅独家功能,画图功能调用量激增200%。文小言官方回复称,已紧急增加服务器应对大量涌入的用户。据了解,为提升用户体验,除文小言所有用户9月均可免费体验文心大模型4.0外,文心一言PC版即日起也将为新老会员增加1个月专业版免费使用体验。 https://www.iimedia.cn/c1088/102119.html
8.流程图制作工具和绘图软件MicrosoftVisio比以往更易访问 Visio 支持各种辅助功能,包括讲述人、辅助功能检查器和高对比度支持,有助于确保 Visio 图表可供所有人使用。 企业级安全和隐私 Visio 与 Microsoft 365 应用具有许多相同的安全功能,包括信息权限管理 (IRM),可在用户协作时支持图表文件的持续生成。 https://www.microsoft.com/zh-cn/microsoft-365/visio/flowchart-software
9.笔魂AI绘画笔魂AI是一款以自主研发的HanVision国产大模型为核心的AI绘画设计创新工具,您仅需简单文本输入,即可发挥无限创意,旨在满足商业和娱乐用途的多样化绘画需求,提供高效且高质量的图像生成服务。https://ibihun.com/