首页IT科技预训练模型对模型训练的影响有哪些(Vision Transformer模型与预训练权重简析)

预训练模型对模型训练的影响有哪些(Vision Transformer模型与预训练权重简析)

时间2025-04-30 15:42:50分类IT科技浏览3271
导读:提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档...

提示:文章写完后            ,目录可以自动生成                  ,如何生成可参考右边的帮助文档

文章目录

前言

一            、ViT原理图

二                  、算法实现过程

三       、ViT-B/16结构详图

四      、ViT-B/16预训练权重简析

总结

前言

ViT (Vision Transformer) 是首次成功将 Transformer引入到视觉领域的尝试      ,开辟了视觉Transformer的先河            。这里先对ViT的原理进行阐述            ,并对预训练文件ViT-B_16.npz的内容做一个简要介绍                  。

一                  、ViT原理图

ViT (Vision Transformer) 是首次成功将 Transformer引入到视觉领域的尝试                  ,开辟了视觉Transformer的先河      。其原理如图1所示            。

图1 ViT原理图 

如图1所示      ,ViT将一张图片拆分成9个patch      ,增加一个用于分类的patch(星号)                  ,图中的数字0,1,2            ,…      ,8,9用于记录图片的位置信息                  。

图片分类中通常不需要解码器模块                  ,所以这里只需关注编码器部分            ,其中主要包括:位置编码模块Positional Encoding            、多头自注意力模块Muti-Head Attention      、前向网络模块 Feed Forward (MLP) 以及必要的Norm                  、Dropout 和残差模块等      。各模快的功能简介如下:

 (1)位置编码模块Positional Encoding:用于给输入的序列增加额外的位置信息      。

 (2)多头自注意力模块 Muti-Head Attention:用于计算全局空间注意力                  。

 (3)前向网络模块 Feed Forward(MLP):用于对通道维度信息进行混合            。

 (4)Norm            、Dropout 和残差模块:提供了更好的收敛速度和性能      。

二、算法实现过程

2.1 实现过程

首先,将图片分成无重叠的固定大小 Patch (例如16x16)                  ,然后将每个 Patch 拉成一维向量                  ,n个Patch相当于NLP中的输入序列长度                  。假设输入图片是 224x224x3,每个 patch大小是16x16            ,则n是(224/16)2 =196            。而一维向量长度等价于词向量编码长度                  ,等于(图片通道数3)x(patch的大小)= 3 x16 x 16=768, 即每个序列的向量长度是768)。

其次      ,考虑到一维向量维度较大(196)            ,需要将拉伸后的 Patch序列经过线性投影 ( nn.Linear ) 压缩维度(本模型未压缩维度)                  ,同时也可以实现特征变换功能      ,这两个步骤可以称为图片 Token化过程 (Patch Embedding)                  。为了方便后续分类      ,还额外引入一个可学习的 Class Token                  ,该 Token 插入到图片 token 化后所得序列的开始位置                  。

然后            ,将上述序列加上可学习的位置编码并输入到 N个串行的 Transformer 编码器中进行全局注意力计算和特征提取      ,其中内部的多头自注意模块用于进行 Patch间或者序列间特征提取                  ,而后面的 Feed Forward (Linear+ GELU+Dropout+ Linear+ Dropout) 模块对每个Patch或者序列进行特征变换。

最后            ,将最后一个Transformer编码器输出序列的第0位置( Class Token位置对应输出)提取出来,后面接MLP分类后                  ,然后正常分类即可            。

2.2 实现过程的张量维度变化

对于标准的Transformer模型                  ,要求输入的应该是token(向量)序列,即二维矩阵[num_token, token_dim]                  。其中            ,num_token表示token长度                  ,如前述的196      ,token_dim表示每个token的编码成度            ,也叫embedding长度                  ,如前述的768      。

在代码实现中      ,直接通过一个二维卷积层实现      ,如本模型ViT-B/16,使用卷积核大小16 x16                  ,stride为16            ,卷积核个数为768,然后展平变成二维张量            。计算过程的维度变化如下:

[224,224,3] -> [14,14,768]-> [196,768]

在输入Transformer Encoder之前      ,需要加上[class] token以及位置编码position embedding                  ,两者都是可训练参数                  。在patch token序列上拼接class token            ,然后加上位置编码,计算过程及维度变化如下:

拼接[class] token:cat ([1,768], [196,768] ) à [197,768]

叠加Position Embedding:[196,768] à [197,768]

然后                  ,这个叠加后的数据就可以输入Transformer Encoder层进行自注意力计算和特征提取      。 

三                   、ViT-B/16结构详图

3.1 模型整体结构图

Vit-B/16模型的结构如图2所示                  ,右侧的运算紧接左侧进行      。注:Transformer Encoder 前有一个Dropout层,后有一个Layer Norm层                  。训练自己的网络时            ,可简单将MLP Head层看作一个全连接层            。

图2 Vit-B/16模型结构图

3.2 模型结构详图

模型结构包括了两个主要部分                  ,即Encoder Block和MLP Block      。

(1)Encoder Block结构

Encoder Block结构中      ,接收经过Position Embedding叠加后的Patch Embedding张量            ,先后执行两个带残差处理的模块                  。第一模块中                  ,经过Layer Normalization -> Multi head Attention -> Dropout      ,并进行残差处理            。第二部分      ,经过Layer Normalization -> MLP Block -> Dropout                  ,并进行残差处理。处理后的张量维度不变            ,也为[197, 768]                  。

3 Encoder Block结构

(2)MLP Block结构

MLP Block模快含有两层Feed Forward Network      ,具体包含Linear                  、激活函数GELU、Dropout            、Linear                  、Dropout等子模块                  ,完成每个Patch或者序列的特征变换                  。

4 MLP Block结构图

四      、ViT-B/16预训练权重简析

ViT-B/16的预训练权重ViT-B_16.npz            ,这是一个numpy数组的压缩文件,可用numpy.load函数打开。

   import numpy as np

    vitfile = np.load(‘ViT-B_16.npz’)

    vitfile.files     #显示权重文件包含了数组名

    vitfile[‘cls’]    #查看数组cls的内容                  ,cls为Numpy数组名

    vitfile[‘cls’].shape   #查看数组cls的维度

权重文件结构:

如前所示                  ,ViT-B/16包括了位置编码模块Positional Encoding            、多头自注意力模块Muti-Head Attention                  、前向网络模块 Feed Forward 以及必要的Norm      、Dropout和残差模块            。其中,ViT-B/16网络的Transformer Encoder堆叠了12层(L=12)Encoder            ,即有12个Encoder Block                  。因此                  ,权重文件数组名及其维度如下:

(1)图像Patch Embedding

embedding/bias    #embedding偏置      ,维度(768,)

embedding/kernel  #embedding权重            ,维度(16,16,3,768,)—kernel size                  ,stride      ,in-channel      ,out-channel      。权重数据在方框中的模块中            。

(2)分类Token(Class Token)

cls    #分类Token                  ,维度为(1, 1, 768)

 (3)位置编码

Transformer/posembed_input/pos_embedding  #位置编码, 维度为(1, 577, 768)                   。代码中会调整至(1, 197, 768)      。

 (4)Transformer Encoder模快

由于ViT-B/16的Transformer Encoder共有12个Encoder Block            ,序号为0-11      ,其结构相同                  ,这里以第0个Encoder Block权重为例介绍      。(#号后数字是维度信息)

   Transformer/encoderblock_0/LayerNorm_0/bias   # (768,)

   Transformer/encoderblock_0/LayerNorm_0/scale  # (768,)

   Transformer/encoderblock_0/LayerNorm_2/bias   # (768,) 

   Transformer/encoderblock_0/LayerNorm_2/scale  # (768,)

   Transformer/encoderblock_0/MlpBlock_3/Dense_0/bias    # (3072,)

   Transformer/encoderblock_0/MlpBlock_3/Dense_0/kernel  # (768, 3072)

   Transformer/encoderblock_0/MlpBlock_3/Dense_1/bias    # (768,)

   Transformer/encoderblock_0/MlpBlock_3/Dense_1/kernel  # (3072, 768)

   Transformer/encoderblock_0/MultiHeadDotProductAttention_1/key/bias   # (12, 64)

   Transformer/encoderblock_0/MultiHeadDotProductAttention_1/key/kernel  # (768, 12, 64)

   Transformer/encoderblock_0/MultiHeadDotProductAttention_1/out/bias  # (768,)

   Transformer/encoderblock_0/MultiHeadDotProductAttention_1/out/kernel  #(12, 64, 768)

   Transformer/encoderblock_0/MultiHeadDotProductAttention_1/query/bias  # (12, 64)

   Transformer/encoderblock_0/MultiHeadDotProductAttention_1/query/kernel  #(768, 12, 64)

   Transformer/encoderblock_0/MultiHeadDotProductAttention_1/value/bias  #(12, 64)

   Transformer/encoderblock_0/MultiHeadDotProductAttention_1/value/kernel  #(768, 12, 64)

(5)Transformer Encoder之后的Layer Norm层

Transformer/encoder_norm/bias, 维度:(768,)

Transformer/encoder_norm/scale, 维度:(768,)

(6)MLP Head模块

head/bias,   #分类头偏置            ,维度:(1000,)

head/kernel  #分类头权重,维度:(768, 1000)                  ,分类数为1000.

总结

本文仅仅简单介绍了Transformer Vision的基本原理                  ,并对ViT-B/16 网络结构和权重数据进行了简单介绍                  。

参考文献:

Transformer Vision(二)|| ViT-B/16 网络结构_Anthony_CH的博客-CSDN博客

https://arxiv.org/abs/2010.11929

创心域SEO版权声明:以上内容作者已申请原创保护,未经允许不得转载,侵权必究!授权事宜、对本内容有异议或投诉,敬请联系网站管理员,我们将尽快回复您,谢谢合作!

展开全文READ MORE
苹果mac怎么装双系统(mac怎么安装双系统 苹果电脑安装双系统图文教程) 网站seo排名优化工具在线使用平台(网站SEO排名优化工具在线使用)