clipmap(【代码实践】使用CLIP做一些多模态的事情)
CLIP到底有多强 ,让我们来试试吧!
CLIP模型及代码地址:GitHub - openai/CLIP: Contrastive Language-Image Pretraining
一 、准备环境
先创建一个anaconda虚拟环境 ,包含python=3.7版本 ,将该环境命名为clip 。成功 。
( pytorch=1.7.1 所需 python 版本 >=3.6 ,本博客决定安装 py3.7 )
conda create --name clip python=3.7 # 切换到虚拟环境clip中 conda activate clip根据CLIP的github上指示 ,安装pytorch=1.7.1 及其他所需库。成功 。
conda install --yes -c pytorch pytorch=1.7.1 torchvision cudatoolkit=11.0 pip install ftfy regex tqdm最后 ,从github上直接安装CLIP 。这一步可能会失败 。
pip install git+https://github.com/openai/CLIP.git如果无法访问github网址 ,会出现如下错误:
解决方法是从github镜像网站上拉取CLIP项目的完整zip包 ,将下载到的CLIP-main.zip文件保存在本地路径中 ,然后从本地直接安装CLIP库 。
具体代码如下:
# 进入CLIP-main.zip所在路径 # 解压.zip文件,然后进入解压后的文件夹 unzip CLIP-main.zip cd CLIP-main # 运行setup.py文件 ,完成本地安装clip python setup.py install然后查看已安装的库 ,能找到clip就说明安装成功了,如下图所示:
二 、测试CLIP
使用一个简单的图像分类代码测试clip是否能够正常运行 ,如下图是海贼王里面的人物艾斯 ,将该图片命名为Ace.jpeg 。
运行下面的代码,希望模型能够识别出该图像是【一个人 ,一条狗 ,一只猫】中的哪一类:
import torch import clip from PIL import Image device = "cuda" if torch.cuda.is_available() else "cpu" # 加载预训练好的模型 model, preprocess = clip.load("ViT-B/32", device=device) # 读取艾斯的图片和候选类别文字 image = preprocess(Image.open("Ace.jpeg")).unsqueeze(0).to(device) text = clip.tokenize(["a man", "a dog", "a cat"]).to(device) with torch.no_grad(): # 计算每一张图像和每一个文本的相似度值 logits_per_image, logits_per_text = model(image, text) # 对该image与每一个text的相似度值进行softmax probs = logits_per_image.softmax(dim=-1).cpu().numpy() print("Label probs:", probs)首次运行 ,代码会加载openai已经训练好的ViT-B/32模型 ,如下图所示:
等模型加载完毕 ,就会执行图像分类了 ,从结果可以看出 ,CLIP以0.928的概率判定该图像是一个man ,而不是dog或者cat 。
非常神奇的是 ,如果将代码的候选text选项中 “a man ” 替换成艾斯的名字 “Ace ”,让CLIP判断图像是否是Ace ,结果甚至更好 ,CLIP以0.994的概率判定该图像是艾斯!
text = clip.tokenize(["Ace", "a dog", "a cat"]).to(device)三 、API介绍及使用
1. clip.available_models()
import torch import clip print(clip.available_models())该方法输出CLIP的预训练好的图像编码器名称:
[RN50, RN101, RN50x4, RN50x16, RN50x64, ViT-B/32, ViT-B/16, ViT-L/14]
2. clip.load()
该方法接受4个输入参数,得到2个输出结果 。
参数:
name:字符串 。用于指定CLIP使用的图像编码器模型 。可以是模型名称 ,也就是clip.available_models()的输出结果;或者是这些模型所在的路径。 device:字符串或者torch.device的输出结果 。用于指定加载模型的设备 ,gpu或者cpu 。 jit:布尔值。是否加载优化的JIT模型 。 download_root:字符串 。用于指定下载的模型的保存地址,默认值如下代码所示。 model, proprecess = clip.load(name="RN50", device="cpu", jit=False, download_root="~/.cache/clip")创心域SEO版权声明:以上内容作者已申请原创保护,未经允许不得转载,侵权必究!授权事宜、对本内容有异议或投诉,敬请联系网站管理员,我们将尽快回复您,谢谢合作!