首页IT科技clipmap(【代码实践】使用CLIP做一些多模态的事情)

clipmap(【代码实践】使用CLIP做一些多模态的事情)

时间2025-09-16 05:46:28分类IT科技浏览11693
导读:CLIP到底有多强,让我们来试试吧!...

CLIP到底有多强                  ,让我们来试试吧!

CLIP模型及代码地址:GitHub - openai/CLIP: Contrastive Language-Image Pretraining

一                  、准备环境

先创建一个anaconda虚拟环境                            ,包含python=3.7版本         ,将该环境命名为clip                   。成功                           。

( pytorch=1.7.1 所需 python 版本 >=3.6         ,本博客决定安装 py3.7 )

conda create --name clip python=3.7 # 切换到虚拟环境clip中 conda activate clip

根据CLIP的github上指示                            ,安装pytorch=1.7.1 及其他所需库         。成功                   。

conda install --yes -c pytorch pytorch=1.7.1 torchvision cudatoolkit=11.0 pip install ftfy regex tqdm

最后                  ,从github上直接安装CLIP                           。这一步可能会失败         。

pip install git+https://github.com/openai/CLIP.git

如果无法访问github网址         ,会出现如下错误:

解决方法是从github镜像网站上拉取CLIP项目的完整zip包                            ,将下载到的CLIP-main.zip文件保存在本地路径中                  ,然后从本地直接安装CLIP库          。

具体代码如下:

# 进入CLIP-main.zip所在路径 # 解压.zip文件,然后进入解压后的文件夹 unzip CLIP-main.zip cd CLIP-main # 运行setup.py文件                            ,完成本地安装clip python setup.py install

然后查看已安装的库                            ,能找到clip就说明安装成功了,如下图所示:

二                            、测试CLIP

使用一个简单的图像分类代码测试clip是否能够正常运行                  ,如下图是海贼王里面的人物艾斯                            ,将该图片命名为Ace.jpeg                           。

运行下面的代码         ,希望模型能够识别出该图像是【一个人                  ,一条狗                            ,一只猫】中的哪一类:

import torch import clip from PIL import Image device = "cuda" if torch.cuda.is_available() else "cpu" # 加载预训练好的模型 model, preprocess = clip.load("ViT-B/32", device=device) # 读取艾斯的图片和候选类别文字 image = preprocess(Image.open("Ace.jpeg")).unsqueeze(0).to(device) text = clip.tokenize(["a man", "a dog", "a cat"]).to(device) with torch.no_grad(): # 计算每一张图像和每一个文本的相似度值 logits_per_image, logits_per_text = model(image, text) # 对该image与每一个text的相似度值进行softmax probs = logits_per_image.softmax(dim=-1).cpu().numpy() print("Label probs:", probs)

首次运行         ,代码会加载openai已经训练好的ViT-B/32模型         ,如下图所示:

 等模型加载完毕                            ,就会执行图像分类了                  ,从结果可以看出         ,CLIP以0.928的概率判定该图像是一个man                            ,而不是dog或者cat                  。

非常神奇的是                  ,如果将代码的候选text选项中 “a man                  ” 替换成艾斯的名字 “Ace                            ”,让CLIP判断图像是否是Ace                            ,结果甚至更好                            ,CLIP以0.994的概率判定该图像是艾斯!

text = clip.tokenize(["Ace", "a dog", "a cat"]).to(device)

三         、API介绍及使用

1. clip.available_models()

import torch import clip print(clip.available_models())

该方法输出CLIP的预训练好的图像编码器名称:

[RN50, RN101, RN50x4, RN50x16, RN50x64, ViT-B/32, ViT-B/16, ViT-L/14]

2. clip.load()

该方法接受4个输入参数,得到2个输出结果          。

参数:

name:字符串                            。用于指定CLIP使用的图像编码器模型                  。可以是模型名称                  ,也就是clip.available_models()的输出结果;或者是这些模型所在的路径。 device:字符串或者torch.device的输出结果                            。用于指定加载模型的设备                            ,gpu或者cpu                           。 jit:布尔值。是否加载优化的JIT模型                   。 download_root:字符串                           。用于指定下载的模型的保存地址         ,默认值如下代码所示         。 model, proprecess = clip.load(name="RN50", device="cpu", jit=False, download_root="~/.cache/clip")

创心域SEO版权声明:以上内容作者已申请原创保护,未经允许不得转载,侵权必究!授权事宜、对本内容有异议或投诉,敬请联系网站管理员,我们将尽快回复您,谢谢合作!

展开全文READ MORE
企业网络推广优化策略(提升企业网络知名度和销售量的关键) 能领腾讯手游游戏礼包的软件(哪些游戏签到送话费-近期六款腾讯游戏试玩升级送Q币、微信红包奖励!)