共计 9140 个字符,预计需要花费 23 分钟才能阅读完成。
最近 Kakao Brain 在 Hugging Face 公布了一个全新的开源图像文本数据集 COYO,蕴含 7 亿对图像和文本,并训练了两个新的视觉语言模型 ViT 和 ALIGN ViT 和 ALIGN。
这是 ALIGN 模型首次公开公布供开源应用,同时 ViT 和 ALIGN 模型的公布都附带有训练数据集。
Google 的 ViT 和 ALIGN 模型都应用了微小的数据集 (ViT 训练于 3 亿张图像,ALIGN 训练于 18 亿个图像 – 文本对) 进行训练,因为数据集不公开导致无奈复现。Kakao Brain 的 ViT 和 ALIGN 模型采纳与 Google 原始模型雷同的架构和超参数,不同的是其在开源 COYO 数据集上进行训练。对于想要领有数据并复现视觉语言模型的钻研人员有很大的价值。具体的 Kakao ViT 和 ALIGN 模型信息能够参照:
- COYO 数据集仓库地址: https://github.com/kakaobrain/coyo-dataset
- Kakao Brain 文档地址: https://hf.co/kakaobrain
这篇博客将介绍新的 COYO 数据集、Kakao Brain 的 ViT 和 ALIGN 模型,以及如何应用它们!以下是次要要点:
- 第一个开源的 ALIGN 模型!
- 第一个在开源数据集 COYO 上训练的开源 ViT 和 ALIGN 模型。
- Kakao Brain 的 ViT 和 ALIGN 模型体现与 Google 版本相当。
- ViT 模型在 HF 上可演示!您能够应用本人的图像样本在线体验 ViT!
性能比拟
Kakao Brain 公布的 ViT 和 ALIGN 模型与 Google 的模型体现相当,某些方面甚至更好。Kakao Brain 的 ALIGN-B7-Base 模型尽管训练的数据对少得多 (7 亿 VS 1.8 亿),但在图像 KNN 分类工作上体现与 Google 的 ALIGN-B7-Base 相当,在 MS-COCO 图像 – 文本检索、文本 – 图像检索工作上体现更好。Kakao Brain 的 ViT-L/16 在 384×512 的 ImageNet 和 ImageNet-ReaL 数据上的体现与 Google 的 ViT-L/16 相当。这意味着同行能够应用 Kakao Brain 的 ViT 和 ALIGN 模型来复现 Google 的 ViT 和 ALIGN,尤其是当用户须要训练数据时。所以咱们很快乐开源这些与现有技术相当的模型!
COYO 数据集
本次公布的模型特别之处在于都是基于开源的 COYO 数据集训练的。COYO 数据集蕴含 7 亿图像 – 文本对,相似于 Google 的 ALIGN 1.8B
图像 – 文本数据集,是从网页上收集的“嘈杂”的 html 文本 (alt-text) 和图像对。COYO-700M
和 ALIGN 1.8B
都是“嘈杂”的,只应用了适当的荡涤解决。COYO
相似于另一个开源的图像–文本数据集 LAION
,但有一些区别。只管 LAION 2B
是一个更大的数据集,蕴含 20 亿个英语配对,但 COYO
的附带有更多元数据,为用户提供更多灵活性和更细粒度的应用。以下表格显示了它们之间的区别: COYO
所有数据对都提供了美感评分,更强壮的水印评分和面部计数信息 (face count data)。
COYO | LAION 2B | ALIGN 1.8B |
---|---|---|
Image-text similarity score calculated with CLIP ViT-B/32 and ViT-L/14 models, they are provided as metadata but nothing is filtered out so as to avoid possible elimination bias | Image-text similarity score provided with CLIP (ViT-B/32) – only examples above threshold 0.28 | Minimal, Frequency based filtering |
NSFW filtering on images and text | NSFW filtering on images | Google Cloud API |
Face recognition (face count) data provided as meta-data | No face recognition data | NA |
700 million pairs all English | 2 billion English | 1.8 billion |
From CC 2020 Oct – 2021 Aug | From CC 2014-2020 | NA |
Aesthetic Score | Aesthetic Score Partial | NA |
More robust Watermark score | Watermark Score | NA |
Hugging Face Hub | Hugging Face Hub | Not made public |
English | English | English? |
ViT 和 ALIGN 是如何工作的
这些模型是干什么的?让咱们简要讨论一下 ViT 和 ALIGN 模型的工作原理。
ViT—Vision Transformer 是谷歌于 2020 年提出的一种视觉模型,相似于文本 Transformer 架构。这是一种与卷积神经网络不同的视觉办法 (AlexNet 自 2012 年以来始终主导视觉工作)。同样体现下,它的计算效率比 CNN 高达四倍,且具备域不可知性 (domain agnostic)。ViT 将输出的图像分解成一系列图像块 (patch),就像文本 Transformer 输出文本序列一样,而后为每个块提供地位嵌入以学习图像构造。ViT 的性能尤其在于具备杰出的性能 – 计算衡量。谷歌的一些 ViT 模型是开源的,但其训练应用的 JFT-300 百万图像 – 标签对数据集尚未公开公布。Kakao Brain 的训练模型是基于公开公布的 COYO-Labeled-300M 进行训练,对应的 ViT 模型在各种工作上具备类似体现,其代码、模型和训练数据 (COYO-Labeled-300M) 齐全公开,以便可能进行复现和科学研究。
谷歌在 2021 年推出了 ALIGN,它是一种基于“嘈杂”文本–图像数据训练的视觉语言模型,可用于各种视觉和跨模态工作,如文本 – 图像检索。ALIGN 采纳简略的双编码器架构,通过比照损失函数学习图像和文本对,ALIGN 的“嘈杂”训练语料特点包含用语料规模补救其乐音以及弱小的鲁棒性。之前的视觉语言示意学习都是在手动标注的大规模数据集上进行训练,这就须要大量的事后解决和老本。ALIGN 的语料库应用 HTML 文本 (alt-text) 数据作为图像的形容,导致数据集不可避免地嘈杂,但更大的数据量 (18 亿对) 使 ALIGN 可能在各种工作上体现出 SoTA 程度。Kakao Brain 的模型是第一个 ALIGN 开源版本,它在 COYO 数据集上训练,体现比谷歌的后果更好。
如何应用 COYO 数据集
咱们能够应用 Hugging Face 🤗 数据集库的一行代码不便地下载 COYO 数据集。要预览 COYO 数据集并理解数据处理过程和蕴含的元属性,请返回 Hub 数据集页面。
开始前,请装置 Hugging Face 🤗 数据集库: pip install datasets
,而后下载数据集。
from datasets import load_dataset
dataset = load_dataset('kakaobrain/coyo-700m')
dataset
因为 COYO 数据集十分宏大,蕴含 747M 个图像 – 文本对,您可能无奈在本地下载整个数据集。或者可能只须要下载和应用数据集的子集。为此,能够简略地将 streaming=True
参数传递给 load_dataset()
办法,以创立可迭代数据集,并在须要时下载数据实例。
from datasets import load_dataset
dataset = load_dataset('kakaobrain/coyo-700m', streaming=True)
print(next(iter(dataset['train'])))
{'id': 2680060225205, 'url': 'https://cdn.shopify.com/s/files/1/0286/3900/2698/products/TVN_Huile-olive-infuse-et-s-227x300_e9a90ffd-b6d2-4118-95a1-29a5c7a05a49_800x.jpg?v=1616684087', 'text': 'Olive oil infused with Tuscany herbs', 'width': 227, 'height': 300, 'image_phash': '9f91e133b1924e4e', 'text_length': 36, 'word_count': 6, 'num_tokens_bert': 6, 'num_tokens_gpt': 9, 'num_faces': 0, 'clip_similarity_vitb32': 0.19921875, 'clip_similarity_vitl14': 0.147216796875, 'nsfw_score_opennsfw2': 0.0058441162109375, 'nsfw_score_gantman': 0.018961310386657715, 'watermark_score': 0.11015450954437256, 'aesthetic_score_laion_v2': 4.871710777282715}
如何应用 Hub 中的 ViT 和 ALIGN
让咱们尝试一下新的 ViT 和 ALIGN 模型。因为 ALIGN 是新退出 Hugging Face 🤗 Transformers 的,咱们先装置最新版本的库: pip install -q git+https://github.com/huggingface/transformers.git
而后导入咱们将要应用的模块和库,开始应用 ViT 进行图像分类。请留神,新增加的 ALIGN 模型将会蕴含到下一版 PyPI 包。
import requests
from PIL import Image
import torch
from transformers import ViTImageProcessor, ViTForImageClassification
接下来,咱们将从 COCO 数据集中随机下载一张有沙发图像,上边有两只猫和一个遥控器,并对图像进行预处理为模型所冀望的输出格局,咱们能够不便地应用相应的预处理器类 (ViTProcessor
) 实现这一步。初始化模型和预处理器,能够应用 Hub 中 Kakao Brain ViT repos 之一。请留神应用 Hub 中的库预处理器,确保预处理后的图像合乎特定预训练模型所需的格局。
url = 'http://images.cocodataset.org/val2017/000000039769.jpg'
image = Image.open(requests.get(url, stream=True).raw)
processor = ViTImageProcessor.from_pretrained('kakaobrain/vit-large-patch16-384')
model = ViTForImageClassification.from_pretrained('kakaobrain/vit-large-patch16-384')
接下来将图像预处理并将其输出到模型,实现检索类别标签。Kakao Brain ViT 图像分类模型是在 ImageNet 标签上训练的,输入形态为 batch_size×1000 维度的类别 (logits)。
# preprocess image or list of images
inputs = processor(images=image, return_tensors="pt")
# inference
with torch.no_grad():
outputs = model(**inputs)
# apply SoftMax to logits to compute the probability of each class
preds = torch.nn.functional.softmax(outputs.logits, dim=-1)
# print the top 5 class predictions and their probabilities
top_class_preds = torch.argsort(preds, descending=True)[0, :5]
for c in top_class_preds:
print(f"{model.config.id2label[c.item()]} with probability {round(preds[0, c.item()].item(), 4)}")
到这里就实现了!为了更加简略和简洁,还能够应用图像分类管道 (pipeline) 并将 Kakao Brain ViT 仓库名称作为指标模型传递给初始化管道。而后,咱们能够传入图像的 URL 或本地门路,或 Pillow 图像,可选“top_k”参数表述返回前 k 个预测。让咱们持续对猫和遥控器图片获取前 5 个预测后果。
from transformers import pipeline
classifier = pipeline(task='image-classification', model='kakaobrain/vit-large-patch16-384')
classifier('http://images.cocodataset.org/val2017/000000039769.jpg', top_k=5)
如果您想更多地尝试 Kakao Brain ViT 模型,请返回 🤗 Hub 核心的我的项目空间。
咱们开始试验 ALIGN,它可用于检索文本或图像的多模态嵌入或执行零样本图像分类。ALIGN 的 Transformer 实现和用法相似于 CLIP。首先,下载预训练模型和其处理器 (processor),处理器预处理图像和文本,使它们合乎 ALIGN 的预期格局,以便将其输出到视觉和文本编码器中。这步导入了咱们将要应用的模块并初始化预处理器和模型。
import requests
from PIL import Image
import torch
from transformers import AlignProcessor, AlignModel
url = 'http://images.cocodataset.org/val2017/000000039769.jpg'
image = Image.open(requests.get(url, stream=True).raw)
processor = AlignProcessor.from_pretrained('kakaobrain/align-base')
model = AlignModel.from_pretrained('kakaobrain/align-base')
先从零样本图像分类开始。为此,咱们将提供候选标签 (自在格局文本),并应用 AlignModel 找出更好地形容图像的表述。咱们将首先预处理图像和文本输出,并将预处理后的输出送到 AlignModel 中。
candidate_labels = ['an image of a cat', 'an image of a dog']
inputs = processor(images=image, text=candidate_labels, return_tensors='pt')
with torch.no_grad():
outputs = model(**inputs)
# this is the image-text similarity score
logits_per_image = outputs.logits_per_image
# we can take the softmax to get the label probabilities
probs = logits_per_image.softmax(dim=1)
print(probs)
实现了,就这么简略。要进一步尝试 Kakao Brain ALIGN 模型进行零样本图像分类,只需返回 Hugging Face 🤗 Hub 上的 demo 演示。请留神,AlignModel
的输入包含 text_embeds
和 image_embeds
(参阅 ALIGN 的 文档)。如果不须要计算用于零样本分类的每个图像和每个文本的逻辑 (logits),能够应用 AlignModel
类中的 get_image_features()
和 get_text_features()
办法便捷地检索视觉和文本嵌入。
text_embeds = model.get_text_features(input_ids=inputs['input_ids'],
attention_mask=inputs['attention_mask'],
token_type_ids=inputs['token_type_ids'],
)
image_embeds = model.get_image_features(pixel_values=inputs['pixel_values'],
)
或者,咱们能够应用 ALIGN 的独立视觉和文本编码器获取多模态嵌入。而后能够应用这些嵌入用于各种上游工作的模型训练,例如指标检测、图像宰割和图像字幕生成。让咱们看看如何应用 AlignTextModel
和 AlignVisionModel
获取这些嵌入。请留神,咱们能够应用便捷的 AlignProcessor 类别离对文本和图像进行预处理。
from transformers import AlignTextModel
processor = AlignProcessor.from_pretrained('kakaobrain/align-base')
model = AlignTextModel.from_pretrained('kakaobrain/align-base')
# get embeddings of two text queries
inputs = processor(['an image of a cat', 'an image of a dog'], return_tensors='pt')
with torch.no_grad():
outputs = model(**inputs)
# get the last hidden state and the final pooled output
last_hidden_state = outputs.last_hidden_state
pooled_output = outputs.pooler_output
咱们也能够在推理过程中设置 output_hidden_states 和 output_attentions 参数为 True,以返回所有暗藏状态和注意力值。
with torch.no_grad():
outputs = model(**inputs, output_hidden_states=True, output_attentions=True)
# print what information is returned
for key, value in outputs.items():
print(key)
在 AlignVisionModel 中执行雷同的操作,获取图像的多模态嵌入。
from transformers import AlignVisionModel
processor = AlignProcessor.from_pretrained('kakaobrain/align-base')
model = AlignVisionModel.from_pretrained('kakaobrain/align-base')
url = 'http://images.cocodataset.org/val2017/000000039769.jpg'
image = Image.open(requests.get(url, stream=True).raw)
inputs = processor(images=image, return_tensors='pt')
with torch.no_grad():
outputs = model(**inputs)
# print the last hidden state and the final pooled output
last_hidden_state = outputs.last_hidden_state
pooled_output = outputs.pooler_output
与 ViT 相似,应用零样本图像分类管道 (pipeline) 能够让过程更加轻松。以下实现了如何应用此流程应用自在文本候选标签在野外执行图像分类。
from transformers import pipeline
classifier = pipeline(task='zero-shot-image-classification', model='kakaobrain/align-base')
classifier(
'https://huggingface.co/datasets/Narsil/image_dummy/raw/main/parrots.png',
candidate_labels=['animals', 'humans', 'landscape'],
)
classifier(
'https://huggingface.co/datasets/Narsil/image_dummy/raw/main/parrots.png',
candidate_labels=['black and white', 'photorealist', 'painting'],
)
论断
近年来,多模态获得了令人难以置信的停顿,例如 CLIP 和 ALIGN 等模型赋能了各种上游工作,例如图像形容、零样本图像分类和凋谢世界指标检测。本博客,咱们介绍了由 Kakao Brain 奉献的最新开源代码 ViT 和 ALIGN 模型,以及新的 COYO 文本 – 图像数据集。展现了如何应用这些模型执行各种工作,只需几行代码即可独自应用或作为 🤗 Transformers pipeline 的一部分应用。
咱们正在持续整合最有影响力的计算机视觉和多模型模型,并乐于听取您的反馈。要理解计算机视觉和多模态钻研的最新消息,作者及 Twitter: @adirik、@a_e_roberts、@NielsRogge、@RisingSayak 和 @huggingface。
英文原文: https://huggingface.co/blog/vit-align
作者: Alara Dirik、Unso Eun Seo Jo、Minwoo Byeon、sungjunlee
译者: Cony Zhang (张聪聪)
审校、排版: zhongdongy (阿东)