共计 4153 个字符,预计需要花费 11 分钟才能阅读完成。
在之前的 博文 中,咱们探讨了图机器学习的一些理论知识。这一篇咱们将摸索如何应用 Transformers 库进行图分类。(你也能够从 此处 下载演示 notebook,跟着一起做!)
目前,Transformers 中惟一可用的图 transformer 模型是微软的 Graphormer,因而本文的例子将会基于该模型。咱们期待看到大家会应用并集成哪些其余模型进 🤗。
软件
要学习本教程,须要装置 datasets
和 transformers
(版本号 >= 4.27.2),你能够应用 pip install -U datasets transformers
来装置。
数据
你能够应用本人的图数据集,也能够应用 Hub 上已有的数据集。本文咱们次要应用已有的数据集,你也能够随时 增加你的数据集 到 Hugging Face!
数据加载
从 Hub 加载图数据集非常简单。这里,咱们加载 OGB 库中的 ogbg-mohiv
数据集 (该数据集是斯坦福 凋谢图基准 (Open Graph Benchmark,OGB) 的一部分):
from datasets import load_dataset
# There is only one split on the hub
dataset = load_dataset("OGB/ogbg-molhiv")
dataset = dataset.shuffle(seed=0)
这个数据集含三个拆分,train
、validation
和 test
,所有这些拆分每一行都示意一个图,每个图蕴含 5 个数据列 (edge_index
、edge_attr
、y
、num_nodes
、node_feat
),你能够通过执行 print(dataset)
来查看。
如果你还装置了其余图解决库,你还能够用这些库把图可视化进去,并进一步检查数据集。例如,应用 PyGeometric 和 matplotlib:
import networkx as nx
import matplotlib.pyplot as plt
# We want to plot the first train graph
graph = dataset["train"][0]
edges = graph["edge_index"]
num_edges = len(edges[0])
num_nodes = graph["num_nodes"]
# Conversion to networkx format
G = nx.Graph()
G.add_nodes_from(range(num_nodes))
G.add_edges_from([(edges[0][i], edges[1][i]) for i in range(num_edges)])
# Plot
nx.draw(G)
格局
在 Hub 上,图数据集次要存储为图列表模式 (应用 jsonl
格局)。
单个图示意为一个字典,以下是咱们图分类数据集的现实格局:
-
edge_index
蕴含图上每条边对应的节点 ID,存储为蕴含两个节点列表
的列表 (即由一个源节点列表和一个目标节点列表组成的列表)。- 类型: 2 个整数列表的列表。
- 示例: 蕴含四个节点 (0、1、2 和 3) 且连贯为 1->2、1->3 和 3->1 的图将具备
edge_index = [[1, 1, 3]、[2、3、1]]
。你可能会留神到此处不存在节点 0,因为在本数据中它与其余节点无际连贯。这就是下一个属性很重要的起因。
-
num_nodes
示意图中可用节点的数目 (默认状况下,假设节点按程序编号)。- 类型: 整数
- 示例: 在上例中,
num_nodes = 4
。
-
y
每个图的预测标签 (能够是类、属性值或是不同工作的多个二分类标签)。- Type: 整数列表 (用于多分类)、浮点数 (用于回归) 或 0/1 列表 (用于二元多任务分类)
- 示例: 咱们能够预测图规模 (小 = 0,中 = 1,大 = 2)。本例中,
y = [0]
。
-
node_feat
蕴含图中每个节点的可用特色 (如果存在),按节点 ID 排序。- 类型: 整数列表的列表 (可选)
- 例子: 如上例中的节点能够有一些类型特色 (就像分子图中的节点是不同的原子,不同的原子有不同的类型一样)。打比方,本例中
node_feat = [[1], [0], [1], [1]]
。
-
edge_attr
蕴含图中每条边的可用属性 (如果存在),按edge_index
排序。- 类型: 整数列表的列表 (可选)
- 例子: 仍应用上例,边也能够有类型 (如分子中的键),如 edge_attr = [[0], [1], [1]]`。
预处理
图 transformer 框架通常须要依据数据集进行特定的预处理,以生成有助于指标学习工作 (在咱们的案例中为分类) 的特色和属性。
在这里,咱们应用 Graphormer
的默认预处理,它生成进度 / 出度信息、节点间的最短门路以及模型感兴趣的其余属性。
from transformers.models.graphormer.collating_graphormer import preprocess_item, GraphormerDataCollator
dataset_processed = dataset.map(preprocess_item, batched=False)
咱们也能够在 DataCollator
的参数中动静进行预处理 (通过将 on_the_fly_processing
设置为 True)。但并非所有数据集都像 ogbg-molhiv
那样小,对于大图,动静预处理老本太高,因而须要事后进行预处理,并存储预处理后的数据供后续训练试验应用。
模型
模型加载
这里,咱们加载一个已有的预训练模型及其 checkpoint 并在咱们的上游工作上对其进行微调,该工作是一个二分类工作 (因而 num_classes = 2
)。咱们还能够在回归工作 (num_classes = 1
) 或多任务分类上微调咱们的模型。
from transformers import GraphormerForGraphClassification
model = GraphormerForGraphClassification.from_pretrained(
"clefourrier/pcqm4mv2_graphormer_base",
num_classes=2, # num_classes for the downstream task
ignore_mismatched_sizes=True,
)
咱们来看下细节。
在代码中调用 from_pretrained
办法来下载并缓存模型权重。因为类的数量 (用于预测) 取决于数据集,咱们将新的 num_classes
和 ignore_mismatched_sizes
与 model_checkpoint
一起传给该函数。这会触发函数创立一个自定义的、特定于该上游工作的分类头,这个头与原模型中的解码器头很可能是不同的。
咱们也能够创立一个新的随机初始化的模型来从头开始训练,此时,咱们既能够复用给定检查点的超参配置,也能够本人手动抉择超参配置。
训练或微调
为了简化模型训练,咱们应用 Trainer
。咱们须要定义训练相干的配置以及评估指标来实例化 Trainer
。咱们次要应用 TrainingArguments
类,这是一个蕴含所有配置项的类,用于定制训练配置。咱们要给它一个文件夹名称,用于保留模型的 checkpoint。
from transformers import TrainingArguments, Trainer
training_args = TrainingArguments(
"graph-classification",
logging_dir="graph-classification",
per_device_train_batch_size=64,
per_device_eval_batch_size=64,
auto_find_batch_size=True, # batch size can be changed automatically to prevent OOMs
gradient_accumulation_steps=10,
dataloader_num_workers=4, #1,
num_train_epochs=20,
evaluation_strategy="epoch",
logging_strategy="epoch",
push_to_hub=False,
)
对于图数据集,调整 batch size 和梯度累积步数来保障无效 batch size 够大同时又要防止内存不足,这件事尤为重要。
最初一个参数 push_to_hub
容许 Trainer
在训练期间定期将模型推送到 Hub,这个通常由保留步长来决定。
trainer = Trainer(
model=model,
args=training_args,
train_dataset=dataset_processed["train"],
eval_dataset=dataset_processed["validation"],
data_collator=GraphormerDataCollator(),)
在用于图分类的 Trainer
中,对给定的图数据集应用正确的数据整顿器 (data collator) 很重要,这个数据整顿器会将图转换为用于训练的 batch 数据。
train_results = trainer.train()
trainer.push_to_hub()
训练完后,能够应用 push_to_hub
将模型与所有其余训练相干信息一起保留到 hub。
因为此模型比拟大,因而在 CPU (Intel Core i7) 上训练 / 微调 20 个 epoch 大概须要一天工夫。想要更快点的话,你能够应用弱小的 GPU 和并行化办法,你只需在 Colab notebook 中或间接在你抉择的其余集群上启动代码即可。
结束语
当初你曾经晓得如何应用 transformers
来训练图分类模型,咱们心愿你尝试在 Hub 上分享你最喜爱的图 transformer 模型的 checkpoints、模型以及数据集,以供社区的其他人应用!
英文原文: <url>https://hf.co/blog/graphml-classification</url>
作者: Clém
译者: Matrix Yao (姚伟峰),英特尔深度学习工程师,工作方向为 transformer-family 模型在各模态数据上的利用及大规模模型的训练推理。排版 / 审校: zhongdongy (阿东)