关于机器学习:IDEA封神榜大语言模型二郎神系列ErlangshenUbert110MChinese使用

36次阅读

共计 1249 个字符,预计需要花费 4 分钟才能阅读完成。

官网文档和代码中的 setup 有谬误,我曾经提了 PR,如果官网不 merge 请大家应用我这个版本:文档,https://github.com/Yonggie/Fengshenbang-doc;代码:https://github.com/Yonggie/Fengshenbang-LM。

装置

就按官网的来,只不过下载的 repo 换成我那个

git clone https://github.com/Yonggie/Fengshenbang-LM.git
cd Fengshenbang-LM
pip install --editable ./

例子

复制如下

import argparse
from fengshen import UbertPipelines

total_parser = argparse.ArgumentParser("TASK NAME")
total_parser = UbertPipelines.pipelines_args(total_parser)
args = total_parser.parse_args()

args.pretrained_model_path = "IDEA-CCNL/Erlangshen-Ubert-330M-Chinese"

test_data=[
    {
        "task_type": "抽取工作", 
        "subtask_type": "实体辨认", 
        "text": "这也让很多业主据此认为,雅清苑是政府公务员挤对了国家的经适房政策。", 
        "choices": [{"entity_type": "小区名字"}, 
            {"entity_type": "岗位职责"}
            ],
        "id": 0}
]

model = UbertPipelines(args)
result = model.predict(test_data)
for line in result:
    print(line)

我改良了什么?

对于二郎神系列模型 Erlangshen-Ubert-110M-Chinese 和对应 330M 的模型:

  • 官网的文档 example 首先有 typo 谬误,是跑不通的,须要批改 UbertPiplinesUbertPipelines(少了一个 e)
  • 另外通过文档的装置形式也是不行的,因为代码的 pytorch lightning 写法是 1.x 的,当初 2.x 曾经不适宜了,官网的 setup.py 没有规定版本,我曾经更改。另外还短少了一些依赖,我也曾经在这个 repo 外面补充。
  • 我还退出了默认应用 GPU,原版是默认不加的。
  • 模型有限度,只能 batch size 为 128,能够批改,地位 modeling_ubert.py 的 class UbertDataModel(pl.LightningDataModule):

小结

  1. 批改 fengshen 库的 setup.py,规定 version,若依照原 setup 会报错
  2. 批改 readme 的 example,批改 typo(我的小时没了,切实是没察觉是文档少了个字母)更新了的文档在 repohttps://github.com/Yonggie/Fengshenbang-doc 外面

正文完
 0