关于自然语言处理:LLaMA快速上手指南

33次阅读

共计 1472 个字符,预计需要花费 4 分钟才能阅读完成。

近期,Meta 公布了人工智能大语言模型 LLaMA,蕴含 70 亿、130 亿、330 亿和 650 亿这 4 种参数规模的模型。其中,最小的 LLaMA 7B 也通过了超 1 万亿个 tokens 的训练。

本文咱们将以 7B 模型为例,分享 LLaMA 的应用办法及其成果。

1. LLaMA 的上手指南

这一部分,咱们将 step by step,展现 LLaMA 的应用流程。

1) 下载 LLaMA 模型文件

以 7B 模型文件为例,蕴含内容如下:

2)克隆 LLaMA 我的项目及环境配置

git clone https://github.com/facebookresearch/llama.git
cd llama
pip install -r requirements.txt
pip install -e

如下示例中,相干操作均可通过 IDP 终端进行。

3) LLaMA 初体验

在 IDP 的 cell 中运行如下代码,即可和 LLaMA 对话,接管 LLaMA 的答复啦!

对于 7B 模型:

TARGET_FOLDER=..
torchrun --nproc_per_node 1 example.py --ckpt_dir $TARGET_FOLDER/7B --tokenizer_path $TARGET_FOLDER/tokenizer.model

对于 13B 模型:

TARGET_FOLDER=..
torchrun --nproc_per_node 2 example.py --ckpt_dir $TARGET_FOLDER/13B --tokenizer_path $TARGET_FOLDER/tokenizer.model

对于不同大小的 LLaMA 模型文件,上述命令须要调整的为 TARGET_FOLDER 中模型文件的名称和 node 参数。

让咱们来进行两个简略的问答测试。

Prompt 1:

Building a website can be done in 10 simple steps

LLaMA 7B 模型的答复如下:

Prompt 2:

Please write a beautiful love poem

LLaMA 7B 的模型答复如下:

LLaMA 对这个提醒词问题,自行减少了一些场景预设,如“I need some new poems for my birthday(为庆生,我须要一些新诗)”。

输出或调整提醒词 prompt,可在 example.py 文件中的 prompts 局部 进行调整,如下图所示。

对于这两个对话示例,咱们也同样放上 ChatGPT 的答案,供大家比照参考。

2. 从 LLaMA 到 ” 开源版 ChatGPT”?

LLaMA 推出 3 天后,Nebuly AI 的初创 AI 企业在 LLaMA 的根底上,基于 RLHF(基于人类反馈的强化学习)进行训练,打造了对标 ChatGPT 的 ChatLLaMA。

nebullvm/apps/accelerate/chatllama at main · nebuly-ai/nebullvm · GitHub

ChatLLaMA 宣称训练过程比 ChatGPT 快 15 倍。同时,反对 DeepSpeed ZERO,能够放慢微调速度。

DeepSpeed 是一个开源的深度学习训练优化库,ZeRO 是一种显存优化技术,用于进步大型模型的训练效率,如进步训练速度,降低成本和进步模型可用性等。

但 ChatLLaMA 并不提供 LLaMA 的模型权重,依据其 license,也不能够商用。

3. 彩蛋时刻

正如文章题目所说,本文不仅是指南哦。

咱们在 IDP 开源的 AI IDE 中,减少了 LLaMA 和 Stable Diffusion 的示例文件,小伙伴们能够疾速开启 LLaMA 体验之旅。

我的项目地址:https://github.com/BaihaiAI/IDP

正文完
 0