关于chatgpt:AutoGPT-使用教程及上手体验一分钟配置可用

2次阅读

共计 3050 个字符,预计需要花费 8 分钟才能阅读完成。

ChatGPT 是新一代 AI 文本助手,能够帮忙解决咱们在多个畛域的问题。

在某些简单问题上,ChatGPT 须要通过一直的调教与沟通,能力失去靠近正确的答案。

当你是某个畛域的专家时,你很容易做到这一点。

然而,在你不相熟的畛域,你甚至不晓得该怎么发问。

所以,在一个不精通的畛域,要怎么向 ChatGPT 正确发问,失去正确答案呢?

咱们能够应用 AutoGPT,AutoGPT 是基于 ChatGPT 的文本 AI 助手,在 ChatGPT 的根底上做了加强,用户在终端输出指令后,AutoGPT 能够依据最终的指标,一直生成工作及提醒语交给 ChatGPT 解决,而后一步又一步的靠近正确答案,在失去最终后果返回给用户。

应用教程

在引入 docker 后,AutoGPT 的应用变得更加简略。

第一步:拉取 docker 镜像

docker pull significantgravitas/auto-gpt

第二步:创立我的项目文件夹

AutoGPT 须要一个目录搁置配置文件及运行日志,创立一个我的项目目录,并且将其增加进 dockerFile sharing(如下图)

第三步:增加配置文件

  1. 增加 .env 配置文件
OPENAI_API_KEY=【写入你的 OpenAI key】ALLOWLISTED_PLUGINS=
DENYLISTED_PLUGINS=

集体的 openai-key 须要写入 env 文件中,能够在 OpenAI Keys 生成一个用于应用。(如下图)

  1. 增加 docker-compose.yml 配置文件
version: "3.9"
services:
  auto-gpt:
    image: significantgravitas/auto-gpt
    depends_on:
      - redis
    env_file:
      - .env
    environment:
      MEMORY_BACKEND: ${MEMORY_BACKEND:-redis}
      REDIS_HOST: ${REDIS_HOST:-redis}
    profiles: ["exclude-from-up"]
    volumes:
      - ./auto_gpt_workspace:/app/autogpt/auto_gpt_workspace
      - ./data:/app/data
      ## allow auto-gpt to write logs to disk
      - ./logs:/app/logs
      ## uncomment following lines if you want to make use of these files
      ## you must have them existing in the same folder as this docker-compose.yml
      #- type: bind
      #  source: ./azure.yaml
      #  target: /app/azure.yaml
      #- type: bind
      #  source: ./ai_settings.yaml
      #  target: /app/ai_settings.yaml
  redis:
    image: "redis/redis-stack-server:latest"

第四步:启动 AutoGPT

输出命令:

docker-compose run --rm auto-gpt --gpt3only

能够看到控制台输入,代表启动胜利(如下图)

到这里,就能够向 AutoGPT 输出你的指标了。

上手体验 – 淘宝童装选品

我筹备让 AutoGPT 帮我做 淘宝童装选品 ,看看它是怎么做的吧。(如下图)

能够看到,它对于一个工作,会将其依照套路拆解:

- Name:工作名称
- Role:给 ChatGPT 设定的角色
- Goals:工作指标
- THOUGHTS:想法 —— 它认为以后第一步是须要剖析以后市场风行的趋势,剖析风行趋势有利于帮忙更好选品。- REASONING:推理 —— 剖析市场从而更好的理解以后的市场需求,- PLAN:行动计划
    1. 应用谷歌搜寻以后童装市场的风行趋势
    2. 剖析数据找到市场机会
    3. 将剖析后果写入到本地文件中
- CRITICISM:意见 —— 须要保证数据是正确的,从而保障剖析后果是正确的。- NEXT ACTION:下一步 —— 应用 Google 搜寻以后童装市场的风行趋势

输出 y 能够让它持续,输出 y -N 能够让它持续往下 N 步而不须要确认,这里我输出 y,它将在 Google 进行搜寻。(如下图)

这里能够看到:

- 零碎操作:在 `Google` 搜寻到了一堆童装市场的数据,JSON 格局。- 想法:当初,咱们有了一些市场数据,咱们须要剖析这些数据,剖析前先把这些数据存起来。- 推理:剖析数据能够有助于得出更无效的答案。把数据存起来能够在前面剖析时随时进行回顾。- 打算:剖析数据,存储数据。- 意见:依然须要保证数据的正确性。- 下一步:将数据写到本地存起来先。

输出 y,就能够在本地看到存储的文件记录了。(如下图)

而后再看它下一步筹备做什么,他筹备执行一个 python 脚本来进行数据分析。因为这个文件不存在,所以他又本人把这个文件写进来,而后又做了一轮代码剖析。代码剖析完了当前,感觉代码有问题,它又进行调整 …

这是它写的代码,我感觉还是有问题的,它要读取的 csv 文件并不存在啊(如下图)

而后,我发现我高估它了,它连 pandas 这个依赖包都不存在,它还要去谷歌搜寻一下怎么装置 pandas 包。而后,咱们又能够看到它的一系列蛊惑行为。(如下图)

蛊惑归蛊惑,它还真把依赖问题给解决了,而后接着往下执行,果然还是遇到了 csv 文件不存在的问题,相似的问题还有一大堆,我这里间接输出 y -20,让它本人先跑一段时间,等下咱们再来看后果。

上面就是运行了 20 次后的后果。

我简略形容一下:它发现 csv 文件不存在,而后跑去网上找数据,而后找了半天,在 yahoo 上找到了,筹备下载,写了个下载数据的脚本,后果下载数据的脚本又报错了,而后又在改下载数据的脚本。

后果就是,我的账户曾经烧掉了 0.3 刀乐,也就是两块多,后果它连一点无效信息也还没提供给我,还在 debug 它的那个破脚本。

我决定让它再跑一阵子试试 …

又跑了 10 次后,而后我发现它进入了一个死循环:


- 执行 `python` 脚本剖析数据
- csv 文件不存在,下载文件(理论下载没胜利)- 执行 `python` 脚本剖析数据
- csv 文件不存在,下载文件(理论下载没胜利)- ...

它始终重复这两步,无奈再持续工作上来了,更别说达成指标了。

本次体验,到此结束。

体验小结

它能做的事件看起来的确很弱小,全自动化的 AI 助手,只须要你输出指令,他就能本人设定指标和打算,而后去实现。

然而,通过理论体验后,我发现它还是存在几个问题,导致它没法很好的利用于理论生产工作中:

1. 非异步模型,工作执行周期长,我到当初还没有残缺执行实现过一次工作,理论可应用性存疑。2. 每一次都是从 0 开始,单次费用老本特地高(预计 $1 - $15),一次上来烧的都是真金白银的刀乐,我用的是还是 GPT3 模型,而 GPT4 更贵。收费额度($5)用完后,很难再继续维系上来。3. 重复性的动作特地多,这些动作会减少工作耗时,同时耗费你的 OpenAI 费用额度,在某些状况下还会陷入死循环。4. 中文反对仅限于第一句,后续都是英文,对英文浏览程度有要求。

最初,我的论断是:

这是一个初见感觉很惊艳的产品,然而实际上手后会发现,目前来说它可能只是个充斥科技感的高级“玩具”,并不能给你的工作带来更多实质性的帮忙。

最初一件事

如果您曾经看到这里了,心愿您还是点个赞再走吧~

您的点赞是对作者的最大激励,也能够让更多人看到本篇文章!

如果感觉本文对您有帮忙,请帮忙在 github 上点亮 star 激励一下吧!

正文完
 0