ChatGPT 是新一代 AI 文本助手,能够帮忙解决咱们在多个畛域的问题。
在某些简单问题上,ChatGPT 须要通过一直的调教与沟通,能力失去靠近正确的答案。
当你是某个畛域的专家时,你很容易做到这一点。
然而,在你不相熟的畛域,你甚至不晓得该怎么发问。
所以,在一个不精通的畛域,要怎么向 ChatGPT 正确发问,失去正确答案呢?
咱们能够应用 AutoGPT,AutoGPT 是基于 ChatGPT 的文本 AI 助手,在 ChatGPT 的根底上做了加强,用户在终端输出指令后,AutoGPT 能够依据最终的指标,一直生成工作及提醒语交给 ChatGPT 解决,而后一步又一步的靠近正确答案,在失去最终后果返回给用户。
应用教程
在引入 docker 后,AutoGPT 的应用变得更加简略。
第一步:拉取 docker 镜像
docker pull significantgravitas/auto-gpt
第二步:创立我的项目文件夹
AutoGPT 须要一个目录搁置配置文件及运行日志,创立一个我的项目目录,并且将其增加进 docker
的 File sharing
(如下图)
第三步:增加配置文件
- 增加
.env
配置文件
OPENAI_API_KEY=【写入你的 OpenAI key】ALLOWLISTED_PLUGINS=
DENYLISTED_PLUGINS=
集体的 openai-key
须要写入 env
文件中,能够在 OpenAI Keys 生成一个用于应用。(如下图)
- 增加
docker-compose.yml
配置文件
version: "3.9"
services:
auto-gpt:
image: significantgravitas/auto-gpt
depends_on:
- redis
env_file:
- .env
environment:
MEMORY_BACKEND: ${MEMORY_BACKEND:-redis}
REDIS_HOST: ${REDIS_HOST:-redis}
profiles: ["exclude-from-up"]
volumes:
- ./auto_gpt_workspace:/app/autogpt/auto_gpt_workspace
- ./data:/app/data
## allow auto-gpt to write logs to disk
- ./logs:/app/logs
## uncomment following lines if you want to make use of these files
## you must have them existing in the same folder as this docker-compose.yml
#- type: bind
# source: ./azure.yaml
# target: /app/azure.yaml
#- type: bind
# source: ./ai_settings.yaml
# target: /app/ai_settings.yaml
redis:
image: "redis/redis-stack-server:latest"
第四步:启动 AutoGPT
输出命令:
docker-compose run --rm auto-gpt --gpt3only
能够看到控制台输入,代表启动胜利(如下图)
到这里,就能够向 AutoGPT
输出你的指标了。
上手体验 – 淘宝童装选品
我筹备让 AutoGPT
帮我做 淘宝童装选品
,看看它是怎么做的吧。(如下图)
能够看到,它对于一个工作,会将其依照套路拆解:
- Name:工作名称
- Role:给 ChatGPT 设定的角色
- Goals:工作指标
- THOUGHTS:想法 —— 它认为以后第一步是须要剖析以后市场风行的趋势,剖析风行趋势有利于帮忙更好选品。- REASONING:推理 —— 剖析市场从而更好的理解以后的市场需求,- PLAN:行动计划
1. 应用谷歌搜寻以后童装市场的风行趋势
2. 剖析数据找到市场机会
3. 将剖析后果写入到本地文件中
- CRITICISM:意见 —— 须要保证数据是正确的,从而保障剖析后果是正确的。- NEXT ACTION:下一步 —— 应用 Google 搜寻以后童装市场的风行趋势
输出 y
能够让它持续,输出 y -N
能够让它持续往下 N
步而不须要确认,这里我输出 y
,它将在 Google
进行搜寻。(如下图)
这里能够看到:
- 零碎操作:在 `Google` 搜寻到了一堆童装市场的数据,JSON 格局。- 想法:当初,咱们有了一些市场数据,咱们须要剖析这些数据,剖析前先把这些数据存起来。- 推理:剖析数据能够有助于得出更无效的答案。把数据存起来能够在前面剖析时随时进行回顾。- 打算:剖析数据,存储数据。- 意见:依然须要保证数据的正确性。- 下一步:将数据写到本地存起来先。
输出 y
,就能够在本地看到存储的文件记录了。(如下图)
而后再看它下一步筹备做什么,他筹备执行一个 python
脚本来进行数据分析。因为这个文件不存在,所以他又本人把这个文件写进来,而后又做了一轮代码剖析。代码剖析完了当前,感觉代码有问题,它又进行调整 …
这是它写的代码,我感觉还是有问题的,它要读取的 csv
文件并不存在啊(如下图)
而后,我发现我高估它了,它连 pandas
这个依赖包都不存在,它还要去谷歌搜寻一下怎么装置 pandas
包。而后,咱们又能够看到它的一系列蛊惑行为。(如下图)
蛊惑归蛊惑,它还真把依赖问题给解决了,而后接着往下执行,果然还是遇到了 csv
文件不存在的问题,相似的问题还有一大堆,我这里间接输出 y -20
,让它本人先跑一段时间,等下咱们再来看后果。
上面就是运行了 20 次后的后果。
我简略形容一下:它发现 csv
文件不存在,而后跑去网上找数据,而后找了半天,在 yahoo
上找到了,筹备下载,写了个下载数据的脚本,后果下载数据的脚本又报错了,而后又在改下载数据的脚本。
后果就是,我的账户曾经烧掉了 0.3 刀乐,也就是两块多,后果它连一点无效信息也还没提供给我,还在 debug
它的那个破脚本。
我决定让它再跑一阵子试试 …
又跑了 10 次后,而后我发现它进入了一个死循环:
- 执行 `python` 脚本剖析数据
- csv 文件不存在,下载文件(理论下载没胜利)- 执行 `python` 脚本剖析数据
- csv 文件不存在,下载文件(理论下载没胜利)- ...
它始终重复这两步,无奈再持续工作上来了,更别说达成指标了。
本次体验,到此结束。
体验小结
它能做的事件看起来的确很弱小,全自动化的 AI 助手,只须要你输出指令,他就能本人设定指标和打算,而后去实现。
然而,通过理论体验后,我发现它还是存在几个问题,导致它没法很好的利用于理论生产工作中:
1. 非异步模型,工作执行周期长,我到当初还没有残缺执行实现过一次工作,理论可应用性存疑。2. 每一次都是从 0 开始,单次费用老本特地高(预计 $1 - $15),一次上来烧的都是真金白银的刀乐,我用的是还是 GPT3 模型,而 GPT4 更贵。收费额度($5)用完后,很难再继续维系上来。3. 重复性的动作特地多,这些动作会减少工作耗时,同时耗费你的 OpenAI 费用额度,在某些状况下还会陷入死循环。4. 中文反对仅限于第一句,后续都是英文,对英文浏览程度有要求。
最初,我的论断是:
这是一个初见感觉很惊艳的产品,然而实际上手后会发现,目前来说它可能只是个充斥科技感的高级“玩具”,并不能给你的工作带来更多实质性的帮忙。
最初一件事
如果您曾经看到这里了,心愿您还是点个赞再走吧~
您的点赞是对作者的最大激励,也能够让更多人看到本篇文章!
如果感觉本文对您有帮忙,请帮忙在 github 上点亮 star
激励一下吧!