从去年下半年开始,Ai相关领域爆炸式的发展,令人眼花缭乱。ChatGPT和GTP-4很多人还没来得及体验,又一个重磅产品诞生了 - Auto-GTP。
有人说Auto-GPT的发布,让人类离AGI(通用人工智能)又更进了一步。那么Auto-GPT是什么呢?我们怎么使用它呢?
Auto-GPT 是一个实验性开源应用程序,其作者在3月31日将其发布在Github上。它以GPT-4 作为驱动,可以自主做出决定以实现目标,无需用户干预。
简单说吧,你可以将其视为一个助手,它可以自行做出决定以实现目标,而不是你指定下一步该做什么。
在你给AutoGPT设定一个目标后,它会让ChatGPT将实现这个目标的任务进行拆解。然后再根据拆解的任务,一条条的去执行。甚至会根据任务的需要,自主去搜索引擎检索,再将检索的内容发送给ChatGPT,进行进一步的分析处理,直至最终完成我们的目标。而我们设定目标、任务拆解、搜索引擎的检索,其核心的目标就是不断地自动完善、补充Prompt。而不再需要我们自己产生Prompt去跟Ai产品进行交互。
体验过Ai相关产品的小伙伴一定都对 Prompt 不陌生。想要从Ai产品中得到好的反馈,一定缺不了高质量Prompt 的助力。搞清楚Prompt是什么,我们需要从头说起。
Auto-GPT基于ChatGPT,而ChatGPT是一个大规模语言模型(LLM - Large Language Model。它通过数据与算法来推导语言的条件概率分布,并不断优化模型使其可以准确生成语言。这些都是典型的概率建模和机器学习的方法论,所以可以说LLM是一个数学模型,或者更确切地是一个统计学习模型。
简单来说,LLM就是通过大量语言资料的学习,所谓的学习其实就是将这些语言资料进行分词,然后进行统计分析,最后将结果存储为一个数据集。当我们跟Ai产品交互时,LLM也会根据我们的提问或输入,进行同样的分词,通过计算词语内容与数据集内容的相关性找到对应结果,再整理汇总,最后经过重新组织语言后反馈给我们。
这里的关键就是分词后的词语,在AI领域,大家叫它Prompt。只有高质量的Prompt的命中,才能在数据集中找到我们真正想要的结果。
到这里,大家应该对Auto-GPT有了一个比较全面的认识吧!
下面我们开始讲解如何使用、搭建我们自己的Auto-GPT。
使用Auto-GPT有两种方式:
第一种方式是直接使用Agent-GPT(它是一个包装了Auto-GPT的在线操作界面。访问地址:agentgpt.reworkd.ai)体验它。
第二种方式我们需要在本地计算机上进行安装和运行。
好了,我们开始讲解有关如何在本地计算机上安装和运行 Auto-GPT 吧!当然如果你选择第一种方式使用Auto-GPT,下面的内容,可以直接忽略。
Git 安装(安装包地址:git-scm.com/downloads)
Python 3.7 或更高版本(安装包地址:www.python.org/downloads/)
OpenAI API Key
PineCone API Key
创建一个 OpenAI 帐户。
转到您的帐户页面,在 API 密钥选项卡下,单击“创建新密钥”。
注意:保留此密钥的副本,因为您无法从 Web 界面检索它。
接下来,转到PineCone并创建一个帐户。在 API 密钥选项卡下,复制值和环境并将它们保存在某处。
好的,现在所有的依赖项都设置好了。让我们开始设置 Auto-GPT。
第 一 步:克隆 Auto-GPT 存储库
打开 Git Bash 并执行以下命令以克隆项目。
git clone https://github.com/Torantulino/Auto-GPT.git
第二步:下载依赖
导航到 Auto-GPT 项目文件夹。
cd 'Auto-GPT'
然后安装依赖项。
pip install -r requirements.txt
接下来,重命名.env.template为.env并填写您的OPENAI_API_KEY和PINECONE_API_KEY和PINECONE_ENV
第 三 步:试运行
打开终端并运行main.py脚本。执行以下命令后,您应该会看到此屏幕:
python scripts/main.py
注意:如果您无权访问 GPT-4 API,请在命令末尾添加 - gpt3only。
好了,环境搭建好了,小伙伴们可以自己体验了。
总之,Auto-GPT 是自主 AI 领域向前迈出的一大步。它不仅使复杂的任务变得更容易,而且还让人们只需很少的输入就可以使用 AI 的强大c功能。