​GPT充当大脑,指挥多个模型协作完成各类任务,通用系统AutoML-GPT来了

news/2024/7/1 5:20:12

使用 ChatGPT 实现通用人工智能,思路打开了。

当前,AI 模型虽然已经涉及非常广泛的应用领域,但大部分 AI 模型是为特定任务而设计的,它们往往需要大量的人力来完成正确的模型架构、优化算法和超参数。ChatGPT、GPT-4 爆火之后,人们看到了大型语言模型(LLM)在文本理解、生成、互动、推理等方面的巨大潜力。一些研究者尝试利用 LLM 探索通往通用人工智能(AGI)的新道路。

近期,来自德克萨斯州大学奥斯汀分校的研究者提出一种新思路 —— 开发任务导向型 prompt,利用 LLM 实现训练 pipeline 的自动化,并基于此思路推出新型系统 AutoML-GPT。

论文地址:

https://papers.labml.ai/paper/35151be0eb2011edb95839eec3084ddd

AutoML-GPT 使用 GPT 作为各种 AI 模型之间的桥梁,并用优化过的超参数来动态训练模型。AutoML-GPT 动态地接收来自 Model Card [Mitchell et al., 2019] 和 Data Card [Gebru et al., 2021] 的用户请求,并组成相应的 prompt 段落。最后,AutoML-GPT 借助该 prompt 段落自动进行多项实验,包括处理数据、构建模型架构、调整超参数和预测训练日志。

AutoML-GPT 通过最大限度地利用其强大的 NLP 能力和现有的人工智能模型,解决了各种测试和数据集中复杂的 AI 任务。大量实验和消融研究表明,AutoML-GPT 对许多人工智能任务(包括 CV 任务、NLP 任务)是通用的、有效的。

AutoML-GPT 简介

AutoML-GPT 是一个依赖数据和模型信息来格式化 prompt 输入段落的协作系统。其中,LLM 作为控制器,多个专家模型作为协作的执行者。AutoML-GPT 的工作流程包括四个阶段:数据处理、模型架构设计、超参数调整和训练日志生成。

具体来说,AutoML-GPT 的工作机制如下:

  • 通过 Model Card 和 Data Card 生成固定格式的 prompt 段落

  • 构建训练 pipeline,在选定的数据集和模型架构上处理用户需求

  • 生成性能训练日志并调整超参数

  • 根据自动建议的(auto-suggested)超参数调整模型

输入分解

AutoML-GPT 的第一阶段是让 LLM 接受用户输入。为了提高 LLM 的性能并生成有效的 prompt,该研究对输入 prompt 采用特定的指令。这些指令包括三个部分:Data Card、Model Card、评估指标和附加要求。

如下图 2 所示,Data Card 的关键部分由数据集名称、输入数据集类型(如图像数据或文本数据)、标签空间(如类别或分辨率)和默认评估指标组成。

如下图 3 所示,Model Card 由模型名称、模型结构、模型描述和架构超参数组成。通过提供这些信息,Model Card 能告知 LLM 整个机器学习系统使用了哪些模型,以及用户对模型架构的偏好。

除了 Data Card 和 Model Card,用户还可以选择请求更多的评估基准、评估指标或任何约束。AutoML-GPT 将这些任务规范作为高级指令提供给 LLM,用于相应地分析用户需求。

当有一系列需要处理的任务时,AutoML-GPT 需要为每个任务匹配相应的模型。为了达到这一目标,首先系统需要获得 Model Card 和用户输入中的模型描述。

然后,AutoML-GPT 使用 in-context 任务 - 模型分配机制,动态地为任务分配模型。这种方法通过将模型描述和对用户需求的更好理解结合起来,实现了增量模型(incremental model)访问,并提供了更大的开放性和灵活性。

用预测训练日志调整超参数

AutoML-GPT 根据 Data Card 和 Model Card 设置超参数,并通过生成超参数的训练日志来预测性能。该系统自动进行训练并返回训练日志。在数据集上的模型性能训练日志记录了训练过程中收集的各种指标和信息,这有助于了解模型训练进展,找出潜在问题,以及评估所选架构、超参数和优化方法的有效性。

实验

为了评估 AutoML-GPT 的性能,该研究使用 ChatGPT(OpenAI 的 GPT-4 版本)来实现它,并进行多项实验从多个角度展示了 AutoML-GPT 的效果。

下图 4 展示了使用 AutoML-GPT 在未知数据集上训练的结果:

下图 5 展示了 AutoML-GPT 在 COCO 数据集上完成目标检测任务的过程:

下图 6 展示了 AutoML-GPT 在 NQ 开放数据集(Natural Questions Open dataset,[Kwiatkowski et al., 2019])上的实验结果:

该研究还使用 XGBoost 在 UCI Adult 数据集 [Dua and Graff, 2017] 上评估了 AutoML-GPT,以探究其在分类任务上的性能,实验结果如下图 7 所示:


http://lihuaxi.xjx100.cn/news/1149532.html

相关文章

FE_VUE路由 细致解读router/index.js的配置

1 安装vue-router插件 安装vue-router,命令:npm i vue-router 【npm i vue-router3】,在main.js 中引入路由文件: import router from ./router, 注意router 不要变且为小写;注册路由(因为main…

mybatis的一级二级缓存详解及源码解剖

文章目录 什么是一级缓存?什么是二级缓存?一级缓存二级缓存有什么不同?执行流程源码流程解剖一级缓存失效场景分析二级缓存结构及需要解决的问题二级缓存执行流程二级缓存获取和commit源码解剖总结 什么是一级缓存? 一级缓存是指…

AI根据图片自动建模

暂时放弃了,没显卡,直接装不了 用的是一个git上的老项目3年前的,最近更新6个月,由facebook开发 GitHub - facebookresearch/pifuhd: High-Resolution 3D Human Digitization from A Single Image. 他需要的环境有 Python 3PyTo…

强化学习:贝尔曼最优公式

策略改进案例 强化学习的目的是寻找最优策略。其中涉及两个核心概念最优状态值和最优策略,和一个工具:贝尔曼最优公式。   首先,我们给出一个熟悉的例子,了解贝尔曼方程是如何改进策略的。 根据给出的策略,我们很容…

韩国访问学者签证D-2-5材料准备及签证流程

韩国的签证种类很多,对于申请访问学者签证来说,较常见的签证种类是D-2-5签证和E-3签证,本篇知识人网小编先介绍D-2-5签证。 签证的材料准备 根据韩国大使馆2023年4月12日最新发布的“签证申请与准备材料指导”内容, D-2-5签证的签发对象及准…

看法︱ BTC NFT和BRC-20 关注点有哪些?BTC需要生态吗?

花开两朵各领风骚,扎根在BTC网络母株上的Oreinals侧枝开出了memecoin和btc nft两条鲜花,猛烈的聪明钱和话题流量就像营养液般浇灌着花蕾,如今BTC上的关注度远超ETH,技术升级和原则争议好像平行世界上两列动车,谁也无法…

gunicorn常用参数命令

Gunicorn 是一个 Python 的 WSGI HTTP 服务器。具有实现简单,轻量级,高性能等特点。更多介绍内容参考官网,这里介绍几个常用参数。 安装 pip3 install gunicorn通过输入gunicorn -v查看版本。 最简洁的启动。首先进入到项目目录,例如django项目和mana…

被00后卷的油尽灯枯了...

内卷的来源 内卷最早的“出处”是几张名校学霸的图片。 大学生们刷爆朋友圈的几张“内卷”图片是这样的:有的人骑在自行车上看书,有的人宿舍床上铺满了一摞摞的书,有的人甚至边骑车边端着电脑写论文。这些图片最早在清华北大的学霸之间流传。…