极客视点
极客时间编辑部
极客时间编辑部
113243 人已学习
免费领取
课程目录
已完结/共 3766 讲
2020年09月 (90讲)
时长 05:33
2020年08月 (93讲)
2020年07月 (93讲)
时长 05:51
2020年06月 (90讲)
2020年05月 (93讲)
2020年04月 (90讲)
2020年03月 (92讲)
时长 04:14
2020年02月 (87讲)
2020年01月 (91讲)
时长 00:00
2019年12月 (93讲)
2019年11月 (89讲)
2019年10月 (92讲)
2019年09月 (90讲)
时长 00:00
2019年08月 (91讲)
2019年07月 (92讲)
时长 03:45
2019年06月 (90讲)
2019年05月 (99讲)
2019年04月 (114讲)
2019年03月 (122讲)
2019年02月 (102讲)
2019年01月 (104讲)
2018年12月 (98讲)
2018年11月 (105讲)
时长 01:23
2018年10月 (123讲)
时长 02:06
2018年09月 (119讲)
2018年08月 (123讲)
2018年07月 (124讲)
2018年06月 (119讲)
时长 02:11
2018年05月 (124讲)
时长 03:16
2018年04月 (120讲)
2018年03月 (124讲)
2018年02月 (112讲)
2018年01月 (124讲)
时长 02:30
时长 02:34
2017年12月 (124讲)
时长 03:09
2017年11月 (120讲)
2017年10月 (86讲)
时长 03:18
时长 03:31
时长 04:25
极客视点
15
15
1.0x
00:00/05:31
登录|注册

伯克利开源Ray Tune:大规模AI实验利器

讲述:丁婵大小:7.56M时长:05:31
日前,伯克利 BAIR 博客分享了开发两个重要软件库 Ray TuneRay Cluster Launcher 的经验,这两个库现在支持很多流行的开源 AI 库,很多 BAIR 研究人员用它们来执行大规模 AI 实验。以下为原文内容。

理解研究基础设施

为了更全面地理解这些内容,我们先来查看业界的标准机器学习工作流。
典型的“研究”工作流实际是步骤 2 和 3 之间的紧密循环,大致如下图所示。
该研究工作流在很大程度上是个迭代的过程,通常受到实验执行步骤(如上图中的 B 所示)的制约。一个“实验”包括多个训练作业或“试验”,其中每个试验都是训练单个模型的任务。每个试验可能使用一组不同的配置参数(超参数)或不同的种子来训练一个模型。
在伯克利,我们看到转向云的 AI 研究人员花费大量时间来编写自己的实验执行工具,这些工具整理云供应商的 API 以启动实例、设置依赖项和启动实验。
不幸的是,除了开发这些工具所要投入的大量时间以外,这些临时的解决方法还常常在功能上受到限制:
简化的架构:每个试验通常在单独的节点上启动,没有任何集中控制逻辑。这让研究人员难以实施优化技术。
缺乏故障处理:如果实例失败,那么训练作业的结果会永远丢失。研究人员常常在电子表格上跟踪实时实验来手动管理故障转移,但是,这么做既费时又容易出错。
没有竞价性实例折扣(Spot Instance Discount):缺乏容错能力也意味着放弃云供应商提供的竞价性实例折扣(最高可达 90% )。
总之,在云资源上测试和管理分布式实验既费力又容易出错。因此,采用易于使用的框架以在执行和研究之间架起桥梁可以大大加快研究过程。来自 BAIR 的几个实验室成员协作构建了两个互补的工具,用于在云中进行 AI 实验:
Ray Tune:用于训练和超函数调优的容错框架。它协调并行作业以支持并行超参数优化;自动检查点,并在机器有故障时恢复训练作业;提供了很多最先进的超参数搜索算法。
Ray Cluster Launcher :一个实用程序,用于管理 AWS、GCP 和 Kubernetes 之间的资源调配和集群配置。

Ray Tune

利用 Ray Actor API 并添加故障处理来解决问题,也就是 Ray 提供一个 API 从一个 Python 类来创建一个“actor”。这使得类和对象可以在并行和分布式设置中使用 。
#### 基于 Actor 的训练
Ray Tune 使用一个可训练的(Trainable)类接口来定义一个 actor 类,这个类专门用于训练模型。该接口公开了如 _train、_stop、_save 和 _restore 等方法,这些方法允许 Ray Tune 监视中间的训练指标并杀死效果不佳的试验。
class NewTrainable(tune.Trainable):
def _setup(self, config):
...
def _train(self):
"""Run 1 step of training (e.g., one epoch).
Returns:
A dict of training metrics.
"""
...
def _save(self, checkpoint_dir):
...
def _restore(self, checkpoint_path):
...
更重要的是,通过利用 Actor API,我们可以在 Ray Tune 中实施并行超参数优化模式,而这些是研究人员以前使用的实验执行工具无法做到的。

容错

为了可以使用竞价型实例,我们构建了 Ray Tune 以在集群不同的机器中自动地建立检查点并恢复训练作业,这样,实验将对抢占和集群大小的调整具有弹性。
# Tune will resume training jobs from the last checkpoint
# Tune 将从最新的检查点恢复训练作业
# even if machines are removed.
#即使机器已被删除。
analysis = tune.run(
NewTrainable,
checkpoint_freq=5, # Checkpoint every 5 epochs
config={"lr": tune.grid_search([0.001, 0.01, 0.1])},
)

它是如何工作的呢?

如果在某个节点丢失的时候,有个训练作业仍在其上执行且该训练作业(试验)的检查点存在,那么,Ray Tune 将一直等到有可用资源可用,以再次执行该试验。
如果该试验被放置在一个不同的节点上,那么,Tune 将自动把之前的检查点文件推送到那个节点并恢复状态,即使失败,该试验也可以从最新的检查点恢复。

Ray Cluster Launcher

上面,我们描述了为自动化集群设置过程而整理云供应商 API 的痛苦之处。但是,即使有了用于分解集群的工具,研究人员还是必须经过繁琐的工作流才能进行实验:
为了简化一下这个过程,我们构建了 Ray Cluster Launcher,这个工具会调配资源并自动调整资源大小,并且在 AWS EC2、GCP 和 Kubernetes 上启动一个 Ray 集群。然后,我们把以上用于进行一个实验的步骤抽象成一个简短的配置文件和一个命令:
# CLUSTER.yaml
cluster_name: tune-default
provider: {type: aws, region: us-west-2}
auth: {ssh_user: ubuntu}
min_workers: 0
max_workers: 2
# Deep Learning AMI (Ubuntu) Version 21.0
head_node: {
InstanceType: c4.2xlarge,
ImageId: ami-0b294f219d14e6a82}
worker_nodes: {
InstanceType: c4.2xlarge,
ImageId: ami-0b294f219d14e6a82}
setup_commands: # Set up each node.
- pip install ray numpy pandas
file_mounts: {
'/home/ubuntu/files':'my_files/',
}
下面的命令用来启动一个集群、上传并运行一个用于分布式超参数调整的脚本,然后关闭该集群。
$ ray submit CLUSTER.yaml --start --stop tune_experiment.py \
--args="--address=auto"
研究人员现在使用 Ray Tune 和 Ray Cluster Launcher 同时在数十台 GPU 机器上启动数百个并行作业。 Ray Tune 的分布式实验文档页面展示了如何执行该操作。
以上就是 Ray Tune 和 Ray Cluster Launcher 的开发经验,想了解更多可点击原文链接
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 中文繁体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
    • 阿拉伯语
  • 解释
  • 总结
该免费文章来自《极客视点》,如需阅读全部文章,
请先领取课程
免费领取
登录 后留言

全部留言(1)

  • 最新
  • 精选
  • 小斧
    代码看上去很炫酷。
收起评论
大纲
固定大纲
理解研究基础设施
Ray Tune
容错
它是如何工作的呢?
Ray Cluster Launcher
显示
设置
留言
1
收藏
25
沉浸
阅读
分享
手机端
快捷键
回顶部