Skip to content

iiisthu/ailab

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

98 Commits
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

ailab

集群概况

本集群计算环境基于 K8S 搭建而成,硬件包括3台独立的 master 节点、28台 worker 节点和一台提供 NFS 服务的 NAS(网络存储服务器)。使用 Harbor 搭建私有镜像仓库,openLDAP 进行统一身份认证。通过统一的 kubeconfig 配置文件分发平台,用户也可以通过 kubectl 以命令行的方式使用K8S集群。

系统 登陆地址 功能
密码管理 https://auth.ai.iiis.co:9443 账号修改密码。
Harbor https://harbor.ai.iiis.co:9443 私有容器镜像仓库
kubeconfig https://login.ai.iiis.co:9443 kubeconfig配置文件分发平台

获取访问权限

在管理员已经为用户创建好账号的情况下, 用户需要确认是否已经满足下列三个条件

  • 您使用的终端可以连通SSH跳板机,测试方法为ping js.ai.iiis.co, 如果ping不通,检查你的网络设置(特别是DNS设置),或者联络管理员。
  • 您已经获取了访问K8S集群的用户名、用户账号关联邮箱和登录密码。
  • 在等待获取访问权限的过程中,可以先准备好安装本地软件 (见下节)。 为了确保账号安全,强烈建议大家拿到账号后先 修改密码

使用SSH跳板机

  • 在您使用的终端上执行如下命令:
   ssh -i 私钥文件名  -N -L 8443:api.ai.iiis.co:8443 [email protected] -p 9022

私钥文件名默认为~/.ssh/id_rsa (可以省略)

  • 如果终端上8443端口已经被其他程序占用,可以换成其他端口,比如换成8444端口,则命令应写成:
  ssh -i 私钥文件名  -N -L 8444:api.ai.iiis.co:8443 [email protected] -p 9022
  • 命令执行后,会出现貌似“卡死”现象(命令并不返回),这是正常的。不要关闭该terminal。可以另打开一个terminal进行其他操作。也可以在上述ssh命令的最后加上&,将放入后台。
  • 如果您希望自动连接跳板机,可以参考autossh (https://www.harding.motd.ca/autossh/)

配置集群访问环境

安装本地软件

本地电脑至少需要安装以下两个软件。

Kubectl

用户可以直接使用 kubectl 管理 k8s。 安装说明在 https://kubernetes.io/docs/tasks/tools/install-kubectl-linux/

Helm

helm 是 Kubernetes 的包管理器,helm的安装及使用方法可以参考官方文档。比较简单的安装方式(Linux上)是使用这个脚本 https://helm.sh/docs/intro/install/#from-script

推荐安装以下软件:

配置kubeconfig

用户基于 kubeconfig 通过命令行方式使用K8S,需要先在自己的终端设备配置好 kubeconfig。利用系统提供的 kubeconfig 信息(包含用户账户和 Token 等信息),可以在自己的终端利用 kubectl 对 K8S 集群中的资源进行访问。本节介绍如何获取和使用 kubeconfig。

用浏览器访问URL地址:https://login.ai.iiis.co:9443,会进入Login界面:

输入邮箱地址(邮箱地址等同申请的账号,格式为:用户名@iiis.co)和密码(上边修改过的密码)即可登录。

注:这里的邮箱地址是用户名@iiis.co

进入kubeconfig信息页面,选择您使用的系统类型。

请按照您所使用的 kubectl 所在的操作系统进行选择。

接下来,要按照页面指示的顺序在您运行 kubectl 的命令行运行命令。

注:如果你用的是Windows机器,请在Windows Power Shell 下运行这些命令,普通的cmd不识别这种格式的环境变量。

可以点击每条命令右上的复制图标来将命令复制到粘贴板。

所有指令执行完毕后,再运行如下命令设置默认的namespace (ns)。在 K8S 集群中,管理员已经为每一位用户创建了与 UID 相同的命名空间ns。用户只在自己的 ns 中具有使用权限,因此所有操作都只能在自己的 ns 中完成。通过运行下面的命令,可以避免每个命令都需要指定ns。

kubectl config set-context --current --namespace=`kubectl config current-context | cut -d'-' -f 1` 

之后可以使用以下 kubectl 命令测试是否已经可以访问K8S中的资源。

kubectl get pvc

应该能看到返回了3个或7个PVC (是用户在集群中可以访问的存储空间,可以理解为是一个盘)。

使用K8S

使用默认配置启动计算任务

本仓库已经为用户提供了创建计算任务的默认 helm 模板,如果使用默认配置,只需要将 user/values.yaml 文件中的内容按照自己账号和计算需求进行修改,即可使用helm创建计算任务。 user/values-template.yaml 文件的具体内容为:

########### 必须要写的部分 ###########
NameSpace: namespace   # 自己的namespace (同用户名)
BaseName: pytorch   # 任务的基本名字,建议写任务描述,例如pytorch
ContainerImage: harbor.ai.iiis.co/xuw/pytorch:v1.5   # 镜像名称,默认为 harbor.ai.iiis.co/xuw/pytorch:v1.5,或者见README的说明

########### 选填的部分 ###########
# DeployName: namespace-pytorch-release     # 任务(deployment)的名字,默认为`NameSpace-BaseName-ReleaseName`, releaseName为随机生成的字符串是在helm命令行里指定的
# Label: pytorch-release              # 任务的标签,默认为`BaseName-ReleaseName`
# ContainerName: pytorch-release      # 容器名,默认为`BaseName-ReleaseName`
# NVMEStorage: 100G                   # 申请的本地盘/scratch的大小,不填即为默认值
# Limits:             # 申请的资源,注意所有启动的资源总和不能超过自己ns的quota,如果增加quota,需要向管理员申请,不填为默认值
#  CPU: 8
#  memory: 16Gi
#  GPU: 0

此文件用于创建一个副本数为 1 的 Deployment计算任务工作负载。你可以复制这个文件到比如 cp value-template.yaml lab1.yaml,然后编辑lab1.yaml文件,输入你的配置参数。之后在user目录中运行

cd user
helm install release_name --values ./lab1.yaml ./userchart

release_name为helm部署的版本名(release),建议设置为自己的UID+任务描述的格式以方便后续维护管理,例如xuw_lab1。--values ./lab1.yaml为helm模板的各项变量提供了对应的值(你刚刚设置的),最后./userchart是helm模板的路径位置。

之后,可以通过运行

kubectl get pods

来观察启动的pod是否已经启动了。启动之后可以通过

kubectl exec -i name_of_the_pod -- bash

来连接这个pod,并且启动bash。建议大家使用后边描述的使用VSCode连接K8S使用,要方便很多。

默认挂载的存储描述

在默认的模板中,自动为每个pod默认挂载了三个存储卷。这些存储卷是管理员为用户创建好了用于长期保存数据的持久卷申领(PersistentVolumeClaim,PVC)

  • 挂载于容器内/root路径的NFS服务的PVC,用于存储文档及代码等小文件;
  • 挂载于容器内/gfshome路径GFS的个人存储空间PVC,用于存储模型文件、数据集等大文件;
  • 挂载于容器内/share路径GFS的共享空间PVC,用于存放和共享开源大模型、开源数据集等公共数据;
  • 挂载于容器内/ssdshare路径GFS的共享空间PVC,用于存储需要快速访问的模型文件等大文件,(与/share的区别是这一空间用SSD做存储,速度应该快很多);

临时数据存放在宿主机本地的NVME硬盘中,挂载在容器内的/scratch1/scratch2,PVC被删除后里面的数据也会被删除,请一定不要将需要持久化保存的重要数据放在这几个路径。

上面的helm模板中会自动挂载长期存储数据的四个PVC,并自动创建对应于/scratch1/scratch2两个临时数据存储PVC。

存储系统 写入速度
宿主机NVME 2.3GB/s
GFS 1GB/s
GFS-SSD 2GB/s
NFS 1GB/s

删除计算任务

通过下面的命令删除计算任务

helm delete release_name

其中,release_name是你创建任务时候输入的第一个参数(release_name),如果你忘了当时用的什么了,可以用

helm list

来列出所有的release。

helm delete 命令会自动删除容器和应于/scratch1/scratch4的四个临时数据存储PVC,但不会删除长期存储数据的三个PVC。

定制自己的模板

如果对helm chart功能及语法比较熟悉,也欢迎用户对模板进行修改或定制,并将成果分享给大家。

其他使用说明

运行大模型课程labs代码

  1. 推荐使用下面的“使用 VS Code 连接K8S远程调试”方法先在vscode中连接集群。
  2. 在VS Code命令行(terminal)中,clone课程仓库:
    git clone [email protected]:xuw/llm_course_public.git
    
  3. (更新)查看最新的课程内容信息:
    cd llm_course_public/ && git pull --all
    
  4. 在VS Code中运行labs的Jupyter Notebook
    • 确定在Server端Jupyter插件已正确安装,已经启用(enable)
    • 在GUI中设置kernel(environment)为conda即可

修改账号密码

集群提供了一套简单的密码修改界面,用户可以修改自己账号的密码。

用浏览器访问URL地址 https://auth.ai.iiis.co:9443 访问密码修改界面。界面如下图:

在界面上填写用户名(界面上的Login字段)、原密码(Old password字段)、新密码(New password字段),并重复输入一次新密码(Confirm字段),点击【Send】按钮,即可完成账号密码修改。

使用 VS Code 连接K8S远程调试

使用 VS Code 可以远程 debug 集群中创建的 POD。这里我们给出一个简单的教程,更多的信息请自行查阅 Kubernetes 文档VS Code 文档

首先我们需要在 VS Code 中安装Kubernetes插件、Docker插件、Remote Container插件、Bridge to Kubernetes插件:

使用ctrl + shift + P(Mac 下command + shift + P)选择Kubernetes: Use Namespace

输入自己的 namespace 后就能访问自己namespace下的资源了。以连接一个 POD 作为示例:

这样将会自动连接一个 VS Code 远程窗口,之后的开发就和本地类似了。

私有容器镜像仓库

自定义镜像

我们可以在集群里从自定义镜像拉起 POD,以支持快速的实验环境配置。自定义镜像的思路是ubuntu-tensorflowubuntu-pytorchorion-client-2.4.2的基础上,配置自己的环境�

信任集群 Harbor

自定义镜像需要从 Harbor 拉取,因此我们需要在 Docker 中添加对集群 Harbor 的信任。在Mac下用 Docker Desktop 可以直接在客户端Docker Engine里加入insecure-registries项,若未使用 Docker Desktop,则在/etc/docker/daemon.json中添加(若该文件不存在则创建):

{

  "insecure-registries": [
    "harbor.ai.iiis.co"
  ]
}

添加完毕后,重启 Docker。

制作镜像

制作镜像的方式有基于 Dockerfile 和 docker commit命令两种形式。我们这里推荐基于 Dockerfile 方式,docker commit方式请参考官方文档

NOTE:这里可以找到我们在这一节所使用的例子。

我们假设在ubuntu-pytorch的基础上,我们还需要配置一系列环境:

  1. 安装一系列 Python 依赖库,在requirements.txt中指明。
  2. 将某个 Python 包的 Git 仓库放入镜像,并从仓库源码安装该 Python 包。
  3. 创建workspace工作目录。

其他的操作可以参考这几个任务。我们假设我们在build目录下工作,我们使用navdeep-G/samplemod作为 Python Package 的例子。

环境准备

假设我们需要 Python 支持一系列的库,例如画图的matplotlib和交互式的jupyter等,我们将这些写在build目录下:

# requirements.txt
numpy >= 1.19
matplotlib
pandas >= 1.0
jupyter

我们也希望pod能安装我们自己的一个私有代码仓库中的某个 Python Package,我们以navdeep-G/samplemod为例:

# PWD: build/
git clone https://github.com/navdeep-G/samplemod

整个工作目录为:

build
├── samplemod
│   ├── docs/
│   ├── sample/
│   ├── tests/
│   ├── .gitignore
│   ├── LICENSE
│   ├── MANIFEST.in
│   ├── Makefile
│   ├── README.rst
│   ├── requirements.txt
│   └── setup.py
└── requirements.txt
编写 Dockerfile 制作镜像

我们从harbor.ai.iiis.co:9443/library/下的镜像出发,安装requirements.txt中的依赖,并安装数据。我们这里不赘述 Dockerfile 的语法。实例的 Dockerfile 如下:

# Dockerfile
FROM harbor.ai.iiis.co:9443/library/ubuntu-pytorch:1.5.0
COPY . build
RUN pip install -r build/requirements.txt && cd build/samplemod; pip install . && mkdir -p workspace && rm -rf build

NOTE: 这里用单行命令是为了让制作后的镜像历史中不会存在build文件夹(类似于git,即使删去的文件也会在历史中存储,以备未来可能的恢复)。

之后利用docker按照 Dockerfile 制作镜像,并标记为sample:v0

docker build . -t sample:v0

最后确认镜像已经成功创建:

$ docker images | grep sample
sample          v0         707ab1c88146        30 seconds ago       11.3GB
从自定义镜像创建 Pod

从刚才我们制作的镜像创建 Pod 分为两步,首先需要将镜像推送到集群镜像仓库 Harbor,再从 Harbor 对应的镜像拉起 Pod。

访问https://harbor.ai.iiis.co:9443,注意这里必须是https,用户名及密码等同用户访问k8s集群的用户名及密码。

NOTE: 注意这里的用户名格式为“用户名@iiis.co”。

连接到 Harbor 后新建项目:

NOTE: 注意这里需要勾选公开,原因是私有集群物理机的 docker 并没有登录用户个人的 Harbor 账户,因此无法拉取私有仓库中的镜像。

假设我们的项目名为 zhangsan,则我们之后的镜像均要 push 到harbor.ai.iiis.co:9443/zhangsan/下,首先 tag 我们做好的镜像:

docker tag sample:v0 harbor.ai.iiis.co:9443/zhangsan/sample:v0

之后将镜像 push 到 Harbor 中,我们需要先在 docker 中登录我们在 Harbor上的账号:

$ docker logout harbor.ai.iiis.co:9443
Removing login credentials for harbor.ai.iiis.co
$ docker login harbor.ai.iiis.co:9443
Username: [email protected]
Password:
Login Succeeded

最后将镜像推送到 Harbor 中:

docker push harbor.ai.iiis.co:9443/zhangsan/sample:v0

创建好镜像后,拉起 Pod 流程和标准镜像一样。

About

No description, website, or topics provided.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published