有奖捉虫:行业应用 & 管理与支持文档专题 HOT
批量预测模块支持用户使用在 TI-ONE 模型仓库管理的模型创建预测任务,或者使用自定义镜像创建预测任务。

模型包目录结构

cos://bucket/train_models/mv-2302330437837096
├── model
│ ├── model.pth
├── batch
│ ├── model_service.py
└── requirements.txt
model:存放模型的文件夹目录,该目录可以客户自己指定;
model/model.pth:原始模型文件,名称可以客户自己指定,但需要确保 model_service.py 可以正确加载;
batch: 存储模型推理代码目录,该目录是硬编码目录,批量预测默认从此目录读取所需要的代码文件
batch/model_service.py: 模型推理代码文件存储路径。当用户通过创建批量预测任务页面上传模型推理文件时,文件被默认存放在此处。此文件是进行推理时的入口文件。
requirements.txt:第三方依赖包。如推理文件有第三方依赖可以放在 requirements.txt 文件内,如没有可直接忽略。如果存在,则任务执行前会默认执行pip3 install -r requirements.txt 完成依赖项的安装;
其他文件或目录:批量预测模块不再依赖,但其他模块,例如在线服务、任务式建模、模型仓库等模块,可能对其存在依赖,可参考对应模块文档进行详细了解。

平台路径规范

1. /opt/ml/input/data:数据输入路径,平台默认会将控制台选择的“输入数据”挂载到此路径下,并递归读取所有子目录下的文件进行批量输入,输入值为文件路径。
2. /opt/ml/model:模型包路径,平台默认会将模型包下载到此路径。
3. /opt/ml/output:数据输出路径,平台批量预测脚本会将推理结果写入/opt/ml/output/result.txt文件,任务完成后,平台会将result.txt上传到控制台选择的“输出路径”下。
4. /opt/ml/code:对于/opt/ml/model/batch/model_service.py 文件,会软链到此目录下作为模型推理启动入口文件。若想自定义支持多个模型推理文件,可手动上传所有的推理代码到模型存储cos的对应路径下,但是需要保证推理启动入口的文件名为model_service.py。

启动命令

若创建批量预测任务未指定启动命令时,则默认启动命令为 python3 /opt/ml/code/model_service.py。

自定义镜像规范

1. 自定义镜像限制及建议
1.1 代码包放置路径建议为 /opt/ml/code,平台启动命令默认为 python3 /opt/ml/code/model_service.py;如果代码包为其他路径,用户可自定义启动命令;
1.2 数据挂载目录:/opt/ml/input/data;
1.3 结果输出目录:/opt/ml/output。
2. 自定义运行环境使用步骤
2.1 本地配置 docker 环境,并开通?腾讯云容器镜像服务(Tencent Container Registry,TCR);
2.2 编译自定义推理镜像,推送到TCR的镜像仓库;
2.3 在创建批量预测任务时,服务实例模型来源选择从镜像仓库选择镜像,进入镜像仓库列表,选择上一步推送的自定义镜像环境;
2.4 配置参数,启动批量预测任务。


http://www.vxiaotou.com