【以下的问题经过翻译处理】 你好,我需要在1500万个样本(以csv格式存储时为3.9GB)上运行XGBoost推理。由于批量转换在这样大的批量上不起作用(最大有效负载为100MB),我将我的输入文件分成了646个文件,每个文件约为6MB,存储在S3中。我正在运行下面的代码:
transformer = XGB.transformer(
instance_count=2, instance_type='ml.c5.9xlarge',
output_path='s3://xxxxxxxxxxxxx/sagemaker/recsys/xgbtransform/',
max_payload=100)
transformer.transform(
data='s3://xxxxxxxxxxxxx/sagemaker/recsys/testchunks/',
split_type='Line')
但任务失败了- Sagemaker告诉“ClientError:Too many objects failed. See logs for more information”,而 cloudwatch 日志显示:
Bad HTTP status returned from invoke: 415
'NoneType' object has no attribute 'lower'
我在批量转换的设置中忘记了什么吗?