AWS SageMaker:SageMaker-实例与环境配置_第1页
AWS SageMaker:SageMaker-实例与环境配置_第2页
AWS SageMaker:SageMaker-实例与环境配置_第3页
AWS SageMaker:SageMaker-实例与环境配置_第4页
AWS SageMaker:SageMaker-实例与环境配置_第5页
已阅读5页,还剩15页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

AWSSageMaker:SageMaker_实例与环境配置1AWSSageMaker简介1.1SageMaker服务概述AWSSageMaker是一项完全托管的服务,旨在使机器学习(ML)模型的构建、训练和部署变得容易。它提供了预置的计算实例,用于训练和托管模型,以及一系列工具,帮助数据科学家和开发者进行数据预处理、模型训练、模型评估和模型部署。SageMaker支持多种机器学习框架,如TensorFlow、PyTorch、XGBoost等,使得用户可以根据项目需求选择最适合的框架。1.1.1SageMaker的核心功能数据预处理:SageMaker提供数据处理工具,如Jupyter笔记本实例,用于数据清洗、转换和特征工程。模型训练:用户可以在SageMaker中使用预置的实例类型来训练模型,这些实例类型配备了GPU和CPU,以满足不同计算需求。模型部署:训练好的模型可以轻松部署到SageMaker托管的端点,用于实时或批量预测。模型评估与优化:SageMaker提供模型评估工具,帮助用户理解模型性能,并提供自动模型优化功能。1.2SageMaker实例类型详解SageMaker提供了多种实例类型,每种实例类型都有其特定的用途和性能特点。选择正确的实例类型对于优化成本和提高模型训练效率至关重要。1.2.1实例类型分类CPU实例:适合CPU密集型任务,如特征工程和模型训练。GPU实例:适合需要大量并行计算的任务,如深度学习模型的训练。内存优化实例:适合需要大量内存的任务,如自然语言处理(NLP)模型的训练。存储优化实例:适合需要大量存储空间的任务,如处理大规模数据集。1.2.2示例:使用SageMaker训练一个TensorFlow模型下面是一个使用SageMaker训练TensorFlow模型的示例。我们将使用一个简单的数据集来训练一个线性回归模型。#导入必要的库

importsagemaker

fromsagemaker.tensorflowimportTensorFlow

fromsagemakerimportget_execution_role

#获取SageMaker执行角色

role=get_execution_role()

#定义TensorFlow训练任务

estimator=TensorFlow(entry_point='linear_regression.py',

role=role,

framework_version='2.3.1',

instance_count=1,

instance_type='ml.m5.xlarge',

hyperparameters={'epochs':100,'batch_size':32})

#上传训练数据到S3

input_data=sagemaker.session.s3_input('s3://my-bucket/train-data',

distribution='FullyReplicated',

content_type='text/csv',

s3_data_type='S3Prefix')

#设置训练任务的输入

estimator.fit({'train':input_data})

#部署模型

predictor=estimator.deploy(initial_instance_count=1,instance_type='ml.m5.xlarge')1.2.3数据样例假设我们有一个简单的CSV文件,包含两列:feature和label,用于训练线性回归模型。feature,label

1.0,2.0

2.0,4.0

3.0,6.0

4.0,8.0

5.0,10.01.2.4代码解释初始化SageMaker环境:首先,我们导入了必要的库,并获取了SageMaker的执行角色,这是运行SageMaker任务所必需的。定义TensorFlow估计器:我们创建了一个TensorFlow估计器,指定了训练脚本的入口点、执行角色、框架版本、实例数量和类型,以及超参数。上传数据到S3:使用sagemaker.session.s3_input函数将训练数据上传到AmazonS3。训练模型:调用estimator.fit方法,传入训练数据的S3位置。部署模型:训练完成后,使用estimator.deploy方法将模型部署到SageMaker托管的端点。通过以上步骤,我们可以在AWSSageMaker中训练和部署一个TensorFlow模型,用于进行预测任务。1.2.5实例选择策略成本与性能平衡:选择实例类型时,应考虑成本与性能的平衡。例如,对于深度学习模型,GPU实例可能提供更好的性能,但成本也更高。任务需求:根据任务的计算需求选择实例类型。例如,对于数据预处理,CPU实例可能就足够了。数据集大小:对于处理大规模数据集的任务,选择存储优化实例可能更合适。内存需求:对于需要大量内存的任务,如NLP模型训练,选择内存优化实例是明智的。总之,AWSSageMaker通过提供多样化的实例类型和工具,简化了机器学习模型的构建、训练和部署过程,使得开发者和数据科学家可以专注于模型的开发,而无需担心底层基础设施的管理。2AWSSageMaker:创建SageMaker实例与环境配置2.1创建SageMaker实例2.1.1选择实例类型在AWSSageMaker中,实例类型的选择对于模型训练和部署至关重要。SageMaker提供了多种实例类型,每种类型都有不同的CPU、GPU和内存配置,以满足不同工作负载的需求。实例类型示例ml.t2.medium:适用于轻量级模型训练和调试,提供2个vCPU和4GB内存。ml.p3.2xlarge:配备了1个NVIDIATeslaV100GPU,适用于深度学习模型的训练。ml.m5.large:提供2个vCPU和8GB内存,适合于运行机器学习算法而不需要GPU的场景。代码示例:创建SageMaker实例#导入必要的库

importboto3

#创建SageMaker客户端

sagemaker_client=boto3.client('sagemaker')

#定义实例参数

instance_type='ml.m5.large'

instance_name='my-sagemaker-instance'

#创建实例

response=sagemaker_client.create_training_job(

TrainingJobName=instance_name,

AlgorithmSpecification={

'TrainingImage':'763104351884./linear-learner:1',

'TrainingInputMode':'File'

},

RoleArn='arn:aws:iam::123456789012:role/SageMakerRole',

InputDataConfig=[

{

'ChannelName':'train',

'DataSource':{

'S3DataSource':{

'S3DataType':'S3Prefix',

'S3Uri':'s3://my-bucket/train-data',

'S3DataDistributionType':'FullyReplicated'

}

},

'CompressionType':'None',

'RecordWrapperType':'None'

},

],

OutputDataConfig={

'S3OutputPath':'s3://my-bucket/output-data'

},

ResourceConfig={

'InstanceType':instance_type,

'InstanceCount':1,

'VolumeSizeInGB':50

},

StoppingCondition={

'MaxRuntimeInSeconds':3600

}

)

#打印响应

print(response)2.1.2配置实例存储SageMaker实例的存储配置直接影响到数据的读写速度和训练效率。实例存储包括训练实例的EBS卷和用于存储训练数据和模型的S3存储桶。EBS卷配置EBS卷的大小和类型可以根据训练数据的大小和训练时间的要求进行选择。例如,对于大型数据集,可以选择更大的EBS卷和更快的存储类型,如gp2或io1。S3存储桶配置S3存储桶用于存储训练数据和模型输出。确保数据路径正确无误,以便SageMaker实例能够访问和读取数据。代码示例:配置SageMaker实例存储#定义资源配置

resource_config={

'InstanceType':'ml.p3.2xlarge',

'InstanceCount':1,

'VolumeSizeInGB':100,#EBS卷大小

'VolumeKmsKeyId':'arn:aws:kms:us-west-2:123456789012:key/1234abcd-12ab-34cd-56ef-1234567890ab',#EBS卷加密密钥

}

#定义输出数据配置

output_data_config={

'S3OutputPath':'s3://my-bucket/output-data'

}

#创建实例时应用存储配置

response=sagemaker_client.create_training_job(

#...其他参数...

ResourceConfig=resource_config,

OutputDataConfig=output_data_config

)2.2数据样例假设我们有一个CSV文件,其中包含用于训练线性回归模型的数据。文件结构如下:第一列:feature1,特征1第二列:feature2,特征2第三列:label,标签2.2.1CSV数据样例feature1,feature2,label

1.0,2.0,3.0

2.0,3.0,5.0

3.0,5.0,8.02.2.2上传数据到S3#导入boto3库

importboto3

#创建S3客户端

s3=boto3.client('s3')

#定义S3存储桶和文件名

bucket_name='my-bucket'

file_name='train-data.csv'

#上传数据到S3

withopen('local-data.csv','rb')asdata:

s3.upload_fileobj(data,bucket_name,file_name)

#打印上传状态

print(f'Datauploadedtos3://{bucket_name}/{file_name}')通过上述代码和数据样例,您可以了解如何在AWSSageMaker中选择合适的实例类型和配置存储,以及如何上传数据到S3以供训练使用。这为构建高效、安全的机器学习模型提供了基础。3AWSSageMaker:环境配置与管理3.1设置SageMaker执行角色在AWSSageMaker中,执行角色是AmazonSageMaker用来访问训练数据和存储模型输出的IAM角色。此角色还控制SageMaker实例可以访问的其他AWS资源。为了创建和使用SageMaker实例,首先需要设置一个执行角色。3.1.1创建执行角色importboto3

#创建IAM客户端

iam=boto3.client('iam')

#定义执行角色的策略

policy_arn='arn:aws:iam::aws:policy/AmazonSageMakerFullAccess'

#创建执行角色

response=iam.create_role(

RoleName='SageMakerRole',

AssumeRolePolicyDocument='''{

"Version":"2012-10-17",

"Statement":[

{

"Effect":"Allow",

"Principal":{

"Service":""

},

"Action":"sts:AssumeRole"

}

]

}''',

Description='RoleforAmazonSageMaker'

)

#附加策略到执行角色

iam.attach_role_policy(

RoleName='SageMakerRole',

PolicyArn=policy_arn

)

#输出执行角色的ARN

print(response['Role']['Arn'])3.1.2解释上述代码首先导入boto3库,这是AWSSDKforPython,用于与AWS服务进行交互。然后,创建一个IAM客户端,使用create_role方法定义一个名为SageMakerRole的角色,该角色允许SageMaker服务承担此角色。AssumeRolePolicyDocument定义了SageMaker服务可以承担此角色。接着,将AmazonSageMakerFullAccess策略附加到角色,以提供对SageMaker服务的完全访问权限。最后,输出创建的角色的ARN。3.2配置SageMaker实例环境配置SageMaker实例环境涉及选择实例类型、设置存储选项、配置网络和安全设置,以及选择合适的机器学习框架和版本。3.2.1选择实例类型SageMaker提供多种实例类型,包括CPU和GPU实例,以及不同大小的存储选项。例如,ml.p3.2xlarge实例类型适合深度学习模型的训练。3.2.2设置存储选项SageMaker实例可以连接到AmazonS3存储桶,用于存储和读取数据。此外,实例还提供EBS卷作为本地存储。3.2.3配置网络和安全设置可以将SageMaker实例配置为在VPC中运行,以实现更安全的数据处理。此外,还可以设置安全组和网络ACL来控制实例的网络访问。3.2.4选择机器学习框架和版本SageMaker支持多种机器学习框架,如TensorFlow、PyTorch、MXNet等。在创建实例时,可以选择预装的框架和版本。3.2.5创建SageMaker实例importsagemaker

fromsagemakerimportget_execution_role

#获取执行角色

role=get_execution_role()

#创建SageMaker会话

sagemaker_session=sagemaker.Session()

#定义实例配置

instance_type='ml.p3.2xlarge'

instance_count=1

#创建实例

estimator=sagemaker.estimator.Estimator(

entry_point='train.py',#训练脚本

role=role,

train_instance_count=instance_count,

train_instance_type=instance_type,

sagemaker_session=sagemaker_session,

framework='tensorflow',#选择框架

framework_version='2.3.0',#框架版本

py_version='py3',#Python版本

base_job_name='my-training-job',#作业名称

hyperparameters={#超参数

'epochs':10,

'batch-size':32

}

)

#设置训练数据位置

estimator.sagemaker_session.upload_data(

path='data',#本地数据路径

bucket='my-s3-bucket',#S3存储桶名称

key_prefix='sagemaker/data'#S3数据前缀

)

#开始训练作业

estimator.fit()3.2.6解释这段代码展示了如何使用boto3和SageMaker库创建一个SageMaker实例。首先,通过get_execution_role函数获取之前创建的执行角色。然后,创建一个SageMaker会话。接下来,定义实例配置,包括实例类型、实例数量、框架和版本等。使用Estimator类创建实例,指定训练脚本、执行角色、实例配置等。通过upload_data方法将本地数据上传到S3存储桶。最后,调用fit方法开始训练作业。通过以上步骤,可以有效地设置和配置AWSSageMaker的执行角色和实例环境,为机器学习模型的训练和部署提供必要的基础架构支持。4部署机器学习模型4.1模型训练与优化在AWSSageMaker中,模型的训练与优化是部署机器学习模型的第一步。SageMaker提供了多种实例类型,每种实例都针对不同的计算需求进行了优化,例如GPU加速实例用于深度学习模型的训练。4.1.1实例选择选择合适的SageMaker实例类型对于模型训练的效率至关重要。例如,ml.p3.2xlarge实例配备了NVIDIATeslaV100GPU,适合深度学习模型的训练。4.1.2环境配置SageMaker实例的环境配置包括选择合适的机器学习框架版本和实例类型。例如,使用TensorFlow2.3版本和ml.p3.2xlarge实例进行模型训练。4.1.3训练代码示例下面是一个使用SageMakerPythonSDK训练模型的代码示例:importsagemaker

fromsagemaker.tensorflowimportTensorFlow

#创建SageMaker会话

sagemaker_session=sagemaker.Session()

#定义TensorFlow训练实例

estimator=TensorFlow(entry_point='train.py',

role='SageMakerRole',

framework_version='2.3',

instance_count=1,

instance_type='ml.p3.2xlarge',

sagemaker_session=sagemaker_session)

#设置训练数据路径

train_data_path='s3://my-bucket/train-data'

#开始模型训练

estimator.fit({'train':train_data_path})4.1.4数据样例假设我们正在训练一个图像分类模型,训练数据集可能包含数千张图像,每张图像都有一个对应的标签。例如,一个包含猫和狗图像的数据集,每张图像的文件名可能包含其类别信息,如cat_001.jpg和dog_002.jpg。4.2模型部署与预测模型训练完成后,下一步是在SageMaker中部署模型,以便可以对新数据进行预测。4.2.1部署实例选择部署模型时,可以选择与训练模型不同的实例类型。例如,如果模型训练使用了GPU加速实例,但在部署时,可以选择CPU实例以降低成本。4.2.2部署代码示例下面是一个部署模型并进行预测的代码示例:#部署模型

predictor=estimator.deploy(initial_instance_count=1,instance_type='ml.m4.xlarge')

#准备预测数据

data={'image':[1,2,3,4,5,6,7,8,9,10]}

#进行预测

result=predictor.predict(data)

print(result)4.2.3预测数据样例预测数据通常需要与模型训练时使用的数据格式一致。在图像分类模型中,预测数据可能是一个图像的像素值数组,例如:data={'image':[1,2,3,4,5,6,7,8,9,10]}这只是一个简化的示例,实际的图像数据将是一个更大的数组,包含所有像素的值。4.2.4预测结果解释预测结果通常是一个概率分布,表示模型对输入数据属于各个类别的预测概率。例如,对于一个二分类模型,预测结果可能是一个包含两个元素的数组,分别表示模型预测输入数据属于类别1和类别2的概率。result={'predictions':[0.1,0.9]}在这个示例中,模型预测输入数据属于类别2的概率为90%,属于类别1的概率为10%。4.2.5模型优化与调参模型部署后,可以通过收集预测结果和实际结果的差异,对模型进行优化和调参。例如,如果模型在某些类别上的预测准确率较低,可以增加这些类别的训练数据,或者调整模型的参数,以提高模型的预测性能。4.2.6总结通过以上步骤,我们可以在AWSSageMaker中完成模型的训练、优化、部署和预测。SageMaker的实例类型和环境配置提供了灵活的选择,以满足不同的计算需求和成本考虑。5AWSSageMaker:高级配置与实践5.1自定义Docker镜像自定义Docker镜像是AWSSageMaker中一项高级功能,允许用户创建包含特定软件包、库或环境的镜像,以满足机器学习模型训练和部署的特定需求。通过自定义Docker镜像,可以确保训练和推理环境与本地开发环境一致,避免“它在我的机器上运行”问题。5.1.1创建自定义Docker镜像编写Dockerfile:Dockerfile是一个文本文件,其中包含了一系列命令,用户可以使用这些命令来构建一个自定义的Docker镜像。以下是一个示例Dockerfile,用于创建一个包含PyTorch和特定版本的Numpy库的镜像:#使用官方的PyTorch镜像作为基础镜像

FROMpytorch/pytorch:1.9.0-cuda11.1-cudnn8-runtime

#设置工作目录

WORKDIR/opt/ml

#安装额外的库

RUNpipinstallnumpy==1.21.2

#拷贝用户代码到镜像中

COPY./opt/ml/code

WORKDIR/opt/ml/code

#设置环境变量

ENVPYTHONUNBUFFERED=1构建Docker镜像:使用Docker命令行工具,从Dockerfile构建镜像。确保在Dockerfile所在的目录下运行以下命令:dockerbuild-tmy-custom-image.推送镜像到AmazonECR:为了在SageMaker中使用自定义镜像,需要将其推送到AmazonElasticContainerRegistry(ECR)。首先,创建一个ECR仓库,然后使用AWSCLI获取登录凭证,并使用这些凭证将镜像推送到ECR:awsecrget-login-password--regionus-west-2|dockerlogin--usernameAWS--password-stdin<your_account_id>.

dockertagmy-custom-image:latest<your_account_id>./my-custom-image:latest

dockerpush<your_account_id>./my-custom-image:latest5.1.2在SageMaker中使用自定义镜像在SageMaker中使用自定义镜像进行训练或部署,需要在创建训练作业或模型时指定镜像的URI。以下是一个使用自定义镜像创建SageMaker训练作业的Python示例:importsagemaker

fromsagemaker.pytorchimportPyTorch

#创建SageMaker会话

sagemaker_session=sagemaker.Session()

#指定自定义镜像的URI

image_uri='<your_account_id>./my-custom-image:latest'

#创建PyTorch训练实例

estimator=PyTorch(entry_point='train.py',

role='SageMakerRole',

framework_version='1.9.0',

py_version='py3',

instance_count=1,

instance_type='ml.p3.2xlarge',

image_uri=image_uri,

sagemaker_session=sagemaker_session)

#开始训练作业

estimator.fit({'train':'s3://<your_bucket>/data'})5.2使用SageMaker调试器AWSSageMaker调试器是一个强大的工具,用于监控和调试机器学习模型的训练过程。它可以在训练作业运行时收集和分析指标,帮助识别训练过程中的问题,如过拟合、欠拟合或参数设置不当。5.2.1配置SageMaker调试器在创建SageMaker训练作业时,可以配置调试器来收集特定的指标和参数。以下是一个使用SageMaker调试器的Python示例:importsagemaker

fromsagemaker.debuggerimportRule,DebuggerHookConfig

#创建调试器配置

debugger_hook_config=DebuggerHookConfig(

s3_output_path='s3://<your_bucket>/debugger',

local_path='/opt/ml/input/data/debug',

rule_configs=[

Rule.sagemaker('VanishingGradient',input_dirs=['/opt/ml/input/data/train'],instance_count=1,instance_type='ml.p3.2xlarge')

]

)

#创建训练实例

estimator=sagemaker.estimator.Estimator(

image_uri='<your_image_uri>',

role='SageMakerRole',

instance_count=1,

instance_type='ml.p3.2xlarge',

debugger_hook_config=debugger_hook_config

)

#开始训练作业

estimator.fit({'train':'s3://<your_bucket>/data'})5.2.2分析调试数据训练作业完成后,可以使用SageMaker控制台或SDK来分析调试数据。以下是一个使用SageMakerSDK分析调试数据的Python示例:importsagemaker

fromsagemaker.debuggerimportrule_configs

#创建SageMaker会话

sagemaker_session=sagemaker.Session()

#获取训练作业的调试数据

training_job_name='<your_training_job_name>'

debug_data=sagemaker_session.sagemaker_client.describe_training_job(TrainingJobName=training_job_name)['DebugRuleEvaluationHistory']

#分析调试数据

forruleindebug_data:

print(f"Rulename:{rule['RuleConfigurationName']},status:{rule['RuleEvaluationStatus']},output:{rule['RuleEvaluationOutput']}")通过上述步骤,可以深入理解模型训练过程中的动态,及时调整模型参数或训练策略,以优化模型性能。6AWSSageMaker:实例与环境的优化6.1资源优化策略6.1.1选择合适的实例类型AWSSageMaker提供了多种实例类型,每种类型都有不同的CPU、GPU和内存配置。例如,ml.p3.2xlarge实例类型提供了8个vCPU和1个NVIDIAV100GPU,适合深度学习模型的训练。而ml.m5.xlarge实例类型则提供了4个vCPU和16GB内存,更适合数据预处理和模型部署。示例代码#选择实例类型

fromsagemakerimportget_execution_role

fromsagemaker.tensorflowimportTensorFlow

role=get_execution_role()

estimator=TensorFlow(entry_point='train.py',

role=role,

instance_type='ml.p3.2xlarge',

instance_count=1,

framework_version='2.3.1',

py_version='py3',

script_mode=True)6.1.2利用Spot实例Spot实例是AWS提供的一种价格低廉的实例类型,其价格通常远低于按需实例。在SageMaker中,可以使用Spot实例进行模型训练,以降低成本。但是,Spot实例可能会在需求高峰时被AWS终止,因此需要在代码中实现容错机制。示例代码#使用Spot实例

fromsagemakerimportget_execution_role

fromsagemaker.tensorflowimportTensorFlow

role=get_execution_role()

estimator=TensorFlow(entry_point='train.py',

role=role,

instance_type='ml.p3.2xlarge',

instance_count=1,

framework_version='2.3.1',

py_version='py3',

script_mode=True,

max_wait=600,

max_run=300)6.1.3调整实例数量在训练大型模型时,可以使用多个实例进行并行训练。通过调整实例数量,可以优化训练时间,但同时也会增加成本。因此,需要根据模型的大小和训练数据的量来选择合适的实例数量。示例代码#调整实例数量

fromsagemakerimportget_execution_role

fromsagemaker.tensorflowimportTensorFlow

role=get_execution_role()

estimator=TensorFlow(entry_point='train.py',

role=role,

instance_type='ml.p3.2xlarge',

instance_count=4,

framework_version='2.3.1',

py_version='py3',

script_mode=True)6.2环境配置最佳实践6.2.1使用Docker容器SageMaker支持使用Docker容器来运行训练和部署任务。通过创建自定义的Docker容器,可以预装所需的库和依赖,确保环境的一致性。这也有助于在不同的SageMaker实例之间迁移模型和代码。示例代码#Dockerfile示例

FROMtensorflow/tensorflow:2.3.1-gpu-py3

#安装额外的库

RUNpipinstallnumpypandasscikit-learn

#复制训练代码到容器

COPYtrain.py/opt/ml/processing/6.2.2配置存储和数据传输SageMaker实例可以连接到AmazonS3,用于存储训练数据和模型输出。为了优化数据传输速度,可以将数据预处理和存储在S3中,然后在训练时直接从S3读取数据。此外,使用S3的传输加速功能可以进一步提高数据传输速度。示例代码#配置S3存储

importsagemaker

fromsagemaker.tensorflowimportTensorFlow

sagemaker_session=sagemaker.Session()

role=get_execution_role()

s3_input_train=sagemaker.s3_input(s3_data='s3://my-bucket/train-data',distribution='FullyReplicated',content_type='text/csv',s3_data_type='S3Prefix')

estimator=TensorFlow(entry_point='train.py',

role=role,

instance_type='ml.p3.2xlarge',

instance_count=1,

framework_version='2.3.1',

py_version='py3',

script_mode=True,

sagemaker_session=sagemaker_session,

input_mode='File',

hyperparameters={'s3_data':s3_input_train})6.2.3管理环境变量在SageMaker中,环境变量用于控制训练和部署过程中的各种参数。例如,SAGEMAKER_REGION环境变量用于指定AWS区域,而SAGEMAKER_ROLE则用于指定IAM角色。正确设置这些环境变量可以确保SageMaker实例能够访问所需的资源。示例代码#管理环境变量

importos

os.environ['SAGEMAKER_REGION']='us-west-2'

os.environ['SAGEMAKER_ROLE']='arn:aws:iam::123456789012:role/SageMakerRole'6.2.4使用SageMaker超参数优化SageMaker提供了超参数优化服务,可以自动调整模型的超参数,以获得最佳的性能。通过定义超参数范围和目标指标,SageMaker会自动运行多个训练任务,找到最优的超参数组合。示例代码#使用SageMaker超参数优化

fromsagemaker.tensorflowimportTensorFlow

fromsagemaker.tunerimportIntegerParameter,CategoricalParameter,ContinuousParameter,HyperparameterTuner

role=get_execution_role()

estimator=TensorFlow(entry_point='train.py',

role=role,

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

最新文档

评论

0/150

提交评论