huaweicloudsdkmrs 3.1.160__py3-none-any.whl
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- huaweicloudsdkmrs/__init__.py +0 -0
- huaweicloudsdkmrs/v1/__init__.py +87 -0
- huaweicloudsdkmrs/v1/model/__init__.py +84 -0
- huaweicloudsdkmrs/v1/model/add_jobs_req_v11.py +431 -0
- huaweicloudsdkmrs/v1/model/auto_scaling_policy.py +257 -0
- huaweicloudsdkmrs/v1/model/auto_scaling_policy_req_v11.py +138 -0
- huaweicloudsdkmrs/v1/model/available_tag.py +173 -0
- huaweicloudsdkmrs/v1/model/available_zone_v2.py +343 -0
- huaweicloudsdkmrs/v1/model/batch_create_cluster_tags_req.py +142 -0
- huaweicloudsdkmrs/v1/model/batch_create_cluster_tags_request.py +139 -0
- huaweicloudsdkmrs/v1/model/batch_create_cluster_tags_response.py +85 -0
- huaweicloudsdkmrs/v1/model/batch_delete_cluster_tags_req.py +142 -0
- huaweicloudsdkmrs/v1/model/batch_delete_cluster_tags_request.py +139 -0
- huaweicloudsdkmrs/v1/model/batch_delete_cluster_tags_response.py +85 -0
- huaweicloudsdkmrs/v1/model/bootstrap_script.py +372 -0
- huaweicloudsdkmrs/v1/model/cluster.py +2058 -0
- huaweicloudsdkmrs/v1/model/cluster_scaling_params.py +340 -0
- huaweicloudsdkmrs/v1/model/cluster_scaling_req.py +197 -0
- huaweicloudsdkmrs/v1/model/component_amb.py +202 -0
- huaweicloudsdkmrs/v1/model/component_amb_v11.py +114 -0
- huaweicloudsdkmrs/v1/model/component_external_datasource.py +144 -0
- huaweicloudsdkmrs/v1/model/create_and_execute_job_request.py +111 -0
- huaweicloudsdkmrs/v1/model/create_and_execute_job_response.py +1334 -0
- huaweicloudsdkmrs/v1/model/create_cluster_req_v11.py +1119 -0
- huaweicloudsdkmrs/v1/model/create_cluster_request.py +111 -0
- huaweicloudsdkmrs/v1/model/create_cluster_response.py +174 -0
- huaweicloudsdkmrs/v1/model/create_cluster_tag_request.py +139 -0
- huaweicloudsdkmrs/v1/model/create_cluster_tag_response.py +85 -0
- huaweicloudsdkmrs/v1/model/create_scaling_policy_request.py +139 -0
- huaweicloudsdkmrs/v1/model/create_scaling_policy_response.py +116 -0
- huaweicloudsdkmrs/v1/model/create_tag_req.py +110 -0
- huaweicloudsdkmrs/v1/model/delete_cluster_request.py +114 -0
- huaweicloudsdkmrs/v1/model/delete_cluster_response.py +112 -0
- huaweicloudsdkmrs/v1/model/delete_cluster_tag_request.py +142 -0
- huaweicloudsdkmrs/v1/model/delete_cluster_tag_response.py +85 -0
- huaweicloudsdkmrs/v1/model/delete_job_execution_request.py +114 -0
- huaweicloudsdkmrs/v1/model/delete_job_execution_response.py +85 -0
- huaweicloudsdkmrs/v1/model/flavor_lists.py +173 -0
- huaweicloudsdkmrs/v1/model/host_model.py +550 -0
- huaweicloudsdkmrs/v1/model/job_exe_result.py +1011 -0
- huaweicloudsdkmrs/v1/model/list_all_tags_request.py +84 -0
- huaweicloudsdkmrs/v1/model/list_all_tags_response.py +116 -0
- huaweicloudsdkmrs/v1/model/list_available_zones_request.py +143 -0
- huaweicloudsdkmrs/v1/model/list_available_zones_response.py +174 -0
- huaweicloudsdkmrs/v1/model/list_cluster_tags_request.py +114 -0
- huaweicloudsdkmrs/v1/model/list_cluster_tags_response.py +116 -0
- huaweicloudsdkmrs/v1/model/list_clusters_by_tags_request.py +111 -0
- huaweicloudsdkmrs/v1/model/list_clusters_by_tags_response.py +145 -0
- huaweicloudsdkmrs/v1/model/list_clusters_request.py +260 -0
- huaweicloudsdkmrs/v1/model/list_clusters_response.py +145 -0
- huaweicloudsdkmrs/v1/model/list_execute_job_request.py +259 -0
- huaweicloudsdkmrs/v1/model/list_execute_job_response.py +145 -0
- huaweicloudsdkmrs/v1/model/list_hosts_request.py +172 -0
- huaweicloudsdkmrs/v1/model/list_hosts_response.py +145 -0
- huaweicloudsdkmrs/v1/model/list_resource_req.py +317 -0
- huaweicloudsdkmrs/v1/model/match.py +144 -0
- huaweicloudsdkmrs/v1/model/mrs_resource.py +202 -0
- huaweicloudsdkmrs/v1/model/node_constraint.py +376 -0
- huaweicloudsdkmrs/v1/model/node_constraints.py +315 -0
- huaweicloudsdkmrs/v1/model/node_group_v10.py +608 -0
- huaweicloudsdkmrs/v1/model/node_group_v11.py +340 -0
- huaweicloudsdkmrs/v1/model/resources_plan.py +226 -0
- huaweicloudsdkmrs/v1/model/role_deploy_meta.py +637 -0
- huaweicloudsdkmrs/v1/model/rule.py +251 -0
- huaweicloudsdkmrs/v1/model/scale_script.py +284 -0
- huaweicloudsdkmrs/v1/model/show_cluster_details_request.py +114 -0
- huaweicloudsdkmrs/v1/model/show_cluster_details_response.py +112 -0
- huaweicloudsdkmrs/v1/model/show_job_exes_request.py +114 -0
- huaweicloudsdkmrs/v1/model/show_job_exes_response.py +112 -0
- huaweicloudsdkmrs/v1/model/show_mrs_version_metadata_request.py +143 -0
- huaweicloudsdkmrs/v1/model/show_mrs_version_metadata_response.py +456 -0
- huaweicloudsdkmrs/v1/model/submit_job_req_v11.py +402 -0
- huaweicloudsdkmrs/v1/model/tag.py +142 -0
- huaweicloudsdkmrs/v1/model/tag_plain.py +144 -0
- huaweicloudsdkmrs/v1/model/tag_with_multi_value.py +143 -0
- huaweicloudsdkmrs/v1/model/task_node_group.py +251 -0
- huaweicloudsdkmrs/v1/model/task_node_info.py +198 -0
- huaweicloudsdkmrs/v1/model/trigger.py +199 -0
- huaweicloudsdkmrs/v1/model/update_cluster_scaling_request.py +139 -0
- huaweicloudsdkmrs/v1/model/update_cluster_scaling_response.py +116 -0
- huaweicloudsdkmrs/v1/model/version_component.py +434 -0
- huaweicloudsdkmrs/v1/model/version_constraint.py +169 -0
- huaweicloudsdkmrs/v1/mrs_async_client.py +1467 -0
- huaweicloudsdkmrs/v1/mrs_client.py +1464 -0
- huaweicloudsdkmrs/v1/region/__init__.py +0 -0
- huaweicloudsdkmrs/v1/region/mrs_region.py +103 -0
- huaweicloudsdkmrs/v2/__init__.py +126 -0
- huaweicloudsdkmrs/v2/model/__init__.py +123 -0
- huaweicloudsdkmrs/v2/model/add_component_request.py +139 -0
- huaweicloudsdkmrs/v2/model/add_component_response.py +116 -0
- huaweicloudsdkmrs/v2/model/add_components_req.py +114 -0
- huaweicloudsdkmrs/v2/model/add_jobs_req_v11.py +431 -0
- huaweicloudsdkmrs/v2/model/agency_mapping.py +198 -0
- huaweicloudsdkmrs/v2/model/agency_mapping_array.py +114 -0
- huaweicloudsdkmrs/v2/model/assigned_node_group.py +142 -0
- huaweicloudsdkmrs/v2/model/auto_scaling_policy.py +257 -0
- huaweicloudsdkmrs/v2/model/auto_scaling_policy_delete_req.py +142 -0
- huaweicloudsdkmrs/v2/model/auto_scaling_policy_info.py +257 -0
- huaweicloudsdkmrs/v2/model/auto_scaling_policy_v2.py +167 -0
- huaweicloudsdkmrs/v2/model/az_flavors.py +231 -0
- huaweicloudsdkmrs/v2/model/batch_delete_jobs_request.py +139 -0
- huaweicloudsdkmrs/v2/model/batch_delete_jobs_response.py +85 -0
- huaweicloudsdkmrs/v2/model/bootstrap_script.py +372 -0
- huaweicloudsdkmrs/v2/model/cancel_sql_request.py +142 -0
- huaweicloudsdkmrs/v2/model/cancel_sql_response.py +145 -0
- huaweicloudsdkmrs/v2/model/cancel_sync_iam_user_request.py +139 -0
- huaweicloudsdkmrs/v2/model/cancel_sync_iam_user_response.py +116 -0
- huaweicloudsdkmrs/v2/model/cancel_sync_request.py +144 -0
- huaweicloudsdkmrs/v2/model/charge_info.py +201 -0
- huaweicloudsdkmrs/v2/model/cluster_data_connector_map.py +289 -0
- huaweicloudsdkmrs/v2/model/cluster_node.py +396 -0
- huaweicloudsdkmrs/v2/model/component_config.py +143 -0
- huaweicloudsdkmrs/v2/model/component_info.py +521 -0
- huaweicloudsdkmrs/v2/model/component_install_mode.py +200 -0
- huaweicloudsdkmrs/v2/model/config.py +170 -0
- huaweicloudsdkmrs/v2/model/create_auto_scaling_policy_request.py +139 -0
- huaweicloudsdkmrs/v2/model/create_auto_scaling_policy_response.py +85 -0
- huaweicloudsdkmrs/v2/model/create_cluster_req_v2.py +994 -0
- huaweicloudsdkmrs/v2/model/create_cluster_request.py +111 -0
- huaweicloudsdkmrs/v2/model/create_cluster_response.py +116 -0
- huaweicloudsdkmrs/v2/model/create_data_connector_request.py +111 -0
- huaweicloudsdkmrs/v2/model/create_data_connector_response.py +116 -0
- huaweicloudsdkmrs/v2/model/create_execute_job_request.py +139 -0
- huaweicloudsdkmrs/v2/model/create_execute_job_response.py +112 -0
- huaweicloudsdkmrs/v2/model/data_connector.py +170 -0
- huaweicloudsdkmrs/v2/model/data_connector_detail.py +460 -0
- huaweicloudsdkmrs/v2/model/data_connector_req.py +110 -0
- huaweicloudsdkmrs/v2/model/delete_auto_scaling_policy_request.py +139 -0
- huaweicloudsdkmrs/v2/model/delete_auto_scaling_policy_response.py +85 -0
- huaweicloudsdkmrs/v2/model/delete_data_connector_request.py +114 -0
- huaweicloudsdkmrs/v2/model/delete_data_connector_response.py +85 -0
- huaweicloudsdkmrs/v2/model/execute_sql_request.py +139 -0
- huaweicloudsdkmrs/v2/model/execute_sql_response.py +261 -0
- huaweicloudsdkmrs/v2/model/expand_cluster_request.py +139 -0
- huaweicloudsdkmrs/v2/model/expand_cluster_response.py +145 -0
- huaweicloudsdkmrs/v2/model/expand_param.py +200 -0
- huaweicloudsdkmrs/v2/model/file_status_v2.py +405 -0
- huaweicloudsdkmrs/v2/model/flavor.py +115 -0
- huaweicloudsdkmrs/v2/model/job_batch_delete.py +115 -0
- huaweicloudsdkmrs/v2/model/job_execution.py +200 -0
- huaweicloudsdkmrs/v2/model/job_query_bean.py +579 -0
- huaweicloudsdkmrs/v2/model/job_submit_result.py +144 -0
- huaweicloudsdkmrs/v2/model/list_data_connector_request.py +260 -0
- huaweicloudsdkmrs/v2/model/list_data_connector_response.py +145 -0
- huaweicloudsdkmrs/v2/model/list_nodes_request.py +375 -0
- huaweicloudsdkmrs/v2/model/list_nodes_response.py +145 -0
- huaweicloudsdkmrs/v2/model/modify_default_tags_request_body.py +114 -0
- huaweicloudsdkmrs/v2/model/node_detail.py +376 -0
- huaweicloudsdkmrs/v2/model/node_group_v2.py +328 -0
- huaweicloudsdkmrs/v2/model/resources_plan.py +255 -0
- huaweicloudsdkmrs/v2/model/rule.py +251 -0
- huaweicloudsdkmrs/v2/model/run_job_flow_command.py +997 -0
- huaweicloudsdkmrs/v2/model/run_job_flow_request.py +111 -0
- huaweicloudsdkmrs/v2/model/run_job_flow_response.py +116 -0
- huaweicloudsdkmrs/v2/model/scale_script.py +284 -0
- huaweicloudsdkmrs/v2/model/server_info.py +340 -0
- huaweicloudsdkmrs/v2/model/show_agency_mapping_request.py +114 -0
- huaweicloudsdkmrs/v2/model/show_agency_mapping_response.py +116 -0
- huaweicloudsdkmrs/v2/model/show_auto_scaling_policy_request.py +114 -0
- huaweicloudsdkmrs/v2/model/show_auto_scaling_policy_response.py +116 -0
- huaweicloudsdkmrs/v2/model/show_hdfs_file_list_request.py +258 -0
- huaweicloudsdkmrs/v2/model/show_hdfs_file_list_response.py +145 -0
- huaweicloudsdkmrs/v2/model/show_job_exe_list_new_request.py +462 -0
- huaweicloudsdkmrs/v2/model/show_job_exe_list_new_response.py +145 -0
- huaweicloudsdkmrs/v2/model/show_mrs_flavors_request.py +143 -0
- huaweicloudsdkmrs/v2/model/show_mrs_flavors_response.py +145 -0
- huaweicloudsdkmrs/v2/model/show_mrs_version_list_request.py +84 -0
- huaweicloudsdkmrs/v2/model/show_mrs_version_list_response.py +116 -0
- huaweicloudsdkmrs/v2/model/show_single_job_exe_request.py +142 -0
- huaweicloudsdkmrs/v2/model/show_single_job_exe_response.py +112 -0
- huaweicloudsdkmrs/v2/model/show_sql_result_request.py +142 -0
- huaweicloudsdkmrs/v2/model/show_sql_result_response.py +261 -0
- huaweicloudsdkmrs/v2/model/show_sql_result_with_job_request.py +142 -0
- huaweicloudsdkmrs/v2/model/show_sql_result_with_job_response.py +116 -0
- huaweicloudsdkmrs/v2/model/show_sync_iam_user_request.py +114 -0
- huaweicloudsdkmrs/v2/model/show_sync_iam_user_response.py +145 -0
- huaweicloudsdkmrs/v2/model/show_tag_quota_request.py +143 -0
- huaweicloudsdkmrs/v2/model/show_tag_quota_response.py +145 -0
- huaweicloudsdkmrs/v2/model/show_tag_status_request.py +114 -0
- huaweicloudsdkmrs/v2/model/show_tag_status_response.py +145 -0
- huaweicloudsdkmrs/v2/model/shrink_cluster_request.py +139 -0
- huaweicloudsdkmrs/v2/model/shrink_cluster_response.py +116 -0
- huaweicloudsdkmrs/v2/model/shrink_param.py +172 -0
- huaweicloudsdkmrs/v2/model/smn_notify.py +144 -0
- huaweicloudsdkmrs/v2/model/sql_execution_req.py +200 -0
- huaweicloudsdkmrs/v2/model/step_config.py +110 -0
- huaweicloudsdkmrs/v2/model/stop_job_request.py +142 -0
- huaweicloudsdkmrs/v2/model/stop_job_response.py +85 -0
- huaweicloudsdkmrs/v2/model/switch_cluster_tags_request.py +139 -0
- huaweicloudsdkmrs/v2/model/switch_cluster_tags_response.py +85 -0
- huaweicloudsdkmrs/v2/model/tag.py +142 -0
- huaweicloudsdkmrs/v2/model/trigger.py +199 -0
- huaweicloudsdkmrs/v2/model/update_agency_mapping_request.py +139 -0
- huaweicloudsdkmrs/v2/model/update_agency_mapping_response.py +116 -0
- huaweicloudsdkmrs/v2/model/update_auto_scaling_policy_request.py +139 -0
- huaweicloudsdkmrs/v2/model/update_auto_scaling_policy_response.py +85 -0
- huaweicloudsdkmrs/v2/model/update_cluster_name_request.py +139 -0
- huaweicloudsdkmrs/v2/model/update_cluster_name_response.py +116 -0
- huaweicloudsdkmrs/v2/model/update_cluster_req.py +114 -0
- huaweicloudsdkmrs/v2/model/update_data_connector_request.py +139 -0
- huaweicloudsdkmrs/v2/model/update_data_connector_response.py +116 -0
- huaweicloudsdkmrs/v2/model/update_sync_iam_user_request.py +139 -0
- huaweicloudsdkmrs/v2/model/update_sync_iam_user_response.py +116 -0
- huaweicloudsdkmrs/v2/model/update_sync_request.py +173 -0
- huaweicloudsdkmrs/v2/model/volume.py +142 -0
- huaweicloudsdkmrs/v2/model/volume_info.py +170 -0
- huaweicloudsdkmrs/v2/mrs_async_client.py +2476 -0
- huaweicloudsdkmrs/v2/mrs_client.py +2473 -0
- huaweicloudsdkmrs/v2/region/__init__.py +0 -0
- huaweicloudsdkmrs/v2/region/mrs_region.py +103 -0
- huaweicloudsdkmrs-3.1.160.dist-info/LICENSE +13 -0
- huaweicloudsdkmrs-3.1.160.dist-info/METADATA +26 -0
- huaweicloudsdkmrs-3.1.160.dist-info/RECORD +215 -0
- huaweicloudsdkmrs-3.1.160.dist-info/WHEEL +5 -0
- huaweicloudsdkmrs-3.1.160.dist-info/top_level.txt +1 -0
@@ -0,0 +1,402 @@
|
|
1
|
+
# coding: utf-8
|
2
|
+
|
3
|
+
import six
|
4
|
+
|
5
|
+
from huaweicloudsdkcore.utils.http_utils import sanitize_for_serialization
|
6
|
+
|
7
|
+
|
8
|
+
class SubmitJobReqV11:
|
9
|
+
|
10
|
+
"""
|
11
|
+
Attributes:
|
12
|
+
openapi_types (dict): The key is attribute name
|
13
|
+
and the value is attribute type.
|
14
|
+
attribute_map (dict): The key is attribute name
|
15
|
+
and the value is json key in definition.
|
16
|
+
"""
|
17
|
+
sensitive_list = []
|
18
|
+
|
19
|
+
openapi_types = {
|
20
|
+
'job_name': 'str',
|
21
|
+
'cluster_id': 'str',
|
22
|
+
'jar_path': 'str',
|
23
|
+
'input': 'str',
|
24
|
+
'output': 'str',
|
25
|
+
'job_log': 'str',
|
26
|
+
'job_type': 'int',
|
27
|
+
'file_action': 'str',
|
28
|
+
'arguments': 'str',
|
29
|
+
'hql': 'str',
|
30
|
+
'hive_script_path': 'str'
|
31
|
+
}
|
32
|
+
|
33
|
+
attribute_map = {
|
34
|
+
'job_name': 'job_name',
|
35
|
+
'cluster_id': 'cluster_id',
|
36
|
+
'jar_path': 'jar_path',
|
37
|
+
'input': 'input',
|
38
|
+
'output': 'output',
|
39
|
+
'job_log': 'job_log',
|
40
|
+
'job_type': 'job_type',
|
41
|
+
'file_action': 'file_action',
|
42
|
+
'arguments': 'arguments',
|
43
|
+
'hql': 'hql',
|
44
|
+
'hive_script_path': 'hive_script_path'
|
45
|
+
}
|
46
|
+
|
47
|
+
def __init__(self, job_name=None, cluster_id=None, jar_path=None, input=None, output=None, job_log=None, job_type=None, file_action=None, arguments=None, hql=None, hive_script_path=None):
|
48
|
+
r"""SubmitJobReqV11
|
49
|
+
|
50
|
+
The model defined in huaweicloud sdk
|
51
|
+
|
52
|
+
:param job_name: 作业名称,只能由字母、数字、中划线和下划线组成,并且长度为1~64个字符。 说明: 不同作业的名称允许相同,但不建议设置相同。
|
53
|
+
:type job_name: str
|
54
|
+
:param cluster_id: 集群ID。
|
55
|
+
:type cluster_id: str
|
56
|
+
:param jar_path: 执行程序Jar包或sql文件地址,需要满足如下要求: - 最多为1023字符,不能包含;|&><'$特殊字符,且不可为空或全空格。 - 需要以“/”或“s3a://”开头。OBS路径不支持KMS加密的文件或程序。 - Spark Script需要以“.sql”结尾,MapReduce和Spark Jar需要以“.jar”结尾,sql和jar不区分大小写。 说明: 作业类型为MapReduce或Spark时,jar_path参数为必选。
|
57
|
+
:type jar_path: str
|
58
|
+
:param input: 数据输入地址,必须以“/”或“s3a://”开头。请配置为正确的OBS路径,OBS路径不支持KMS加密的文件或程序。 最多为1023字符,不能包含;|&>'<$特殊字符,可为空。
|
59
|
+
:type input: str
|
60
|
+
:param output: 数据输出地址,必须以“/”或“s3a://”开头。请配置为正确的OBS路径,如果该路径不存在,系统会自动创建。 最多为1023字符,不能包含;|&>'<$特殊字符,可为空。
|
61
|
+
:type output: str
|
62
|
+
:param job_log: 作业日志存储地址,该日志信息记录作业运行状态。必须以“/”或“s3a://”开头,请配置为正确的OBS路径。 最多为1023字符,不能包含;|&>'<$特殊字符,可为空。
|
63
|
+
:type job_log: str
|
64
|
+
:param job_type: 作业类型码。 - 1:MapReduce - 2:Spark - 3:Hive Script - 4:HiveSQL(当前不支持) - 5:DistCp,导入、导出数据。 - 6:Spark Script - 7:Spark SQL,提交SQL语句(该接口当前不支持)
|
65
|
+
:type job_type: int
|
66
|
+
:param file_action: 文件操作类型,包括: - export:从HDFS导出数据至OBS - import:从OBS导入数据至HDFS
|
67
|
+
:type file_action: str
|
68
|
+
:param arguments: 程序执行的关键参数,该参数由用户程序内的函数指定,MRS只负责参数的传入。 最多为150000字符,不能包含;|&>'<$!\\\"\\特殊字符,可为空。 说明: 用户输入带有敏感信息(如登录密码)的参数时,可通过在参数名前添加“@”的方式,为该参数值加密,以防止敏感信息被明文形式持久化。在查看作业信息时,敏感信息显示为“*”。 例如:username=admin @password=admin_123
|
69
|
+
:type arguments: str
|
70
|
+
:param hql: Spark SQL语句,该语句需要进行Base64编码和解码,“ABCDEFGHIJKLMNOPQRSTUVWXYZabcdefghijklmnopqrstuvwxyz0123456789+/”为标准的编码表,MRS使用“ABCDEFGHILKJMNOPQRSTUVWXYZabcdefghijklmnopqrstuvwxyz0123456789+/”进行Base64编码。在编码后所得字符串首位任意加上一个字母,即得到Hql参数的值。后台自动进行解码得到Spark SQL语句。 使用样例: 1) 在Web界面输入Spark SQL语句“show tables;”。 2) 使用“ABCDEFGHILKJMNOPQRSTUVWXYZabcdefghijklmnopqrstuvwxyz0123456789+/”编码后得到字符串“c2hvdyB0YWLsZXM7”。 3) 在“c2hvdyB0YWLsZXM7”首位任意加上一字母,例如“gc2hvdyB0YWLsZXM7”,即Hql参数的值。 4) 后台自动进行解码得到Spark SQL语句“show tables;”。
|
71
|
+
:type hql: str
|
72
|
+
:param hive_script_path: sql程序路径,仅Spark Script和Hive Script作业需要使用此参数。需要满足如下要求: - 最多为1023字符,不能包含;|&><'$特殊字符,且不可为空或全空格。 - 需要以“/”或“s3a://”开头,OBS路径不支持KMS加密的文件或程序。 - 需要以“.sql”结尾,sql不区分大小写。
|
73
|
+
:type hive_script_path: str
|
74
|
+
"""
|
75
|
+
|
76
|
+
|
77
|
+
|
78
|
+
self._job_name = None
|
79
|
+
self._cluster_id = None
|
80
|
+
self._jar_path = None
|
81
|
+
self._input = None
|
82
|
+
self._output = None
|
83
|
+
self._job_log = None
|
84
|
+
self._job_type = None
|
85
|
+
self._file_action = None
|
86
|
+
self._arguments = None
|
87
|
+
self._hql = None
|
88
|
+
self._hive_script_path = None
|
89
|
+
self.discriminator = None
|
90
|
+
|
91
|
+
self.job_name = job_name
|
92
|
+
self.cluster_id = cluster_id
|
93
|
+
if jar_path is not None:
|
94
|
+
self.jar_path = jar_path
|
95
|
+
if input is not None:
|
96
|
+
self.input = input
|
97
|
+
if output is not None:
|
98
|
+
self.output = output
|
99
|
+
if job_log is not None:
|
100
|
+
self.job_log = job_log
|
101
|
+
self.job_type = job_type
|
102
|
+
if file_action is not None:
|
103
|
+
self.file_action = file_action
|
104
|
+
if arguments is not None:
|
105
|
+
self.arguments = arguments
|
106
|
+
if hql is not None:
|
107
|
+
self.hql = hql
|
108
|
+
if hive_script_path is not None:
|
109
|
+
self.hive_script_path = hive_script_path
|
110
|
+
|
111
|
+
@property
|
112
|
+
def job_name(self):
|
113
|
+
r"""Gets the job_name of this SubmitJobReqV11.
|
114
|
+
|
115
|
+
作业名称,只能由字母、数字、中划线和下划线组成,并且长度为1~64个字符。 说明: 不同作业的名称允许相同,但不建议设置相同。
|
116
|
+
|
117
|
+
:return: The job_name of this SubmitJobReqV11.
|
118
|
+
:rtype: str
|
119
|
+
"""
|
120
|
+
return self._job_name
|
121
|
+
|
122
|
+
@job_name.setter
|
123
|
+
def job_name(self, job_name):
|
124
|
+
r"""Sets the job_name of this SubmitJobReqV11.
|
125
|
+
|
126
|
+
作业名称,只能由字母、数字、中划线和下划线组成,并且长度为1~64个字符。 说明: 不同作业的名称允许相同,但不建议设置相同。
|
127
|
+
|
128
|
+
:param job_name: The job_name of this SubmitJobReqV11.
|
129
|
+
:type job_name: str
|
130
|
+
"""
|
131
|
+
self._job_name = job_name
|
132
|
+
|
133
|
+
@property
|
134
|
+
def cluster_id(self):
|
135
|
+
r"""Gets the cluster_id of this SubmitJobReqV11.
|
136
|
+
|
137
|
+
集群ID。
|
138
|
+
|
139
|
+
:return: The cluster_id of this SubmitJobReqV11.
|
140
|
+
:rtype: str
|
141
|
+
"""
|
142
|
+
return self._cluster_id
|
143
|
+
|
144
|
+
@cluster_id.setter
|
145
|
+
def cluster_id(self, cluster_id):
|
146
|
+
r"""Sets the cluster_id of this SubmitJobReqV11.
|
147
|
+
|
148
|
+
集群ID。
|
149
|
+
|
150
|
+
:param cluster_id: The cluster_id of this SubmitJobReqV11.
|
151
|
+
:type cluster_id: str
|
152
|
+
"""
|
153
|
+
self._cluster_id = cluster_id
|
154
|
+
|
155
|
+
@property
|
156
|
+
def jar_path(self):
|
157
|
+
r"""Gets the jar_path of this SubmitJobReqV11.
|
158
|
+
|
159
|
+
执行程序Jar包或sql文件地址,需要满足如下要求: - 最多为1023字符,不能包含;|&><'$特殊字符,且不可为空或全空格。 - 需要以“/”或“s3a://”开头。OBS路径不支持KMS加密的文件或程序。 - Spark Script需要以“.sql”结尾,MapReduce和Spark Jar需要以“.jar”结尾,sql和jar不区分大小写。 说明: 作业类型为MapReduce或Spark时,jar_path参数为必选。
|
160
|
+
|
161
|
+
:return: The jar_path of this SubmitJobReqV11.
|
162
|
+
:rtype: str
|
163
|
+
"""
|
164
|
+
return self._jar_path
|
165
|
+
|
166
|
+
@jar_path.setter
|
167
|
+
def jar_path(self, jar_path):
|
168
|
+
r"""Sets the jar_path of this SubmitJobReqV11.
|
169
|
+
|
170
|
+
执行程序Jar包或sql文件地址,需要满足如下要求: - 最多为1023字符,不能包含;|&><'$特殊字符,且不可为空或全空格。 - 需要以“/”或“s3a://”开头。OBS路径不支持KMS加密的文件或程序。 - Spark Script需要以“.sql”结尾,MapReduce和Spark Jar需要以“.jar”结尾,sql和jar不区分大小写。 说明: 作业类型为MapReduce或Spark时,jar_path参数为必选。
|
171
|
+
|
172
|
+
:param jar_path: The jar_path of this SubmitJobReqV11.
|
173
|
+
:type jar_path: str
|
174
|
+
"""
|
175
|
+
self._jar_path = jar_path
|
176
|
+
|
177
|
+
@property
|
178
|
+
def input(self):
|
179
|
+
r"""Gets the input of this SubmitJobReqV11.
|
180
|
+
|
181
|
+
数据输入地址,必须以“/”或“s3a://”开头。请配置为正确的OBS路径,OBS路径不支持KMS加密的文件或程序。 最多为1023字符,不能包含;|&>'<$特殊字符,可为空。
|
182
|
+
|
183
|
+
:return: The input of this SubmitJobReqV11.
|
184
|
+
:rtype: str
|
185
|
+
"""
|
186
|
+
return self._input
|
187
|
+
|
188
|
+
@input.setter
|
189
|
+
def input(self, input):
|
190
|
+
r"""Sets the input of this SubmitJobReqV11.
|
191
|
+
|
192
|
+
数据输入地址,必须以“/”或“s3a://”开头。请配置为正确的OBS路径,OBS路径不支持KMS加密的文件或程序。 最多为1023字符,不能包含;|&>'<$特殊字符,可为空。
|
193
|
+
|
194
|
+
:param input: The input of this SubmitJobReqV11.
|
195
|
+
:type input: str
|
196
|
+
"""
|
197
|
+
self._input = input
|
198
|
+
|
199
|
+
@property
|
200
|
+
def output(self):
|
201
|
+
r"""Gets the output of this SubmitJobReqV11.
|
202
|
+
|
203
|
+
数据输出地址,必须以“/”或“s3a://”开头。请配置为正确的OBS路径,如果该路径不存在,系统会自动创建。 最多为1023字符,不能包含;|&>'<$特殊字符,可为空。
|
204
|
+
|
205
|
+
:return: The output of this SubmitJobReqV11.
|
206
|
+
:rtype: str
|
207
|
+
"""
|
208
|
+
return self._output
|
209
|
+
|
210
|
+
@output.setter
|
211
|
+
def output(self, output):
|
212
|
+
r"""Sets the output of this SubmitJobReqV11.
|
213
|
+
|
214
|
+
数据输出地址,必须以“/”或“s3a://”开头。请配置为正确的OBS路径,如果该路径不存在,系统会自动创建。 最多为1023字符,不能包含;|&>'<$特殊字符,可为空。
|
215
|
+
|
216
|
+
:param output: The output of this SubmitJobReqV11.
|
217
|
+
:type output: str
|
218
|
+
"""
|
219
|
+
self._output = output
|
220
|
+
|
221
|
+
@property
|
222
|
+
def job_log(self):
|
223
|
+
r"""Gets the job_log of this SubmitJobReqV11.
|
224
|
+
|
225
|
+
作业日志存储地址,该日志信息记录作业运行状态。必须以“/”或“s3a://”开头,请配置为正确的OBS路径。 最多为1023字符,不能包含;|&>'<$特殊字符,可为空。
|
226
|
+
|
227
|
+
:return: The job_log of this SubmitJobReqV11.
|
228
|
+
:rtype: str
|
229
|
+
"""
|
230
|
+
return self._job_log
|
231
|
+
|
232
|
+
@job_log.setter
|
233
|
+
def job_log(self, job_log):
|
234
|
+
r"""Sets the job_log of this SubmitJobReqV11.
|
235
|
+
|
236
|
+
作业日志存储地址,该日志信息记录作业运行状态。必须以“/”或“s3a://”开头,请配置为正确的OBS路径。 最多为1023字符,不能包含;|&>'<$特殊字符,可为空。
|
237
|
+
|
238
|
+
:param job_log: The job_log of this SubmitJobReqV11.
|
239
|
+
:type job_log: str
|
240
|
+
"""
|
241
|
+
self._job_log = job_log
|
242
|
+
|
243
|
+
@property
|
244
|
+
def job_type(self):
|
245
|
+
r"""Gets the job_type of this SubmitJobReqV11.
|
246
|
+
|
247
|
+
作业类型码。 - 1:MapReduce - 2:Spark - 3:Hive Script - 4:HiveSQL(当前不支持) - 5:DistCp,导入、导出数据。 - 6:Spark Script - 7:Spark SQL,提交SQL语句(该接口当前不支持)
|
248
|
+
|
249
|
+
:return: The job_type of this SubmitJobReqV11.
|
250
|
+
:rtype: int
|
251
|
+
"""
|
252
|
+
return self._job_type
|
253
|
+
|
254
|
+
@job_type.setter
|
255
|
+
def job_type(self, job_type):
|
256
|
+
r"""Sets the job_type of this SubmitJobReqV11.
|
257
|
+
|
258
|
+
作业类型码。 - 1:MapReduce - 2:Spark - 3:Hive Script - 4:HiveSQL(当前不支持) - 5:DistCp,导入、导出数据。 - 6:Spark Script - 7:Spark SQL,提交SQL语句(该接口当前不支持)
|
259
|
+
|
260
|
+
:param job_type: The job_type of this SubmitJobReqV11.
|
261
|
+
:type job_type: int
|
262
|
+
"""
|
263
|
+
self._job_type = job_type
|
264
|
+
|
265
|
+
@property
|
266
|
+
def file_action(self):
|
267
|
+
r"""Gets the file_action of this SubmitJobReqV11.
|
268
|
+
|
269
|
+
文件操作类型,包括: - export:从HDFS导出数据至OBS - import:从OBS导入数据至HDFS
|
270
|
+
|
271
|
+
:return: The file_action of this SubmitJobReqV11.
|
272
|
+
:rtype: str
|
273
|
+
"""
|
274
|
+
return self._file_action
|
275
|
+
|
276
|
+
@file_action.setter
|
277
|
+
def file_action(self, file_action):
|
278
|
+
r"""Sets the file_action of this SubmitJobReqV11.
|
279
|
+
|
280
|
+
文件操作类型,包括: - export:从HDFS导出数据至OBS - import:从OBS导入数据至HDFS
|
281
|
+
|
282
|
+
:param file_action: The file_action of this SubmitJobReqV11.
|
283
|
+
:type file_action: str
|
284
|
+
"""
|
285
|
+
self._file_action = file_action
|
286
|
+
|
287
|
+
@property
|
288
|
+
def arguments(self):
|
289
|
+
r"""Gets the arguments of this SubmitJobReqV11.
|
290
|
+
|
291
|
+
程序执行的关键参数,该参数由用户程序内的函数指定,MRS只负责参数的传入。 最多为150000字符,不能包含;|&>'<$!\\\"\\特殊字符,可为空。 说明: 用户输入带有敏感信息(如登录密码)的参数时,可通过在参数名前添加“@”的方式,为该参数值加密,以防止敏感信息被明文形式持久化。在查看作业信息时,敏感信息显示为“*”。 例如:username=admin @password=admin_123
|
292
|
+
|
293
|
+
:return: The arguments of this SubmitJobReqV11.
|
294
|
+
:rtype: str
|
295
|
+
"""
|
296
|
+
return self._arguments
|
297
|
+
|
298
|
+
@arguments.setter
|
299
|
+
def arguments(self, arguments):
|
300
|
+
r"""Sets the arguments of this SubmitJobReqV11.
|
301
|
+
|
302
|
+
程序执行的关键参数,该参数由用户程序内的函数指定,MRS只负责参数的传入。 最多为150000字符,不能包含;|&>'<$!\\\"\\特殊字符,可为空。 说明: 用户输入带有敏感信息(如登录密码)的参数时,可通过在参数名前添加“@”的方式,为该参数值加密,以防止敏感信息被明文形式持久化。在查看作业信息时,敏感信息显示为“*”。 例如:username=admin @password=admin_123
|
303
|
+
|
304
|
+
:param arguments: The arguments of this SubmitJobReqV11.
|
305
|
+
:type arguments: str
|
306
|
+
"""
|
307
|
+
self._arguments = arguments
|
308
|
+
|
309
|
+
@property
|
310
|
+
def hql(self):
|
311
|
+
r"""Gets the hql of this SubmitJobReqV11.
|
312
|
+
|
313
|
+
Spark SQL语句,该语句需要进行Base64编码和解码,“ABCDEFGHIJKLMNOPQRSTUVWXYZabcdefghijklmnopqrstuvwxyz0123456789+/”为标准的编码表,MRS使用“ABCDEFGHILKJMNOPQRSTUVWXYZabcdefghijklmnopqrstuvwxyz0123456789+/”进行Base64编码。在编码后所得字符串首位任意加上一个字母,即得到Hql参数的值。后台自动进行解码得到Spark SQL语句。 使用样例: 1) 在Web界面输入Spark SQL语句“show tables;”。 2) 使用“ABCDEFGHILKJMNOPQRSTUVWXYZabcdefghijklmnopqrstuvwxyz0123456789+/”编码后得到字符串“c2hvdyB0YWLsZXM7”。 3) 在“c2hvdyB0YWLsZXM7”首位任意加上一字母,例如“gc2hvdyB0YWLsZXM7”,即Hql参数的值。 4) 后台自动进行解码得到Spark SQL语句“show tables;”。
|
314
|
+
|
315
|
+
:return: The hql of this SubmitJobReqV11.
|
316
|
+
:rtype: str
|
317
|
+
"""
|
318
|
+
return self._hql
|
319
|
+
|
320
|
+
@hql.setter
|
321
|
+
def hql(self, hql):
|
322
|
+
r"""Sets the hql of this SubmitJobReqV11.
|
323
|
+
|
324
|
+
Spark SQL语句,该语句需要进行Base64编码和解码,“ABCDEFGHIJKLMNOPQRSTUVWXYZabcdefghijklmnopqrstuvwxyz0123456789+/”为标准的编码表,MRS使用“ABCDEFGHILKJMNOPQRSTUVWXYZabcdefghijklmnopqrstuvwxyz0123456789+/”进行Base64编码。在编码后所得字符串首位任意加上一个字母,即得到Hql参数的值。后台自动进行解码得到Spark SQL语句。 使用样例: 1) 在Web界面输入Spark SQL语句“show tables;”。 2) 使用“ABCDEFGHILKJMNOPQRSTUVWXYZabcdefghijklmnopqrstuvwxyz0123456789+/”编码后得到字符串“c2hvdyB0YWLsZXM7”。 3) 在“c2hvdyB0YWLsZXM7”首位任意加上一字母,例如“gc2hvdyB0YWLsZXM7”,即Hql参数的值。 4) 后台自动进行解码得到Spark SQL语句“show tables;”。
|
325
|
+
|
326
|
+
:param hql: The hql of this SubmitJobReqV11.
|
327
|
+
:type hql: str
|
328
|
+
"""
|
329
|
+
self._hql = hql
|
330
|
+
|
331
|
+
@property
|
332
|
+
def hive_script_path(self):
|
333
|
+
r"""Gets the hive_script_path of this SubmitJobReqV11.
|
334
|
+
|
335
|
+
sql程序路径,仅Spark Script和Hive Script作业需要使用此参数。需要满足如下要求: - 最多为1023字符,不能包含;|&><'$特殊字符,且不可为空或全空格。 - 需要以“/”或“s3a://”开头,OBS路径不支持KMS加密的文件或程序。 - 需要以“.sql”结尾,sql不区分大小写。
|
336
|
+
|
337
|
+
:return: The hive_script_path of this SubmitJobReqV11.
|
338
|
+
:rtype: str
|
339
|
+
"""
|
340
|
+
return self._hive_script_path
|
341
|
+
|
342
|
+
@hive_script_path.setter
|
343
|
+
def hive_script_path(self, hive_script_path):
|
344
|
+
r"""Sets the hive_script_path of this SubmitJobReqV11.
|
345
|
+
|
346
|
+
sql程序路径,仅Spark Script和Hive Script作业需要使用此参数。需要满足如下要求: - 最多为1023字符,不能包含;|&><'$特殊字符,且不可为空或全空格。 - 需要以“/”或“s3a://”开头,OBS路径不支持KMS加密的文件或程序。 - 需要以“.sql”结尾,sql不区分大小写。
|
347
|
+
|
348
|
+
:param hive_script_path: The hive_script_path of this SubmitJobReqV11.
|
349
|
+
:type hive_script_path: str
|
350
|
+
"""
|
351
|
+
self._hive_script_path = hive_script_path
|
352
|
+
|
353
|
+
def to_dict(self):
|
354
|
+
"""Returns the model properties as a dict"""
|
355
|
+
result = {}
|
356
|
+
|
357
|
+
for attr, _ in six.iteritems(self.openapi_types):
|
358
|
+
value = getattr(self, attr)
|
359
|
+
if isinstance(value, list):
|
360
|
+
result[attr] = list(map(
|
361
|
+
lambda x: x.to_dict() if hasattr(x, "to_dict") else x,
|
362
|
+
value
|
363
|
+
))
|
364
|
+
elif hasattr(value, "to_dict"):
|
365
|
+
result[attr] = value.to_dict()
|
366
|
+
elif isinstance(value, dict):
|
367
|
+
result[attr] = dict(map(
|
368
|
+
lambda item: (item[0], item[1].to_dict())
|
369
|
+
if hasattr(item[1], "to_dict") else item,
|
370
|
+
value.items()
|
371
|
+
))
|
372
|
+
else:
|
373
|
+
if attr in self.sensitive_list:
|
374
|
+
result[attr] = "****"
|
375
|
+
else:
|
376
|
+
result[attr] = value
|
377
|
+
|
378
|
+
return result
|
379
|
+
|
380
|
+
def to_str(self):
|
381
|
+
"""Returns the string representation of the model"""
|
382
|
+
import simplejson as json
|
383
|
+
if six.PY2:
|
384
|
+
import sys
|
385
|
+
reload(sys)
|
386
|
+
sys.setdefaultencoding("utf-8")
|
387
|
+
return json.dumps(sanitize_for_serialization(self), ensure_ascii=False)
|
388
|
+
|
389
|
+
def __repr__(self):
|
390
|
+
"""For `print`"""
|
391
|
+
return self.to_str()
|
392
|
+
|
393
|
+
def __eq__(self, other):
|
394
|
+
"""Returns true if both objects are equal"""
|
395
|
+
if not isinstance(other, SubmitJobReqV11):
|
396
|
+
return False
|
397
|
+
|
398
|
+
return self.__dict__ == other.__dict__
|
399
|
+
|
400
|
+
def __ne__(self, other):
|
401
|
+
"""Returns true if both objects are not equal"""
|
402
|
+
return not self == other
|
@@ -0,0 +1,142 @@
|
|
1
|
+
# coding: utf-8
|
2
|
+
|
3
|
+
import six
|
4
|
+
|
5
|
+
from huaweicloudsdkcore.utils.http_utils import sanitize_for_serialization
|
6
|
+
|
7
|
+
|
8
|
+
class Tag:
|
9
|
+
|
10
|
+
"""
|
11
|
+
Attributes:
|
12
|
+
openapi_types (dict): The key is attribute name
|
13
|
+
and the value is attribute type.
|
14
|
+
attribute_map (dict): The key is attribute name
|
15
|
+
and the value is json key in definition.
|
16
|
+
"""
|
17
|
+
sensitive_list = []
|
18
|
+
|
19
|
+
openapi_types = {
|
20
|
+
'key': 'str',
|
21
|
+
'value': 'str'
|
22
|
+
}
|
23
|
+
|
24
|
+
attribute_map = {
|
25
|
+
'key': 'key',
|
26
|
+
'value': 'value'
|
27
|
+
}
|
28
|
+
|
29
|
+
def __init__(self, key=None, value=None):
|
30
|
+
r"""Tag
|
31
|
+
|
32
|
+
The model defined in huaweicloud sdk
|
33
|
+
|
34
|
+
:param key: 键。 - 最大长度36个unicode字符,不能为空字符串。 - 标签的key值不能包含非打印字符ASCII(0-31),“=”,“*”,“<”,“>”,“\\”,“,”,“|”,“/”,且首尾字符不能为空格。 - 同一资源的key值不能重复。
|
35
|
+
:type key: str
|
36
|
+
:param value: 值。 - 最大长度43个unicode字符,可以为空字符串。 - 标签的value值不能包含非打印字符ASCII(0-31),“=”,“*”,“<”,“>”,“\\”,“,”,“|”,“/”,且首尾字符不能为空格。
|
37
|
+
:type value: str
|
38
|
+
"""
|
39
|
+
|
40
|
+
|
41
|
+
|
42
|
+
self._key = None
|
43
|
+
self._value = None
|
44
|
+
self.discriminator = None
|
45
|
+
|
46
|
+
self.key = key
|
47
|
+
self.value = value
|
48
|
+
|
49
|
+
@property
|
50
|
+
def key(self):
|
51
|
+
r"""Gets the key of this Tag.
|
52
|
+
|
53
|
+
键。 - 最大长度36个unicode字符,不能为空字符串。 - 标签的key值不能包含非打印字符ASCII(0-31),“=”,“*”,“<”,“>”,“\\”,“,”,“|”,“/”,且首尾字符不能为空格。 - 同一资源的key值不能重复。
|
54
|
+
|
55
|
+
:return: The key of this Tag.
|
56
|
+
:rtype: str
|
57
|
+
"""
|
58
|
+
return self._key
|
59
|
+
|
60
|
+
@key.setter
|
61
|
+
def key(self, key):
|
62
|
+
r"""Sets the key of this Tag.
|
63
|
+
|
64
|
+
键。 - 最大长度36个unicode字符,不能为空字符串。 - 标签的key值不能包含非打印字符ASCII(0-31),“=”,“*”,“<”,“>”,“\\”,“,”,“|”,“/”,且首尾字符不能为空格。 - 同一资源的key值不能重复。
|
65
|
+
|
66
|
+
:param key: The key of this Tag.
|
67
|
+
:type key: str
|
68
|
+
"""
|
69
|
+
self._key = key
|
70
|
+
|
71
|
+
@property
|
72
|
+
def value(self):
|
73
|
+
r"""Gets the value of this Tag.
|
74
|
+
|
75
|
+
值。 - 最大长度43个unicode字符,可以为空字符串。 - 标签的value值不能包含非打印字符ASCII(0-31),“=”,“*”,“<”,“>”,“\\”,“,”,“|”,“/”,且首尾字符不能为空格。
|
76
|
+
|
77
|
+
:return: The value of this Tag.
|
78
|
+
:rtype: str
|
79
|
+
"""
|
80
|
+
return self._value
|
81
|
+
|
82
|
+
@value.setter
|
83
|
+
def value(self, value):
|
84
|
+
r"""Sets the value of this Tag.
|
85
|
+
|
86
|
+
值。 - 最大长度43个unicode字符,可以为空字符串。 - 标签的value值不能包含非打印字符ASCII(0-31),“=”,“*”,“<”,“>”,“\\”,“,”,“|”,“/”,且首尾字符不能为空格。
|
87
|
+
|
88
|
+
:param value: The value of this Tag.
|
89
|
+
:type value: str
|
90
|
+
"""
|
91
|
+
self._value = value
|
92
|
+
|
93
|
+
def to_dict(self):
|
94
|
+
"""Returns the model properties as a dict"""
|
95
|
+
result = {}
|
96
|
+
|
97
|
+
for attr, _ in six.iteritems(self.openapi_types):
|
98
|
+
value = getattr(self, attr)
|
99
|
+
if isinstance(value, list):
|
100
|
+
result[attr] = list(map(
|
101
|
+
lambda x: x.to_dict() if hasattr(x, "to_dict") else x,
|
102
|
+
value
|
103
|
+
))
|
104
|
+
elif hasattr(value, "to_dict"):
|
105
|
+
result[attr] = value.to_dict()
|
106
|
+
elif isinstance(value, dict):
|
107
|
+
result[attr] = dict(map(
|
108
|
+
lambda item: (item[0], item[1].to_dict())
|
109
|
+
if hasattr(item[1], "to_dict") else item,
|
110
|
+
value.items()
|
111
|
+
))
|
112
|
+
else:
|
113
|
+
if attr in self.sensitive_list:
|
114
|
+
result[attr] = "****"
|
115
|
+
else:
|
116
|
+
result[attr] = value
|
117
|
+
|
118
|
+
return result
|
119
|
+
|
120
|
+
def to_str(self):
|
121
|
+
"""Returns the string representation of the model"""
|
122
|
+
import simplejson as json
|
123
|
+
if six.PY2:
|
124
|
+
import sys
|
125
|
+
reload(sys)
|
126
|
+
sys.setdefaultencoding("utf-8")
|
127
|
+
return json.dumps(sanitize_for_serialization(self), ensure_ascii=False)
|
128
|
+
|
129
|
+
def __repr__(self):
|
130
|
+
"""For `print`"""
|
131
|
+
return self.to_str()
|
132
|
+
|
133
|
+
def __eq__(self, other):
|
134
|
+
"""Returns true if both objects are equal"""
|
135
|
+
if not isinstance(other, Tag):
|
136
|
+
return False
|
137
|
+
|
138
|
+
return self.__dict__ == other.__dict__
|
139
|
+
|
140
|
+
def __ne__(self, other):
|
141
|
+
"""Returns true if both objects are not equal"""
|
142
|
+
return not self == other
|
@@ -0,0 +1,144 @@
|
|
1
|
+
# coding: utf-8
|
2
|
+
|
3
|
+
import six
|
4
|
+
|
5
|
+
from huaweicloudsdkcore.utils.http_utils import sanitize_for_serialization
|
6
|
+
|
7
|
+
|
8
|
+
class TagPlain:
|
9
|
+
|
10
|
+
"""
|
11
|
+
Attributes:
|
12
|
+
openapi_types (dict): The key is attribute name
|
13
|
+
and the value is attribute type.
|
14
|
+
attribute_map (dict): The key is attribute name
|
15
|
+
and the value is json key in definition.
|
16
|
+
"""
|
17
|
+
sensitive_list = []
|
18
|
+
|
19
|
+
openapi_types = {
|
20
|
+
'key': 'str',
|
21
|
+
'value': 'str'
|
22
|
+
}
|
23
|
+
|
24
|
+
attribute_map = {
|
25
|
+
'key': 'key',
|
26
|
+
'value': 'value'
|
27
|
+
}
|
28
|
+
|
29
|
+
def __init__(self, key=None, value=None):
|
30
|
+
r"""TagPlain
|
31
|
+
|
32
|
+
The model defined in huaweicloud sdk
|
33
|
+
|
34
|
+
:param key: 键。标签的key值不能包含“=”,“*”,“<”,“>”,“\\”,“,”,“|”,“/”,且首尾字符不能为空格。
|
35
|
+
:type key: str
|
36
|
+
:param value: 值。标签的value值不能包含“=”,“*”,“<”,“>”,“\\”,“,”,“|”,“/”,且首尾字符不能为空格。
|
37
|
+
:type value: str
|
38
|
+
"""
|
39
|
+
|
40
|
+
|
41
|
+
|
42
|
+
self._key = None
|
43
|
+
self._value = None
|
44
|
+
self.discriminator = None
|
45
|
+
|
46
|
+
if key is not None:
|
47
|
+
self.key = key
|
48
|
+
if value is not None:
|
49
|
+
self.value = value
|
50
|
+
|
51
|
+
@property
|
52
|
+
def key(self):
|
53
|
+
r"""Gets the key of this TagPlain.
|
54
|
+
|
55
|
+
键。标签的key值不能包含“=”,“*”,“<”,“>”,“\\”,“,”,“|”,“/”,且首尾字符不能为空格。
|
56
|
+
|
57
|
+
:return: The key of this TagPlain.
|
58
|
+
:rtype: str
|
59
|
+
"""
|
60
|
+
return self._key
|
61
|
+
|
62
|
+
@key.setter
|
63
|
+
def key(self, key):
|
64
|
+
r"""Sets the key of this TagPlain.
|
65
|
+
|
66
|
+
键。标签的key值不能包含“=”,“*”,“<”,“>”,“\\”,“,”,“|”,“/”,且首尾字符不能为空格。
|
67
|
+
|
68
|
+
:param key: The key of this TagPlain.
|
69
|
+
:type key: str
|
70
|
+
"""
|
71
|
+
self._key = key
|
72
|
+
|
73
|
+
@property
|
74
|
+
def value(self):
|
75
|
+
r"""Gets the value of this TagPlain.
|
76
|
+
|
77
|
+
值。标签的value值不能包含“=”,“*”,“<”,“>”,“\\”,“,”,“|”,“/”,且首尾字符不能为空格。
|
78
|
+
|
79
|
+
:return: The value of this TagPlain.
|
80
|
+
:rtype: str
|
81
|
+
"""
|
82
|
+
return self._value
|
83
|
+
|
84
|
+
@value.setter
|
85
|
+
def value(self, value):
|
86
|
+
r"""Sets the value of this TagPlain.
|
87
|
+
|
88
|
+
值。标签的value值不能包含“=”,“*”,“<”,“>”,“\\”,“,”,“|”,“/”,且首尾字符不能为空格。
|
89
|
+
|
90
|
+
:param value: The value of this TagPlain.
|
91
|
+
:type value: str
|
92
|
+
"""
|
93
|
+
self._value = value
|
94
|
+
|
95
|
+
def to_dict(self):
|
96
|
+
"""Returns the model properties as a dict"""
|
97
|
+
result = {}
|
98
|
+
|
99
|
+
for attr, _ in six.iteritems(self.openapi_types):
|
100
|
+
value = getattr(self, attr)
|
101
|
+
if isinstance(value, list):
|
102
|
+
result[attr] = list(map(
|
103
|
+
lambda x: x.to_dict() if hasattr(x, "to_dict") else x,
|
104
|
+
value
|
105
|
+
))
|
106
|
+
elif hasattr(value, "to_dict"):
|
107
|
+
result[attr] = value.to_dict()
|
108
|
+
elif isinstance(value, dict):
|
109
|
+
result[attr] = dict(map(
|
110
|
+
lambda item: (item[0], item[1].to_dict())
|
111
|
+
if hasattr(item[1], "to_dict") else item,
|
112
|
+
value.items()
|
113
|
+
))
|
114
|
+
else:
|
115
|
+
if attr in self.sensitive_list:
|
116
|
+
result[attr] = "****"
|
117
|
+
else:
|
118
|
+
result[attr] = value
|
119
|
+
|
120
|
+
return result
|
121
|
+
|
122
|
+
def to_str(self):
|
123
|
+
"""Returns the string representation of the model"""
|
124
|
+
import simplejson as json
|
125
|
+
if six.PY2:
|
126
|
+
import sys
|
127
|
+
reload(sys)
|
128
|
+
sys.setdefaultencoding("utf-8")
|
129
|
+
return json.dumps(sanitize_for_serialization(self), ensure_ascii=False)
|
130
|
+
|
131
|
+
def __repr__(self):
|
132
|
+
"""For `print`"""
|
133
|
+
return self.to_str()
|
134
|
+
|
135
|
+
def __eq__(self, other):
|
136
|
+
"""Returns true if both objects are equal"""
|
137
|
+
if not isinstance(other, TagPlain):
|
138
|
+
return False
|
139
|
+
|
140
|
+
return self.__dict__ == other.__dict__
|
141
|
+
|
142
|
+
def __ne__(self, other):
|
143
|
+
"""Returns true if both objects are not equal"""
|
144
|
+
return not self == other
|