llama-cloud 0.0.10__tar.gz → 0.0.11__tar.gz
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Potentially problematic release.
This version of llama-cloud might be problematic. Click here for more details.
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/PKG-INFO +1 -1
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/__init__.py +14 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/resources/__init__.py +2 -1
- llama_cloud-0.0.11/llama_cloud/resources/extraction/__init__.py +5 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/resources/extraction/client.py +139 -48
- llama_cloud-0.0.11/llama_cloud/resources/extraction/types/__init__.py +6 -0
- llama_cloud-0.0.11/llama_cloud/resources/extraction/types/extraction_schema_create_data_schema_value.py +7 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/resources/pipelines/client.py +96 -2
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/__init__.py +12 -0
- llama_cloud-0.0.11/llama_cloud/types/auto_transform_config.py +32 -0
- llama_cloud-0.0.11/llama_cloud/types/embedding_config.py +36 -0
- llama_cloud-0.0.11/llama_cloud/types/embedding_config_component.py +19 -0
- llama_cloud-0.0.11/llama_cloud/types/embedding_config_type.py +41 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/pipeline_create.py +8 -0
- llama_cloud-0.0.11/llama_cloud/types/transform_config.py +36 -0
- llama_cloud-0.0.11/llama_cloud/types/transform_config_mode.py +21 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/pyproject.toml +1 -1
- llama_cloud-0.0.10/llama_cloud/resources/extraction/__init__.py +0 -5
- llama_cloud-0.0.10/llama_cloud/resources/extraction/types/__init__.py +0 -5
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/LICENSE +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/README.md +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/client.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/core/__init__.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/core/api_error.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/core/client_wrapper.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/core/datetime_utils.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/core/jsonable_encoder.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/core/remove_none_from_dict.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/environment.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/errors/__init__.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/errors/unprocessable_entity_error.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/resources/component_definitions/__init__.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/resources/component_definitions/client.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/resources/data_sinks/__init__.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/resources/data_sinks/client.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/resources/data_sinks/types/__init__.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/resources/data_sinks/types/data_sink_update_component.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/resources/data_sinks/types/data_sink_update_component_one.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/resources/data_sources/__init__.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/resources/data_sources/client.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/resources/data_sources/types/__init__.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/resources/data_sources/types/data_source_update_component.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/resources/data_sources/types/data_source_update_component_one.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/resources/data_sources/types/data_source_update_custom_metadata_value.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/resources/evals/__init__.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/resources/evals/client.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/resources/extraction/types/extraction_schema_update_data_schema_value.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/resources/files/__init__.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/resources/files/client.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/resources/files/types/__init__.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/resources/files/types/file_create_resource_info_value.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/resources/organizations/__init__.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/resources/organizations/client.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/resources/parsing/__init__.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/resources/parsing/client.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/resources/pipelines/__init__.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/resources/pipelines/types/__init__.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/resources/pipelines/types/pipeline_file_update_custom_metadata_value.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/resources/projects/__init__.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/resources/projects/client.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/azure_open_ai_embedding.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/base.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/base_prompt_template.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/bedrock_embedding.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/chat_data.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/chat_message.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/cloud_az_storage_blob_data_source.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/cloud_azure_ai_search_vector_store.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/cloud_chroma_vector_store.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/cloud_confluence_data_source.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/cloud_document.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/cloud_document_create.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/cloud_jira_data_source.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/cloud_notion_page_data_source.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/cloud_one_drive_data_source.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/cloud_pinecone_vector_store.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/cloud_postgres_vector_store.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/cloud_qdrant_vector_store.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/cloud_s_3_data_source.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/cloud_sharepoint_data_source.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/cloud_slack_data_source.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/cloud_weaviate_vector_store.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/code_splitter.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/cohere_embedding.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/configurable_data_sink_names.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/configurable_data_source_names.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/configurable_transformation_definition.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/configurable_transformation_names.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/configured_transformation_item.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/configured_transformation_item_component.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/configured_transformation_item_component_one.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/data_sink.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/data_sink_component.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/data_sink_component_one.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/data_sink_create.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/data_sink_create_component.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/data_sink_create_component_one.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/data_sink_definition.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/data_source.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/data_source_component.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/data_source_component_one.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/data_source_create.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/data_source_create_component.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/data_source_create_component_one.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/data_source_create_custom_metadata_value.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/data_source_custom_metadata_value.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/data_source_definition.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/eval_dataset.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/eval_dataset_job_params.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/eval_dataset_job_record.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/eval_execution_params.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/eval_execution_params_override.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/eval_llm_model_data.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/eval_question.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/eval_question_create.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/eval_question_result.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/extraction_job.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/extraction_result.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/extraction_result_data_value.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/extraction_schema.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/extraction_schema_data_schema_value.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/file.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/file_resource_info_value.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/filter_condition.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/filter_operator.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/gemini_embedding.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/html_node_parser.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/http_validation_error.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/hugging_face_inference_api_embedding.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/hugging_face_inference_api_embedding_token.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/json_node_parser.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/llama_parse_parameters.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/llama_parse_supported_file_extensions.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/llm.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/local_eval.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/local_eval_results.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/local_eval_sets.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/managed_ingestion_status.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/managed_ingestion_status_response.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/markdown_element_node_parser.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/markdown_node_parser.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/message_role.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/metadata_filter.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/metadata_filter_value.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/metadata_filters.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/metadata_filters_filters_item.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/metric_result.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/node_parser.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/object_type.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/open_ai_embedding.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/organization.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/organization_create.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/parser_languages.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/parsing_history_item.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/parsing_job.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/parsing_job_json_result.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/parsing_job_markdown_result.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/parsing_job_text_result.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/parsing_usage.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/pipeline.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/pipeline_data_source.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/pipeline_data_source_component.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/pipeline_data_source_component_one.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/pipeline_data_source_create.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/pipeline_data_source_custom_metadata_value.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/pipeline_deployment.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/pipeline_file.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/pipeline_file_create.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/pipeline_file_create_custom_metadata_value.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/pipeline_file_custom_metadata_value.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/pipeline_file_resource_info_value.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/pipeline_type.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/pooling.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/preset_retrieval_params.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/presigned_url.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/project.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/project_create.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/prompt_mixin_prompts.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/prompt_spec.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/pydantic_program_mode.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/related_node_info.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/retrieval_mode.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/retrieve_results.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/sentence_splitter.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/simple_file_node_parser.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/status_enum.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/supported_eval_llm_model.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/supported_eval_llm_model_names.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/text_node.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/text_node_relationships_value.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/text_node_with_score.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/token_text_splitter.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/transformation_category_names.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/user_organization.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/user_organization_create.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/user_organization_delete.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/validation_error.py +0 -0
- {llama_cloud-0.0.10 → llama_cloud-0.0.11}/llama_cloud/types/validation_error_loc_item.py +0 -0
|
@@ -1,6 +1,7 @@
|
|
|
1
1
|
# This file was auto-generated by Fern from our API Definition.
|
|
2
2
|
|
|
3
3
|
from .types import (
|
|
4
|
+
AutoTransformConfig,
|
|
4
5
|
AzureOpenAiEmbedding,
|
|
5
6
|
Base,
|
|
6
7
|
BasePromptTemplate,
|
|
@@ -48,6 +49,9 @@ from .types import (
|
|
|
48
49
|
DataSourceCreateCustomMetadataValue,
|
|
49
50
|
DataSourceCustomMetadataValue,
|
|
50
51
|
DataSourceDefinition,
|
|
52
|
+
EmbeddingConfig,
|
|
53
|
+
EmbeddingConfigComponent,
|
|
54
|
+
EmbeddingConfigType,
|
|
51
55
|
EvalDataset,
|
|
52
56
|
EvalDatasetJobParams,
|
|
53
57
|
EvalDatasetJobRecord,
|
|
@@ -134,6 +138,8 @@ from .types import (
|
|
|
134
138
|
TextNodeRelationshipsValue,
|
|
135
139
|
TextNodeWithScore,
|
|
136
140
|
TokenTextSplitter,
|
|
141
|
+
TransformConfig,
|
|
142
|
+
TransformConfigMode,
|
|
137
143
|
TransformationCategoryNames,
|
|
138
144
|
UserOrganization,
|
|
139
145
|
UserOrganizationCreate,
|
|
@@ -148,6 +154,7 @@ from .resources import (
|
|
|
148
154
|
DataSourceUpdateComponent,
|
|
149
155
|
DataSourceUpdateComponentOne,
|
|
150
156
|
DataSourceUpdateCustomMetadataValue,
|
|
157
|
+
ExtractionSchemaCreateDataSchemaValue,
|
|
151
158
|
ExtractionSchemaUpdateDataSchemaValue,
|
|
152
159
|
FileCreateResourceInfoValue,
|
|
153
160
|
PipelineFileUpdateCustomMetadataValue,
|
|
@@ -165,6 +172,7 @@ from .resources import (
|
|
|
165
172
|
from .environment import LlamaCloudEnvironment
|
|
166
173
|
|
|
167
174
|
__all__ = [
|
|
175
|
+
"AutoTransformConfig",
|
|
168
176
|
"AzureOpenAiEmbedding",
|
|
169
177
|
"Base",
|
|
170
178
|
"BasePromptTemplate",
|
|
@@ -217,6 +225,9 @@ __all__ = [
|
|
|
217
225
|
"DataSourceUpdateComponent",
|
|
218
226
|
"DataSourceUpdateComponentOne",
|
|
219
227
|
"DataSourceUpdateCustomMetadataValue",
|
|
228
|
+
"EmbeddingConfig",
|
|
229
|
+
"EmbeddingConfigComponent",
|
|
230
|
+
"EmbeddingConfigType",
|
|
220
231
|
"EvalDataset",
|
|
221
232
|
"EvalDatasetJobParams",
|
|
222
233
|
"EvalDatasetJobRecord",
|
|
@@ -230,6 +241,7 @@ __all__ = [
|
|
|
230
241
|
"ExtractionResult",
|
|
231
242
|
"ExtractionResultDataValue",
|
|
232
243
|
"ExtractionSchema",
|
|
244
|
+
"ExtractionSchemaCreateDataSchemaValue",
|
|
233
245
|
"ExtractionSchemaDataSchemaValue",
|
|
234
246
|
"ExtractionSchemaUpdateDataSchemaValue",
|
|
235
247
|
"File",
|
|
@@ -307,6 +319,8 @@ __all__ = [
|
|
|
307
319
|
"TextNodeRelationshipsValue",
|
|
308
320
|
"TextNodeWithScore",
|
|
309
321
|
"TokenTextSplitter",
|
|
322
|
+
"TransformConfig",
|
|
323
|
+
"TransformConfigMode",
|
|
310
324
|
"TransformationCategoryNames",
|
|
311
325
|
"UnprocessableEntityError",
|
|
312
326
|
"UserOrganization",
|
|
@@ -14,7 +14,7 @@ from . import (
|
|
|
14
14
|
)
|
|
15
15
|
from .data_sinks import DataSinkUpdateComponent, DataSinkUpdateComponentOne
|
|
16
16
|
from .data_sources import DataSourceUpdateComponent, DataSourceUpdateComponentOne, DataSourceUpdateCustomMetadataValue
|
|
17
|
-
from .extraction import ExtractionSchemaUpdateDataSchemaValue
|
|
17
|
+
from .extraction import ExtractionSchemaCreateDataSchemaValue, ExtractionSchemaUpdateDataSchemaValue
|
|
18
18
|
from .files import FileCreateResourceInfoValue
|
|
19
19
|
from .pipelines import PipelineFileUpdateCustomMetadataValue
|
|
20
20
|
|
|
@@ -24,6 +24,7 @@ __all__ = [
|
|
|
24
24
|
"DataSourceUpdateComponent",
|
|
25
25
|
"DataSourceUpdateComponentOne",
|
|
26
26
|
"DataSourceUpdateCustomMetadataValue",
|
|
27
|
+
"ExtractionSchemaCreateDataSchemaValue",
|
|
27
28
|
"ExtractionSchemaUpdateDataSchemaValue",
|
|
28
29
|
"FileCreateResourceInfoValue",
|
|
29
30
|
"PipelineFileUpdateCustomMetadataValue",
|
|
@@ -13,6 +13,7 @@ from ...types.extraction_job import ExtractionJob
|
|
|
13
13
|
from ...types.extraction_result import ExtractionResult
|
|
14
14
|
from ...types.extraction_schema import ExtractionSchema
|
|
15
15
|
from ...types.http_validation_error import HttpValidationError
|
|
16
|
+
from .types.extraction_schema_create_data_schema_value import ExtractionSchemaCreateDataSchemaValue
|
|
16
17
|
from .types.extraction_schema_update_data_schema_value import ExtractionSchemaUpdateDataSchemaValue
|
|
17
18
|
|
|
18
19
|
try:
|
|
@@ -31,47 +32,66 @@ class ExtractionClient:
|
|
|
31
32
|
def __init__(self, *, client_wrapper: SyncClientWrapper):
|
|
32
33
|
self._client_wrapper = client_wrapper
|
|
33
34
|
|
|
34
|
-
def
|
|
35
|
+
def list_schemas(self, *, project_id: typing.Optional[str] = None) -> typing.List[ExtractionSchema]:
|
|
36
|
+
"""
|
|
37
|
+
Parameters:
|
|
38
|
+
- project_id: typing.Optional[str].
|
|
39
|
+
---
|
|
40
|
+
from llama_cloud.client import LlamaCloud
|
|
41
|
+
|
|
42
|
+
client = LlamaCloud(
|
|
43
|
+
token="YOUR_TOKEN",
|
|
44
|
+
)
|
|
45
|
+
client.extraction.list_schemas()
|
|
46
|
+
"""
|
|
47
|
+
_response = self._client_wrapper.httpx_client.request(
|
|
48
|
+
"GET",
|
|
49
|
+
urllib.parse.urljoin(f"{self._client_wrapper.get_base_url()}/", "api/v1/extraction/schemas"),
|
|
50
|
+
params=remove_none_from_dict({"project_id": project_id}),
|
|
51
|
+
headers=self._client_wrapper.get_headers(),
|
|
52
|
+
timeout=60,
|
|
53
|
+
)
|
|
54
|
+
if 200 <= _response.status_code < 300:
|
|
55
|
+
return pydantic.parse_obj_as(typing.List[ExtractionSchema], _response.json()) # type: ignore
|
|
56
|
+
if _response.status_code == 422:
|
|
57
|
+
raise UnprocessableEntityError(pydantic.parse_obj_as(HttpValidationError, _response.json())) # type: ignore
|
|
58
|
+
try:
|
|
59
|
+
_response_json = _response.json()
|
|
60
|
+
except JSONDecodeError:
|
|
61
|
+
raise ApiError(status_code=_response.status_code, body=_response.text)
|
|
62
|
+
raise ApiError(status_code=_response.status_code, body=_response_json)
|
|
63
|
+
|
|
64
|
+
def create_schema(
|
|
35
65
|
self,
|
|
36
66
|
*,
|
|
37
|
-
schema_id: typing.Optional[str] = OMIT,
|
|
38
67
|
name: str,
|
|
39
68
|
project_id: typing.Optional[str] = OMIT,
|
|
40
|
-
|
|
41
|
-
stream: typing.Optional[bool] = OMIT,
|
|
69
|
+
data_schema: typing.Dict[str, ExtractionSchemaCreateDataSchemaValue],
|
|
42
70
|
) -> ExtractionSchema:
|
|
43
71
|
"""
|
|
44
72
|
Parameters:
|
|
45
|
-
- schema_id: typing.Optional[str]. The ID of a schema to update with the new schema
|
|
46
|
-
|
|
47
73
|
- name: str. The name of the extraction schema
|
|
48
74
|
|
|
49
75
|
- project_id: typing.Optional[str]. The ID of the project that the extraction schema belongs to
|
|
50
76
|
|
|
51
|
-
-
|
|
52
|
-
|
|
53
|
-
- stream: typing.Optional[bool]. Whether to stream the results of the extraction schema
|
|
77
|
+
- data_schema: typing.Dict[str, ExtractionSchemaCreateDataSchemaValue]. The schema of the data
|
|
54
78
|
---
|
|
55
79
|
from llama_cloud.client import LlamaCloud
|
|
56
80
|
|
|
57
81
|
client = LlamaCloud(
|
|
58
82
|
token="YOUR_TOKEN",
|
|
59
83
|
)
|
|
60
|
-
client.extraction.
|
|
84
|
+
client.extraction.create_schema(
|
|
61
85
|
name="string",
|
|
62
|
-
|
|
86
|
+
data_schema={},
|
|
63
87
|
)
|
|
64
88
|
"""
|
|
65
|
-
_request: typing.Dict[str, typing.Any] = {"name": name, "
|
|
66
|
-
if schema_id is not OMIT:
|
|
67
|
-
_request["schema_id"] = schema_id
|
|
89
|
+
_request: typing.Dict[str, typing.Any] = {"name": name, "data_schema": data_schema}
|
|
68
90
|
if project_id is not OMIT:
|
|
69
91
|
_request["project_id"] = project_id
|
|
70
|
-
if stream is not OMIT:
|
|
71
|
-
_request["stream"] = stream
|
|
72
92
|
_response = self._client_wrapper.httpx_client.request(
|
|
73
93
|
"POST",
|
|
74
|
-
urllib.parse.urljoin(f"{self._client_wrapper.get_base_url()}/", "api/v1/extraction/schemas
|
|
94
|
+
urllib.parse.urljoin(f"{self._client_wrapper.get_base_url()}/", "api/v1/extraction/schemas"),
|
|
75
95
|
json=jsonable_encoder(_request),
|
|
76
96
|
headers=self._client_wrapper.get_headers(),
|
|
77
97
|
timeout=60,
|
|
@@ -86,27 +106,53 @@ class ExtractionClient:
|
|
|
86
106
|
raise ApiError(status_code=_response.status_code, body=_response.text)
|
|
87
107
|
raise ApiError(status_code=_response.status_code, body=_response_json)
|
|
88
108
|
|
|
89
|
-
def
|
|
109
|
+
def infer_schema(
|
|
110
|
+
self,
|
|
111
|
+
*,
|
|
112
|
+
schema_id: typing.Optional[str] = OMIT,
|
|
113
|
+
name: str,
|
|
114
|
+
project_id: typing.Optional[str] = OMIT,
|
|
115
|
+
file_ids: typing.List[str],
|
|
116
|
+
stream: typing.Optional[bool] = OMIT,
|
|
117
|
+
) -> ExtractionSchema:
|
|
90
118
|
"""
|
|
91
119
|
Parameters:
|
|
92
|
-
-
|
|
120
|
+
- schema_id: typing.Optional[str]. The ID of a schema to update with the new schema
|
|
121
|
+
|
|
122
|
+
- name: str. The name of the extraction schema
|
|
123
|
+
|
|
124
|
+
- project_id: typing.Optional[str]. The ID of the project that the extraction schema belongs to
|
|
125
|
+
|
|
126
|
+
- file_ids: typing.List[str]. The IDs of the files that the extraction schema contains
|
|
127
|
+
|
|
128
|
+
- stream: typing.Optional[bool]. Whether to stream the results of the extraction schema
|
|
93
129
|
---
|
|
94
130
|
from llama_cloud.client import LlamaCloud
|
|
95
131
|
|
|
96
132
|
client = LlamaCloud(
|
|
97
133
|
token="YOUR_TOKEN",
|
|
98
134
|
)
|
|
99
|
-
client.extraction.
|
|
135
|
+
client.extraction.infer_schema(
|
|
136
|
+
name="string",
|
|
137
|
+
file_ids=[],
|
|
138
|
+
)
|
|
100
139
|
"""
|
|
140
|
+
_request: typing.Dict[str, typing.Any] = {"name": name, "file_ids": file_ids}
|
|
141
|
+
if schema_id is not OMIT:
|
|
142
|
+
_request["schema_id"] = schema_id
|
|
143
|
+
if project_id is not OMIT:
|
|
144
|
+
_request["project_id"] = project_id
|
|
145
|
+
if stream is not OMIT:
|
|
146
|
+
_request["stream"] = stream
|
|
101
147
|
_response = self._client_wrapper.httpx_client.request(
|
|
102
|
-
"
|
|
103
|
-
urllib.parse.urljoin(f"{self._client_wrapper.get_base_url()}/", "api/v1/extraction/schemas"),
|
|
104
|
-
|
|
148
|
+
"POST",
|
|
149
|
+
urllib.parse.urljoin(f"{self._client_wrapper.get_base_url()}/", "api/v1/extraction/schemas/infer"),
|
|
150
|
+
json=jsonable_encoder(_request),
|
|
105
151
|
headers=self._client_wrapper.get_headers(),
|
|
106
152
|
timeout=60,
|
|
107
153
|
)
|
|
108
154
|
if 200 <= _response.status_code < 300:
|
|
109
|
-
return pydantic.parse_obj_as(
|
|
155
|
+
return pydantic.parse_obj_as(ExtractionSchema, _response.json()) # type: ignore
|
|
110
156
|
if _response.status_code == 422:
|
|
111
157
|
raise UnprocessableEntityError(pydantic.parse_obj_as(HttpValidationError, _response.json())) # type: ignore
|
|
112
158
|
try:
|
|
@@ -350,47 +396,66 @@ class AsyncExtractionClient:
|
|
|
350
396
|
def __init__(self, *, client_wrapper: AsyncClientWrapper):
|
|
351
397
|
self._client_wrapper = client_wrapper
|
|
352
398
|
|
|
353
|
-
async def
|
|
399
|
+
async def list_schemas(self, *, project_id: typing.Optional[str] = None) -> typing.List[ExtractionSchema]:
|
|
400
|
+
"""
|
|
401
|
+
Parameters:
|
|
402
|
+
- project_id: typing.Optional[str].
|
|
403
|
+
---
|
|
404
|
+
from llama_cloud.client import AsyncLlamaCloud
|
|
405
|
+
|
|
406
|
+
client = AsyncLlamaCloud(
|
|
407
|
+
token="YOUR_TOKEN",
|
|
408
|
+
)
|
|
409
|
+
await client.extraction.list_schemas()
|
|
410
|
+
"""
|
|
411
|
+
_response = await self._client_wrapper.httpx_client.request(
|
|
412
|
+
"GET",
|
|
413
|
+
urllib.parse.urljoin(f"{self._client_wrapper.get_base_url()}/", "api/v1/extraction/schemas"),
|
|
414
|
+
params=remove_none_from_dict({"project_id": project_id}),
|
|
415
|
+
headers=self._client_wrapper.get_headers(),
|
|
416
|
+
timeout=60,
|
|
417
|
+
)
|
|
418
|
+
if 200 <= _response.status_code < 300:
|
|
419
|
+
return pydantic.parse_obj_as(typing.List[ExtractionSchema], _response.json()) # type: ignore
|
|
420
|
+
if _response.status_code == 422:
|
|
421
|
+
raise UnprocessableEntityError(pydantic.parse_obj_as(HttpValidationError, _response.json())) # type: ignore
|
|
422
|
+
try:
|
|
423
|
+
_response_json = _response.json()
|
|
424
|
+
except JSONDecodeError:
|
|
425
|
+
raise ApiError(status_code=_response.status_code, body=_response.text)
|
|
426
|
+
raise ApiError(status_code=_response.status_code, body=_response_json)
|
|
427
|
+
|
|
428
|
+
async def create_schema(
|
|
354
429
|
self,
|
|
355
430
|
*,
|
|
356
|
-
schema_id: typing.Optional[str] = OMIT,
|
|
357
431
|
name: str,
|
|
358
432
|
project_id: typing.Optional[str] = OMIT,
|
|
359
|
-
|
|
360
|
-
stream: typing.Optional[bool] = OMIT,
|
|
433
|
+
data_schema: typing.Dict[str, ExtractionSchemaCreateDataSchemaValue],
|
|
361
434
|
) -> ExtractionSchema:
|
|
362
435
|
"""
|
|
363
436
|
Parameters:
|
|
364
|
-
- schema_id: typing.Optional[str]. The ID of a schema to update with the new schema
|
|
365
|
-
|
|
366
437
|
- name: str. The name of the extraction schema
|
|
367
438
|
|
|
368
439
|
- project_id: typing.Optional[str]. The ID of the project that the extraction schema belongs to
|
|
369
440
|
|
|
370
|
-
-
|
|
371
|
-
|
|
372
|
-
- stream: typing.Optional[bool]. Whether to stream the results of the extraction schema
|
|
441
|
+
- data_schema: typing.Dict[str, ExtractionSchemaCreateDataSchemaValue]. The schema of the data
|
|
373
442
|
---
|
|
374
443
|
from llama_cloud.client import AsyncLlamaCloud
|
|
375
444
|
|
|
376
445
|
client = AsyncLlamaCloud(
|
|
377
446
|
token="YOUR_TOKEN",
|
|
378
447
|
)
|
|
379
|
-
await client.extraction.
|
|
448
|
+
await client.extraction.create_schema(
|
|
380
449
|
name="string",
|
|
381
|
-
|
|
450
|
+
data_schema={},
|
|
382
451
|
)
|
|
383
452
|
"""
|
|
384
|
-
_request: typing.Dict[str, typing.Any] = {"name": name, "
|
|
385
|
-
if schema_id is not OMIT:
|
|
386
|
-
_request["schema_id"] = schema_id
|
|
453
|
+
_request: typing.Dict[str, typing.Any] = {"name": name, "data_schema": data_schema}
|
|
387
454
|
if project_id is not OMIT:
|
|
388
455
|
_request["project_id"] = project_id
|
|
389
|
-
if stream is not OMIT:
|
|
390
|
-
_request["stream"] = stream
|
|
391
456
|
_response = await self._client_wrapper.httpx_client.request(
|
|
392
457
|
"POST",
|
|
393
|
-
urllib.parse.urljoin(f"{self._client_wrapper.get_base_url()}/", "api/v1/extraction/schemas
|
|
458
|
+
urllib.parse.urljoin(f"{self._client_wrapper.get_base_url()}/", "api/v1/extraction/schemas"),
|
|
394
459
|
json=jsonable_encoder(_request),
|
|
395
460
|
headers=self._client_wrapper.get_headers(),
|
|
396
461
|
timeout=60,
|
|
@@ -405,27 +470,53 @@ class AsyncExtractionClient:
|
|
|
405
470
|
raise ApiError(status_code=_response.status_code, body=_response.text)
|
|
406
471
|
raise ApiError(status_code=_response.status_code, body=_response_json)
|
|
407
472
|
|
|
408
|
-
async def
|
|
473
|
+
async def infer_schema(
|
|
474
|
+
self,
|
|
475
|
+
*,
|
|
476
|
+
schema_id: typing.Optional[str] = OMIT,
|
|
477
|
+
name: str,
|
|
478
|
+
project_id: typing.Optional[str] = OMIT,
|
|
479
|
+
file_ids: typing.List[str],
|
|
480
|
+
stream: typing.Optional[bool] = OMIT,
|
|
481
|
+
) -> ExtractionSchema:
|
|
409
482
|
"""
|
|
410
483
|
Parameters:
|
|
411
|
-
-
|
|
484
|
+
- schema_id: typing.Optional[str]. The ID of a schema to update with the new schema
|
|
485
|
+
|
|
486
|
+
- name: str. The name of the extraction schema
|
|
487
|
+
|
|
488
|
+
- project_id: typing.Optional[str]. The ID of the project that the extraction schema belongs to
|
|
489
|
+
|
|
490
|
+
- file_ids: typing.List[str]. The IDs of the files that the extraction schema contains
|
|
491
|
+
|
|
492
|
+
- stream: typing.Optional[bool]. Whether to stream the results of the extraction schema
|
|
412
493
|
---
|
|
413
494
|
from llama_cloud.client import AsyncLlamaCloud
|
|
414
495
|
|
|
415
496
|
client = AsyncLlamaCloud(
|
|
416
497
|
token="YOUR_TOKEN",
|
|
417
498
|
)
|
|
418
|
-
await client.extraction.
|
|
499
|
+
await client.extraction.infer_schema(
|
|
500
|
+
name="string",
|
|
501
|
+
file_ids=[],
|
|
502
|
+
)
|
|
419
503
|
"""
|
|
504
|
+
_request: typing.Dict[str, typing.Any] = {"name": name, "file_ids": file_ids}
|
|
505
|
+
if schema_id is not OMIT:
|
|
506
|
+
_request["schema_id"] = schema_id
|
|
507
|
+
if project_id is not OMIT:
|
|
508
|
+
_request["project_id"] = project_id
|
|
509
|
+
if stream is not OMIT:
|
|
510
|
+
_request["stream"] = stream
|
|
420
511
|
_response = await self._client_wrapper.httpx_client.request(
|
|
421
|
-
"
|
|
422
|
-
urllib.parse.urljoin(f"{self._client_wrapper.get_base_url()}/", "api/v1/extraction/schemas"),
|
|
423
|
-
|
|
512
|
+
"POST",
|
|
513
|
+
urllib.parse.urljoin(f"{self._client_wrapper.get_base_url()}/", "api/v1/extraction/schemas/infer"),
|
|
514
|
+
json=jsonable_encoder(_request),
|
|
424
515
|
headers=self._client_wrapper.get_headers(),
|
|
425
516
|
timeout=60,
|
|
426
517
|
)
|
|
427
518
|
if 200 <= _response.status_code < 300:
|
|
428
|
-
return pydantic.parse_obj_as(
|
|
519
|
+
return pydantic.parse_obj_as(ExtractionSchema, _response.json()) # type: ignore
|
|
429
520
|
if _response.status_code == 422:
|
|
430
521
|
raise UnprocessableEntityError(pydantic.parse_obj_as(HttpValidationError, _response.json())) # type: ignore
|
|
431
522
|
try:
|
|
@@ -0,0 +1,6 @@
|
|
|
1
|
+
# This file was auto-generated by Fern from our API Definition.
|
|
2
|
+
|
|
3
|
+
from .extraction_schema_create_data_schema_value import ExtractionSchemaCreateDataSchemaValue
|
|
4
|
+
from .extraction_schema_update_data_schema_value import ExtractionSchemaUpdateDataSchemaValue
|
|
5
|
+
|
|
6
|
+
__all__ = ["ExtractionSchemaCreateDataSchemaValue", "ExtractionSchemaUpdateDataSchemaValue"]
|