llama-cloud 0.1.15__tar.gz → 0.1.17__tar.gz
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Potentially problematic release.
This version of llama-cloud might be problematic. Click here for more details.
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/PKG-INFO +1 -1
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/__init__.py +10 -32
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/environment.py +1 -1
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/chat_apps/client.py +20 -0
- llama_cloud-0.1.17/llama_cloud/resources/evals/client.py +85 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/llama_extract/client.py +98 -6
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/parsing/client.py +8 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/pipelines/client.py +14 -375
- llama_cloud-0.1.17/llama_cloud/resources/projects/client.py +566 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/retrievers/client.py +161 -4
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/__init__.py +10 -32
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/base_plan.py +3 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/base_plan_name.py +12 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/cloud_confluence_data_source.py +1 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_config.py +0 -3
- llama_cloud-0.1.17/llama_cloud/types/extract_mode.py +29 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_run.py +1 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/llama_extract_settings.py +1 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/llama_parse_parameters.py +1 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/parsing_mode.py +12 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/pipeline_file.py +2 -1
- llama_cloud-0.1.17/llama_cloud/types/pipeline_file_status.py +33 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/plan_limits.py +1 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/preset_composite_retrieval_params.py +4 -2
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/prompt_conf.py +1 -0
- llama_cloud-0.1.17/llama_cloud/types/re_rank_config.py +35 -0
- llama_cloud-0.1.17/llama_cloud/types/re_ranker_type.py +41 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/report_block.py +1 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/struct_mode.py +4 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/struct_parse_conf.py +6 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/usage_and_plan.py +2 -2
- llama_cloud-0.1.15/llama_cloud/types/usage.py → llama_cloud-0.1.17/llama_cloud/types/usage_response.py +3 -3
- llama_cloud-0.1.15/llama_cloud/types/usage_active_alerts_item.py → llama_cloud-0.1.17/llama_cloud/types/usage_response_active_alerts_item.py +8 -4
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/pyproject.toml +1 -1
- llama_cloud-0.1.15/llama_cloud/resources/evals/client.py +0 -728
- llama_cloud-0.1.15/llama_cloud/resources/projects/client.py +0 -1417
- llama_cloud-0.1.15/llama_cloud/types/eval_dataset.py +0 -40
- llama_cloud-0.1.15/llama_cloud/types/eval_dataset_job_params.py +0 -39
- llama_cloud-0.1.15/llama_cloud/types/eval_dataset_job_record.py +0 -58
- llama_cloud-0.1.15/llama_cloud/types/eval_execution_params_override.py +0 -37
- llama_cloud-0.1.15/llama_cloud/types/eval_metric.py +0 -17
- llama_cloud-0.1.15/llama_cloud/types/eval_question.py +0 -38
- llama_cloud-0.1.15/llama_cloud/types/eval_question_create.py +0 -31
- llama_cloud-0.1.15/llama_cloud/types/eval_question_result.py +0 -52
- llama_cloud-0.1.15/llama_cloud/types/extract_mode.py +0 -17
- llama_cloud-0.1.15/llama_cloud/types/local_eval.py +0 -47
- llama_cloud-0.1.15/llama_cloud/types/local_eval_results.py +0 -40
- llama_cloud-0.1.15/llama_cloud/types/local_eval_sets.py +0 -33
- llama_cloud-0.1.15/llama_cloud/types/metric_result.py +0 -33
- llama_cloud-0.1.15/llama_cloud/types/prompt_mixin_prompts.py +0 -39
- llama_cloud-0.1.15/llama_cloud/types/prompt_spec.py +0 -36
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/LICENSE +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/README.md +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/client.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/core/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/core/api_error.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/core/client_wrapper.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/core/datetime_utils.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/core/jsonable_encoder.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/core/remove_none_from_dict.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/errors/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/errors/unprocessable_entity_error.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/chat_apps/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/component_definitions/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/component_definitions/client.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/data_sinks/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/data_sinks/client.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/data_sinks/types/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/data_sinks/types/data_sink_update_component.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/data_sources/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/data_sources/client.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/data_sources/types/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/data_sources/types/data_source_update_component.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/data_sources/types/data_source_update_custom_metadata_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/embedding_model_configs/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/embedding_model_configs/client.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/embedding_model_configs/types/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/embedding_model_configs/types/embedding_model_config_create_embedding_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/evals/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/files/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/files/client.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/files/types/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/files/types/file_create_from_url_resource_info_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/files/types/file_create_permission_info_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/files/types/file_create_resource_info_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/jobs/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/jobs/client.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/llama_extract/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/organizations/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/organizations/client.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/parsing/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/pipelines/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/pipelines/types/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/pipelines/types/pipeline_file_update_custom_metadata_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/pipelines/types/pipeline_update_embedding_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/pipelines/types/pipeline_update_transform_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/projects/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/reports/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/reports/client.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/reports/types/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/reports/types/update_report_plan_api_v_1_reports_report_id_plan_patch_request_action.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/resources/retrievers/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/advanced_mode_transform_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/advanced_mode_transform_config_chunking_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/advanced_mode_transform_config_segmentation_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/app_schema_chat_chat_message.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/auto_transform_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/azure_open_ai_embedding.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/azure_open_ai_embedding_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/base_plan_metronome_plan_type.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/base_plan_plan_frequency.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/base_prompt_template.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/bedrock_embedding.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/bedrock_embedding_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/billing_period.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/box_auth_mechanism.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/character_chunking_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/character_splitter.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/chat_app.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/chat_app_response.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/chat_data.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/chunk_mode.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/cloud_az_storage_blob_data_source.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/cloud_azure_ai_search_vector_store.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/cloud_box_data_source.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/cloud_document.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/cloud_document_create.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/cloud_google_drive_data_source.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/cloud_jira_data_source.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/cloud_milvus_vector_store.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/cloud_mongo_db_atlas_vector_search.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/cloud_notion_page_data_source.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/cloud_one_drive_data_source.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/cloud_pinecone_vector_store.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/cloud_postgres_vector_store.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/cloud_qdrant_vector_store.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/cloud_s_3_data_source.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/cloud_sharepoint_data_source.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/cloud_slack_data_source.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/code_splitter.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/cohere_embedding.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/cohere_embedding_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/composite_retrieval_mode.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/composite_retrieval_result.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/composite_retrieved_text_node.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/composite_retrieved_text_node_with_score.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/configurable_data_sink_names.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/configurable_data_source_names.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/configurable_transformation_definition.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/configurable_transformation_names.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/configured_transformation_item.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/configured_transformation_item_component.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/credit_type.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/data_sink.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/data_sink_component.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/data_sink_create.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/data_sink_create_component.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/data_sink_definition.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/data_source.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/data_source_component.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/data_source_create.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/data_source_create_component.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/data_source_create_custom_metadata_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/data_source_custom_metadata_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/data_source_definition.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/edit_suggestion.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/edit_suggestion_blocks_item.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/element_segmentation_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/embedding_model_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/embedding_model_config_embedding_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/embedding_model_config_update.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/embedding_model_config_update_embedding_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/eval_execution_params.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_agent.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_agent_create.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_agent_create_data_schema.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_agent_create_data_schema_zero_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_agent_data_schema_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_agent_update.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_agent_update_data_schema.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_agent_update_data_schema_zero_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_job.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_job_create.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_job_create_batch.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_job_create_batch_data_schema_override.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_job_create_batch_data_schema_override_zero_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_job_create_data_schema_override.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_job_create_data_schema_override_zero_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_resultset.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_resultset_data.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_resultset_data_item_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_resultset_data_zero_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_resultset_extraction_metadata_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_run_data.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_run_data_item_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_run_data_schema_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_run_data_zero_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_run_extraction_metadata_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_schema_validate_request.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_schema_validate_request_data_schema.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_schema_validate_request_data_schema_zero_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_schema_validate_response.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_schema_validate_response_data_schema_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_state.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/extract_target.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/file.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/file_permission_info_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/file_resource_info_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/filter_condition.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/filter_operator.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/free_credits_usage.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/gemini_embedding.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/gemini_embedding_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/http_validation_error.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/hugging_face_inference_api_embedding.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/hugging_face_inference_api_embedding_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/hugging_face_inference_api_embedding_token.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/image_block.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/ingestion_error_response.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/input_message.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/job_name_mapping.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/job_names.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/job_record.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/job_record_with_usage_metrics.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/llama_index_core_base_llms_types_chat_message.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/llama_index_core_base_llms_types_chat_message_blocks_item.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/llama_parse_supported_file_extensions.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/llm.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/llm_model_data.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/llm_parameters.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/managed_ingestion_status.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/managed_ingestion_status_response.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/markdown_element_node_parser.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/markdown_node_parser.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/message_annotation.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/message_role.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/metadata_filter.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/metadata_filter_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/metadata_filters.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/metadata_filters_filters_item.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/node_parser.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/node_relationship.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/none_chunking_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/none_segmentation_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/object_type.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/open_ai_embedding.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/open_ai_embedding_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/organization.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/organization_create.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/page_figure_metadata.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/page_screenshot_metadata.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/page_screenshot_node_with_score.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/page_segmentation_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/page_splitter_node_parser.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/paginated_extract_runs_response.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/paginated_jobs_history_with_metrics.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/paginated_list_cloud_documents_response.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/paginated_list_pipeline_files_response.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/paginated_report_response.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/parse_plan_level.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/parser_languages.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/parsing_history_item.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/parsing_job.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/parsing_job_json_result.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/parsing_job_markdown_result.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/parsing_job_structured_result.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/parsing_job_text_result.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/parsing_usage.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/partition_names.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/permission.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/pipeline.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/pipeline_configuration_hashes.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/pipeline_create.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/pipeline_create_embedding_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/pipeline_create_transform_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/pipeline_data_source.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/pipeline_data_source_component.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/pipeline_data_source_create.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/pipeline_data_source_custom_metadata_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/pipeline_deployment.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/pipeline_embedding_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/pipeline_file_config_hash_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/pipeline_file_create.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/pipeline_file_create_custom_metadata_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/pipeline_file_custom_metadata_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/pipeline_file_permission_info_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/pipeline_file_resource_info_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/pipeline_transform_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/pipeline_type.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/playground_session.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/pooling.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/preset_retrieval_params.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/presigned_url.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/progress_event.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/progress_event_status.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/project.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/project_create.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/pydantic_program_mode.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/recurring_credit_grant.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/related_node_info.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/related_node_info_node_type.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/report.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/report_block_dependency.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/report_create_response.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/report_event_item.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/report_event_item_event_data.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/report_event_type.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/report_metadata.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/report_plan.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/report_plan_block.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/report_query.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/report_response.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/report_state.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/report_state_event.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/report_update_event.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/retrieval_mode.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/retrieve_results.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/retriever.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/retriever_create.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/retriever_pipeline.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/role.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/schema_relax_mode.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/semantic_chunking_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/sentence_chunking_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/sentence_splitter.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/status_enum.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/supported_llm_model.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/supported_llm_model_names.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/text_block.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/text_node.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/text_node_relationships_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/text_node_with_score.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/token_chunking_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/token_text_splitter.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/transformation_category_names.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/usage_metric_response.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/user_job_record.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/user_organization.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/user_organization_create.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/user_organization_delete.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/user_organization_role.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/validation_error.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/validation_error_loc_item.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/vertex_ai_embedding_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/vertex_embedding_mode.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.17}/llama_cloud/types/vertex_text_embedding.py +0 -0
|
@@ -96,15 +96,7 @@ from .types import (
|
|
|
96
96
|
EmbeddingModelConfigUpdateEmbeddingConfig_HuggingfaceApiEmbedding,
|
|
97
97
|
EmbeddingModelConfigUpdateEmbeddingConfig_OpenaiEmbedding,
|
|
98
98
|
EmbeddingModelConfigUpdateEmbeddingConfig_VertexaiEmbedding,
|
|
99
|
-
EvalDataset,
|
|
100
|
-
EvalDatasetJobParams,
|
|
101
|
-
EvalDatasetJobRecord,
|
|
102
99
|
EvalExecutionParams,
|
|
103
|
-
EvalExecutionParamsOverride,
|
|
104
|
-
EvalMetric,
|
|
105
|
-
EvalQuestion,
|
|
106
|
-
EvalQuestionCreate,
|
|
107
|
-
EvalQuestionResult,
|
|
108
100
|
ExtractAgent,
|
|
109
101
|
ExtractAgentCreate,
|
|
110
102
|
ExtractAgentCreateDataSchema,
|
|
@@ -169,9 +161,6 @@ from .types import (
|
|
|
169
161
|
Llm,
|
|
170
162
|
LlmModelData,
|
|
171
163
|
LlmParameters,
|
|
172
|
-
LocalEval,
|
|
173
|
-
LocalEvalResults,
|
|
174
|
-
LocalEvalSets,
|
|
175
164
|
ManagedIngestionStatus,
|
|
176
165
|
ManagedIngestionStatusResponse,
|
|
177
166
|
MarkdownElementNodeParser,
|
|
@@ -182,7 +171,6 @@ from .types import (
|
|
|
182
171
|
MetadataFilterValue,
|
|
183
172
|
MetadataFilters,
|
|
184
173
|
MetadataFiltersFiltersItem,
|
|
185
|
-
MetricResult,
|
|
186
174
|
NodeParser,
|
|
187
175
|
NodeRelationship,
|
|
188
176
|
NoneChunkingConfig,
|
|
@@ -246,6 +234,7 @@ from .types import (
|
|
|
246
234
|
PipelineFileCustomMetadataValue,
|
|
247
235
|
PipelineFilePermissionInfoValue,
|
|
248
236
|
PipelineFileResourceInfoValue,
|
|
237
|
+
PipelineFileStatus,
|
|
249
238
|
PipelineTransformConfig,
|
|
250
239
|
PipelineTransformConfig_Advanced,
|
|
251
240
|
PipelineTransformConfig_Auto,
|
|
@@ -261,9 +250,9 @@ from .types import (
|
|
|
261
250
|
Project,
|
|
262
251
|
ProjectCreate,
|
|
263
252
|
PromptConf,
|
|
264
|
-
PromptMixinPrompts,
|
|
265
|
-
PromptSpec,
|
|
266
253
|
PydanticProgramMode,
|
|
254
|
+
ReRankConfig,
|
|
255
|
+
ReRankerType,
|
|
267
256
|
RecurringCreditGrant,
|
|
268
257
|
RelatedNodeInfo,
|
|
269
258
|
RelatedNodeInfoNodeType,
|
|
@@ -307,10 +296,10 @@ from .types import (
|
|
|
307
296
|
TokenChunkingConfig,
|
|
308
297
|
TokenTextSplitter,
|
|
309
298
|
TransformationCategoryNames,
|
|
310
|
-
Usage,
|
|
311
|
-
UsageActiveAlertsItem,
|
|
312
299
|
UsageAndPlan,
|
|
313
300
|
UsageMetricResponse,
|
|
301
|
+
UsageResponse,
|
|
302
|
+
UsageResponseActiveAlertsItem,
|
|
314
303
|
UserJobRecord,
|
|
315
304
|
UserOrganization,
|
|
316
305
|
UserOrganizationCreate,
|
|
@@ -474,15 +463,7 @@ __all__ = [
|
|
|
474
463
|
"EmbeddingModelConfigUpdateEmbeddingConfig_HuggingfaceApiEmbedding",
|
|
475
464
|
"EmbeddingModelConfigUpdateEmbeddingConfig_OpenaiEmbedding",
|
|
476
465
|
"EmbeddingModelConfigUpdateEmbeddingConfig_VertexaiEmbedding",
|
|
477
|
-
"EvalDataset",
|
|
478
|
-
"EvalDatasetJobParams",
|
|
479
|
-
"EvalDatasetJobRecord",
|
|
480
466
|
"EvalExecutionParams",
|
|
481
|
-
"EvalExecutionParamsOverride",
|
|
482
|
-
"EvalMetric",
|
|
483
|
-
"EvalQuestion",
|
|
484
|
-
"EvalQuestionCreate",
|
|
485
|
-
"EvalQuestionResult",
|
|
486
467
|
"ExtractAgent",
|
|
487
468
|
"ExtractAgentCreate",
|
|
488
469
|
"ExtractAgentCreateDataSchema",
|
|
@@ -551,9 +532,6 @@ __all__ = [
|
|
|
551
532
|
"Llm",
|
|
552
533
|
"LlmModelData",
|
|
553
534
|
"LlmParameters",
|
|
554
|
-
"LocalEval",
|
|
555
|
-
"LocalEvalResults",
|
|
556
|
-
"LocalEvalSets",
|
|
557
535
|
"ManagedIngestionStatus",
|
|
558
536
|
"ManagedIngestionStatusResponse",
|
|
559
537
|
"MarkdownElementNodeParser",
|
|
@@ -564,7 +542,6 @@ __all__ = [
|
|
|
564
542
|
"MetadataFilterValue",
|
|
565
543
|
"MetadataFilters",
|
|
566
544
|
"MetadataFiltersFiltersItem",
|
|
567
|
-
"MetricResult",
|
|
568
545
|
"NodeParser",
|
|
569
546
|
"NodeRelationship",
|
|
570
547
|
"NoneChunkingConfig",
|
|
@@ -628,6 +605,7 @@ __all__ = [
|
|
|
628
605
|
"PipelineFileCustomMetadataValue",
|
|
629
606
|
"PipelineFilePermissionInfoValue",
|
|
630
607
|
"PipelineFileResourceInfoValue",
|
|
608
|
+
"PipelineFileStatus",
|
|
631
609
|
"PipelineFileUpdateCustomMetadataValue",
|
|
632
610
|
"PipelineTransformConfig",
|
|
633
611
|
"PipelineTransformConfig_Advanced",
|
|
@@ -653,9 +631,9 @@ __all__ = [
|
|
|
653
631
|
"Project",
|
|
654
632
|
"ProjectCreate",
|
|
655
633
|
"PromptConf",
|
|
656
|
-
"PromptMixinPrompts",
|
|
657
|
-
"PromptSpec",
|
|
658
634
|
"PydanticProgramMode",
|
|
635
|
+
"ReRankConfig",
|
|
636
|
+
"ReRankerType",
|
|
659
637
|
"RecurringCreditGrant",
|
|
660
638
|
"RelatedNodeInfo",
|
|
661
639
|
"RelatedNodeInfoNodeType",
|
|
@@ -701,10 +679,10 @@ __all__ = [
|
|
|
701
679
|
"TransformationCategoryNames",
|
|
702
680
|
"UnprocessableEntityError",
|
|
703
681
|
"UpdateReportPlanApiV1ReportsReportIdPlanPatchRequestAction",
|
|
704
|
-
"Usage",
|
|
705
|
-
"UsageActiveAlertsItem",
|
|
706
682
|
"UsageAndPlan",
|
|
707
683
|
"UsageMetricResponse",
|
|
684
|
+
"UsageResponse",
|
|
685
|
+
"UsageResponseActiveAlertsItem",
|
|
708
686
|
"UserJobRecord",
|
|
709
687
|
"UserOrganization",
|
|
710
688
|
"UserOrganizationCreate",
|
|
@@ -95,6 +95,8 @@ class ChatAppsClient:
|
|
|
95
95
|
CompositeRetrievalMode,
|
|
96
96
|
LlmParameters,
|
|
97
97
|
PresetCompositeRetrievalParams,
|
|
98
|
+
ReRankConfig,
|
|
99
|
+
ReRankerType,
|
|
98
100
|
SupportedLlmModelNames,
|
|
99
101
|
)
|
|
100
102
|
from llama_cloud.client import LlamaCloud
|
|
@@ -110,6 +112,9 @@ class ChatAppsClient:
|
|
|
110
112
|
),
|
|
111
113
|
retrieval_config=PresetCompositeRetrievalParams(
|
|
112
114
|
mode=CompositeRetrievalMode.ROUTING,
|
|
115
|
+
rerank_config=ReRankConfig(
|
|
116
|
+
type=ReRankerType.SYSTEM_DEFAULT,
|
|
117
|
+
),
|
|
113
118
|
),
|
|
114
119
|
)
|
|
115
120
|
"""
|
|
@@ -200,6 +205,8 @@ class ChatAppsClient:
|
|
|
200
205
|
CompositeRetrievalMode,
|
|
201
206
|
LlmParameters,
|
|
202
207
|
PresetCompositeRetrievalParams,
|
|
208
|
+
ReRankConfig,
|
|
209
|
+
ReRankerType,
|
|
203
210
|
SupportedLlmModelNames,
|
|
204
211
|
)
|
|
205
212
|
from llama_cloud.client import LlamaCloud
|
|
@@ -214,6 +221,9 @@ class ChatAppsClient:
|
|
|
214
221
|
),
|
|
215
222
|
retrieval_config=PresetCompositeRetrievalParams(
|
|
216
223
|
mode=CompositeRetrievalMode.ROUTING,
|
|
224
|
+
rerank_config=ReRankConfig(
|
|
225
|
+
type=ReRankerType.SYSTEM_DEFAULT,
|
|
226
|
+
),
|
|
217
227
|
),
|
|
218
228
|
)
|
|
219
229
|
"""
|
|
@@ -378,6 +388,8 @@ class AsyncChatAppsClient:
|
|
|
378
388
|
CompositeRetrievalMode,
|
|
379
389
|
LlmParameters,
|
|
380
390
|
PresetCompositeRetrievalParams,
|
|
391
|
+
ReRankConfig,
|
|
392
|
+
ReRankerType,
|
|
381
393
|
SupportedLlmModelNames,
|
|
382
394
|
)
|
|
383
395
|
from llama_cloud.client import AsyncLlamaCloud
|
|
@@ -393,6 +405,9 @@ class AsyncChatAppsClient:
|
|
|
393
405
|
),
|
|
394
406
|
retrieval_config=PresetCompositeRetrievalParams(
|
|
395
407
|
mode=CompositeRetrievalMode.ROUTING,
|
|
408
|
+
rerank_config=ReRankConfig(
|
|
409
|
+
type=ReRankerType.SYSTEM_DEFAULT,
|
|
410
|
+
),
|
|
396
411
|
),
|
|
397
412
|
)
|
|
398
413
|
"""
|
|
@@ -483,6 +498,8 @@ class AsyncChatAppsClient:
|
|
|
483
498
|
CompositeRetrievalMode,
|
|
484
499
|
LlmParameters,
|
|
485
500
|
PresetCompositeRetrievalParams,
|
|
501
|
+
ReRankConfig,
|
|
502
|
+
ReRankerType,
|
|
486
503
|
SupportedLlmModelNames,
|
|
487
504
|
)
|
|
488
505
|
from llama_cloud.client import AsyncLlamaCloud
|
|
@@ -497,6 +514,9 @@ class AsyncChatAppsClient:
|
|
|
497
514
|
),
|
|
498
515
|
retrieval_config=PresetCompositeRetrievalParams(
|
|
499
516
|
mode=CompositeRetrievalMode.ROUTING,
|
|
517
|
+
rerank_config=ReRankConfig(
|
|
518
|
+
type=ReRankerType.SYSTEM_DEFAULT,
|
|
519
|
+
),
|
|
500
520
|
),
|
|
501
521
|
)
|
|
502
522
|
"""
|
|
@@ -0,0 +1,85 @@
|
|
|
1
|
+
# This file was auto-generated by Fern from our API Definition.
|
|
2
|
+
|
|
3
|
+
import typing
|
|
4
|
+
import urllib.parse
|
|
5
|
+
from json.decoder import JSONDecodeError
|
|
6
|
+
|
|
7
|
+
from ...core.api_error import ApiError
|
|
8
|
+
from ...core.client_wrapper import AsyncClientWrapper, SyncClientWrapper
|
|
9
|
+
from ...errors.unprocessable_entity_error import UnprocessableEntityError
|
|
10
|
+
from ...types.http_validation_error import HttpValidationError
|
|
11
|
+
from ...types.supported_llm_model import SupportedLlmModel
|
|
12
|
+
|
|
13
|
+
try:
|
|
14
|
+
import pydantic
|
|
15
|
+
if pydantic.__version__.startswith("1."):
|
|
16
|
+
raise ImportError
|
|
17
|
+
import pydantic.v1 as pydantic # type: ignore
|
|
18
|
+
except ImportError:
|
|
19
|
+
import pydantic # type: ignore
|
|
20
|
+
|
|
21
|
+
|
|
22
|
+
class EvalsClient:
|
|
23
|
+
def __init__(self, *, client_wrapper: SyncClientWrapper):
|
|
24
|
+
self._client_wrapper = client_wrapper
|
|
25
|
+
|
|
26
|
+
def list_supported_models(self) -> typing.List[SupportedLlmModel]:
|
|
27
|
+
"""
|
|
28
|
+
List supported models.
|
|
29
|
+
|
|
30
|
+
---
|
|
31
|
+
from llama_cloud.client import LlamaCloud
|
|
32
|
+
|
|
33
|
+
client = LlamaCloud(
|
|
34
|
+
token="YOUR_TOKEN",
|
|
35
|
+
)
|
|
36
|
+
client.evals.list_supported_models()
|
|
37
|
+
"""
|
|
38
|
+
_response = self._client_wrapper.httpx_client.request(
|
|
39
|
+
"GET",
|
|
40
|
+
urllib.parse.urljoin(f"{self._client_wrapper.get_base_url()}/", "api/v1/evals/models"),
|
|
41
|
+
headers=self._client_wrapper.get_headers(),
|
|
42
|
+
timeout=60,
|
|
43
|
+
)
|
|
44
|
+
if 200 <= _response.status_code < 300:
|
|
45
|
+
return pydantic.parse_obj_as(typing.List[SupportedLlmModel], _response.json()) # type: ignore
|
|
46
|
+
if _response.status_code == 422:
|
|
47
|
+
raise UnprocessableEntityError(pydantic.parse_obj_as(HttpValidationError, _response.json())) # type: ignore
|
|
48
|
+
try:
|
|
49
|
+
_response_json = _response.json()
|
|
50
|
+
except JSONDecodeError:
|
|
51
|
+
raise ApiError(status_code=_response.status_code, body=_response.text)
|
|
52
|
+
raise ApiError(status_code=_response.status_code, body=_response_json)
|
|
53
|
+
|
|
54
|
+
|
|
55
|
+
class AsyncEvalsClient:
|
|
56
|
+
def __init__(self, *, client_wrapper: AsyncClientWrapper):
|
|
57
|
+
self._client_wrapper = client_wrapper
|
|
58
|
+
|
|
59
|
+
async def list_supported_models(self) -> typing.List[SupportedLlmModel]:
|
|
60
|
+
"""
|
|
61
|
+
List supported models.
|
|
62
|
+
|
|
63
|
+
---
|
|
64
|
+
from llama_cloud.client import AsyncLlamaCloud
|
|
65
|
+
|
|
66
|
+
client = AsyncLlamaCloud(
|
|
67
|
+
token="YOUR_TOKEN",
|
|
68
|
+
)
|
|
69
|
+
await client.evals.list_supported_models()
|
|
70
|
+
"""
|
|
71
|
+
_response = await self._client_wrapper.httpx_client.request(
|
|
72
|
+
"GET",
|
|
73
|
+
urllib.parse.urljoin(f"{self._client_wrapper.get_base_url()}/", "api/v1/evals/models"),
|
|
74
|
+
headers=self._client_wrapper.get_headers(),
|
|
75
|
+
timeout=60,
|
|
76
|
+
)
|
|
77
|
+
if 200 <= _response.status_code < 300:
|
|
78
|
+
return pydantic.parse_obj_as(typing.List[SupportedLlmModel], _response.json()) # type: ignore
|
|
79
|
+
if _response.status_code == 422:
|
|
80
|
+
raise UnprocessableEntityError(pydantic.parse_obj_as(HttpValidationError, _response.json())) # type: ignore
|
|
81
|
+
try:
|
|
82
|
+
_response_json = _response.json()
|
|
83
|
+
except JSONDecodeError:
|
|
84
|
+
raise ApiError(status_code=_response.status_code, body=_response.text)
|
|
85
|
+
raise ApiError(status_code=_response.status_code, body=_response_json)
|
|
@@ -336,9 +336,11 @@ class LlamaExtractClient:
|
|
|
336
336
|
raise ApiError(status_code=_response.status_code, body=_response.text)
|
|
337
337
|
raise ApiError(status_code=_response.status_code, body=_response_json)
|
|
338
338
|
|
|
339
|
-
def run_job(self, *, request: ExtractJobCreate) -> ExtractJob:
|
|
339
|
+
def run_job(self, *, from_ui: typing.Optional[bool] = None, request: ExtractJobCreate) -> ExtractJob:
|
|
340
340
|
"""
|
|
341
341
|
Parameters:
|
|
342
|
+
- from_ui: typing.Optional[bool].
|
|
343
|
+
|
|
342
344
|
- request: ExtractJobCreate.
|
|
343
345
|
---
|
|
344
346
|
from llama_cloud import (
|
|
@@ -366,6 +368,7 @@ class LlamaExtractClient:
|
|
|
366
368
|
_response = self._client_wrapper.httpx_client.request(
|
|
367
369
|
"POST",
|
|
368
370
|
urllib.parse.urljoin(f"{self._client_wrapper.get_base_url()}/", "api/v1/extraction/jobs"),
|
|
371
|
+
params=remove_none_from_dict({"from_ui": from_ui}),
|
|
369
372
|
json=jsonable_encoder(request),
|
|
370
373
|
headers=self._client_wrapper.get_headers(),
|
|
371
374
|
timeout=60,
|
|
@@ -411,10 +414,16 @@ class LlamaExtractClient:
|
|
|
411
414
|
raise ApiError(status_code=_response.status_code, body=_response_json)
|
|
412
415
|
|
|
413
416
|
def run_job_test_user(
|
|
414
|
-
self,
|
|
417
|
+
self,
|
|
418
|
+
*,
|
|
419
|
+
from_ui: typing.Optional[bool] = None,
|
|
420
|
+
job_create: ExtractJobCreate,
|
|
421
|
+
extract_settings: typing.Optional[LlamaExtractSettings] = OMIT,
|
|
415
422
|
) -> ExtractJob:
|
|
416
423
|
"""
|
|
417
424
|
Parameters:
|
|
425
|
+
- from_ui: typing.Optional[bool].
|
|
426
|
+
|
|
418
427
|
- job_create: ExtractJobCreate.
|
|
419
428
|
|
|
420
429
|
- extract_settings: typing.Optional[LlamaExtractSettings].
|
|
@@ -457,6 +466,7 @@ class LlamaExtractClient:
|
|
|
457
466
|
_response = self._client_wrapper.httpx_client.request(
|
|
458
467
|
"POST",
|
|
459
468
|
urllib.parse.urljoin(f"{self._client_wrapper.get_base_url()}/", "api/v1/extraction/jobs/test"),
|
|
469
|
+
params=remove_none_from_dict({"from_ui": from_ui}),
|
|
460
470
|
json=jsonable_encoder(_request),
|
|
461
471
|
headers=self._client_wrapper.get_headers(),
|
|
462
472
|
timeout=60,
|
|
@@ -471,9 +481,13 @@ class LlamaExtractClient:
|
|
|
471
481
|
raise ApiError(status_code=_response.status_code, body=_response.text)
|
|
472
482
|
raise ApiError(status_code=_response.status_code, body=_response_json)
|
|
473
483
|
|
|
474
|
-
def run_batch_jobs(
|
|
484
|
+
def run_batch_jobs(
|
|
485
|
+
self, *, from_ui: typing.Optional[bool] = None, request: ExtractJobCreateBatch
|
|
486
|
+
) -> typing.List[ExtractJob]:
|
|
475
487
|
"""
|
|
476
488
|
Parameters:
|
|
489
|
+
- from_ui: typing.Optional[bool].
|
|
490
|
+
|
|
477
491
|
- request: ExtractJobCreateBatch.
|
|
478
492
|
---
|
|
479
493
|
from llama_cloud import (
|
|
@@ -501,6 +515,7 @@ class LlamaExtractClient:
|
|
|
501
515
|
_response = self._client_wrapper.httpx_client.request(
|
|
502
516
|
"POST",
|
|
503
517
|
urllib.parse.urljoin(f"{self._client_wrapper.get_base_url()}/", "api/v1/extraction/jobs/batch"),
|
|
518
|
+
params=remove_none_from_dict({"from_ui": from_ui}),
|
|
504
519
|
json=jsonable_encoder(request),
|
|
505
520
|
headers=self._client_wrapper.get_headers(),
|
|
506
521
|
timeout=60,
|
|
@@ -582,6 +597,37 @@ class LlamaExtractClient:
|
|
|
582
597
|
raise ApiError(status_code=_response.status_code, body=_response.text)
|
|
583
598
|
raise ApiError(status_code=_response.status_code, body=_response_json)
|
|
584
599
|
|
|
600
|
+
def get_latest_run_from_ui(self, *, extraction_agent_id: str) -> typing.Optional[ExtractRun]:
|
|
601
|
+
"""
|
|
602
|
+
Parameters:
|
|
603
|
+
- extraction_agent_id: str.
|
|
604
|
+
---
|
|
605
|
+
from llama_cloud.client import LlamaCloud
|
|
606
|
+
|
|
607
|
+
client = LlamaCloud(
|
|
608
|
+
token="YOUR_TOKEN",
|
|
609
|
+
)
|
|
610
|
+
client.llama_extract.get_latest_run_from_ui(
|
|
611
|
+
extraction_agent_id="string",
|
|
612
|
+
)
|
|
613
|
+
"""
|
|
614
|
+
_response = self._client_wrapper.httpx_client.request(
|
|
615
|
+
"GET",
|
|
616
|
+
urllib.parse.urljoin(f"{self._client_wrapper.get_base_url()}/", "api/v1/extraction/runs/latest-from-ui"),
|
|
617
|
+
params=remove_none_from_dict({"extraction_agent_id": extraction_agent_id}),
|
|
618
|
+
headers=self._client_wrapper.get_headers(),
|
|
619
|
+
timeout=60,
|
|
620
|
+
)
|
|
621
|
+
if 200 <= _response.status_code < 300:
|
|
622
|
+
return pydantic.parse_obj_as(typing.Optional[ExtractRun], _response.json()) # type: ignore
|
|
623
|
+
if _response.status_code == 422:
|
|
624
|
+
raise UnprocessableEntityError(pydantic.parse_obj_as(HttpValidationError, _response.json())) # type: ignore
|
|
625
|
+
try:
|
|
626
|
+
_response_json = _response.json()
|
|
627
|
+
except JSONDecodeError:
|
|
628
|
+
raise ApiError(status_code=_response.status_code, body=_response.text)
|
|
629
|
+
raise ApiError(status_code=_response.status_code, body=_response_json)
|
|
630
|
+
|
|
585
631
|
def get_run_by_job_id(self, job_id: str) -> ExtractRun:
|
|
586
632
|
"""
|
|
587
633
|
Parameters:
|
|
@@ -976,9 +1022,11 @@ class AsyncLlamaExtractClient:
|
|
|
976
1022
|
raise ApiError(status_code=_response.status_code, body=_response.text)
|
|
977
1023
|
raise ApiError(status_code=_response.status_code, body=_response_json)
|
|
978
1024
|
|
|
979
|
-
async def run_job(self, *, request: ExtractJobCreate) -> ExtractJob:
|
|
1025
|
+
async def run_job(self, *, from_ui: typing.Optional[bool] = None, request: ExtractJobCreate) -> ExtractJob:
|
|
980
1026
|
"""
|
|
981
1027
|
Parameters:
|
|
1028
|
+
- from_ui: typing.Optional[bool].
|
|
1029
|
+
|
|
982
1030
|
- request: ExtractJobCreate.
|
|
983
1031
|
---
|
|
984
1032
|
from llama_cloud import (
|
|
@@ -1006,6 +1054,7 @@ class AsyncLlamaExtractClient:
|
|
|
1006
1054
|
_response = await self._client_wrapper.httpx_client.request(
|
|
1007
1055
|
"POST",
|
|
1008
1056
|
urllib.parse.urljoin(f"{self._client_wrapper.get_base_url()}/", "api/v1/extraction/jobs"),
|
|
1057
|
+
params=remove_none_from_dict({"from_ui": from_ui}),
|
|
1009
1058
|
json=jsonable_encoder(request),
|
|
1010
1059
|
headers=self._client_wrapper.get_headers(),
|
|
1011
1060
|
timeout=60,
|
|
@@ -1051,10 +1100,16 @@ class AsyncLlamaExtractClient:
|
|
|
1051
1100
|
raise ApiError(status_code=_response.status_code, body=_response_json)
|
|
1052
1101
|
|
|
1053
1102
|
async def run_job_test_user(
|
|
1054
|
-
self,
|
|
1103
|
+
self,
|
|
1104
|
+
*,
|
|
1105
|
+
from_ui: typing.Optional[bool] = None,
|
|
1106
|
+
job_create: ExtractJobCreate,
|
|
1107
|
+
extract_settings: typing.Optional[LlamaExtractSettings] = OMIT,
|
|
1055
1108
|
) -> ExtractJob:
|
|
1056
1109
|
"""
|
|
1057
1110
|
Parameters:
|
|
1111
|
+
- from_ui: typing.Optional[bool].
|
|
1112
|
+
|
|
1058
1113
|
- job_create: ExtractJobCreate.
|
|
1059
1114
|
|
|
1060
1115
|
- extract_settings: typing.Optional[LlamaExtractSettings].
|
|
@@ -1097,6 +1152,7 @@ class AsyncLlamaExtractClient:
|
|
|
1097
1152
|
_response = await self._client_wrapper.httpx_client.request(
|
|
1098
1153
|
"POST",
|
|
1099
1154
|
urllib.parse.urljoin(f"{self._client_wrapper.get_base_url()}/", "api/v1/extraction/jobs/test"),
|
|
1155
|
+
params=remove_none_from_dict({"from_ui": from_ui}),
|
|
1100
1156
|
json=jsonable_encoder(_request),
|
|
1101
1157
|
headers=self._client_wrapper.get_headers(),
|
|
1102
1158
|
timeout=60,
|
|
@@ -1111,9 +1167,13 @@ class AsyncLlamaExtractClient:
|
|
|
1111
1167
|
raise ApiError(status_code=_response.status_code, body=_response.text)
|
|
1112
1168
|
raise ApiError(status_code=_response.status_code, body=_response_json)
|
|
1113
1169
|
|
|
1114
|
-
async def run_batch_jobs(
|
|
1170
|
+
async def run_batch_jobs(
|
|
1171
|
+
self, *, from_ui: typing.Optional[bool] = None, request: ExtractJobCreateBatch
|
|
1172
|
+
) -> typing.List[ExtractJob]:
|
|
1115
1173
|
"""
|
|
1116
1174
|
Parameters:
|
|
1175
|
+
- from_ui: typing.Optional[bool].
|
|
1176
|
+
|
|
1117
1177
|
- request: ExtractJobCreateBatch.
|
|
1118
1178
|
---
|
|
1119
1179
|
from llama_cloud import (
|
|
@@ -1141,6 +1201,7 @@ class AsyncLlamaExtractClient:
|
|
|
1141
1201
|
_response = await self._client_wrapper.httpx_client.request(
|
|
1142
1202
|
"POST",
|
|
1143
1203
|
urllib.parse.urljoin(f"{self._client_wrapper.get_base_url()}/", "api/v1/extraction/jobs/batch"),
|
|
1204
|
+
params=remove_none_from_dict({"from_ui": from_ui}),
|
|
1144
1205
|
json=jsonable_encoder(request),
|
|
1145
1206
|
headers=self._client_wrapper.get_headers(),
|
|
1146
1207
|
timeout=60,
|
|
@@ -1222,6 +1283,37 @@ class AsyncLlamaExtractClient:
|
|
|
1222
1283
|
raise ApiError(status_code=_response.status_code, body=_response.text)
|
|
1223
1284
|
raise ApiError(status_code=_response.status_code, body=_response_json)
|
|
1224
1285
|
|
|
1286
|
+
async def get_latest_run_from_ui(self, *, extraction_agent_id: str) -> typing.Optional[ExtractRun]:
|
|
1287
|
+
"""
|
|
1288
|
+
Parameters:
|
|
1289
|
+
- extraction_agent_id: str.
|
|
1290
|
+
---
|
|
1291
|
+
from llama_cloud.client import AsyncLlamaCloud
|
|
1292
|
+
|
|
1293
|
+
client = AsyncLlamaCloud(
|
|
1294
|
+
token="YOUR_TOKEN",
|
|
1295
|
+
)
|
|
1296
|
+
await client.llama_extract.get_latest_run_from_ui(
|
|
1297
|
+
extraction_agent_id="string",
|
|
1298
|
+
)
|
|
1299
|
+
"""
|
|
1300
|
+
_response = await self._client_wrapper.httpx_client.request(
|
|
1301
|
+
"GET",
|
|
1302
|
+
urllib.parse.urljoin(f"{self._client_wrapper.get_base_url()}/", "api/v1/extraction/runs/latest-from-ui"),
|
|
1303
|
+
params=remove_none_from_dict({"extraction_agent_id": extraction_agent_id}),
|
|
1304
|
+
headers=self._client_wrapper.get_headers(),
|
|
1305
|
+
timeout=60,
|
|
1306
|
+
)
|
|
1307
|
+
if 200 <= _response.status_code < 300:
|
|
1308
|
+
return pydantic.parse_obj_as(typing.Optional[ExtractRun], _response.json()) # type: ignore
|
|
1309
|
+
if _response.status_code == 422:
|
|
1310
|
+
raise UnprocessableEntityError(pydantic.parse_obj_as(HttpValidationError, _response.json())) # type: ignore
|
|
1311
|
+
try:
|
|
1312
|
+
_response_json = _response.json()
|
|
1313
|
+
except JSONDecodeError:
|
|
1314
|
+
raise ApiError(status_code=_response.status_code, body=_response.text)
|
|
1315
|
+
raise ApiError(status_code=_response.status_code, body=_response_json)
|
|
1316
|
+
|
|
1225
1317
|
async def get_run_by_job_id(self, job_id: str) -> ExtractRun:
|
|
1226
1318
|
"""
|
|
1227
1319
|
Parameters:
|
|
@@ -248,6 +248,7 @@ class ParsingClient:
|
|
|
248
248
|
vendor_multimodal_model_name: str,
|
|
249
249
|
model: str,
|
|
250
250
|
webhook_url: str,
|
|
251
|
+
preset: str,
|
|
251
252
|
parse_mode: typing.Optional[ParsingMode] = OMIT,
|
|
252
253
|
system_prompt: str,
|
|
253
254
|
system_prompt_append: str,
|
|
@@ -385,6 +386,8 @@ class ParsingClient:
|
|
|
385
386
|
|
|
386
387
|
- webhook_url: str.
|
|
387
388
|
|
|
389
|
+
- preset: str.
|
|
390
|
+
|
|
388
391
|
- parse_mode: typing.Optional[ParsingMode].
|
|
389
392
|
|
|
390
393
|
- system_prompt: str.
|
|
@@ -484,6 +487,7 @@ class ParsingClient:
|
|
|
484
487
|
"vendor_multimodal_model_name": vendor_multimodal_model_name,
|
|
485
488
|
"model": model,
|
|
486
489
|
"webhook_url": webhook_url,
|
|
490
|
+
"preset": preset,
|
|
487
491
|
"system_prompt": system_prompt,
|
|
488
492
|
"system_prompt_append": system_prompt_append,
|
|
489
493
|
"user_prompt": user_prompt,
|
|
@@ -1224,6 +1228,7 @@ class AsyncParsingClient:
|
|
|
1224
1228
|
vendor_multimodal_model_name: str,
|
|
1225
1229
|
model: str,
|
|
1226
1230
|
webhook_url: str,
|
|
1231
|
+
preset: str,
|
|
1227
1232
|
parse_mode: typing.Optional[ParsingMode] = OMIT,
|
|
1228
1233
|
system_prompt: str,
|
|
1229
1234
|
system_prompt_append: str,
|
|
@@ -1361,6 +1366,8 @@ class AsyncParsingClient:
|
|
|
1361
1366
|
|
|
1362
1367
|
- webhook_url: str.
|
|
1363
1368
|
|
|
1369
|
+
- preset: str.
|
|
1370
|
+
|
|
1364
1371
|
- parse_mode: typing.Optional[ParsingMode].
|
|
1365
1372
|
|
|
1366
1373
|
- system_prompt: str.
|
|
@@ -1460,6 +1467,7 @@ class AsyncParsingClient:
|
|
|
1460
1467
|
"vendor_multimodal_model_name": vendor_multimodal_model_name,
|
|
1461
1468
|
"model": model,
|
|
1462
1469
|
"webhook_url": webhook_url,
|
|
1470
|
+
"preset": preset,
|
|
1463
1471
|
"system_prompt": system_prompt,
|
|
1464
1472
|
"system_prompt_append": system_prompt_append,
|
|
1465
1473
|
"user_prompt": user_prompt,
|