llama-cloud 0.1.15__tar.gz → 0.1.16__tar.gz
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Potentially problematic release.
This version of llama-cloud might be problematic. Click here for more details.
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/PKG-INFO +1 -1
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/__init__.py +0 -28
- llama_cloud-0.1.16/llama_cloud/resources/evals/client.py +85 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/pipelines/client.py +10 -371
- llama_cloud-0.1.16/llama_cloud/resources/projects/client.py +566 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/retrievers/client.py +124 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/__init__.py +0 -28
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_config.py +0 -3
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_mode.py +9 -1
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/prompt_conf.py +1 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/report_block.py +1 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/struct_mode.py +4 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/struct_parse_conf.py +6 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/pyproject.toml +1 -1
- llama_cloud-0.1.15/llama_cloud/resources/evals/client.py +0 -728
- llama_cloud-0.1.15/llama_cloud/resources/projects/client.py +0 -1417
- llama_cloud-0.1.15/llama_cloud/types/eval_dataset.py +0 -40
- llama_cloud-0.1.15/llama_cloud/types/eval_dataset_job_params.py +0 -39
- llama_cloud-0.1.15/llama_cloud/types/eval_dataset_job_record.py +0 -58
- llama_cloud-0.1.15/llama_cloud/types/eval_execution_params_override.py +0 -37
- llama_cloud-0.1.15/llama_cloud/types/eval_metric.py +0 -17
- llama_cloud-0.1.15/llama_cloud/types/eval_question.py +0 -38
- llama_cloud-0.1.15/llama_cloud/types/eval_question_create.py +0 -31
- llama_cloud-0.1.15/llama_cloud/types/eval_question_result.py +0 -52
- llama_cloud-0.1.15/llama_cloud/types/local_eval.py +0 -47
- llama_cloud-0.1.15/llama_cloud/types/local_eval_results.py +0 -40
- llama_cloud-0.1.15/llama_cloud/types/local_eval_sets.py +0 -33
- llama_cloud-0.1.15/llama_cloud/types/metric_result.py +0 -33
- llama_cloud-0.1.15/llama_cloud/types/prompt_mixin_prompts.py +0 -39
- llama_cloud-0.1.15/llama_cloud/types/prompt_spec.py +0 -36
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/LICENSE +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/README.md +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/client.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/core/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/core/api_error.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/core/client_wrapper.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/core/datetime_utils.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/core/jsonable_encoder.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/core/remove_none_from_dict.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/environment.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/errors/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/errors/unprocessable_entity_error.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/chat_apps/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/chat_apps/client.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/component_definitions/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/component_definitions/client.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/data_sinks/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/data_sinks/client.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/data_sinks/types/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/data_sinks/types/data_sink_update_component.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/data_sources/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/data_sources/client.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/data_sources/types/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/data_sources/types/data_source_update_component.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/data_sources/types/data_source_update_custom_metadata_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/embedding_model_configs/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/embedding_model_configs/client.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/embedding_model_configs/types/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/embedding_model_configs/types/embedding_model_config_create_embedding_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/evals/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/files/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/files/client.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/files/types/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/files/types/file_create_from_url_resource_info_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/files/types/file_create_permission_info_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/files/types/file_create_resource_info_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/jobs/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/jobs/client.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/llama_extract/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/llama_extract/client.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/organizations/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/organizations/client.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/parsing/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/parsing/client.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/pipelines/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/pipelines/types/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/pipelines/types/pipeline_file_update_custom_metadata_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/pipelines/types/pipeline_update_embedding_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/pipelines/types/pipeline_update_transform_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/projects/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/reports/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/reports/client.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/reports/types/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/reports/types/update_report_plan_api_v_1_reports_report_id_plan_patch_request_action.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/resources/retrievers/__init__.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/advanced_mode_transform_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/advanced_mode_transform_config_chunking_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/advanced_mode_transform_config_segmentation_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/app_schema_chat_chat_message.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/auto_transform_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/azure_open_ai_embedding.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/azure_open_ai_embedding_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/base_plan.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/base_plan_metronome_plan_type.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/base_plan_name.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/base_plan_plan_frequency.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/base_prompt_template.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/bedrock_embedding.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/bedrock_embedding_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/billing_period.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/box_auth_mechanism.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/character_chunking_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/character_splitter.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/chat_app.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/chat_app_response.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/chat_data.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/chunk_mode.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/cloud_az_storage_blob_data_source.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/cloud_azure_ai_search_vector_store.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/cloud_box_data_source.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/cloud_confluence_data_source.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/cloud_document.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/cloud_document_create.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/cloud_google_drive_data_source.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/cloud_jira_data_source.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/cloud_milvus_vector_store.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/cloud_mongo_db_atlas_vector_search.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/cloud_notion_page_data_source.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/cloud_one_drive_data_source.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/cloud_pinecone_vector_store.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/cloud_postgres_vector_store.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/cloud_qdrant_vector_store.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/cloud_s_3_data_source.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/cloud_sharepoint_data_source.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/cloud_slack_data_source.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/code_splitter.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/cohere_embedding.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/cohere_embedding_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/composite_retrieval_mode.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/composite_retrieval_result.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/composite_retrieved_text_node.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/composite_retrieved_text_node_with_score.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/configurable_data_sink_names.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/configurable_data_source_names.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/configurable_transformation_definition.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/configurable_transformation_names.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/configured_transformation_item.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/configured_transformation_item_component.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/credit_type.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/data_sink.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/data_sink_component.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/data_sink_create.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/data_sink_create_component.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/data_sink_definition.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/data_source.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/data_source_component.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/data_source_create.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/data_source_create_component.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/data_source_create_custom_metadata_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/data_source_custom_metadata_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/data_source_definition.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/edit_suggestion.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/edit_suggestion_blocks_item.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/element_segmentation_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/embedding_model_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/embedding_model_config_embedding_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/embedding_model_config_update.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/embedding_model_config_update_embedding_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/eval_execution_params.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_agent.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_agent_create.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_agent_create_data_schema.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_agent_create_data_schema_zero_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_agent_data_schema_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_agent_update.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_agent_update_data_schema.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_agent_update_data_schema_zero_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_job.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_job_create.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_job_create_batch.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_job_create_batch_data_schema_override.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_job_create_batch_data_schema_override_zero_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_job_create_data_schema_override.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_job_create_data_schema_override_zero_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_resultset.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_resultset_data.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_resultset_data_item_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_resultset_data_zero_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_resultset_extraction_metadata_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_run.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_run_data.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_run_data_item_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_run_data_schema_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_run_data_zero_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_run_extraction_metadata_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_schema_validate_request.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_schema_validate_request_data_schema.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_schema_validate_request_data_schema_zero_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_schema_validate_response.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_schema_validate_response_data_schema_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_state.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/extract_target.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/file.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/file_permission_info_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/file_resource_info_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/filter_condition.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/filter_operator.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/free_credits_usage.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/gemini_embedding.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/gemini_embedding_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/http_validation_error.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/hugging_face_inference_api_embedding.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/hugging_face_inference_api_embedding_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/hugging_face_inference_api_embedding_token.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/image_block.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/ingestion_error_response.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/input_message.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/job_name_mapping.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/job_names.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/job_record.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/job_record_with_usage_metrics.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/llama_extract_settings.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/llama_index_core_base_llms_types_chat_message.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/llama_index_core_base_llms_types_chat_message_blocks_item.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/llama_parse_parameters.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/llama_parse_supported_file_extensions.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/llm.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/llm_model_data.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/llm_parameters.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/managed_ingestion_status.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/managed_ingestion_status_response.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/markdown_element_node_parser.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/markdown_node_parser.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/message_annotation.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/message_role.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/metadata_filter.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/metadata_filter_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/metadata_filters.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/metadata_filters_filters_item.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/node_parser.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/node_relationship.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/none_chunking_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/none_segmentation_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/object_type.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/open_ai_embedding.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/open_ai_embedding_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/organization.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/organization_create.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/page_figure_metadata.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/page_screenshot_metadata.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/page_screenshot_node_with_score.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/page_segmentation_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/page_splitter_node_parser.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/paginated_extract_runs_response.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/paginated_jobs_history_with_metrics.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/paginated_list_cloud_documents_response.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/paginated_list_pipeline_files_response.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/paginated_report_response.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/parse_plan_level.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/parser_languages.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/parsing_history_item.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/parsing_job.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/parsing_job_json_result.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/parsing_job_markdown_result.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/parsing_job_structured_result.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/parsing_job_text_result.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/parsing_mode.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/parsing_usage.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/partition_names.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/permission.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/pipeline.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/pipeline_configuration_hashes.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/pipeline_create.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/pipeline_create_embedding_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/pipeline_create_transform_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/pipeline_data_source.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/pipeline_data_source_component.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/pipeline_data_source_create.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/pipeline_data_source_custom_metadata_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/pipeline_deployment.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/pipeline_embedding_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/pipeline_file.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/pipeline_file_config_hash_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/pipeline_file_create.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/pipeline_file_create_custom_metadata_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/pipeline_file_custom_metadata_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/pipeline_file_permission_info_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/pipeline_file_resource_info_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/pipeline_transform_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/pipeline_type.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/plan_limits.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/playground_session.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/pooling.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/preset_composite_retrieval_params.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/preset_retrieval_params.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/presigned_url.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/progress_event.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/progress_event_status.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/project.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/project_create.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/pydantic_program_mode.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/recurring_credit_grant.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/related_node_info.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/related_node_info_node_type.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/report.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/report_block_dependency.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/report_create_response.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/report_event_item.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/report_event_item_event_data.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/report_event_type.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/report_metadata.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/report_plan.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/report_plan_block.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/report_query.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/report_response.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/report_state.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/report_state_event.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/report_update_event.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/retrieval_mode.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/retrieve_results.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/retriever.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/retriever_create.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/retriever_pipeline.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/role.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/schema_relax_mode.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/semantic_chunking_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/sentence_chunking_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/sentence_splitter.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/status_enum.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/supported_llm_model.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/supported_llm_model_names.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/text_block.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/text_node.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/text_node_relationships_value.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/text_node_with_score.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/token_chunking_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/token_text_splitter.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/transformation_category_names.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/usage.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/usage_active_alerts_item.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/usage_and_plan.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/usage_metric_response.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/user_job_record.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/user_organization.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/user_organization_create.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/user_organization_delete.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/user_organization_role.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/validation_error.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/validation_error_loc_item.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/vertex_ai_embedding_config.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/vertex_embedding_mode.py +0 -0
- {llama_cloud-0.1.15 → llama_cloud-0.1.16}/llama_cloud/types/vertex_text_embedding.py +0 -0
|
@@ -96,15 +96,7 @@ from .types import (
|
|
|
96
96
|
EmbeddingModelConfigUpdateEmbeddingConfig_HuggingfaceApiEmbedding,
|
|
97
97
|
EmbeddingModelConfigUpdateEmbeddingConfig_OpenaiEmbedding,
|
|
98
98
|
EmbeddingModelConfigUpdateEmbeddingConfig_VertexaiEmbedding,
|
|
99
|
-
EvalDataset,
|
|
100
|
-
EvalDatasetJobParams,
|
|
101
|
-
EvalDatasetJobRecord,
|
|
102
99
|
EvalExecutionParams,
|
|
103
|
-
EvalExecutionParamsOverride,
|
|
104
|
-
EvalMetric,
|
|
105
|
-
EvalQuestion,
|
|
106
|
-
EvalQuestionCreate,
|
|
107
|
-
EvalQuestionResult,
|
|
108
100
|
ExtractAgent,
|
|
109
101
|
ExtractAgentCreate,
|
|
110
102
|
ExtractAgentCreateDataSchema,
|
|
@@ -169,9 +161,6 @@ from .types import (
|
|
|
169
161
|
Llm,
|
|
170
162
|
LlmModelData,
|
|
171
163
|
LlmParameters,
|
|
172
|
-
LocalEval,
|
|
173
|
-
LocalEvalResults,
|
|
174
|
-
LocalEvalSets,
|
|
175
164
|
ManagedIngestionStatus,
|
|
176
165
|
ManagedIngestionStatusResponse,
|
|
177
166
|
MarkdownElementNodeParser,
|
|
@@ -182,7 +171,6 @@ from .types import (
|
|
|
182
171
|
MetadataFilterValue,
|
|
183
172
|
MetadataFilters,
|
|
184
173
|
MetadataFiltersFiltersItem,
|
|
185
|
-
MetricResult,
|
|
186
174
|
NodeParser,
|
|
187
175
|
NodeRelationship,
|
|
188
176
|
NoneChunkingConfig,
|
|
@@ -261,8 +249,6 @@ from .types import (
|
|
|
261
249
|
Project,
|
|
262
250
|
ProjectCreate,
|
|
263
251
|
PromptConf,
|
|
264
|
-
PromptMixinPrompts,
|
|
265
|
-
PromptSpec,
|
|
266
252
|
PydanticProgramMode,
|
|
267
253
|
RecurringCreditGrant,
|
|
268
254
|
RelatedNodeInfo,
|
|
@@ -474,15 +460,7 @@ __all__ = [
|
|
|
474
460
|
"EmbeddingModelConfigUpdateEmbeddingConfig_HuggingfaceApiEmbedding",
|
|
475
461
|
"EmbeddingModelConfigUpdateEmbeddingConfig_OpenaiEmbedding",
|
|
476
462
|
"EmbeddingModelConfigUpdateEmbeddingConfig_VertexaiEmbedding",
|
|
477
|
-
"EvalDataset",
|
|
478
|
-
"EvalDatasetJobParams",
|
|
479
|
-
"EvalDatasetJobRecord",
|
|
480
463
|
"EvalExecutionParams",
|
|
481
|
-
"EvalExecutionParamsOverride",
|
|
482
|
-
"EvalMetric",
|
|
483
|
-
"EvalQuestion",
|
|
484
|
-
"EvalQuestionCreate",
|
|
485
|
-
"EvalQuestionResult",
|
|
486
464
|
"ExtractAgent",
|
|
487
465
|
"ExtractAgentCreate",
|
|
488
466
|
"ExtractAgentCreateDataSchema",
|
|
@@ -551,9 +529,6 @@ __all__ = [
|
|
|
551
529
|
"Llm",
|
|
552
530
|
"LlmModelData",
|
|
553
531
|
"LlmParameters",
|
|
554
|
-
"LocalEval",
|
|
555
|
-
"LocalEvalResults",
|
|
556
|
-
"LocalEvalSets",
|
|
557
532
|
"ManagedIngestionStatus",
|
|
558
533
|
"ManagedIngestionStatusResponse",
|
|
559
534
|
"MarkdownElementNodeParser",
|
|
@@ -564,7 +539,6 @@ __all__ = [
|
|
|
564
539
|
"MetadataFilterValue",
|
|
565
540
|
"MetadataFilters",
|
|
566
541
|
"MetadataFiltersFiltersItem",
|
|
567
|
-
"MetricResult",
|
|
568
542
|
"NodeParser",
|
|
569
543
|
"NodeRelationship",
|
|
570
544
|
"NoneChunkingConfig",
|
|
@@ -653,8 +627,6 @@ __all__ = [
|
|
|
653
627
|
"Project",
|
|
654
628
|
"ProjectCreate",
|
|
655
629
|
"PromptConf",
|
|
656
|
-
"PromptMixinPrompts",
|
|
657
|
-
"PromptSpec",
|
|
658
630
|
"PydanticProgramMode",
|
|
659
631
|
"RecurringCreditGrant",
|
|
660
632
|
"RelatedNodeInfo",
|
|
@@ -0,0 +1,85 @@
|
|
|
1
|
+
# This file was auto-generated by Fern from our API Definition.
|
|
2
|
+
|
|
3
|
+
import typing
|
|
4
|
+
import urllib.parse
|
|
5
|
+
from json.decoder import JSONDecodeError
|
|
6
|
+
|
|
7
|
+
from ...core.api_error import ApiError
|
|
8
|
+
from ...core.client_wrapper import AsyncClientWrapper, SyncClientWrapper
|
|
9
|
+
from ...errors.unprocessable_entity_error import UnprocessableEntityError
|
|
10
|
+
from ...types.http_validation_error import HttpValidationError
|
|
11
|
+
from ...types.supported_llm_model import SupportedLlmModel
|
|
12
|
+
|
|
13
|
+
try:
|
|
14
|
+
import pydantic
|
|
15
|
+
if pydantic.__version__.startswith("1."):
|
|
16
|
+
raise ImportError
|
|
17
|
+
import pydantic.v1 as pydantic # type: ignore
|
|
18
|
+
except ImportError:
|
|
19
|
+
import pydantic # type: ignore
|
|
20
|
+
|
|
21
|
+
|
|
22
|
+
class EvalsClient:
|
|
23
|
+
def __init__(self, *, client_wrapper: SyncClientWrapper):
|
|
24
|
+
self._client_wrapper = client_wrapper
|
|
25
|
+
|
|
26
|
+
def list_supported_models(self) -> typing.List[SupportedLlmModel]:
|
|
27
|
+
"""
|
|
28
|
+
List supported models.
|
|
29
|
+
|
|
30
|
+
---
|
|
31
|
+
from llama_cloud.client import LlamaCloud
|
|
32
|
+
|
|
33
|
+
client = LlamaCloud(
|
|
34
|
+
token="YOUR_TOKEN",
|
|
35
|
+
)
|
|
36
|
+
client.evals.list_supported_models()
|
|
37
|
+
"""
|
|
38
|
+
_response = self._client_wrapper.httpx_client.request(
|
|
39
|
+
"GET",
|
|
40
|
+
urllib.parse.urljoin(f"{self._client_wrapper.get_base_url()}/", "api/v1/evals/models"),
|
|
41
|
+
headers=self._client_wrapper.get_headers(),
|
|
42
|
+
timeout=60,
|
|
43
|
+
)
|
|
44
|
+
if 200 <= _response.status_code < 300:
|
|
45
|
+
return pydantic.parse_obj_as(typing.List[SupportedLlmModel], _response.json()) # type: ignore
|
|
46
|
+
if _response.status_code == 422:
|
|
47
|
+
raise UnprocessableEntityError(pydantic.parse_obj_as(HttpValidationError, _response.json())) # type: ignore
|
|
48
|
+
try:
|
|
49
|
+
_response_json = _response.json()
|
|
50
|
+
except JSONDecodeError:
|
|
51
|
+
raise ApiError(status_code=_response.status_code, body=_response.text)
|
|
52
|
+
raise ApiError(status_code=_response.status_code, body=_response_json)
|
|
53
|
+
|
|
54
|
+
|
|
55
|
+
class AsyncEvalsClient:
|
|
56
|
+
def __init__(self, *, client_wrapper: AsyncClientWrapper):
|
|
57
|
+
self._client_wrapper = client_wrapper
|
|
58
|
+
|
|
59
|
+
async def list_supported_models(self) -> typing.List[SupportedLlmModel]:
|
|
60
|
+
"""
|
|
61
|
+
List supported models.
|
|
62
|
+
|
|
63
|
+
---
|
|
64
|
+
from llama_cloud.client import AsyncLlamaCloud
|
|
65
|
+
|
|
66
|
+
client = AsyncLlamaCloud(
|
|
67
|
+
token="YOUR_TOKEN",
|
|
68
|
+
)
|
|
69
|
+
await client.evals.list_supported_models()
|
|
70
|
+
"""
|
|
71
|
+
_response = await self._client_wrapper.httpx_client.request(
|
|
72
|
+
"GET",
|
|
73
|
+
urllib.parse.urljoin(f"{self._client_wrapper.get_base_url()}/", "api/v1/evals/models"),
|
|
74
|
+
headers=self._client_wrapper.get_headers(),
|
|
75
|
+
timeout=60,
|
|
76
|
+
)
|
|
77
|
+
if 200 <= _response.status_code < 300:
|
|
78
|
+
return pydantic.parse_obj_as(typing.List[SupportedLlmModel], _response.json()) # type: ignore
|
|
79
|
+
if _response.status_code == 422:
|
|
80
|
+
raise UnprocessableEntityError(pydantic.parse_obj_as(HttpValidationError, _response.json())) # type: ignore
|
|
81
|
+
try:
|
|
82
|
+
_response_json = _response.json()
|
|
83
|
+
except JSONDecodeError:
|
|
84
|
+
raise ApiError(status_code=_response.status_code, body=_response.text)
|
|
85
|
+
raise ApiError(status_code=_response.status_code, body=_response_json)
|
|
@@ -14,10 +14,7 @@ from ...types.cloud_document import CloudDocument
|
|
|
14
14
|
from ...types.cloud_document_create import CloudDocumentCreate
|
|
15
15
|
from ...types.configured_transformation_item import ConfiguredTransformationItem
|
|
16
16
|
from ...types.data_sink_create import DataSinkCreate
|
|
17
|
-
from ...types.eval_dataset_job_record import EvalDatasetJobRecord
|
|
18
17
|
from ...types.eval_execution_params import EvalExecutionParams
|
|
19
|
-
from ...types.eval_execution_params_override import EvalExecutionParamsOverride
|
|
20
|
-
from ...types.eval_question_result import EvalQuestionResult
|
|
21
18
|
from ...types.http_validation_error import HttpValidationError
|
|
22
19
|
from ...types.input_message import InputMessage
|
|
23
20
|
from ...types.llama_parse_parameters import LlamaParseParameters
|
|
@@ -423,188 +420,6 @@ class PipelinesClient:
|
|
|
423
420
|
raise ApiError(status_code=_response.status_code, body=_response.text)
|
|
424
421
|
raise ApiError(status_code=_response.status_code, body=_response_json)
|
|
425
422
|
|
|
426
|
-
def get_eval_dataset_executions(self, eval_dataset_id: str, pipeline_id: str) -> typing.List[EvalDatasetJobRecord]:
|
|
427
|
-
"""
|
|
428
|
-
Get the status of an EvalDatasetExecution.
|
|
429
|
-
|
|
430
|
-
Parameters:
|
|
431
|
-
- eval_dataset_id: str.
|
|
432
|
-
|
|
433
|
-
- pipeline_id: str.
|
|
434
|
-
---
|
|
435
|
-
from llama_cloud.client import LlamaCloud
|
|
436
|
-
|
|
437
|
-
client = LlamaCloud(
|
|
438
|
-
token="YOUR_TOKEN",
|
|
439
|
-
)
|
|
440
|
-
client.pipelines.get_eval_dataset_executions(
|
|
441
|
-
eval_dataset_id="string",
|
|
442
|
-
pipeline_id="string",
|
|
443
|
-
)
|
|
444
|
-
"""
|
|
445
|
-
_response = self._client_wrapper.httpx_client.request(
|
|
446
|
-
"GET",
|
|
447
|
-
urllib.parse.urljoin(
|
|
448
|
-
f"{self._client_wrapper.get_base_url()}/",
|
|
449
|
-
f"api/v1/pipelines/{pipeline_id}/eval-datasets/{eval_dataset_id}/execute",
|
|
450
|
-
),
|
|
451
|
-
headers=self._client_wrapper.get_headers(),
|
|
452
|
-
timeout=60,
|
|
453
|
-
)
|
|
454
|
-
if 200 <= _response.status_code < 300:
|
|
455
|
-
return pydantic.parse_obj_as(typing.List[EvalDatasetJobRecord], _response.json()) # type: ignore
|
|
456
|
-
if _response.status_code == 422:
|
|
457
|
-
raise UnprocessableEntityError(pydantic.parse_obj_as(HttpValidationError, _response.json())) # type: ignore
|
|
458
|
-
try:
|
|
459
|
-
_response_json = _response.json()
|
|
460
|
-
except JSONDecodeError:
|
|
461
|
-
raise ApiError(status_code=_response.status_code, body=_response.text)
|
|
462
|
-
raise ApiError(status_code=_response.status_code, body=_response_json)
|
|
463
|
-
|
|
464
|
-
def execute_eval_dataset(
|
|
465
|
-
self,
|
|
466
|
-
eval_dataset_id: str,
|
|
467
|
-
pipeline_id: str,
|
|
468
|
-
*,
|
|
469
|
-
eval_question_ids: typing.List[str],
|
|
470
|
-
params: typing.Optional[EvalExecutionParamsOverride] = OMIT,
|
|
471
|
-
) -> EvalDatasetJobRecord:
|
|
472
|
-
"""
|
|
473
|
-
Execute a dataset.
|
|
474
|
-
|
|
475
|
-
Parameters:
|
|
476
|
-
- eval_dataset_id: str.
|
|
477
|
-
|
|
478
|
-
- pipeline_id: str.
|
|
479
|
-
|
|
480
|
-
- eval_question_ids: typing.List[str].
|
|
481
|
-
|
|
482
|
-
- params: typing.Optional[EvalExecutionParamsOverride]. The parameters for the eval execution that will override the ones set in the pipeline.
|
|
483
|
-
---
|
|
484
|
-
from llama_cloud import EvalExecutionParamsOverride, SupportedLlmModelNames
|
|
485
|
-
from llama_cloud.client import LlamaCloud
|
|
486
|
-
|
|
487
|
-
client = LlamaCloud(
|
|
488
|
-
token="YOUR_TOKEN",
|
|
489
|
-
)
|
|
490
|
-
client.pipelines.execute_eval_dataset(
|
|
491
|
-
eval_dataset_id="string",
|
|
492
|
-
pipeline_id="string",
|
|
493
|
-
eval_question_ids=[],
|
|
494
|
-
params=EvalExecutionParamsOverride(
|
|
495
|
-
llm_model=SupportedLlmModelNames.GPT_3_5_TURBO,
|
|
496
|
-
),
|
|
497
|
-
)
|
|
498
|
-
"""
|
|
499
|
-
_request: typing.Dict[str, typing.Any] = {"eval_question_ids": eval_question_ids}
|
|
500
|
-
if params is not OMIT:
|
|
501
|
-
_request["params"] = params
|
|
502
|
-
_response = self._client_wrapper.httpx_client.request(
|
|
503
|
-
"POST",
|
|
504
|
-
urllib.parse.urljoin(
|
|
505
|
-
f"{self._client_wrapper.get_base_url()}/",
|
|
506
|
-
f"api/v1/pipelines/{pipeline_id}/eval-datasets/{eval_dataset_id}/execute",
|
|
507
|
-
),
|
|
508
|
-
json=jsonable_encoder(_request),
|
|
509
|
-
headers=self._client_wrapper.get_headers(),
|
|
510
|
-
timeout=60,
|
|
511
|
-
)
|
|
512
|
-
if 200 <= _response.status_code < 300:
|
|
513
|
-
return pydantic.parse_obj_as(EvalDatasetJobRecord, _response.json()) # type: ignore
|
|
514
|
-
if _response.status_code == 422:
|
|
515
|
-
raise UnprocessableEntityError(pydantic.parse_obj_as(HttpValidationError, _response.json())) # type: ignore
|
|
516
|
-
try:
|
|
517
|
-
_response_json = _response.json()
|
|
518
|
-
except JSONDecodeError:
|
|
519
|
-
raise ApiError(status_code=_response.status_code, body=_response.text)
|
|
520
|
-
raise ApiError(status_code=_response.status_code, body=_response_json)
|
|
521
|
-
|
|
522
|
-
def get_eval_dataset_execution_result(
|
|
523
|
-
self, eval_dataset_id: str, pipeline_id: str
|
|
524
|
-
) -> typing.List[EvalQuestionResult]:
|
|
525
|
-
"""
|
|
526
|
-
Get the result of an EvalDatasetExecution.
|
|
527
|
-
If eval_question_ids is specified, only the results for the specified
|
|
528
|
-
questions will be returned.
|
|
529
|
-
If any of the specified questions do not have a result, they will be ignored.
|
|
530
|
-
|
|
531
|
-
Parameters:
|
|
532
|
-
- eval_dataset_id: str.
|
|
533
|
-
|
|
534
|
-
- pipeline_id: str.
|
|
535
|
-
---
|
|
536
|
-
from llama_cloud.client import LlamaCloud
|
|
537
|
-
|
|
538
|
-
client = LlamaCloud(
|
|
539
|
-
token="YOUR_TOKEN",
|
|
540
|
-
)
|
|
541
|
-
client.pipelines.get_eval_dataset_execution_result(
|
|
542
|
-
eval_dataset_id="string",
|
|
543
|
-
pipeline_id="string",
|
|
544
|
-
)
|
|
545
|
-
"""
|
|
546
|
-
_response = self._client_wrapper.httpx_client.request(
|
|
547
|
-
"GET",
|
|
548
|
-
urllib.parse.urljoin(
|
|
549
|
-
f"{self._client_wrapper.get_base_url()}/",
|
|
550
|
-
f"api/v1/pipelines/{pipeline_id}/eval-datasets/{eval_dataset_id}/execute/result",
|
|
551
|
-
),
|
|
552
|
-
headers=self._client_wrapper.get_headers(),
|
|
553
|
-
timeout=60,
|
|
554
|
-
)
|
|
555
|
-
if 200 <= _response.status_code < 300:
|
|
556
|
-
return pydantic.parse_obj_as(typing.List[EvalQuestionResult], _response.json()) # type: ignore
|
|
557
|
-
if _response.status_code == 422:
|
|
558
|
-
raise UnprocessableEntityError(pydantic.parse_obj_as(HttpValidationError, _response.json())) # type: ignore
|
|
559
|
-
try:
|
|
560
|
-
_response_json = _response.json()
|
|
561
|
-
except JSONDecodeError:
|
|
562
|
-
raise ApiError(status_code=_response.status_code, body=_response.text)
|
|
563
|
-
raise ApiError(status_code=_response.status_code, body=_response_json)
|
|
564
|
-
|
|
565
|
-
def get_eval_dataset_execution(
|
|
566
|
-
self, eval_dataset_id: str, eval_dataset_execution_id: str, pipeline_id: str
|
|
567
|
-
) -> EvalDatasetJobRecord:
|
|
568
|
-
"""
|
|
569
|
-
Get the status of an EvalDatasetExecution.
|
|
570
|
-
|
|
571
|
-
Parameters:
|
|
572
|
-
- eval_dataset_id: str.
|
|
573
|
-
|
|
574
|
-
- eval_dataset_execution_id: str.
|
|
575
|
-
|
|
576
|
-
- pipeline_id: str.
|
|
577
|
-
---
|
|
578
|
-
from llama_cloud.client import LlamaCloud
|
|
579
|
-
|
|
580
|
-
client = LlamaCloud(
|
|
581
|
-
token="YOUR_TOKEN",
|
|
582
|
-
)
|
|
583
|
-
client.pipelines.get_eval_dataset_execution(
|
|
584
|
-
eval_dataset_id="string",
|
|
585
|
-
eval_dataset_execution_id="string",
|
|
586
|
-
pipeline_id="string",
|
|
587
|
-
)
|
|
588
|
-
"""
|
|
589
|
-
_response = self._client_wrapper.httpx_client.request(
|
|
590
|
-
"GET",
|
|
591
|
-
urllib.parse.urljoin(
|
|
592
|
-
f"{self._client_wrapper.get_base_url()}/",
|
|
593
|
-
f"api/v1/pipelines/{pipeline_id}/eval-datasets/{eval_dataset_id}/execute/{eval_dataset_execution_id}",
|
|
594
|
-
),
|
|
595
|
-
headers=self._client_wrapper.get_headers(),
|
|
596
|
-
timeout=60,
|
|
597
|
-
)
|
|
598
|
-
if 200 <= _response.status_code < 300:
|
|
599
|
-
return pydantic.parse_obj_as(EvalDatasetJobRecord, _response.json()) # type: ignore
|
|
600
|
-
if _response.status_code == 422:
|
|
601
|
-
raise UnprocessableEntityError(pydantic.parse_obj_as(HttpValidationError, _response.json())) # type: ignore
|
|
602
|
-
try:
|
|
603
|
-
_response_json = _response.json()
|
|
604
|
-
except JSONDecodeError:
|
|
605
|
-
raise ApiError(status_code=_response.status_code, body=_response.text)
|
|
606
|
-
raise ApiError(status_code=_response.status_code, body=_response_json)
|
|
607
|
-
|
|
608
423
|
def list_pipeline_files(
|
|
609
424
|
self,
|
|
610
425
|
pipeline_id: str,
|
|
@@ -1675,7 +1490,11 @@ class PipelinesClient:
|
|
|
1675
1490
|
|
|
1676
1491
|
def delete_pipeline_document(self, document_id: str, pipeline_id: str) -> None:
|
|
1677
1492
|
"""
|
|
1678
|
-
Delete a document
|
|
1493
|
+
Delete a document from a pipeline.
|
|
1494
|
+
Initiates an async job that will:
|
|
1495
|
+
|
|
1496
|
+
1. Delete vectors from the vector store
|
|
1497
|
+
2. Delete the document from MongoDB after vectors are successfully deleted
|
|
1679
1498
|
|
|
1680
1499
|
Parameters:
|
|
1681
1500
|
- document_id: str.
|
|
@@ -2156,190 +1975,6 @@ class AsyncPipelinesClient:
|
|
|
2156
1975
|
raise ApiError(status_code=_response.status_code, body=_response.text)
|
|
2157
1976
|
raise ApiError(status_code=_response.status_code, body=_response_json)
|
|
2158
1977
|
|
|
2159
|
-
async def get_eval_dataset_executions(
|
|
2160
|
-
self, eval_dataset_id: str, pipeline_id: str
|
|
2161
|
-
) -> typing.List[EvalDatasetJobRecord]:
|
|
2162
|
-
"""
|
|
2163
|
-
Get the status of an EvalDatasetExecution.
|
|
2164
|
-
|
|
2165
|
-
Parameters:
|
|
2166
|
-
- eval_dataset_id: str.
|
|
2167
|
-
|
|
2168
|
-
- pipeline_id: str.
|
|
2169
|
-
---
|
|
2170
|
-
from llama_cloud.client import AsyncLlamaCloud
|
|
2171
|
-
|
|
2172
|
-
client = AsyncLlamaCloud(
|
|
2173
|
-
token="YOUR_TOKEN",
|
|
2174
|
-
)
|
|
2175
|
-
await client.pipelines.get_eval_dataset_executions(
|
|
2176
|
-
eval_dataset_id="string",
|
|
2177
|
-
pipeline_id="string",
|
|
2178
|
-
)
|
|
2179
|
-
"""
|
|
2180
|
-
_response = await self._client_wrapper.httpx_client.request(
|
|
2181
|
-
"GET",
|
|
2182
|
-
urllib.parse.urljoin(
|
|
2183
|
-
f"{self._client_wrapper.get_base_url()}/",
|
|
2184
|
-
f"api/v1/pipelines/{pipeline_id}/eval-datasets/{eval_dataset_id}/execute",
|
|
2185
|
-
),
|
|
2186
|
-
headers=self._client_wrapper.get_headers(),
|
|
2187
|
-
timeout=60,
|
|
2188
|
-
)
|
|
2189
|
-
if 200 <= _response.status_code < 300:
|
|
2190
|
-
return pydantic.parse_obj_as(typing.List[EvalDatasetJobRecord], _response.json()) # type: ignore
|
|
2191
|
-
if _response.status_code == 422:
|
|
2192
|
-
raise UnprocessableEntityError(pydantic.parse_obj_as(HttpValidationError, _response.json())) # type: ignore
|
|
2193
|
-
try:
|
|
2194
|
-
_response_json = _response.json()
|
|
2195
|
-
except JSONDecodeError:
|
|
2196
|
-
raise ApiError(status_code=_response.status_code, body=_response.text)
|
|
2197
|
-
raise ApiError(status_code=_response.status_code, body=_response_json)
|
|
2198
|
-
|
|
2199
|
-
async def execute_eval_dataset(
|
|
2200
|
-
self,
|
|
2201
|
-
eval_dataset_id: str,
|
|
2202
|
-
pipeline_id: str,
|
|
2203
|
-
*,
|
|
2204
|
-
eval_question_ids: typing.List[str],
|
|
2205
|
-
params: typing.Optional[EvalExecutionParamsOverride] = OMIT,
|
|
2206
|
-
) -> EvalDatasetJobRecord:
|
|
2207
|
-
"""
|
|
2208
|
-
Execute a dataset.
|
|
2209
|
-
|
|
2210
|
-
Parameters:
|
|
2211
|
-
- eval_dataset_id: str.
|
|
2212
|
-
|
|
2213
|
-
- pipeline_id: str.
|
|
2214
|
-
|
|
2215
|
-
- eval_question_ids: typing.List[str].
|
|
2216
|
-
|
|
2217
|
-
- params: typing.Optional[EvalExecutionParamsOverride]. The parameters for the eval execution that will override the ones set in the pipeline.
|
|
2218
|
-
---
|
|
2219
|
-
from llama_cloud import EvalExecutionParamsOverride, SupportedLlmModelNames
|
|
2220
|
-
from llama_cloud.client import AsyncLlamaCloud
|
|
2221
|
-
|
|
2222
|
-
client = AsyncLlamaCloud(
|
|
2223
|
-
token="YOUR_TOKEN",
|
|
2224
|
-
)
|
|
2225
|
-
await client.pipelines.execute_eval_dataset(
|
|
2226
|
-
eval_dataset_id="string",
|
|
2227
|
-
pipeline_id="string",
|
|
2228
|
-
eval_question_ids=[],
|
|
2229
|
-
params=EvalExecutionParamsOverride(
|
|
2230
|
-
llm_model=SupportedLlmModelNames.GPT_3_5_TURBO,
|
|
2231
|
-
),
|
|
2232
|
-
)
|
|
2233
|
-
"""
|
|
2234
|
-
_request: typing.Dict[str, typing.Any] = {"eval_question_ids": eval_question_ids}
|
|
2235
|
-
if params is not OMIT:
|
|
2236
|
-
_request["params"] = params
|
|
2237
|
-
_response = await self._client_wrapper.httpx_client.request(
|
|
2238
|
-
"POST",
|
|
2239
|
-
urllib.parse.urljoin(
|
|
2240
|
-
f"{self._client_wrapper.get_base_url()}/",
|
|
2241
|
-
f"api/v1/pipelines/{pipeline_id}/eval-datasets/{eval_dataset_id}/execute",
|
|
2242
|
-
),
|
|
2243
|
-
json=jsonable_encoder(_request),
|
|
2244
|
-
headers=self._client_wrapper.get_headers(),
|
|
2245
|
-
timeout=60,
|
|
2246
|
-
)
|
|
2247
|
-
if 200 <= _response.status_code < 300:
|
|
2248
|
-
return pydantic.parse_obj_as(EvalDatasetJobRecord, _response.json()) # type: ignore
|
|
2249
|
-
if _response.status_code == 422:
|
|
2250
|
-
raise UnprocessableEntityError(pydantic.parse_obj_as(HttpValidationError, _response.json())) # type: ignore
|
|
2251
|
-
try:
|
|
2252
|
-
_response_json = _response.json()
|
|
2253
|
-
except JSONDecodeError:
|
|
2254
|
-
raise ApiError(status_code=_response.status_code, body=_response.text)
|
|
2255
|
-
raise ApiError(status_code=_response.status_code, body=_response_json)
|
|
2256
|
-
|
|
2257
|
-
async def get_eval_dataset_execution_result(
|
|
2258
|
-
self, eval_dataset_id: str, pipeline_id: str
|
|
2259
|
-
) -> typing.List[EvalQuestionResult]:
|
|
2260
|
-
"""
|
|
2261
|
-
Get the result of an EvalDatasetExecution.
|
|
2262
|
-
If eval_question_ids is specified, only the results for the specified
|
|
2263
|
-
questions will be returned.
|
|
2264
|
-
If any of the specified questions do not have a result, they will be ignored.
|
|
2265
|
-
|
|
2266
|
-
Parameters:
|
|
2267
|
-
- eval_dataset_id: str.
|
|
2268
|
-
|
|
2269
|
-
- pipeline_id: str.
|
|
2270
|
-
---
|
|
2271
|
-
from llama_cloud.client import AsyncLlamaCloud
|
|
2272
|
-
|
|
2273
|
-
client = AsyncLlamaCloud(
|
|
2274
|
-
token="YOUR_TOKEN",
|
|
2275
|
-
)
|
|
2276
|
-
await client.pipelines.get_eval_dataset_execution_result(
|
|
2277
|
-
eval_dataset_id="string",
|
|
2278
|
-
pipeline_id="string",
|
|
2279
|
-
)
|
|
2280
|
-
"""
|
|
2281
|
-
_response = await self._client_wrapper.httpx_client.request(
|
|
2282
|
-
"GET",
|
|
2283
|
-
urllib.parse.urljoin(
|
|
2284
|
-
f"{self._client_wrapper.get_base_url()}/",
|
|
2285
|
-
f"api/v1/pipelines/{pipeline_id}/eval-datasets/{eval_dataset_id}/execute/result",
|
|
2286
|
-
),
|
|
2287
|
-
headers=self._client_wrapper.get_headers(),
|
|
2288
|
-
timeout=60,
|
|
2289
|
-
)
|
|
2290
|
-
if 200 <= _response.status_code < 300:
|
|
2291
|
-
return pydantic.parse_obj_as(typing.List[EvalQuestionResult], _response.json()) # type: ignore
|
|
2292
|
-
if _response.status_code == 422:
|
|
2293
|
-
raise UnprocessableEntityError(pydantic.parse_obj_as(HttpValidationError, _response.json())) # type: ignore
|
|
2294
|
-
try:
|
|
2295
|
-
_response_json = _response.json()
|
|
2296
|
-
except JSONDecodeError:
|
|
2297
|
-
raise ApiError(status_code=_response.status_code, body=_response.text)
|
|
2298
|
-
raise ApiError(status_code=_response.status_code, body=_response_json)
|
|
2299
|
-
|
|
2300
|
-
async def get_eval_dataset_execution(
|
|
2301
|
-
self, eval_dataset_id: str, eval_dataset_execution_id: str, pipeline_id: str
|
|
2302
|
-
) -> EvalDatasetJobRecord:
|
|
2303
|
-
"""
|
|
2304
|
-
Get the status of an EvalDatasetExecution.
|
|
2305
|
-
|
|
2306
|
-
Parameters:
|
|
2307
|
-
- eval_dataset_id: str.
|
|
2308
|
-
|
|
2309
|
-
- eval_dataset_execution_id: str.
|
|
2310
|
-
|
|
2311
|
-
- pipeline_id: str.
|
|
2312
|
-
---
|
|
2313
|
-
from llama_cloud.client import AsyncLlamaCloud
|
|
2314
|
-
|
|
2315
|
-
client = AsyncLlamaCloud(
|
|
2316
|
-
token="YOUR_TOKEN",
|
|
2317
|
-
)
|
|
2318
|
-
await client.pipelines.get_eval_dataset_execution(
|
|
2319
|
-
eval_dataset_id="string",
|
|
2320
|
-
eval_dataset_execution_id="string",
|
|
2321
|
-
pipeline_id="string",
|
|
2322
|
-
)
|
|
2323
|
-
"""
|
|
2324
|
-
_response = await self._client_wrapper.httpx_client.request(
|
|
2325
|
-
"GET",
|
|
2326
|
-
urllib.parse.urljoin(
|
|
2327
|
-
f"{self._client_wrapper.get_base_url()}/",
|
|
2328
|
-
f"api/v1/pipelines/{pipeline_id}/eval-datasets/{eval_dataset_id}/execute/{eval_dataset_execution_id}",
|
|
2329
|
-
),
|
|
2330
|
-
headers=self._client_wrapper.get_headers(),
|
|
2331
|
-
timeout=60,
|
|
2332
|
-
)
|
|
2333
|
-
if 200 <= _response.status_code < 300:
|
|
2334
|
-
return pydantic.parse_obj_as(EvalDatasetJobRecord, _response.json()) # type: ignore
|
|
2335
|
-
if _response.status_code == 422:
|
|
2336
|
-
raise UnprocessableEntityError(pydantic.parse_obj_as(HttpValidationError, _response.json())) # type: ignore
|
|
2337
|
-
try:
|
|
2338
|
-
_response_json = _response.json()
|
|
2339
|
-
except JSONDecodeError:
|
|
2340
|
-
raise ApiError(status_code=_response.status_code, body=_response.text)
|
|
2341
|
-
raise ApiError(status_code=_response.status_code, body=_response_json)
|
|
2342
|
-
|
|
2343
1978
|
async def list_pipeline_files(
|
|
2344
1979
|
self,
|
|
2345
1980
|
pipeline_id: str,
|
|
@@ -3412,7 +3047,11 @@ class AsyncPipelinesClient:
|
|
|
3412
3047
|
|
|
3413
3048
|
async def delete_pipeline_document(self, document_id: str, pipeline_id: str) -> None:
|
|
3414
3049
|
"""
|
|
3415
|
-
Delete a document
|
|
3050
|
+
Delete a document from a pipeline.
|
|
3051
|
+
Initiates an async job that will:
|
|
3052
|
+
|
|
3053
|
+
1. Delete vectors from the vector store
|
|
3054
|
+
2. Delete the document from MongoDB after vectors are successfully deleted
|
|
3416
3055
|
|
|
3417
3056
|
Parameters:
|
|
3418
3057
|
- document_id: str.
|