llama-cloud 0.0.5__tar.gz → 0.0.6__tar.gz

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.

Potentially problematic release.


This version of llama-cloud might be problematic. Click here for more details.

Files changed (169) hide show
  1. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/PKG-INFO +1 -1
  2. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/__init__.py +4 -2
  3. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/resources/pipelines/client.py +98 -22
  4. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/__init__.py +4 -2
  5. llama_cloud-0.0.6/llama_cloud/types/llama_parse_parameters.py +47 -0
  6. llama_cloud-0.0.6/llama_cloud/types/managed_ingestion_status_response.py +32 -0
  7. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/pipeline.py +4 -0
  8. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/pipeline_create.py +4 -0
  9. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/project.py +0 -2
  10. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/pyproject.toml +2 -2
  11. llama_cloud-0.0.5/llama_cloud/types/pipeline_file_status_response.py +0 -38
  12. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/LICENSE +0 -0
  13. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/README.md +0 -0
  14. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/client.py +0 -0
  15. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/core/__init__.py +0 -0
  16. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/core/api_error.py +0 -0
  17. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/core/client_wrapper.py +0 -0
  18. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/core/datetime_utils.py +0 -0
  19. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/core/jsonable_encoder.py +0 -0
  20. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/core/remove_none_from_dict.py +0 -0
  21. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/environment.py +0 -0
  22. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/errors/__init__.py +0 -0
  23. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/errors/unprocessable_entity_error.py +0 -0
  24. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/resources/__init__.py +0 -0
  25. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/resources/component_definitions/__init__.py +0 -0
  26. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/resources/component_definitions/client.py +0 -0
  27. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/resources/data_sinks/__init__.py +0 -0
  28. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/resources/data_sinks/client.py +0 -0
  29. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/resources/data_sinks/types/__init__.py +0 -0
  30. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/resources/data_sinks/types/data_sink_update_component.py +0 -0
  31. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/resources/data_sinks/types/data_sink_update_component_one.py +0 -0
  32. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/resources/data_sources/__init__.py +0 -0
  33. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/resources/data_sources/client.py +0 -0
  34. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/resources/data_sources/types/__init__.py +0 -0
  35. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/resources/data_sources/types/data_source_update_component.py +0 -0
  36. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/resources/data_sources/types/data_source_update_component_one.py +0 -0
  37. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/resources/data_sources/types/data_source_update_custom_metadata_value.py +0 -0
  38. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/resources/evals/__init__.py +0 -0
  39. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/resources/evals/client.py +0 -0
  40. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/resources/files/__init__.py +0 -0
  41. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/resources/files/client.py +0 -0
  42. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/resources/files/types/__init__.py +0 -0
  43. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/resources/files/types/file_create_resource_info_value.py +0 -0
  44. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/resources/parsing/__init__.py +0 -0
  45. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/resources/parsing/client.py +0 -0
  46. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/resources/pipelines/__init__.py +0 -0
  47. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/resources/pipelines/types/__init__.py +0 -0
  48. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/resources/pipelines/types/pipeline_file_update_custom_metadata_value.py +0 -0
  49. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/resources/projects/__init__.py +0 -0
  50. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/resources/projects/client.py +0 -0
  51. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/azure_open_ai_embedding.py +0 -0
  52. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/base.py +0 -0
  53. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/base_prompt_template.py +0 -0
  54. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/bedrock_embedding.py +0 -0
  55. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/chat_message.py +0 -0
  56. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/cloud_az_storage_blob_data_source.py +0 -0
  57. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/cloud_chroma_vector_store.py +0 -0
  58. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/cloud_document.py +0 -0
  59. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/cloud_document_create.py +0 -0
  60. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/cloud_gcs_data_source.py +0 -0
  61. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/cloud_google_drive_data_source.py +0 -0
  62. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/cloud_one_drive_data_source.py +0 -0
  63. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/cloud_pinecone_vector_store.py +0 -0
  64. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/cloud_postgres_vector_store.py +0 -0
  65. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/cloud_qdrant_vector_store.py +0 -0
  66. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/cloud_s_3_data_source.py +0 -0
  67. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/cloud_sharepoint_data_source.py +0 -0
  68. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/cloud_weaviate_vector_store.py +0 -0
  69. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/code_splitter.py +0 -0
  70. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/cohere_embedding.py +0 -0
  71. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/configurable_data_sink_names.py +0 -0
  72. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/configurable_data_source_names.py +0 -0
  73. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/configurable_transformation_definition.py +0 -0
  74. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/configurable_transformation_names.py +0 -0
  75. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/configured_transformation_item.py +0 -0
  76. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/configured_transformation_item_component.py +0 -0
  77. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/configured_transformation_item_component_one.py +0 -0
  78. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/data_sink.py +0 -0
  79. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/data_sink_component.py +0 -0
  80. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/data_sink_component_one.py +0 -0
  81. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/data_sink_create.py +0 -0
  82. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/data_sink_create_component.py +0 -0
  83. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/data_sink_create_component_one.py +0 -0
  84. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/data_sink_definition.py +0 -0
  85. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/data_source.py +0 -0
  86. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/data_source_component.py +0 -0
  87. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/data_source_component_one.py +0 -0
  88. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/data_source_create.py +0 -0
  89. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/data_source_create_component.py +0 -0
  90. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/data_source_create_component_one.py +0 -0
  91. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/data_source_create_custom_metadata_value.py +0 -0
  92. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/data_source_custom_metadata_value.py +0 -0
  93. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/data_source_definition.py +0 -0
  94. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/eval_dataset.py +0 -0
  95. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/eval_dataset_job_params.py +0 -0
  96. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/eval_dataset_job_record.py +0 -0
  97. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/eval_execution_params.py +0 -0
  98. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/eval_execution_params_override.py +0 -0
  99. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/eval_llm_model_data.py +0 -0
  100. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/eval_question.py +0 -0
  101. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/eval_question_create.py +0 -0
  102. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/eval_question_result.py +0 -0
  103. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/file.py +0 -0
  104. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/file_resource_info_value.py +0 -0
  105. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/filter_condition.py +0 -0
  106. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/filter_operator.py +0 -0
  107. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/gemini_embedding.py +0 -0
  108. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/html_node_parser.py +0 -0
  109. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/http_validation_error.py +0 -0
  110. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/hugging_face_inference_api_embedding.py +0 -0
  111. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/hugging_face_inference_api_embedding_token.py +0 -0
  112. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/json_node_parser.py +0 -0
  113. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/llama_parse_supported_file_extensions.py +0 -0
  114. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/llm.py +0 -0
  115. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/local_eval.py +0 -0
  116. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/local_eval_results.py +0 -0
  117. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/local_eval_sets.py +0 -0
  118. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/managed_ingestion_status.py +0 -0
  119. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/markdown_element_node_parser.py +0 -0
  120. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/markdown_node_parser.py +0 -0
  121. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/message_role.py +0 -0
  122. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/metadata_filter.py +0 -0
  123. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/metadata_filter_value.py +0 -0
  124. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/metadata_filters.py +0 -0
  125. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/metadata_filters_filters_item.py +0 -0
  126. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/metric_result.py +0 -0
  127. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/node_parser.py +0 -0
  128. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/object_type.py +0 -0
  129. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/open_ai_embedding.py +0 -0
  130. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/parser_languages.py +0 -0
  131. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/parsing_history_item.py +0 -0
  132. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/parsing_job.py +0 -0
  133. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/parsing_job_json_result.py +0 -0
  134. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/parsing_job_markdown_result.py +0 -0
  135. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/parsing_job_text_result.py +0 -0
  136. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/parsing_usage.py +0 -0
  137. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/pipeline_data_source.py +0 -0
  138. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/pipeline_data_source_component.py +0 -0
  139. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/pipeline_data_source_component_one.py +0 -0
  140. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/pipeline_data_source_create.py +0 -0
  141. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/pipeline_data_source_custom_metadata_value.py +0 -0
  142. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/pipeline_deployment.py +0 -0
  143. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/pipeline_file.py +0 -0
  144. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/pipeline_file_create.py +0 -0
  145. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/pipeline_file_create_custom_metadata_value.py +0 -0
  146. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/pipeline_file_custom_metadata_value.py +0 -0
  147. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/pipeline_file_resource_info_value.py +0 -0
  148. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/pipeline_type.py +0 -0
  149. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/pooling.py +0 -0
  150. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/preset_retrieval_params.py +0 -0
  151. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/presigned_url.py +0 -0
  152. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/project_create.py +0 -0
  153. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/prompt_mixin_prompts.py +0 -0
  154. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/prompt_spec.py +0 -0
  155. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/pydantic_program_mode.py +0 -0
  156. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/related_node_info.py +0 -0
  157. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/retrieve_results.py +0 -0
  158. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/sentence_splitter.py +0 -0
  159. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/simple_file_node_parser.py +0 -0
  160. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/status_enum.py +0 -0
  161. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/supported_eval_llm_model.py +0 -0
  162. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/supported_eval_llm_model_names.py +0 -0
  163. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/text_node.py +0 -0
  164. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/text_node_relationships_value.py +0 -0
  165. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/text_node_with_score.py +0 -0
  166. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/token_text_splitter.py +0 -0
  167. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/transformation_category_names.py +0 -0
  168. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/validation_error.py +0 -0
  169. {llama_cloud-0.0.5 → llama_cloud-0.0.6}/llama_cloud/types/validation_error_loc_item.py +0 -0
@@ -1,6 +1,6 @@
1
1
  Metadata-Version: 2.1
2
2
  Name: llama-cloud
3
- Version: 0.0.5
3
+ Version: 0.0.6
4
4
  Summary:
5
5
  Author: Logan Markewich
6
6
  Author-email: logan@runllama.ai
@@ -63,12 +63,14 @@ from .types import (
63
63
  HuggingFaceInferenceApiEmbedding,
64
64
  HuggingFaceInferenceApiEmbeddingToken,
65
65
  JsonNodeParser,
66
+ LlamaParseParameters,
66
67
  LlamaParseSupportedFileExtensions,
67
68
  Llm,
68
69
  LocalEval,
69
70
  LocalEvalResults,
70
71
  LocalEvalSets,
71
72
  ManagedIngestionStatus,
73
+ ManagedIngestionStatusResponse,
72
74
  MarkdownElementNodeParser,
73
75
  MarkdownNodeParser,
74
76
  MessageRole,
@@ -100,7 +102,6 @@ from .types import (
100
102
  PipelineFileCreateCustomMetadataValue,
101
103
  PipelineFileCustomMetadataValue,
102
104
  PipelineFileResourceInfoValue,
103
- PipelineFileStatusResponse,
104
105
  PipelineType,
105
106
  Pooling,
106
107
  PresetRetrievalParams,
@@ -215,12 +216,14 @@ __all__ = [
215
216
  "HuggingFaceInferenceApiEmbeddingToken",
216
217
  "JsonNodeParser",
217
218
  "LlamaCloudEnvironment",
219
+ "LlamaParseParameters",
218
220
  "LlamaParseSupportedFileExtensions",
219
221
  "Llm",
220
222
  "LocalEval",
221
223
  "LocalEvalResults",
222
224
  "LocalEvalSets",
223
225
  "ManagedIngestionStatus",
226
+ "ManagedIngestionStatusResponse",
224
227
  "MarkdownElementNodeParser",
225
228
  "MarkdownNodeParser",
226
229
  "MessageRole",
@@ -252,7 +255,6 @@ __all__ = [
252
255
  "PipelineFileCreateCustomMetadataValue",
253
256
  "PipelineFileCustomMetadataValue",
254
257
  "PipelineFileResourceInfoValue",
255
- "PipelineFileStatusResponse",
256
258
  "PipelineFileUpdateCustomMetadataValue",
257
259
  "PipelineType",
258
260
  "Pooling",
@@ -18,7 +18,8 @@ from ...types.eval_execution_params import EvalExecutionParams
18
18
  from ...types.eval_execution_params_override import EvalExecutionParamsOverride
19
19
  from ...types.eval_question_result import EvalQuestionResult
20
20
  from ...types.http_validation_error import HttpValidationError
21
- from ...types.managed_ingestion_status import ManagedIngestionStatus
21
+ from ...types.llama_parse_parameters import LlamaParseParameters
22
+ from ...types.managed_ingestion_status_response import ManagedIngestionStatusResponse
22
23
  from ...types.metadata_filters import MetadataFilters
23
24
  from ...types.pipeline import Pipeline
24
25
  from ...types.pipeline_create import PipelineCreate
@@ -27,7 +28,6 @@ from ...types.pipeline_data_source_create import PipelineDataSourceCreate
27
28
  from ...types.pipeline_deployment import PipelineDeployment
28
29
  from ...types.pipeline_file import PipelineFile
29
30
  from ...types.pipeline_file_create import PipelineFileCreate
30
- from ...types.pipeline_file_status_response import PipelineFileStatusResponse
31
31
  from ...types.pipeline_type import PipelineType
32
32
  from ...types.preset_retrieval_params import PresetRetrievalParams
33
33
  from ...types.retrieve_results import RetrieveResults
@@ -110,6 +110,7 @@ class PipelinesClient:
110
110
  DataSinkCreate,
111
111
  EvalExecutionParams,
112
112
  FilterCondition,
113
+ LlamaParseParameters,
113
114
  MetadataFilters,
114
115
  PipelineCreate,
115
116
  PipelineType,
@@ -136,6 +137,7 @@ class PipelinesClient:
136
137
  eval_parameters=EvalExecutionParams(
137
138
  llm_model=SupportedEvalLlmModelNames.GPT_3_5_TURBO,
138
139
  ),
140
+ llama_parse_parameters=LlamaParseParameters(),
139
141
  name="string",
140
142
  pipeline_type=PipelineType.PLAYGROUND,
141
143
  ),
@@ -174,6 +176,7 @@ class PipelinesClient:
174
176
  DataSinkCreate,
175
177
  EvalExecutionParams,
176
178
  FilterCondition,
179
+ LlamaParseParameters,
177
180
  MetadataFilters,
178
181
  PipelineCreate,
179
182
  PipelineType,
@@ -200,6 +203,7 @@ class PipelinesClient:
200
203
  eval_parameters=EvalExecutionParams(
201
204
  llm_model=SupportedEvalLlmModelNames.GPT_3_5_TURBO,
202
205
  ),
206
+ llama_parse_parameters=LlamaParseParameters(),
203
207
  name="string",
204
208
  pipeline_type=PipelineType.PLAYGROUND,
205
209
  ),
@@ -223,16 +227,12 @@ class PipelinesClient:
223
227
  raise ApiError(status_code=_response.status_code, body=_response.text)
224
228
  raise ApiError(status_code=_response.status_code, body=_response_json)
225
229
 
226
- def get_pipeline(
227
- self, pipeline_id: str, *, with_managed_ingestion_status: typing.Optional[bool] = None
228
- ) -> Pipeline:
230
+ def get_pipeline(self, pipeline_id: str) -> Pipeline:
229
231
  """
230
232
  Get a pipeline by ID for a given project.
231
233
 
232
234
  Parameters:
233
235
  - pipeline_id: str.
234
-
235
- - with_managed_ingestion_status: typing.Optional[bool].
236
236
  ---
237
237
  from llama_cloud.client import LlamaCloud
238
238
 
@@ -246,7 +246,6 @@ class PipelinesClient:
246
246
  _response = self._client_wrapper.httpx_client.request(
247
247
  "GET",
248
248
  urllib.parse.urljoin(f"{self._client_wrapper.get_base_url()}/", f"api/v1/pipelines/{pipeline_id}"),
249
- params=remove_none_from_dict({"with_managed_ingestion_status": with_managed_ingestion_status}),
250
249
  headers=self._client_wrapper.get_headers(),
251
250
  timeout=60,
252
251
  )
@@ -270,6 +269,7 @@ class PipelinesClient:
270
269
  preset_retrieval_parameters: typing.Optional[PresetRetrievalParams] = OMIT,
271
270
  eval_parameters: typing.Optional[EvalExecutionParams] = OMIT,
272
271
  llama_parse_enabled: typing.Optional[bool] = OMIT,
272
+ llama_parse_parameters: typing.Optional[LlamaParseParameters] = OMIT,
273
273
  name: typing.Optional[str] = OMIT,
274
274
  managed_pipeline_id: typing.Optional[str] = OMIT,
275
275
  ) -> Pipeline:
@@ -291,6 +291,8 @@ class PipelinesClient:
291
291
 
292
292
  - llama_parse_enabled: typing.Optional[bool]. Whether to use LlamaParse during pipeline execution.
293
293
 
294
+ - llama_parse_parameters: typing.Optional[LlamaParseParameters]. Settings that can be configured for how to use LlamaParse to parse files within a LlamaCloud pipeline.
295
+
294
296
  - name: typing.Optional[str].
295
297
 
296
298
  - managed_pipeline_id: typing.Optional[str]. The ID of the ManagedPipeline this playground pipeline is linked to.
@@ -300,6 +302,7 @@ class PipelinesClient:
300
302
  DataSinkCreate,
301
303
  EvalExecutionParams,
302
304
  FilterCondition,
305
+ LlamaParseParameters,
303
306
  MetadataFilters,
304
307
  PresetRetrievalParams,
305
308
  SupportedEvalLlmModelNames,
@@ -324,6 +327,7 @@ class PipelinesClient:
324
327
  eval_parameters=EvalExecutionParams(
325
328
  llm_model=SupportedEvalLlmModelNames.GPT_3_5_TURBO,
326
329
  ),
330
+ llama_parse_parameters=LlamaParseParameters(),
327
331
  )
328
332
  """
329
333
  _request: typing.Dict[str, typing.Any] = {}
@@ -339,6 +343,8 @@ class PipelinesClient:
339
343
  _request["eval_parameters"] = eval_parameters
340
344
  if llama_parse_enabled is not OMIT:
341
345
  _request["llama_parse_enabled"] = llama_parse_enabled
346
+ if llama_parse_parameters is not OMIT:
347
+ _request["llama_parse_parameters"] = llama_parse_parameters
342
348
  if name is not OMIT:
343
349
  _request["name"] = name
344
350
  if managed_pipeline_id is not OMIT:
@@ -392,6 +398,38 @@ class PipelinesClient:
392
398
  raise ApiError(status_code=_response.status_code, body=_response.text)
393
399
  raise ApiError(status_code=_response.status_code, body=_response_json)
394
400
 
401
+ def get_pipeline_status(self, pipeline_id: str) -> ManagedIngestionStatusResponse:
402
+ """
403
+ Get the status of a pipeline by ID.
404
+
405
+ Parameters:
406
+ - pipeline_id: str.
407
+ ---
408
+ from llama_cloud.client import LlamaCloud
409
+
410
+ client = LlamaCloud(
411
+ token="YOUR_TOKEN",
412
+ )
413
+ client.pipelines.get_pipeline_status(
414
+ pipeline_id="string",
415
+ )
416
+ """
417
+ _response = self._client_wrapper.httpx_client.request(
418
+ "GET",
419
+ urllib.parse.urljoin(f"{self._client_wrapper.get_base_url()}/", f"api/v1/pipelines/{pipeline_id}/status"),
420
+ headers=self._client_wrapper.get_headers(),
421
+ timeout=60,
422
+ )
423
+ if 200 <= _response.status_code < 300:
424
+ return pydantic.parse_obj_as(ManagedIngestionStatusResponse, _response.json()) # type: ignore
425
+ if _response.status_code == 422:
426
+ raise UnprocessableEntityError(pydantic.parse_obj_as(HttpValidationError, _response.json())) # type: ignore
427
+ try:
428
+ _response_json = _response.json()
429
+ except JSONDecodeError:
430
+ raise ApiError(status_code=_response.status_code, body=_response.text)
431
+ raise ApiError(status_code=_response.status_code, body=_response_json)
432
+
395
433
  def sync_pipeline(self, pipeline_id: str) -> Pipeline:
396
434
  """
397
435
  Run ingestion for the pipeline by incrementally updating the data-sink with upstream changes from data-sources & files.
@@ -676,7 +714,7 @@ class PipelinesClient:
676
714
  raise ApiError(status_code=_response.status_code, body=_response.text)
677
715
  raise ApiError(status_code=_response.status_code, body=_response_json)
678
716
 
679
- def get_pipeline_file_status(self, pipeline_id: str, file_id: str) -> PipelineFileStatusResponse:
717
+ def get_pipeline_file_status(self, pipeline_id: str, file_id: str) -> ManagedIngestionStatusResponse:
680
718
  """
681
719
  Get status of a file for a pipeline.
682
720
 
@@ -704,7 +742,7 @@ class PipelinesClient:
704
742
  timeout=60,
705
743
  )
706
744
  if 200 <= _response.status_code < 300:
707
- return pydantic.parse_obj_as(PipelineFileStatusResponse, _response.json()) # type: ignore
745
+ return pydantic.parse_obj_as(ManagedIngestionStatusResponse, _response.json()) # type: ignore
708
746
  if _response.status_code == 422:
709
747
  raise UnprocessableEntityError(pydantic.parse_obj_as(HttpValidationError, _response.json())) # type: ignore
710
748
  try:
@@ -1290,7 +1328,7 @@ class PipelinesClient:
1290
1328
  raise ApiError(status_code=_response.status_code, body=_response.text)
1291
1329
  raise ApiError(status_code=_response.status_code, body=_response_json)
1292
1330
 
1293
- def get_pipeline_document_status(self, pipeline_id: str, document_id: str) -> ManagedIngestionStatus:
1331
+ def get_pipeline_document_status(self, pipeline_id: str, document_id: str) -> ManagedIngestionStatusResponse:
1294
1332
  """
1295
1333
  Return a single document for a pipeline.
1296
1334
 
@@ -1319,7 +1357,7 @@ class PipelinesClient:
1319
1357
  timeout=60,
1320
1358
  )
1321
1359
  if 200 <= _response.status_code < 300:
1322
- return pydantic.parse_obj_as(ManagedIngestionStatus, _response.json()) # type: ignore
1360
+ return pydantic.parse_obj_as(ManagedIngestionStatusResponse, _response.json()) # type: ignore
1323
1361
  if _response.status_code == 422:
1324
1362
  raise UnprocessableEntityError(pydantic.parse_obj_as(HttpValidationError, _response.json())) # type: ignore
1325
1363
  try:
@@ -1394,6 +1432,7 @@ class AsyncPipelinesClient:
1394
1432
  DataSinkCreate,
1395
1433
  EvalExecutionParams,
1396
1434
  FilterCondition,
1435
+ LlamaParseParameters,
1397
1436
  MetadataFilters,
1398
1437
  PipelineCreate,
1399
1438
  PipelineType,
@@ -1420,6 +1459,7 @@ class AsyncPipelinesClient:
1420
1459
  eval_parameters=EvalExecutionParams(
1421
1460
  llm_model=SupportedEvalLlmModelNames.GPT_3_5_TURBO,
1422
1461
  ),
1462
+ llama_parse_parameters=LlamaParseParameters(),
1423
1463
  name="string",
1424
1464
  pipeline_type=PipelineType.PLAYGROUND,
1425
1465
  ),
@@ -1458,6 +1498,7 @@ class AsyncPipelinesClient:
1458
1498
  DataSinkCreate,
1459
1499
  EvalExecutionParams,
1460
1500
  FilterCondition,
1501
+ LlamaParseParameters,
1461
1502
  MetadataFilters,
1462
1503
  PipelineCreate,
1463
1504
  PipelineType,
@@ -1484,6 +1525,7 @@ class AsyncPipelinesClient:
1484
1525
  eval_parameters=EvalExecutionParams(
1485
1526
  llm_model=SupportedEvalLlmModelNames.GPT_3_5_TURBO,
1486
1527
  ),
1528
+ llama_parse_parameters=LlamaParseParameters(),
1487
1529
  name="string",
1488
1530
  pipeline_type=PipelineType.PLAYGROUND,
1489
1531
  ),
@@ -1507,16 +1549,12 @@ class AsyncPipelinesClient:
1507
1549
  raise ApiError(status_code=_response.status_code, body=_response.text)
1508
1550
  raise ApiError(status_code=_response.status_code, body=_response_json)
1509
1551
 
1510
- async def get_pipeline(
1511
- self, pipeline_id: str, *, with_managed_ingestion_status: typing.Optional[bool] = None
1512
- ) -> Pipeline:
1552
+ async def get_pipeline(self, pipeline_id: str) -> Pipeline:
1513
1553
  """
1514
1554
  Get a pipeline by ID for a given project.
1515
1555
 
1516
1556
  Parameters:
1517
1557
  - pipeline_id: str.
1518
-
1519
- - with_managed_ingestion_status: typing.Optional[bool].
1520
1558
  ---
1521
1559
  from llama_cloud.client import AsyncLlamaCloud
1522
1560
 
@@ -1530,7 +1568,6 @@ class AsyncPipelinesClient:
1530
1568
  _response = await self._client_wrapper.httpx_client.request(
1531
1569
  "GET",
1532
1570
  urllib.parse.urljoin(f"{self._client_wrapper.get_base_url()}/", f"api/v1/pipelines/{pipeline_id}"),
1533
- params=remove_none_from_dict({"with_managed_ingestion_status": with_managed_ingestion_status}),
1534
1571
  headers=self._client_wrapper.get_headers(),
1535
1572
  timeout=60,
1536
1573
  )
@@ -1554,6 +1591,7 @@ class AsyncPipelinesClient:
1554
1591
  preset_retrieval_parameters: typing.Optional[PresetRetrievalParams] = OMIT,
1555
1592
  eval_parameters: typing.Optional[EvalExecutionParams] = OMIT,
1556
1593
  llama_parse_enabled: typing.Optional[bool] = OMIT,
1594
+ llama_parse_parameters: typing.Optional[LlamaParseParameters] = OMIT,
1557
1595
  name: typing.Optional[str] = OMIT,
1558
1596
  managed_pipeline_id: typing.Optional[str] = OMIT,
1559
1597
  ) -> Pipeline:
@@ -1575,6 +1613,8 @@ class AsyncPipelinesClient:
1575
1613
 
1576
1614
  - llama_parse_enabled: typing.Optional[bool]. Whether to use LlamaParse during pipeline execution.
1577
1615
 
1616
+ - llama_parse_parameters: typing.Optional[LlamaParseParameters]. Settings that can be configured for how to use LlamaParse to parse files within a LlamaCloud pipeline.
1617
+
1578
1618
  - name: typing.Optional[str].
1579
1619
 
1580
1620
  - managed_pipeline_id: typing.Optional[str]. The ID of the ManagedPipeline this playground pipeline is linked to.
@@ -1584,6 +1624,7 @@ class AsyncPipelinesClient:
1584
1624
  DataSinkCreate,
1585
1625
  EvalExecutionParams,
1586
1626
  FilterCondition,
1627
+ LlamaParseParameters,
1587
1628
  MetadataFilters,
1588
1629
  PresetRetrievalParams,
1589
1630
  SupportedEvalLlmModelNames,
@@ -1608,6 +1649,7 @@ class AsyncPipelinesClient:
1608
1649
  eval_parameters=EvalExecutionParams(
1609
1650
  llm_model=SupportedEvalLlmModelNames.GPT_3_5_TURBO,
1610
1651
  ),
1652
+ llama_parse_parameters=LlamaParseParameters(),
1611
1653
  )
1612
1654
  """
1613
1655
  _request: typing.Dict[str, typing.Any] = {}
@@ -1623,6 +1665,8 @@ class AsyncPipelinesClient:
1623
1665
  _request["eval_parameters"] = eval_parameters
1624
1666
  if llama_parse_enabled is not OMIT:
1625
1667
  _request["llama_parse_enabled"] = llama_parse_enabled
1668
+ if llama_parse_parameters is not OMIT:
1669
+ _request["llama_parse_parameters"] = llama_parse_parameters
1626
1670
  if name is not OMIT:
1627
1671
  _request["name"] = name
1628
1672
  if managed_pipeline_id is not OMIT:
@@ -1676,6 +1720,38 @@ class AsyncPipelinesClient:
1676
1720
  raise ApiError(status_code=_response.status_code, body=_response.text)
1677
1721
  raise ApiError(status_code=_response.status_code, body=_response_json)
1678
1722
 
1723
+ async def get_pipeline_status(self, pipeline_id: str) -> ManagedIngestionStatusResponse:
1724
+ """
1725
+ Get the status of a pipeline by ID.
1726
+
1727
+ Parameters:
1728
+ - pipeline_id: str.
1729
+ ---
1730
+ from llama_cloud.client import AsyncLlamaCloud
1731
+
1732
+ client = AsyncLlamaCloud(
1733
+ token="YOUR_TOKEN",
1734
+ )
1735
+ await client.pipelines.get_pipeline_status(
1736
+ pipeline_id="string",
1737
+ )
1738
+ """
1739
+ _response = await self._client_wrapper.httpx_client.request(
1740
+ "GET",
1741
+ urllib.parse.urljoin(f"{self._client_wrapper.get_base_url()}/", f"api/v1/pipelines/{pipeline_id}/status"),
1742
+ headers=self._client_wrapper.get_headers(),
1743
+ timeout=60,
1744
+ )
1745
+ if 200 <= _response.status_code < 300:
1746
+ return pydantic.parse_obj_as(ManagedIngestionStatusResponse, _response.json()) # type: ignore
1747
+ if _response.status_code == 422:
1748
+ raise UnprocessableEntityError(pydantic.parse_obj_as(HttpValidationError, _response.json())) # type: ignore
1749
+ try:
1750
+ _response_json = _response.json()
1751
+ except JSONDecodeError:
1752
+ raise ApiError(status_code=_response.status_code, body=_response.text)
1753
+ raise ApiError(status_code=_response.status_code, body=_response_json)
1754
+
1679
1755
  async def sync_pipeline(self, pipeline_id: str) -> Pipeline:
1680
1756
  """
1681
1757
  Run ingestion for the pipeline by incrementally updating the data-sink with upstream changes from data-sources & files.
@@ -1962,7 +2038,7 @@ class AsyncPipelinesClient:
1962
2038
  raise ApiError(status_code=_response.status_code, body=_response.text)
1963
2039
  raise ApiError(status_code=_response.status_code, body=_response_json)
1964
2040
 
1965
- async def get_pipeline_file_status(self, pipeline_id: str, file_id: str) -> PipelineFileStatusResponse:
2041
+ async def get_pipeline_file_status(self, pipeline_id: str, file_id: str) -> ManagedIngestionStatusResponse:
1966
2042
  """
1967
2043
  Get status of a file for a pipeline.
1968
2044
 
@@ -1990,7 +2066,7 @@ class AsyncPipelinesClient:
1990
2066
  timeout=60,
1991
2067
  )
1992
2068
  if 200 <= _response.status_code < 300:
1993
- return pydantic.parse_obj_as(PipelineFileStatusResponse, _response.json()) # type: ignore
2069
+ return pydantic.parse_obj_as(ManagedIngestionStatusResponse, _response.json()) # type: ignore
1994
2070
  if _response.status_code == 422:
1995
2071
  raise UnprocessableEntityError(pydantic.parse_obj_as(HttpValidationError, _response.json())) # type: ignore
1996
2072
  try:
@@ -2576,7 +2652,7 @@ class AsyncPipelinesClient:
2576
2652
  raise ApiError(status_code=_response.status_code, body=_response.text)
2577
2653
  raise ApiError(status_code=_response.status_code, body=_response_json)
2578
2654
 
2579
- async def get_pipeline_document_status(self, pipeline_id: str, document_id: str) -> ManagedIngestionStatus:
2655
+ async def get_pipeline_document_status(self, pipeline_id: str, document_id: str) -> ManagedIngestionStatusResponse:
2580
2656
  """
2581
2657
  Return a single document for a pipeline.
2582
2658
 
@@ -2605,7 +2681,7 @@ class AsyncPipelinesClient:
2605
2681
  timeout=60,
2606
2682
  )
2607
2683
  if 200 <= _response.status_code < 300:
2608
- return pydantic.parse_obj_as(ManagedIngestionStatus, _response.json()) # type: ignore
2684
+ return pydantic.parse_obj_as(ManagedIngestionStatusResponse, _response.json()) # type: ignore
2609
2685
  if _response.status_code == 422:
2610
2686
  raise UnprocessableEntityError(pydantic.parse_obj_as(HttpValidationError, _response.json())) # type: ignore
2611
2687
  try:
@@ -62,12 +62,14 @@ from .http_validation_error import HttpValidationError
62
62
  from .hugging_face_inference_api_embedding import HuggingFaceInferenceApiEmbedding
63
63
  from .hugging_face_inference_api_embedding_token import HuggingFaceInferenceApiEmbeddingToken
64
64
  from .json_node_parser import JsonNodeParser
65
+ from .llama_parse_parameters import LlamaParseParameters
65
66
  from .llama_parse_supported_file_extensions import LlamaParseSupportedFileExtensions
66
67
  from .llm import Llm
67
68
  from .local_eval import LocalEval
68
69
  from .local_eval_results import LocalEvalResults
69
70
  from .local_eval_sets import LocalEvalSets
70
71
  from .managed_ingestion_status import ManagedIngestionStatus
72
+ from .managed_ingestion_status_response import ManagedIngestionStatusResponse
71
73
  from .markdown_element_node_parser import MarkdownElementNodeParser
72
74
  from .markdown_node_parser import MarkdownNodeParser
73
75
  from .message_role import MessageRole
@@ -99,7 +101,6 @@ from .pipeline_file_create import PipelineFileCreate
99
101
  from .pipeline_file_create_custom_metadata_value import PipelineFileCreateCustomMetadataValue
100
102
  from .pipeline_file_custom_metadata_value import PipelineFileCustomMetadataValue
101
103
  from .pipeline_file_resource_info_value import PipelineFileResourceInfoValue
102
- from .pipeline_file_status_response import PipelineFileStatusResponse
103
104
  from .pipeline_type import PipelineType
104
105
  from .pooling import Pooling
105
106
  from .preset_retrieval_params import PresetRetrievalParams
@@ -187,12 +188,14 @@ __all__ = [
187
188
  "HuggingFaceInferenceApiEmbedding",
188
189
  "HuggingFaceInferenceApiEmbeddingToken",
189
190
  "JsonNodeParser",
191
+ "LlamaParseParameters",
190
192
  "LlamaParseSupportedFileExtensions",
191
193
  "Llm",
192
194
  "LocalEval",
193
195
  "LocalEvalResults",
194
196
  "LocalEvalSets",
195
197
  "ManagedIngestionStatus",
198
+ "ManagedIngestionStatusResponse",
196
199
  "MarkdownElementNodeParser",
197
200
  "MarkdownNodeParser",
198
201
  "MessageRole",
@@ -224,7 +227,6 @@ __all__ = [
224
227
  "PipelineFileCreateCustomMetadataValue",
225
228
  "PipelineFileCustomMetadataValue",
226
229
  "PipelineFileResourceInfoValue",
227
- "PipelineFileStatusResponse",
228
230
  "PipelineType",
229
231
  "Pooling",
230
232
  "PresetRetrievalParams",
@@ -0,0 +1,47 @@
1
+ # This file was auto-generated by Fern from our API Definition.
2
+
3
+ import datetime as dt
4
+ import typing
5
+
6
+ from ..core.datetime_utils import serialize_datetime
7
+ from .parser_languages import ParserLanguages
8
+
9
+ try:
10
+ import pydantic
11
+ if pydantic.__version__.startswith("1."):
12
+ raise ImportError
13
+ import pydantic.v1 as pydantic # type: ignore
14
+ except ImportError:
15
+ import pydantic # type: ignore
16
+
17
+
18
+ class LlamaParseParameters(pydantic.BaseModel):
19
+ """
20
+ Settings that can be configured for how to use LlamaParse to parse files witin a LlamaCloud pipeline.
21
+ """
22
+
23
+ languages: typing.Optional[typing.List[ParserLanguages]]
24
+ parsing_instruction: typing.Optional[str]
25
+ disable_ocr: typing.Optional[bool]
26
+ invalidate_cache: typing.Optional[bool]
27
+ do_not_cache: typing.Optional[bool]
28
+ fast_mode: typing.Optional[bool]
29
+ skip_diagonal_text: typing.Optional[bool]
30
+ gpt_4_o_mode: typing.Optional[bool] = pydantic.Field(alias="gpt4o_mode")
31
+ gpt_4_o_api_key: typing.Optional[str] = pydantic.Field(alias="gpt4o_api_key")
32
+ do_not_unroll_columns: typing.Optional[bool]
33
+ page_separator: typing.Optional[str]
34
+
35
+ def json(self, **kwargs: typing.Any) -> str:
36
+ kwargs_with_defaults: typing.Any = {"by_alias": True, "exclude_unset": True, **kwargs}
37
+ return super().json(**kwargs_with_defaults)
38
+
39
+ def dict(self, **kwargs: typing.Any) -> typing.Dict[str, typing.Any]:
40
+ kwargs_with_defaults: typing.Any = {"by_alias": True, "exclude_unset": True, **kwargs}
41
+ return super().dict(**kwargs_with_defaults)
42
+
43
+ class Config:
44
+ frozen = True
45
+ smart_union = True
46
+ allow_population_by_field_name = True
47
+ json_encoders = {dt.datetime: serialize_datetime}
@@ -0,0 +1,32 @@
1
+ # This file was auto-generated by Fern from our API Definition.
2
+
3
+ import datetime as dt
4
+ import typing
5
+
6
+ from ..core.datetime_utils import serialize_datetime
7
+ from .managed_ingestion_status import ManagedIngestionStatus
8
+
9
+ try:
10
+ import pydantic
11
+ if pydantic.__version__.startswith("1."):
12
+ raise ImportError
13
+ import pydantic.v1 as pydantic # type: ignore
14
+ except ImportError:
15
+ import pydantic # type: ignore
16
+
17
+
18
+ class ManagedIngestionStatusResponse(pydantic.BaseModel):
19
+ status: ManagedIngestionStatus = pydantic.Field(description="Status of the ingestion.")
20
+
21
+ def json(self, **kwargs: typing.Any) -> str:
22
+ kwargs_with_defaults: typing.Any = {"by_alias": True, "exclude_unset": True, **kwargs}
23
+ return super().json(**kwargs_with_defaults)
24
+
25
+ def dict(self, **kwargs: typing.Any) -> typing.Dict[str, typing.Any]:
26
+ kwargs_with_defaults: typing.Any = {"by_alias": True, "exclude_unset": True, **kwargs}
27
+ return super().dict(**kwargs_with_defaults)
28
+
29
+ class Config:
30
+ frozen = True
31
+ smart_union = True
32
+ json_encoders = {dt.datetime: serialize_datetime}
@@ -7,6 +7,7 @@ from ..core.datetime_utils import serialize_datetime
7
7
  from .configured_transformation_item import ConfiguredTransformationItem
8
8
  from .data_sink import DataSink
9
9
  from .eval_execution_params import EvalExecutionParams
10
+ from .llama_parse_parameters import LlamaParseParameters
10
11
  from .managed_ingestion_status import ManagedIngestionStatus
11
12
  from .pipeline_type import PipelineType
12
13
  from .preset_retrieval_params import PresetRetrievalParams
@@ -46,6 +47,9 @@ class Pipeline(pydantic.BaseModel):
46
47
  llama_parse_enabled: typing.Optional[bool] = pydantic.Field(
47
48
  description="Whether to use LlamaParse during pipeline execution."
48
49
  )
50
+ llama_parse_parameters: typing.Optional[LlamaParseParameters] = pydantic.Field(
51
+ description="Settings that can be configured for how to use LlamaParse to parse files within a LlamaCloud pipeline."
52
+ )
49
53
  managed_ingestion_status: typing.Optional[ManagedIngestionStatus] = pydantic.Field(
50
54
  description="Status of Managed Ingestion."
51
55
  )
@@ -7,6 +7,7 @@ from ..core.datetime_utils import serialize_datetime
7
7
  from .configured_transformation_item import ConfiguredTransformationItem
8
8
  from .data_sink_create import DataSinkCreate
9
9
  from .eval_execution_params import EvalExecutionParams
10
+ from .llama_parse_parameters import LlamaParseParameters
10
11
  from .pipeline_type import PipelineType
11
12
  from .preset_retrieval_params import PresetRetrievalParams
12
13
 
@@ -42,6 +43,9 @@ class PipelineCreate(pydantic.BaseModel):
42
43
  llama_parse_enabled: typing.Optional[bool] = pydantic.Field(
43
44
  description="Whether to use LlamaParse during pipeline execution."
44
45
  )
46
+ llama_parse_parameters: typing.Optional[LlamaParseParameters] = pydantic.Field(
47
+ description="Settings that can be configured for how to use LlamaParse to parse files within a LlamaCloud pipeline."
48
+ )
45
49
  name: str
46
50
  pipeline_type: typing.Optional[PipelineType] = pydantic.Field(
47
51
  description="Type of pipeline. Either PLAYGROUND or MANAGED."
@@ -4,7 +4,6 @@ import datetime as dt
4
4
  import typing
5
5
 
6
6
  from ..core.datetime_utils import serialize_datetime
7
- from .pipeline import Pipeline
8
7
 
9
8
  try:
10
9
  import pydantic
@@ -24,7 +23,6 @@ class Project(pydantic.BaseModel):
24
23
  id: str = pydantic.Field(description="Unique identifier")
25
24
  created_at: typing.Optional[dt.datetime] = pydantic.Field(description="Creation datetime")
26
25
  updated_at: typing.Optional[dt.datetime] = pydantic.Field(description="Update datetime")
27
- pipelines: typing.List[Pipeline]
28
26
  ad_hoc_eval_dataset_id: typing.Optional[str]
29
27
  user_id: str = pydantic.Field(description="The user ID of the project owner.")
30
28
  is_default: typing.Optional[bool] = pydantic.Field(
@@ -1,10 +1,10 @@
1
1
  [tool.poetry]
2
2
  name = "llama-cloud"
3
- version = "0.0.5"
3
+ version = "0.0.6"
4
4
  description = ""
5
5
  authors = ["Logan Markewich <logan@runllama.ai>"]
6
6
  readme = "README.md"
7
- packages = [{include = "llama_cloud"}]
7
+ packages = [{ include = "llama_cloud" }]
8
8
 
9
9
  [tool.poetry.dependencies]
10
10
  python = ">=3.8,<4"
@@ -1,38 +0,0 @@
1
- # This file was auto-generated by Fern from our API Definition.
2
-
3
- import datetime as dt
4
- import typing
5
-
6
- from ..core.datetime_utils import serialize_datetime
7
- from .managed_ingestion_status import ManagedIngestionStatus
8
-
9
- try:
10
- import pydantic
11
- if pydantic.__version__.startswith("1."):
12
- raise ImportError
13
- import pydantic.v1 as pydantic # type: ignore
14
- except ImportError:
15
- import pydantic # type: ignore
16
-
17
-
18
- class PipelineFileStatusResponse(pydantic.BaseModel):
19
- """
20
- Schema for the status of a pipeline file.
21
- """
22
-
23
- file_id: str = pydantic.Field(description="The ID of the file")
24
- pipeline_id: str = pydantic.Field(description="The ID of the pipeline")
25
- status: ManagedIngestionStatus = pydantic.Field(description="The status of the pipeline file")
26
-
27
- def json(self, **kwargs: typing.Any) -> str:
28
- kwargs_with_defaults: typing.Any = {"by_alias": True, "exclude_unset": True, **kwargs}
29
- return super().json(**kwargs_with_defaults)
30
-
31
- def dict(self, **kwargs: typing.Any) -> typing.Dict[str, typing.Any]:
32
- kwargs_with_defaults: typing.Any = {"by_alias": True, "exclude_unset": True, **kwargs}
33
- return super().dict(**kwargs_with_defaults)
34
-
35
- class Config:
36
- frozen = True
37
- smart_union = True
38
- json_encoders = {dt.datetime: serialize_datetime}
File without changes
File without changes