llama-cloud 0.1.6__py3-none-any.whl → 0.1.7__py3-none-any.whl

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.

Potentially problematic release.


This version of llama-cloud might be problematic. Click here for more details.

Files changed (173) hide show
  1. llama_cloud/__init__.py +140 -6
  2. llama_cloud/client.py +15 -0
  3. llama_cloud/environment.py +1 -1
  4. llama_cloud/resources/__init__.py +15 -0
  5. llama_cloud/{types/token.py → resources/chat_apps/__init__.py} +0 -3
  6. llama_cloud/resources/chat_apps/client.py +630 -0
  7. llama_cloud/resources/data_sinks/client.py +12 -12
  8. llama_cloud/resources/data_sources/client.py +14 -14
  9. llama_cloud/resources/embedding_model_configs/client.py +20 -76
  10. llama_cloud/resources/evals/client.py +26 -36
  11. llama_cloud/resources/extraction/client.py +32 -32
  12. llama_cloud/resources/files/client.py +40 -44
  13. llama_cloud/resources/jobs/__init__.py +2 -0
  14. llama_cloud/resources/jobs/client.py +148 -0
  15. llama_cloud/resources/llama_extract/__init__.py +5 -0
  16. llama_cloud/resources/llama_extract/client.py +1038 -0
  17. llama_cloud/resources/llama_extract/types/__init__.py +6 -0
  18. llama_cloud/resources/llama_extract/types/extract_agent_create_data_schema_value.py +7 -0
  19. llama_cloud/resources/llama_extract/types/extract_agent_update_data_schema_value.py +7 -0
  20. llama_cloud/resources/organizations/client.py +66 -70
  21. llama_cloud/resources/parsing/client.py +448 -428
  22. llama_cloud/resources/pipelines/client.py +256 -344
  23. llama_cloud/resources/projects/client.py +34 -60
  24. llama_cloud/resources/reports/__init__.py +5 -0
  25. llama_cloud/resources/reports/client.py +1198 -0
  26. llama_cloud/resources/reports/types/__init__.py +7 -0
  27. llama_cloud/resources/reports/types/update_report_plan_api_v_1_reports_report_id_plan_patch_request_action.py +25 -0
  28. llama_cloud/resources/retrievers/__init__.py +2 -0
  29. llama_cloud/resources/retrievers/client.py +654 -0
  30. llama_cloud/types/__init__.py +128 -6
  31. llama_cloud/types/{chat_message.py → app_schema_chat_chat_message.py} +3 -3
  32. llama_cloud/types/azure_open_ai_embedding.py +6 -12
  33. llama_cloud/types/base_prompt_template.py +2 -6
  34. llama_cloud/types/bedrock_embedding.py +6 -12
  35. llama_cloud/types/character_splitter.py +2 -4
  36. llama_cloud/types/chat_app.py +44 -0
  37. llama_cloud/types/chat_app_response.py +41 -0
  38. llama_cloud/types/cloud_az_storage_blob_data_source.py +7 -15
  39. llama_cloud/types/cloud_box_data_source.py +6 -12
  40. llama_cloud/types/cloud_confluence_data_source.py +6 -6
  41. llama_cloud/types/cloud_document.py +1 -3
  42. llama_cloud/types/cloud_document_create.py +1 -3
  43. llama_cloud/types/cloud_jira_data_source.py +4 -6
  44. llama_cloud/types/cloud_notion_page_data_source.py +2 -2
  45. llama_cloud/types/cloud_one_drive_data_source.py +3 -5
  46. llama_cloud/types/cloud_postgres_vector_store.py +1 -0
  47. llama_cloud/types/cloud_s_3_data_source.py +4 -8
  48. llama_cloud/types/cloud_sharepoint_data_source.py +6 -8
  49. llama_cloud/types/cloud_slack_data_source.py +6 -6
  50. llama_cloud/types/code_splitter.py +1 -1
  51. llama_cloud/types/cohere_embedding.py +3 -7
  52. llama_cloud/types/composite_retrieval_mode.py +21 -0
  53. llama_cloud/types/composite_retrieval_result.py +38 -0
  54. llama_cloud/types/composite_retrieved_text_node.py +42 -0
  55. llama_cloud/types/data_sink.py +4 -4
  56. llama_cloud/types/data_sink_component.py +20 -0
  57. llama_cloud/types/data_source.py +5 -7
  58. llama_cloud/types/data_source_component.py +28 -0
  59. llama_cloud/types/data_source_create.py +1 -3
  60. llama_cloud/types/edit_suggestion.py +39 -0
  61. llama_cloud/types/embedding_model_config.py +2 -2
  62. llama_cloud/types/embedding_model_config_update.py +2 -4
  63. llama_cloud/types/eval_dataset.py +2 -2
  64. llama_cloud/types/eval_dataset_job_record.py +8 -13
  65. llama_cloud/types/eval_execution_params_override.py +2 -6
  66. llama_cloud/types/eval_question.py +2 -2
  67. llama_cloud/types/extract_agent.py +45 -0
  68. llama_cloud/types/extract_agent_data_schema_value.py +5 -0
  69. llama_cloud/types/extract_config.py +40 -0
  70. llama_cloud/types/extract_job.py +35 -0
  71. llama_cloud/types/extract_job_create.py +40 -0
  72. llama_cloud/types/extract_job_create_data_schema_override_value.py +7 -0
  73. llama_cloud/types/extract_mode.py +17 -0
  74. llama_cloud/types/extract_resultset.py +46 -0
  75. llama_cloud/types/extract_resultset_data.py +11 -0
  76. llama_cloud/types/extract_resultset_data_item_value.py +7 -0
  77. llama_cloud/types/extract_resultset_data_zero_value.py +7 -0
  78. llama_cloud/types/extract_resultset_extraction_metadata_value.py +7 -0
  79. llama_cloud/types/extraction_result.py +2 -2
  80. llama_cloud/types/extraction_schema.py +3 -5
  81. llama_cloud/types/file.py +9 -14
  82. llama_cloud/types/filter_condition.py +9 -1
  83. llama_cloud/types/filter_operator.py +6 -2
  84. llama_cloud/types/gemini_embedding.py +6 -10
  85. llama_cloud/types/hugging_face_inference_api_embedding.py +11 -27
  86. llama_cloud/types/hugging_face_inference_api_embedding_token.py +5 -0
  87. llama_cloud/types/image_block.py +35 -0
  88. llama_cloud/types/input_message.py +2 -4
  89. llama_cloud/types/job_names.py +89 -0
  90. llama_cloud/types/job_record.py +57 -0
  91. llama_cloud/types/job_record_with_usage_metrics.py +36 -0
  92. llama_cloud/types/llama_index_core_base_llms_types_chat_message.py +39 -0
  93. llama_cloud/types/llama_index_core_base_llms_types_chat_message_blocks_item.py +33 -0
  94. llama_cloud/types/llama_parse_parameters.py +4 -0
  95. llama_cloud/types/llm.py +3 -4
  96. llama_cloud/types/llm_model_data.py +1 -0
  97. llama_cloud/types/llm_parameters.py +3 -5
  98. llama_cloud/types/local_eval.py +8 -10
  99. llama_cloud/types/local_eval_results.py +1 -1
  100. llama_cloud/types/managed_ingestion_status.py +4 -0
  101. llama_cloud/types/managed_ingestion_status_response.py +4 -5
  102. llama_cloud/types/markdown_element_node_parser.py +3 -5
  103. llama_cloud/types/markdown_node_parser.py +1 -1
  104. llama_cloud/types/metadata_filter.py +2 -2
  105. llama_cloud/types/metadata_filter_value.py +5 -0
  106. llama_cloud/types/metric_result.py +3 -3
  107. llama_cloud/types/node_parser.py +1 -1
  108. llama_cloud/types/object_type.py +4 -0
  109. llama_cloud/types/open_ai_embedding.py +6 -12
  110. llama_cloud/types/organization.py +7 -2
  111. llama_cloud/types/page_splitter_node_parser.py +2 -2
  112. llama_cloud/types/paginated_jobs_history_with_metrics.py +35 -0
  113. llama_cloud/types/paginated_report_response.py +35 -0
  114. llama_cloud/types/parse_plan_level.py +21 -0
  115. llama_cloud/types/permission.py +3 -3
  116. llama_cloud/types/pipeline.py +7 -17
  117. llama_cloud/types/pipeline_configuration_hashes.py +3 -3
  118. llama_cloud/types/pipeline_create.py +8 -16
  119. llama_cloud/types/pipeline_data_source.py +7 -13
  120. llama_cloud/types/pipeline_data_source_component.py +28 -0
  121. llama_cloud/types/pipeline_data_source_create.py +1 -3
  122. llama_cloud/types/pipeline_deployment.py +4 -4
  123. llama_cloud/types/pipeline_file.py +13 -24
  124. llama_cloud/types/pipeline_file_create.py +1 -3
  125. llama_cloud/types/playground_session.py +4 -4
  126. llama_cloud/types/preset_retrieval_params.py +8 -14
  127. llama_cloud/types/presigned_url.py +1 -3
  128. llama_cloud/types/progress_event.py +44 -0
  129. llama_cloud/types/progress_event_status.py +33 -0
  130. llama_cloud/types/project.py +2 -2
  131. llama_cloud/types/prompt_mixin_prompts.py +1 -1
  132. llama_cloud/types/prompt_spec.py +3 -5
  133. llama_cloud/types/related_node_info.py +2 -2
  134. llama_cloud/types/related_node_info_node_type.py +7 -0
  135. llama_cloud/types/report.py +33 -0
  136. llama_cloud/types/report_block.py +34 -0
  137. llama_cloud/types/report_block_dependency.py +29 -0
  138. llama_cloud/types/report_create_response.py +31 -0
  139. llama_cloud/types/report_event_item.py +40 -0
  140. llama_cloud/types/report_event_item_event_data.py +45 -0
  141. llama_cloud/types/report_event_type.py +37 -0
  142. llama_cloud/types/report_metadata.py +43 -0
  143. llama_cloud/types/report_plan.py +36 -0
  144. llama_cloud/types/report_plan_block.py +36 -0
  145. llama_cloud/types/report_query.py +33 -0
  146. llama_cloud/types/report_response.py +41 -0
  147. llama_cloud/types/report_state.py +37 -0
  148. llama_cloud/types/report_state_event.py +38 -0
  149. llama_cloud/types/report_update_event.py +38 -0
  150. llama_cloud/types/retrieve_results.py +1 -1
  151. llama_cloud/types/retriever.py +45 -0
  152. llama_cloud/types/retriever_create.py +37 -0
  153. llama_cloud/types/retriever_pipeline.py +37 -0
  154. llama_cloud/types/role.py +3 -3
  155. llama_cloud/types/sentence_splitter.py +2 -4
  156. llama_cloud/types/status_enum.py +4 -0
  157. llama_cloud/types/supported_llm_model_names.py +4 -0
  158. llama_cloud/types/text_block.py +31 -0
  159. llama_cloud/types/text_node.py +15 -8
  160. llama_cloud/types/token_text_splitter.py +1 -1
  161. llama_cloud/types/usage_metric_response.py +34 -0
  162. llama_cloud/types/user_job_record.py +32 -0
  163. llama_cloud/types/user_organization.py +5 -9
  164. llama_cloud/types/user_organization_create.py +4 -4
  165. llama_cloud/types/user_organization_delete.py +2 -2
  166. llama_cloud/types/user_organization_role.py +2 -2
  167. llama_cloud/types/vertex_text_embedding.py +5 -9
  168. {llama_cloud-0.1.6.dist-info → llama_cloud-0.1.7.dist-info}/METADATA +2 -1
  169. llama_cloud-0.1.7.dist-info/RECORD +310 -0
  170. llama_cloud/types/value.py +0 -5
  171. llama_cloud-0.1.6.dist-info/RECORD +0 -241
  172. {llama_cloud-0.1.6.dist-info → llama_cloud-0.1.7.dist-info}/LICENSE +0 -0
  173. {llama_cloud-0.1.6.dist-info → llama_cloud-0.1.7.dist-info}/WHEEL +0 -0
@@ -87,7 +87,7 @@ class ProjectsClient:
87
87
  )
88
88
  client.projects.create_project(
89
89
  request=ProjectCreate(
90
- name="name",
90
+ name="string",
91
91
  ),
92
92
  )
93
93
  """
@@ -127,7 +127,7 @@ class ProjectsClient:
127
127
  )
128
128
  client.projects.upsert_project(
129
129
  request=ProjectCreate(
130
- name="name",
130
+ name="string",
131
131
  ),
132
132
  )
133
133
  """
@@ -201,7 +201,7 @@ class ProjectsClient:
201
201
  token="YOUR_TOKEN",
202
202
  )
203
203
  client.projects.update_existing_project(
204
- name="name",
204
+ name="string",
205
205
  )
206
206
  """
207
207
  _response = self._client_wrapper.httpx_client.request(
@@ -346,7 +346,7 @@ class ProjectsClient:
346
346
  token="YOUR_TOKEN",
347
347
  )
348
348
  client.projects.create_eval_dataset_for_project(
349
- name="name",
349
+ name="string",
350
350
  )
351
351
  """
352
352
  _response = self._client_wrapper.httpx_client.request(
@@ -389,15 +389,14 @@ class ProjectsClient:
389
389
 
390
390
  - results: typing.Dict[str, typing.List[LocalEval]]. The eval results.
391
391
  ---
392
- from llama_cloud import LocalEval
393
392
  from llama_cloud.client import LlamaCloud
394
393
 
395
394
  client = LlamaCloud(
396
395
  token="YOUR_TOKEN",
397
396
  )
398
397
  client.projects.create_local_eval_set_for_project(
399
- app_name="app_name",
400
- results={"key": [LocalEval()]},
398
+ app_name="string",
399
+ results={"string": []},
401
400
  )
402
401
  """
403
402
  _response = self._client_wrapper.httpx_client.request(
@@ -511,7 +510,7 @@ class ProjectsClient:
511
510
  token="YOUR_TOKEN",
512
511
  )
513
512
  client.projects.delete_local_eval_set(
514
- local_eval_set_id="local_eval_set_id",
513
+ local_eval_set_id="string",
515
514
  )
516
515
  """
517
516
  _response = self._client_wrapper.httpx_client.request(
@@ -586,7 +585,7 @@ class ProjectsClient:
586
585
 
587
586
  - request: PromptMixinPrompts.
588
587
  ---
589
- from llama_cloud import PromptMixinPrompts, PromptSpec
588
+ from llama_cloud import PromptMixinPrompts
590
589
  from llama_cloud.client import LlamaCloud
591
590
 
592
591
  client = LlamaCloud(
@@ -594,15 +593,9 @@ class ProjectsClient:
594
593
  )
595
594
  client.projects.create_prompt_mixin_prompts(
596
595
  request=PromptMixinPrompts(
597
- project_id="project_id",
598
- name="name",
599
- prompts=[
600
- PromptSpec(
601
- prompt_key="prompt_key",
602
- prompt_class="prompt_class",
603
- prompt_type="prompt_type",
604
- )
605
- ],
596
+ project_id="string",
597
+ name="string",
598
+ prompts=[],
606
599
  ),
607
600
  )
608
601
  """
@@ -644,24 +637,18 @@ class ProjectsClient:
644
637
 
645
638
  - request: PromptMixinPrompts.
646
639
  ---
647
- from llama_cloud import PromptMixinPrompts, PromptSpec
640
+ from llama_cloud import PromptMixinPrompts
648
641
  from llama_cloud.client import LlamaCloud
649
642
 
650
643
  client = LlamaCloud(
651
644
  token="YOUR_TOKEN",
652
645
  )
653
646
  client.projects.update_promptmixin_prompts(
654
- prompt_set_id="prompt_set_id",
647
+ prompt_set_id="string",
655
648
  request=PromptMixinPrompts(
656
- project_id="project_id",
657
- name="name",
658
- prompts=[
659
- PromptSpec(
660
- prompt_key="prompt_key",
661
- prompt_class="prompt_class",
662
- prompt_type="prompt_type",
663
- )
664
- ],
649
+ project_id="string",
650
+ name="string",
651
+ prompts=[],
665
652
  ),
666
653
  )
667
654
  """
@@ -704,7 +691,7 @@ class ProjectsClient:
704
691
  token="YOUR_TOKEN",
705
692
  )
706
693
  client.projects.delete_prompt_mixin_prompts(
707
- prompt_set_id="prompt_set_id",
694
+ prompt_set_id="string",
708
695
  )
709
696
  """
710
697
  _response = self._client_wrapper.httpx_client.request(
@@ -783,7 +770,7 @@ class AsyncProjectsClient:
783
770
  )
784
771
  await client.projects.create_project(
785
772
  request=ProjectCreate(
786
- name="name",
773
+ name="string",
787
774
  ),
788
775
  )
789
776
  """
@@ -823,7 +810,7 @@ class AsyncProjectsClient:
823
810
  )
824
811
  await client.projects.upsert_project(
825
812
  request=ProjectCreate(
826
- name="name",
813
+ name="string",
827
814
  ),
828
815
  )
829
816
  """
@@ -899,7 +886,7 @@ class AsyncProjectsClient:
899
886
  token="YOUR_TOKEN",
900
887
  )
901
888
  await client.projects.update_existing_project(
902
- name="name",
889
+ name="string",
903
890
  )
904
891
  """
905
892
  _response = await self._client_wrapper.httpx_client.request(
@@ -1046,7 +1033,7 @@ class AsyncProjectsClient:
1046
1033
  token="YOUR_TOKEN",
1047
1034
  )
1048
1035
  await client.projects.create_eval_dataset_for_project(
1049
- name="name",
1036
+ name="string",
1050
1037
  )
1051
1038
  """
1052
1039
  _response = await self._client_wrapper.httpx_client.request(
@@ -1089,15 +1076,14 @@ class AsyncProjectsClient:
1089
1076
 
1090
1077
  - results: typing.Dict[str, typing.List[LocalEval]]. The eval results.
1091
1078
  ---
1092
- from llama_cloud import LocalEval
1093
1079
  from llama_cloud.client import AsyncLlamaCloud
1094
1080
 
1095
1081
  client = AsyncLlamaCloud(
1096
1082
  token="YOUR_TOKEN",
1097
1083
  )
1098
1084
  await client.projects.create_local_eval_set_for_project(
1099
- app_name="app_name",
1100
- results={"key": [LocalEval()]},
1085
+ app_name="string",
1086
+ results={"string": []},
1101
1087
  )
1102
1088
  """
1103
1089
  _response = await self._client_wrapper.httpx_client.request(
@@ -1211,7 +1197,7 @@ class AsyncProjectsClient:
1211
1197
  token="YOUR_TOKEN",
1212
1198
  )
1213
1199
  await client.projects.delete_local_eval_set(
1214
- local_eval_set_id="local_eval_set_id",
1200
+ local_eval_set_id="string",
1215
1201
  )
1216
1202
  """
1217
1203
  _response = await self._client_wrapper.httpx_client.request(
@@ -1286,7 +1272,7 @@ class AsyncProjectsClient:
1286
1272
 
1287
1273
  - request: PromptMixinPrompts.
1288
1274
  ---
1289
- from llama_cloud import PromptMixinPrompts, PromptSpec
1275
+ from llama_cloud import PromptMixinPrompts
1290
1276
  from llama_cloud.client import AsyncLlamaCloud
1291
1277
 
1292
1278
  client = AsyncLlamaCloud(
@@ -1294,15 +1280,9 @@ class AsyncProjectsClient:
1294
1280
  )
1295
1281
  await client.projects.create_prompt_mixin_prompts(
1296
1282
  request=PromptMixinPrompts(
1297
- project_id="project_id",
1298
- name="name",
1299
- prompts=[
1300
- PromptSpec(
1301
- prompt_key="prompt_key",
1302
- prompt_class="prompt_class",
1303
- prompt_type="prompt_type",
1304
- )
1305
- ],
1283
+ project_id="string",
1284
+ name="string",
1285
+ prompts=[],
1306
1286
  ),
1307
1287
  )
1308
1288
  """
@@ -1344,24 +1324,18 @@ class AsyncProjectsClient:
1344
1324
 
1345
1325
  - request: PromptMixinPrompts.
1346
1326
  ---
1347
- from llama_cloud import PromptMixinPrompts, PromptSpec
1327
+ from llama_cloud import PromptMixinPrompts
1348
1328
  from llama_cloud.client import AsyncLlamaCloud
1349
1329
 
1350
1330
  client = AsyncLlamaCloud(
1351
1331
  token="YOUR_TOKEN",
1352
1332
  )
1353
1333
  await client.projects.update_promptmixin_prompts(
1354
- prompt_set_id="prompt_set_id",
1334
+ prompt_set_id="string",
1355
1335
  request=PromptMixinPrompts(
1356
- project_id="project_id",
1357
- name="name",
1358
- prompts=[
1359
- PromptSpec(
1360
- prompt_key="prompt_key",
1361
- prompt_class="prompt_class",
1362
- prompt_type="prompt_type",
1363
- )
1364
- ],
1336
+ project_id="string",
1337
+ name="string",
1338
+ prompts=[],
1365
1339
  ),
1366
1340
  )
1367
1341
  """
@@ -1404,7 +1378,7 @@ class AsyncProjectsClient:
1404
1378
  token="YOUR_TOKEN",
1405
1379
  )
1406
1380
  await client.projects.delete_prompt_mixin_prompts(
1407
- prompt_set_id="prompt_set_id",
1381
+ prompt_set_id="string",
1408
1382
  )
1409
1383
  """
1410
1384
  _response = await self._client_wrapper.httpx_client.request(
@@ -0,0 +1,5 @@
1
+ # This file was auto-generated by Fern from our API Definition.
2
+
3
+ from .types import UpdateReportPlanApiV1ReportsReportIdPlanPatchRequestAction
4
+
5
+ __all__ = ["UpdateReportPlanApiV1ReportsReportIdPlanPatchRequestAction"]