llama-cloud 0.1.6__py3-none-any.whl → 0.1.7__py3-none-any.whl
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Potentially problematic release.
This version of llama-cloud might be problematic. Click here for more details.
- llama_cloud/__init__.py +140 -6
- llama_cloud/client.py +15 -0
- llama_cloud/environment.py +1 -1
- llama_cloud/resources/__init__.py +15 -0
- llama_cloud/{types/token.py → resources/chat_apps/__init__.py} +0 -3
- llama_cloud/resources/chat_apps/client.py +630 -0
- llama_cloud/resources/data_sinks/client.py +12 -12
- llama_cloud/resources/data_sources/client.py +14 -14
- llama_cloud/resources/embedding_model_configs/client.py +20 -76
- llama_cloud/resources/evals/client.py +26 -36
- llama_cloud/resources/extraction/client.py +32 -32
- llama_cloud/resources/files/client.py +40 -44
- llama_cloud/resources/jobs/__init__.py +2 -0
- llama_cloud/resources/jobs/client.py +148 -0
- llama_cloud/resources/llama_extract/__init__.py +5 -0
- llama_cloud/resources/llama_extract/client.py +1038 -0
- llama_cloud/resources/llama_extract/types/__init__.py +6 -0
- llama_cloud/resources/llama_extract/types/extract_agent_create_data_schema_value.py +7 -0
- llama_cloud/resources/llama_extract/types/extract_agent_update_data_schema_value.py +7 -0
- llama_cloud/resources/organizations/client.py +66 -70
- llama_cloud/resources/parsing/client.py +448 -428
- llama_cloud/resources/pipelines/client.py +256 -344
- llama_cloud/resources/projects/client.py +34 -60
- llama_cloud/resources/reports/__init__.py +5 -0
- llama_cloud/resources/reports/client.py +1198 -0
- llama_cloud/resources/reports/types/__init__.py +7 -0
- llama_cloud/resources/reports/types/update_report_plan_api_v_1_reports_report_id_plan_patch_request_action.py +25 -0
- llama_cloud/resources/retrievers/__init__.py +2 -0
- llama_cloud/resources/retrievers/client.py +654 -0
- llama_cloud/types/__init__.py +128 -6
- llama_cloud/types/{chat_message.py → app_schema_chat_chat_message.py} +3 -3
- llama_cloud/types/azure_open_ai_embedding.py +6 -12
- llama_cloud/types/base_prompt_template.py +2 -6
- llama_cloud/types/bedrock_embedding.py +6 -12
- llama_cloud/types/character_splitter.py +2 -4
- llama_cloud/types/chat_app.py +44 -0
- llama_cloud/types/chat_app_response.py +41 -0
- llama_cloud/types/cloud_az_storage_blob_data_source.py +7 -15
- llama_cloud/types/cloud_box_data_source.py +6 -12
- llama_cloud/types/cloud_confluence_data_source.py +6 -6
- llama_cloud/types/cloud_document.py +1 -3
- llama_cloud/types/cloud_document_create.py +1 -3
- llama_cloud/types/cloud_jira_data_source.py +4 -6
- llama_cloud/types/cloud_notion_page_data_source.py +2 -2
- llama_cloud/types/cloud_one_drive_data_source.py +3 -5
- llama_cloud/types/cloud_postgres_vector_store.py +1 -0
- llama_cloud/types/cloud_s_3_data_source.py +4 -8
- llama_cloud/types/cloud_sharepoint_data_source.py +6 -8
- llama_cloud/types/cloud_slack_data_source.py +6 -6
- llama_cloud/types/code_splitter.py +1 -1
- llama_cloud/types/cohere_embedding.py +3 -7
- llama_cloud/types/composite_retrieval_mode.py +21 -0
- llama_cloud/types/composite_retrieval_result.py +38 -0
- llama_cloud/types/composite_retrieved_text_node.py +42 -0
- llama_cloud/types/data_sink.py +4 -4
- llama_cloud/types/data_sink_component.py +20 -0
- llama_cloud/types/data_source.py +5 -7
- llama_cloud/types/data_source_component.py +28 -0
- llama_cloud/types/data_source_create.py +1 -3
- llama_cloud/types/edit_suggestion.py +39 -0
- llama_cloud/types/embedding_model_config.py +2 -2
- llama_cloud/types/embedding_model_config_update.py +2 -4
- llama_cloud/types/eval_dataset.py +2 -2
- llama_cloud/types/eval_dataset_job_record.py +8 -13
- llama_cloud/types/eval_execution_params_override.py +2 -6
- llama_cloud/types/eval_question.py +2 -2
- llama_cloud/types/extract_agent.py +45 -0
- llama_cloud/types/extract_agent_data_schema_value.py +5 -0
- llama_cloud/types/extract_config.py +40 -0
- llama_cloud/types/extract_job.py +35 -0
- llama_cloud/types/extract_job_create.py +40 -0
- llama_cloud/types/extract_job_create_data_schema_override_value.py +7 -0
- llama_cloud/types/extract_mode.py +17 -0
- llama_cloud/types/extract_resultset.py +46 -0
- llama_cloud/types/extract_resultset_data.py +11 -0
- llama_cloud/types/extract_resultset_data_item_value.py +7 -0
- llama_cloud/types/extract_resultset_data_zero_value.py +7 -0
- llama_cloud/types/extract_resultset_extraction_metadata_value.py +7 -0
- llama_cloud/types/extraction_result.py +2 -2
- llama_cloud/types/extraction_schema.py +3 -5
- llama_cloud/types/file.py +9 -14
- llama_cloud/types/filter_condition.py +9 -1
- llama_cloud/types/filter_operator.py +6 -2
- llama_cloud/types/gemini_embedding.py +6 -10
- llama_cloud/types/hugging_face_inference_api_embedding.py +11 -27
- llama_cloud/types/hugging_face_inference_api_embedding_token.py +5 -0
- llama_cloud/types/image_block.py +35 -0
- llama_cloud/types/input_message.py +2 -4
- llama_cloud/types/job_names.py +89 -0
- llama_cloud/types/job_record.py +57 -0
- llama_cloud/types/job_record_with_usage_metrics.py +36 -0
- llama_cloud/types/llama_index_core_base_llms_types_chat_message.py +39 -0
- llama_cloud/types/llama_index_core_base_llms_types_chat_message_blocks_item.py +33 -0
- llama_cloud/types/llama_parse_parameters.py +4 -0
- llama_cloud/types/llm.py +3 -4
- llama_cloud/types/llm_model_data.py +1 -0
- llama_cloud/types/llm_parameters.py +3 -5
- llama_cloud/types/local_eval.py +8 -10
- llama_cloud/types/local_eval_results.py +1 -1
- llama_cloud/types/managed_ingestion_status.py +4 -0
- llama_cloud/types/managed_ingestion_status_response.py +4 -5
- llama_cloud/types/markdown_element_node_parser.py +3 -5
- llama_cloud/types/markdown_node_parser.py +1 -1
- llama_cloud/types/metadata_filter.py +2 -2
- llama_cloud/types/metadata_filter_value.py +5 -0
- llama_cloud/types/metric_result.py +3 -3
- llama_cloud/types/node_parser.py +1 -1
- llama_cloud/types/object_type.py +4 -0
- llama_cloud/types/open_ai_embedding.py +6 -12
- llama_cloud/types/organization.py +7 -2
- llama_cloud/types/page_splitter_node_parser.py +2 -2
- llama_cloud/types/paginated_jobs_history_with_metrics.py +35 -0
- llama_cloud/types/paginated_report_response.py +35 -0
- llama_cloud/types/parse_plan_level.py +21 -0
- llama_cloud/types/permission.py +3 -3
- llama_cloud/types/pipeline.py +7 -17
- llama_cloud/types/pipeline_configuration_hashes.py +3 -3
- llama_cloud/types/pipeline_create.py +8 -16
- llama_cloud/types/pipeline_data_source.py +7 -13
- llama_cloud/types/pipeline_data_source_component.py +28 -0
- llama_cloud/types/pipeline_data_source_create.py +1 -3
- llama_cloud/types/pipeline_deployment.py +4 -4
- llama_cloud/types/pipeline_file.py +13 -24
- llama_cloud/types/pipeline_file_create.py +1 -3
- llama_cloud/types/playground_session.py +4 -4
- llama_cloud/types/preset_retrieval_params.py +8 -14
- llama_cloud/types/presigned_url.py +1 -3
- llama_cloud/types/progress_event.py +44 -0
- llama_cloud/types/progress_event_status.py +33 -0
- llama_cloud/types/project.py +2 -2
- llama_cloud/types/prompt_mixin_prompts.py +1 -1
- llama_cloud/types/prompt_spec.py +3 -5
- llama_cloud/types/related_node_info.py +2 -2
- llama_cloud/types/related_node_info_node_type.py +7 -0
- llama_cloud/types/report.py +33 -0
- llama_cloud/types/report_block.py +34 -0
- llama_cloud/types/report_block_dependency.py +29 -0
- llama_cloud/types/report_create_response.py +31 -0
- llama_cloud/types/report_event_item.py +40 -0
- llama_cloud/types/report_event_item_event_data.py +45 -0
- llama_cloud/types/report_event_type.py +37 -0
- llama_cloud/types/report_metadata.py +43 -0
- llama_cloud/types/report_plan.py +36 -0
- llama_cloud/types/report_plan_block.py +36 -0
- llama_cloud/types/report_query.py +33 -0
- llama_cloud/types/report_response.py +41 -0
- llama_cloud/types/report_state.py +37 -0
- llama_cloud/types/report_state_event.py +38 -0
- llama_cloud/types/report_update_event.py +38 -0
- llama_cloud/types/retrieve_results.py +1 -1
- llama_cloud/types/retriever.py +45 -0
- llama_cloud/types/retriever_create.py +37 -0
- llama_cloud/types/retriever_pipeline.py +37 -0
- llama_cloud/types/role.py +3 -3
- llama_cloud/types/sentence_splitter.py +2 -4
- llama_cloud/types/status_enum.py +4 -0
- llama_cloud/types/supported_llm_model_names.py +4 -0
- llama_cloud/types/text_block.py +31 -0
- llama_cloud/types/text_node.py +15 -8
- llama_cloud/types/token_text_splitter.py +1 -1
- llama_cloud/types/usage_metric_response.py +34 -0
- llama_cloud/types/user_job_record.py +32 -0
- llama_cloud/types/user_organization.py +5 -9
- llama_cloud/types/user_organization_create.py +4 -4
- llama_cloud/types/user_organization_delete.py +2 -2
- llama_cloud/types/user_organization_role.py +2 -2
- llama_cloud/types/vertex_text_embedding.py +5 -9
- {llama_cloud-0.1.6.dist-info → llama_cloud-0.1.7.dist-info}/METADATA +2 -1
- llama_cloud-0.1.7.dist-info/RECORD +310 -0
- llama_cloud/types/value.py +0 -5
- llama_cloud-0.1.6.dist-info/RECORD +0 -241
- {llama_cloud-0.1.6.dist-info → llama_cloud-0.1.7.dist-info}/LICENSE +0 -0
- {llama_cloud-0.1.6.dist-info → llama_cloud-0.1.7.dist-info}/WHEEL +0 -0
|
@@ -87,7 +87,7 @@ class ProjectsClient:
|
|
|
87
87
|
)
|
|
88
88
|
client.projects.create_project(
|
|
89
89
|
request=ProjectCreate(
|
|
90
|
-
name="
|
|
90
|
+
name="string",
|
|
91
91
|
),
|
|
92
92
|
)
|
|
93
93
|
"""
|
|
@@ -127,7 +127,7 @@ class ProjectsClient:
|
|
|
127
127
|
)
|
|
128
128
|
client.projects.upsert_project(
|
|
129
129
|
request=ProjectCreate(
|
|
130
|
-
name="
|
|
130
|
+
name="string",
|
|
131
131
|
),
|
|
132
132
|
)
|
|
133
133
|
"""
|
|
@@ -201,7 +201,7 @@ class ProjectsClient:
|
|
|
201
201
|
token="YOUR_TOKEN",
|
|
202
202
|
)
|
|
203
203
|
client.projects.update_existing_project(
|
|
204
|
-
name="
|
|
204
|
+
name="string",
|
|
205
205
|
)
|
|
206
206
|
"""
|
|
207
207
|
_response = self._client_wrapper.httpx_client.request(
|
|
@@ -346,7 +346,7 @@ class ProjectsClient:
|
|
|
346
346
|
token="YOUR_TOKEN",
|
|
347
347
|
)
|
|
348
348
|
client.projects.create_eval_dataset_for_project(
|
|
349
|
-
name="
|
|
349
|
+
name="string",
|
|
350
350
|
)
|
|
351
351
|
"""
|
|
352
352
|
_response = self._client_wrapper.httpx_client.request(
|
|
@@ -389,15 +389,14 @@ class ProjectsClient:
|
|
|
389
389
|
|
|
390
390
|
- results: typing.Dict[str, typing.List[LocalEval]]. The eval results.
|
|
391
391
|
---
|
|
392
|
-
from llama_cloud import LocalEval
|
|
393
392
|
from llama_cloud.client import LlamaCloud
|
|
394
393
|
|
|
395
394
|
client = LlamaCloud(
|
|
396
395
|
token="YOUR_TOKEN",
|
|
397
396
|
)
|
|
398
397
|
client.projects.create_local_eval_set_for_project(
|
|
399
|
-
app_name="
|
|
400
|
-
results={"
|
|
398
|
+
app_name="string",
|
|
399
|
+
results={"string": []},
|
|
401
400
|
)
|
|
402
401
|
"""
|
|
403
402
|
_response = self._client_wrapper.httpx_client.request(
|
|
@@ -511,7 +510,7 @@ class ProjectsClient:
|
|
|
511
510
|
token="YOUR_TOKEN",
|
|
512
511
|
)
|
|
513
512
|
client.projects.delete_local_eval_set(
|
|
514
|
-
local_eval_set_id="
|
|
513
|
+
local_eval_set_id="string",
|
|
515
514
|
)
|
|
516
515
|
"""
|
|
517
516
|
_response = self._client_wrapper.httpx_client.request(
|
|
@@ -586,7 +585,7 @@ class ProjectsClient:
|
|
|
586
585
|
|
|
587
586
|
- request: PromptMixinPrompts.
|
|
588
587
|
---
|
|
589
|
-
from llama_cloud import PromptMixinPrompts
|
|
588
|
+
from llama_cloud import PromptMixinPrompts
|
|
590
589
|
from llama_cloud.client import LlamaCloud
|
|
591
590
|
|
|
592
591
|
client = LlamaCloud(
|
|
@@ -594,15 +593,9 @@ class ProjectsClient:
|
|
|
594
593
|
)
|
|
595
594
|
client.projects.create_prompt_mixin_prompts(
|
|
596
595
|
request=PromptMixinPrompts(
|
|
597
|
-
project_id="
|
|
598
|
-
name="
|
|
599
|
-
prompts=[
|
|
600
|
-
PromptSpec(
|
|
601
|
-
prompt_key="prompt_key",
|
|
602
|
-
prompt_class="prompt_class",
|
|
603
|
-
prompt_type="prompt_type",
|
|
604
|
-
)
|
|
605
|
-
],
|
|
596
|
+
project_id="string",
|
|
597
|
+
name="string",
|
|
598
|
+
prompts=[],
|
|
606
599
|
),
|
|
607
600
|
)
|
|
608
601
|
"""
|
|
@@ -644,24 +637,18 @@ class ProjectsClient:
|
|
|
644
637
|
|
|
645
638
|
- request: PromptMixinPrompts.
|
|
646
639
|
---
|
|
647
|
-
from llama_cloud import PromptMixinPrompts
|
|
640
|
+
from llama_cloud import PromptMixinPrompts
|
|
648
641
|
from llama_cloud.client import LlamaCloud
|
|
649
642
|
|
|
650
643
|
client = LlamaCloud(
|
|
651
644
|
token="YOUR_TOKEN",
|
|
652
645
|
)
|
|
653
646
|
client.projects.update_promptmixin_prompts(
|
|
654
|
-
prompt_set_id="
|
|
647
|
+
prompt_set_id="string",
|
|
655
648
|
request=PromptMixinPrompts(
|
|
656
|
-
project_id="
|
|
657
|
-
name="
|
|
658
|
-
prompts=[
|
|
659
|
-
PromptSpec(
|
|
660
|
-
prompt_key="prompt_key",
|
|
661
|
-
prompt_class="prompt_class",
|
|
662
|
-
prompt_type="prompt_type",
|
|
663
|
-
)
|
|
664
|
-
],
|
|
649
|
+
project_id="string",
|
|
650
|
+
name="string",
|
|
651
|
+
prompts=[],
|
|
665
652
|
),
|
|
666
653
|
)
|
|
667
654
|
"""
|
|
@@ -704,7 +691,7 @@ class ProjectsClient:
|
|
|
704
691
|
token="YOUR_TOKEN",
|
|
705
692
|
)
|
|
706
693
|
client.projects.delete_prompt_mixin_prompts(
|
|
707
|
-
prompt_set_id="
|
|
694
|
+
prompt_set_id="string",
|
|
708
695
|
)
|
|
709
696
|
"""
|
|
710
697
|
_response = self._client_wrapper.httpx_client.request(
|
|
@@ -783,7 +770,7 @@ class AsyncProjectsClient:
|
|
|
783
770
|
)
|
|
784
771
|
await client.projects.create_project(
|
|
785
772
|
request=ProjectCreate(
|
|
786
|
-
name="
|
|
773
|
+
name="string",
|
|
787
774
|
),
|
|
788
775
|
)
|
|
789
776
|
"""
|
|
@@ -823,7 +810,7 @@ class AsyncProjectsClient:
|
|
|
823
810
|
)
|
|
824
811
|
await client.projects.upsert_project(
|
|
825
812
|
request=ProjectCreate(
|
|
826
|
-
name="
|
|
813
|
+
name="string",
|
|
827
814
|
),
|
|
828
815
|
)
|
|
829
816
|
"""
|
|
@@ -899,7 +886,7 @@ class AsyncProjectsClient:
|
|
|
899
886
|
token="YOUR_TOKEN",
|
|
900
887
|
)
|
|
901
888
|
await client.projects.update_existing_project(
|
|
902
|
-
name="
|
|
889
|
+
name="string",
|
|
903
890
|
)
|
|
904
891
|
"""
|
|
905
892
|
_response = await self._client_wrapper.httpx_client.request(
|
|
@@ -1046,7 +1033,7 @@ class AsyncProjectsClient:
|
|
|
1046
1033
|
token="YOUR_TOKEN",
|
|
1047
1034
|
)
|
|
1048
1035
|
await client.projects.create_eval_dataset_for_project(
|
|
1049
|
-
name="
|
|
1036
|
+
name="string",
|
|
1050
1037
|
)
|
|
1051
1038
|
"""
|
|
1052
1039
|
_response = await self._client_wrapper.httpx_client.request(
|
|
@@ -1089,15 +1076,14 @@ class AsyncProjectsClient:
|
|
|
1089
1076
|
|
|
1090
1077
|
- results: typing.Dict[str, typing.List[LocalEval]]. The eval results.
|
|
1091
1078
|
---
|
|
1092
|
-
from llama_cloud import LocalEval
|
|
1093
1079
|
from llama_cloud.client import AsyncLlamaCloud
|
|
1094
1080
|
|
|
1095
1081
|
client = AsyncLlamaCloud(
|
|
1096
1082
|
token="YOUR_TOKEN",
|
|
1097
1083
|
)
|
|
1098
1084
|
await client.projects.create_local_eval_set_for_project(
|
|
1099
|
-
app_name="
|
|
1100
|
-
results={"
|
|
1085
|
+
app_name="string",
|
|
1086
|
+
results={"string": []},
|
|
1101
1087
|
)
|
|
1102
1088
|
"""
|
|
1103
1089
|
_response = await self._client_wrapper.httpx_client.request(
|
|
@@ -1211,7 +1197,7 @@ class AsyncProjectsClient:
|
|
|
1211
1197
|
token="YOUR_TOKEN",
|
|
1212
1198
|
)
|
|
1213
1199
|
await client.projects.delete_local_eval_set(
|
|
1214
|
-
local_eval_set_id="
|
|
1200
|
+
local_eval_set_id="string",
|
|
1215
1201
|
)
|
|
1216
1202
|
"""
|
|
1217
1203
|
_response = await self._client_wrapper.httpx_client.request(
|
|
@@ -1286,7 +1272,7 @@ class AsyncProjectsClient:
|
|
|
1286
1272
|
|
|
1287
1273
|
- request: PromptMixinPrompts.
|
|
1288
1274
|
---
|
|
1289
|
-
from llama_cloud import PromptMixinPrompts
|
|
1275
|
+
from llama_cloud import PromptMixinPrompts
|
|
1290
1276
|
from llama_cloud.client import AsyncLlamaCloud
|
|
1291
1277
|
|
|
1292
1278
|
client = AsyncLlamaCloud(
|
|
@@ -1294,15 +1280,9 @@ class AsyncProjectsClient:
|
|
|
1294
1280
|
)
|
|
1295
1281
|
await client.projects.create_prompt_mixin_prompts(
|
|
1296
1282
|
request=PromptMixinPrompts(
|
|
1297
|
-
project_id="
|
|
1298
|
-
name="
|
|
1299
|
-
prompts=[
|
|
1300
|
-
PromptSpec(
|
|
1301
|
-
prompt_key="prompt_key",
|
|
1302
|
-
prompt_class="prompt_class",
|
|
1303
|
-
prompt_type="prompt_type",
|
|
1304
|
-
)
|
|
1305
|
-
],
|
|
1283
|
+
project_id="string",
|
|
1284
|
+
name="string",
|
|
1285
|
+
prompts=[],
|
|
1306
1286
|
),
|
|
1307
1287
|
)
|
|
1308
1288
|
"""
|
|
@@ -1344,24 +1324,18 @@ class AsyncProjectsClient:
|
|
|
1344
1324
|
|
|
1345
1325
|
- request: PromptMixinPrompts.
|
|
1346
1326
|
---
|
|
1347
|
-
from llama_cloud import PromptMixinPrompts
|
|
1327
|
+
from llama_cloud import PromptMixinPrompts
|
|
1348
1328
|
from llama_cloud.client import AsyncLlamaCloud
|
|
1349
1329
|
|
|
1350
1330
|
client = AsyncLlamaCloud(
|
|
1351
1331
|
token="YOUR_TOKEN",
|
|
1352
1332
|
)
|
|
1353
1333
|
await client.projects.update_promptmixin_prompts(
|
|
1354
|
-
prompt_set_id="
|
|
1334
|
+
prompt_set_id="string",
|
|
1355
1335
|
request=PromptMixinPrompts(
|
|
1356
|
-
project_id="
|
|
1357
|
-
name="
|
|
1358
|
-
prompts=[
|
|
1359
|
-
PromptSpec(
|
|
1360
|
-
prompt_key="prompt_key",
|
|
1361
|
-
prompt_class="prompt_class",
|
|
1362
|
-
prompt_type="prompt_type",
|
|
1363
|
-
)
|
|
1364
|
-
],
|
|
1336
|
+
project_id="string",
|
|
1337
|
+
name="string",
|
|
1338
|
+
prompts=[],
|
|
1365
1339
|
),
|
|
1366
1340
|
)
|
|
1367
1341
|
"""
|
|
@@ -1404,7 +1378,7 @@ class AsyncProjectsClient:
|
|
|
1404
1378
|
token="YOUR_TOKEN",
|
|
1405
1379
|
)
|
|
1406
1380
|
await client.projects.delete_prompt_mixin_prompts(
|
|
1407
|
-
prompt_set_id="
|
|
1381
|
+
prompt_set_id="string",
|
|
1408
1382
|
)
|
|
1409
1383
|
"""
|
|
1410
1384
|
_response = await self._client_wrapper.httpx_client.request(
|