llama-stack 0.2.22__tar.gz → 0.2.24__tar.gz
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- {llama_stack-0.2.22/llama_stack.egg-info → llama_stack-0.2.24}/PKG-INFO +13 -13
- {llama_stack-0.2.22 → llama_stack-0.2.24}/README.md +11 -11
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/agents/agents.py +26 -14
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/batch_inference/batch_inference.py +3 -2
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/batches/batches.py +5 -4
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/benchmarks/benchmarks.py +9 -4
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/datasetio/datasetio.py +3 -2
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/datasets/datasets.py +5 -4
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/eval/eval.py +27 -5
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/files/files.py +7 -6
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/inference/inference.py +13 -11
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/inspect/inspect.py +4 -3
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/models/models.py +6 -5
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/post_training/post_training.py +13 -6
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/prompts/prompts.py +8 -7
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/providers/providers.py +3 -2
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/safety/safety.py +3 -2
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/scoring/scoring.py +3 -2
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/scoring_functions/scoring_functions.py +5 -4
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/shields/shields.py +5 -4
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/synthetic_data_generation/synthetic_data_generation.py +2 -1
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/telemetry/telemetry.py +21 -8
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/tools/rag_tool.py +3 -2
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/tools/tools.py +9 -8
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/vector_dbs/vector_dbs.py +5 -4
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/vector_io/vector_io.py +25 -14
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/version.py +3 -1
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/build_container.sh +2 -2
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/client.py +18 -2
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/datatypes.py +0 -4
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/distribution.py +7 -20
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/library_client.py +6 -2
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/routing_tables/models.py +1 -1
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/routing_tables/toolgroups.py +13 -2
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/server/routes.py +15 -15
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/server/server.py +99 -124
- llama_stack-0.2.24/llama_stack/core/server/tracing.py +80 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/stack.py +66 -60
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/start_stack.sh +1 -1
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/nvidia/build.yaml +2 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/nvidia/nvidia.py +12 -10
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/nvidia/run-with-safety.yaml +9 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/nvidia/run.yaml +10 -84
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/starter/starter.py +2 -2
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/datatypes.py +17 -71
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/files/localfs/files.py +2 -3
- llama_stack-0.2.24/llama_stack/providers/registry/datasetio.py +49 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/registry/eval.py +10 -11
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/registry/files.py +8 -15
- llama_stack-0.2.24/llama_stack/providers/registry/inference.py +300 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/registry/post_training.py +8 -9
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/registry/safety.py +23 -27
- llama_stack-0.2.24/llama_stack/providers/registry/tool_runtime.py +87 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/registry/vector_io.py +59 -59
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/eval/nvidia/eval.py +1 -2
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/files/s3/files.py +2 -3
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/anthropic/__init__.py +0 -6
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/anthropic/anthropic.py +12 -2
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/azure/azure.py +6 -8
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/bedrock/bedrock.py +1 -1
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/cerebras/cerebras.py +14 -14
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/cerebras/config.py +2 -2
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/databricks/__init__.py +2 -1
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/databricks/config.py +5 -5
- llama_stack-0.2.24/llama_stack/providers/remote/inference/databricks/databricks.py +158 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/fireworks/fireworks.py +17 -169
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/gemini/__init__.py +0 -6
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/gemini/gemini.py +4 -2
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/groq/__init__.py +1 -3
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/groq/groq.py +0 -3
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/llama_openai_compat/llama.py +0 -3
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/nvidia/nvidia.py +9 -8
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/ollama/ollama.py +70 -217
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/openai/__init__.py +0 -6
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/openai/openai.py +5 -2
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/passthrough/passthrough.py +1 -1
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/sambanova/__init__.py +1 -3
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/sambanova/sambanova.py +1 -3
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/together/together.py +17 -11
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/vertexai/vertexai.py +0 -2
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/vllm/__init__.py +6 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/vllm/vllm.py +54 -16
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/watsonx/watsonx.py +1 -1
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/vector_io/qdrant/qdrant.py +6 -2
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/inference/inference_store.py +1 -3
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/inference/litellm_openai_mixin.py +3 -3
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/inference/model_registry.py +9 -22
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/inference/openai_mixin.py +56 -16
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/kvstore/config.py +5 -5
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/kvstore/mongodb/mongodb.py +8 -3
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/kvstore/sqlite/sqlite.py +7 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/responses/responses_store.py +2 -5
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/sqlstore/authorized_sqlstore.py +5 -6
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/telemetry/tracing.py +5 -5
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/schema_utils.py +15 -1
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/testing/inference_recorder.py +10 -1
- {llama_stack-0.2.22 → llama_stack-0.2.24/llama_stack.egg-info}/PKG-INFO +13 -13
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack.egg-info/SOURCES.txt +1 -13
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack.egg-info/requires.txt +2 -2
- {llama_stack-0.2.22 → llama_stack-0.2.24}/pyproject.toml +4 -23
- llama_stack-0.2.22/llama_stack/providers/registry/datasetio.py +0 -52
- llama_stack-0.2.22/llama_stack/providers/registry/inference.py +0 -313
- llama_stack-0.2.22/llama_stack/providers/registry/tool_runtime.py +0 -93
- llama_stack-0.2.22/llama_stack/providers/remote/inference/anthropic/models.py +0 -40
- llama_stack-0.2.22/llama_stack/providers/remote/inference/azure/models.py +0 -28
- llama_stack-0.2.22/llama_stack/providers/remote/inference/cerebras/models.py +0 -28
- llama_stack-0.2.22/llama_stack/providers/remote/inference/databricks/databricks.py +0 -168
- llama_stack-0.2.22/llama_stack/providers/remote/inference/fireworks/models.py +0 -70
- llama_stack-0.2.22/llama_stack/providers/remote/inference/gemini/models.py +0 -34
- llama_stack-0.2.22/llama_stack/providers/remote/inference/groq/models.py +0 -48
- llama_stack-0.2.22/llama_stack/providers/remote/inference/llama_openai_compat/models.py +0 -25
- llama_stack-0.2.22/llama_stack/providers/remote/inference/nvidia/models.py +0 -109
- llama_stack-0.2.22/llama_stack/providers/remote/inference/ollama/models.py +0 -106
- llama_stack-0.2.22/llama_stack/providers/remote/inference/openai/models.py +0 -60
- llama_stack-0.2.22/llama_stack/providers/remote/inference/sambanova/models.py +0 -28
- llama_stack-0.2.22/llama_stack/providers/remote/inference/together/models.py +0 -103
- llama_stack-0.2.22/llama_stack/providers/remote/inference/vertexai/models.py +0 -20
- {llama_stack-0.2.22 → llama_stack-0.2.24}/LICENSE +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/MANIFEST.in +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/agents/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/agents/openai_responses.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/batch_inference/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/batches/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/benchmarks/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/common/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/common/content_types.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/common/errors.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/common/job_types.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/common/responses.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/common/training_types.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/common/type_system.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/datasetio/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/datasets/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/datatypes.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/eval/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/files/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/inference/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/inference/event_logger.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/inspect/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/models/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/post_training/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/prompts/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/providers/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/resource.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/safety/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/scoring/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/scoring_functions/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/shields/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/synthetic_data_generation/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/telemetry/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/tools/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/vector_dbs/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/vector_io/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/cli/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/cli/download.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/cli/llama.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/cli/model/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/cli/model/describe.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/cli/model/download.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/cli/model/list.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/cli/model/model.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/cli/model/prompt_format.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/cli/model/remove.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/cli/model/safety_models.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/cli/model/verify_download.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/cli/scripts/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/cli/scripts/install-wheel-from-presigned.sh +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/cli/scripts/run.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/cli/stack/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/cli/stack/_build.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/cli/stack/build.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/cli/stack/list_apis.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/cli/stack/list_providers.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/cli/stack/list_stacks.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/cli/stack/remove.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/cli/stack/run.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/cli/stack/stack.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/cli/stack/utils.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/cli/subcommand.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/cli/table.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/cli/utils.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/cli/verify_download.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/access_control/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/access_control/access_control.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/access_control/conditions.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/access_control/datatypes.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/build.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/build_venv.sh +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/common.sh +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/configure.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/external.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/inspect.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/prompts/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/prompts/prompts.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/providers.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/request_headers.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/resolver.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/routers/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/routers/datasets.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/routers/eval_scoring.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/routers/inference.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/routers/safety.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/routers/tool_runtime.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/routers/vector_io.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/routing_tables/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/routing_tables/benchmarks.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/routing_tables/common.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/routing_tables/datasets.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/routing_tables/scoring_functions.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/routing_tables/shields.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/routing_tables/vector_dbs.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/server/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/server/auth.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/server/auth_providers.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/server/quota.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/store/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/store/registry.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/ui/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/ui/app.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/ui/modules/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/ui/modules/api.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/ui/modules/utils.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/ui/page/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/ui/page/distribution/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/ui/page/distribution/datasets.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/ui/page/distribution/eval_tasks.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/ui/page/distribution/models.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/ui/page/distribution/providers.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/ui/page/distribution/resources.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/ui/page/distribution/scoring_functions.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/ui/page/distribution/shields.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/ui/page/distribution/vector_dbs.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/ui/page/evaluations/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/ui/page/evaluations/app_eval.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/ui/page/evaluations/native_eval.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/ui/page/playground/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/ui/page/playground/chat.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/ui/page/playground/rag.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/ui/page/playground/tools.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/utils/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/utils/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/utils/config_dirs.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/utils/config_resolution.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/utils/context.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/utils/dynamic.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/utils/exec.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/utils/image_types.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/utils/model_utils.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/utils/prompt_for_config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/core/utils/serialize.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/ci-tests/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/ci-tests/build.yaml +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/ci-tests/ci_tests.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/ci-tests/run.yaml +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/dell/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/dell/build.yaml +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/dell/dell.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/dell/run-with-safety.yaml +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/dell/run.yaml +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/meta-reference-gpu/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/meta-reference-gpu/build.yaml +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/meta-reference-gpu/meta_reference.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/meta-reference-gpu/run-with-safety.yaml +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/meta-reference-gpu/run.yaml +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/nvidia/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/open-benchmark/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/open-benchmark/build.yaml +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/open-benchmark/open_benchmark.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/open-benchmark/run.yaml +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/postgres-demo/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/postgres-demo/build.yaml +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/postgres-demo/postgres_demo.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/postgres-demo/run.yaml +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/starter/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/starter/build.yaml +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/starter/run.yaml +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/starter-gpu/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/starter-gpu/build.yaml +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/starter-gpu/run.yaml +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/starter-gpu/starter_gpu.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/template.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/watsonx/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/watsonx/build.yaml +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/watsonx/run.yaml +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/distributions/watsonx/watsonx.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/env.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/log.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/checkpoint.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/datatypes.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/hadamard_utils.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama3/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama3/args.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama3/chat_format.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama3/generation.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama3/interface.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama3/model.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama3/multimodal/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama3/multimodal/encoder_utils.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama3/multimodal/image_transform.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama3/multimodal/model.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama3/multimodal/utils.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama3/prompt_templates/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama3/prompt_templates/base.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama3/prompt_templates/system_prompts.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama3/prompt_templates/tool_response.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama3/quantization/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama3/quantization/loader.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama3/template_data.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama3/tokenizer.model +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama3/tokenizer.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama3/tool_utils.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama3_1/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama3_1/prompt_format.md +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama3_1/prompts.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama3_2/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama3_2/prompts_text.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama3_2/prompts_vision.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama3_2/text_prompt_format.md +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama3_2/vision_prompt_format.md +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama3_3/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama3_3/prompts.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama4/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama4/args.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama4/chat_format.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama4/datatypes.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama4/ffn.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama4/generation.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama4/model.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama4/moe.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama4/preprocess.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama4/prompt_format.md +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama4/prompt_templates/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama4/prompt_templates/system_prompts.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama4/prompts.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama4/quantization/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama4/quantization/loader.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama4/tokenizer.model +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama4/tokenizer.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama4/vision/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama4/vision/embedding.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/llama4/vision/encoder.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/prompt_format.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/quantize_impls.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/sku_list.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/sku_types.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/models/llama/tokenizer_utils.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/agents/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/agents/meta_reference/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/agents/meta_reference/agent_instance.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/agents/meta_reference/agents.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/agents/meta_reference/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/agents/meta_reference/persistence.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/agents/meta_reference/responses/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/agents/meta_reference/responses/openai_responses.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/agents/meta_reference/responses/streaming.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/agents/meta_reference/responses/tool_executor.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/agents/meta_reference/responses/types.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/agents/meta_reference/responses/utils.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/agents/meta_reference/safety.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/batches/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/batches/reference/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/batches/reference/batches.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/batches/reference/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/datasetio/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/datasetio/localfs/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/datasetio/localfs/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/datasetio/localfs/datasetio.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/eval/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/eval/meta_reference/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/eval/meta_reference/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/eval/meta_reference/eval.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/files/localfs/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/files/localfs/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/inference/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/inference/meta_reference/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/inference/meta_reference/common.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/inference/meta_reference/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/inference/meta_reference/generators.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/inference/meta_reference/inference.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/inference/meta_reference/model_parallel.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/inference/meta_reference/parallel_utils.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/inference/sentence_transformers/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/inference/sentence_transformers/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/inference/sentence_transformers/sentence_transformers.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/post_training/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/post_training/common/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/post_training/common/utils.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/post_training/common/validator.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/post_training/huggingface/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/post_training/huggingface/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/post_training/huggingface/post_training.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/post_training/huggingface/recipes/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/post_training/huggingface/recipes/finetune_single_device.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/post_training/huggingface/recipes/finetune_single_device_dpo.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/post_training/huggingface/utils.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/post_training/torchtune/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/post_training/torchtune/common/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/post_training/torchtune/common/checkpointer.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/post_training/torchtune/common/utils.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/post_training/torchtune/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/post_training/torchtune/datasets/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/post_training/torchtune/datasets/format_adapter.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/post_training/torchtune/datasets/sft.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/post_training/torchtune/post_training.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/post_training/torchtune/recipes/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/post_training/torchtune/recipes/lora_finetuning_single_device.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/safety/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/safety/code_scanner/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/safety/code_scanner/code_scanner.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/safety/code_scanner/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/safety/llama_guard/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/safety/llama_guard/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/safety/llama_guard/llama_guard.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/safety/prompt_guard/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/safety/prompt_guard/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/safety/prompt_guard/prompt_guard.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/basic/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/basic/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/basic/scoring.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/basic/scoring_fn/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/basic/scoring_fn/docvqa_scoring_fn.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/basic/scoring_fn/equality_scoring_fn.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/docvqa.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/equality.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/ifeval.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/regex_parser_math_response.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/regex_parser_multiple_choice_answer.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/subset_of.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/basic/scoring_fn/ifeval_scoring_fn.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/basic/scoring_fn/regex_parser_math_response_scoring_fn.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/basic/scoring_fn/regex_parser_scoring_fn.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/basic/scoring_fn/subset_of_scoring_fn.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/basic/utils/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/basic/utils/ifeval_utils.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/basic/utils/math_utils.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/braintrust/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/braintrust/braintrust.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/braintrust/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/answer_correctness.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/answer_relevancy.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/answer_similarity.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_entity_recall.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_precision.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_recall.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_relevancy.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/factuality.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/faithfulness.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/llm_as_judge/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/llm_as_judge/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/llm_as_judge/scoring.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs/llm_as_judge_405b_simpleqa.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs/llm_as_judge_base.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/llm_as_judge_scoring_fn.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/telemetry/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/telemetry/meta_reference/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/telemetry/meta_reference/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/telemetry/meta_reference/console_span_processor.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/telemetry/meta_reference/sqlite_span_processor.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/telemetry/meta_reference/telemetry.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/tool_runtime/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/tool_runtime/rag/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/tool_runtime/rag/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/tool_runtime/rag/context_retriever.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/tool_runtime/rag/memory.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/vector_io/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/vector_io/chroma/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/vector_io/chroma/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/vector_io/faiss/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/vector_io/faiss/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/vector_io/faiss/faiss.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/vector_io/milvus/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/vector_io/milvus/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/vector_io/qdrant/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/vector_io/qdrant/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/vector_io/sqlite_vec/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/vector_io/sqlite_vec/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/inline/vector_io/sqlite_vec/sqlite_vec.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/registry/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/registry/agents.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/registry/batches.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/registry/scoring.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/registry/telemetry.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/agents/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/datasetio/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/datasetio/huggingface/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/datasetio/huggingface/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/datasetio/huggingface/huggingface.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/datasetio/nvidia/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/datasetio/nvidia/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/datasetio/nvidia/datasetio.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/eval/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/eval/nvidia/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/eval/nvidia/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/files/s3/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/files/s3/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/anthropic/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/azure/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/azure/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/bedrock/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/bedrock/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/bedrock/models.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/cerebras/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/fireworks/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/fireworks/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/gemini/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/groq/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/llama_openai_compat/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/llama_openai_compat/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/nvidia/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/nvidia/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/nvidia/openai_utils.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/nvidia/utils.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/ollama/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/ollama/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/openai/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/passthrough/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/passthrough/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/runpod/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/runpod/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/runpod/runpod.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/sambanova/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/tgi/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/tgi/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/tgi/tgi.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/together/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/together/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/vertexai/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/vertexai/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/vllm/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/watsonx/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/watsonx/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/inference/watsonx/models.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/post_training/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/post_training/nvidia/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/post_training/nvidia/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/post_training/nvidia/models.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/post_training/nvidia/post_training.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/post_training/nvidia/utils.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/safety/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/safety/bedrock/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/safety/bedrock/bedrock.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/safety/bedrock/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/safety/nvidia/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/safety/nvidia/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/safety/nvidia/nvidia.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/safety/sambanova/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/safety/sambanova/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/safety/sambanova/sambanova.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/tool_runtime/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/tool_runtime/bing_search/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/tool_runtime/bing_search/bing_search.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/tool_runtime/bing_search/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/tool_runtime/brave_search/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/tool_runtime/brave_search/brave_search.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/tool_runtime/brave_search/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/tool_runtime/model_context_protocol/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/tool_runtime/model_context_protocol/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/tool_runtime/model_context_protocol/model_context_protocol.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/tool_runtime/tavily_search/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/tool_runtime/tavily_search/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/tool_runtime/tavily_search/tavily_search.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/tool_runtime/wolfram_alpha/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/tool_runtime/wolfram_alpha/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/tool_runtime/wolfram_alpha/wolfram_alpha.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/vector_io/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/vector_io/chroma/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/vector_io/chroma/chroma.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/vector_io/chroma/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/vector_io/milvus/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/vector_io/milvus/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/vector_io/milvus/milvus.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/vector_io/pgvector/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/vector_io/pgvector/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/vector_io/pgvector/pgvector.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/vector_io/qdrant/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/vector_io/qdrant/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/vector_io/weaviate/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/vector_io/weaviate/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/remote/vector_io/weaviate/weaviate.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/bedrock/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/bedrock/client.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/bedrock/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/bedrock/refreshable_boto_session.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/common/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/common/data_schema_validator.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/datasetio/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/datasetio/url_utils.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/inference/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/inference/embedding_mixin.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/inference/openai_compat.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/inference/prompt_adapter.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/kvstore/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/kvstore/api.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/kvstore/kvstore.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/kvstore/mongodb/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/kvstore/postgres/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/kvstore/postgres/postgres.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/kvstore/redis/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/kvstore/redis/redis.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/kvstore/sqlite/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/kvstore/sqlite/config.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/memory/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/memory/file_utils.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/memory/openai_vector_store_mixin.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/memory/vector_store.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/pagination.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/responses/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/scheduler.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/scoring/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/scoring/aggregation_utils.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/scoring/base_scoring_fn.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/scoring/basic_scoring_utils.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/sqlstore/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/sqlstore/api.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/sqlstore/sqlalchemy_sqlstore.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/sqlstore/sqlstore.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/telemetry/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/telemetry/dataset_mixin.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/telemetry/sqlite_trace_store.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/telemetry/trace_protocol.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/tools/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/tools/mcp.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/tools/ttl_dict.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/vector_io/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/providers/utils/vector_io/vector_utils.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/strong_typing/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/strong_typing/auxiliary.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/strong_typing/classdef.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/strong_typing/core.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/strong_typing/deserializer.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/strong_typing/docstring.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/strong_typing/exception.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/strong_typing/inspection.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/strong_typing/mapping.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/strong_typing/name.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/strong_typing/py.typed +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/strong_typing/schema.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/strong_typing/serialization.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/strong_typing/serializer.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/strong_typing/slots.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/strong_typing/topological.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/testing/__init__.py +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack.egg-info/dependency_links.txt +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack.egg-info/entry_points.txt +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack.egg-info/top_level.txt +0 -0
- {llama_stack-0.2.22 → llama_stack-0.2.24}/setup.cfg +0 -0
|
@@ -1,6 +1,6 @@
|
|
|
1
1
|
Metadata-Version: 2.4
|
|
2
2
|
Name: llama_stack
|
|
3
|
-
Version: 0.2.
|
|
3
|
+
Version: 0.2.24
|
|
4
4
|
Summary: Llama Stack
|
|
5
5
|
Author-email: Meta Llama <llama-oss@meta.com>
|
|
6
6
|
License: MIT
|
|
@@ -23,7 +23,7 @@ Requires-Dist: httpx
|
|
|
23
23
|
Requires-Dist: huggingface-hub<1.0,>=0.34.0
|
|
24
24
|
Requires-Dist: jinja2>=3.1.6
|
|
25
25
|
Requires-Dist: jsonschema
|
|
26
|
-
Requires-Dist: llama-stack-client
|
|
26
|
+
Requires-Dist: llama-stack-client==0.2.23
|
|
27
27
|
Requires-Dist: openai>=1.100.0
|
|
28
28
|
Requires-Dist: prompt-toolkit
|
|
29
29
|
Requires-Dist: python-dotenv
|
|
@@ -44,7 +44,7 @@ Requires-Dist: asyncpg
|
|
|
44
44
|
Provides-Extra: ui
|
|
45
45
|
Requires-Dist: streamlit; extra == "ui"
|
|
46
46
|
Requires-Dist: pandas; extra == "ui"
|
|
47
|
-
Requires-Dist: llama-stack-client>=0.2.
|
|
47
|
+
Requires-Dist: llama-stack-client>=0.2.23; extra == "ui"
|
|
48
48
|
Requires-Dist: streamlit-option-menu; extra == "ui"
|
|
49
49
|
Dynamic: license-file
|
|
50
50
|
|
|
@@ -57,7 +57,7 @@ Dynamic: license-file
|
|
|
57
57
|
[](https://github.com/meta-llama/llama-stack/actions/workflows/unit-tests.yml?query=branch%3Amain)
|
|
58
58
|
[](https://github.com/meta-llama/llama-stack/actions/workflows/integration-tests.yml?query=branch%3Amain)
|
|
59
59
|
|
|
60
|
-
[**Quick Start**](https://
|
|
60
|
+
[**Quick Start**](https://llamastack.github.io/latest/getting_started/index.html) | [**Documentation**](https://llamastack.github.io/latest/index.html) | [**Colab Notebook**](./docs/getting_started.ipynb) | [**Discord**](https://discord.gg/llama-stack)
|
|
61
61
|
|
|
62
62
|
|
|
63
63
|
### ✨🎉 Llama 4 Support 🎉✨
|
|
@@ -159,7 +159,7 @@ By reducing friction and complexity, Llama Stack empowers developers to focus on
|
|
|
159
159
|
|
|
160
160
|
### API Providers
|
|
161
161
|
Here is a list of the various API providers and available distributions that can help developers get started easily with Llama Stack.
|
|
162
|
-
Please checkout for [full list](https://
|
|
162
|
+
Please checkout for [full list](https://llamastack.github.io/latest/providers/index.html)
|
|
163
163
|
|
|
164
164
|
| API Provider Builder | Environments | Agents | Inference | VectorIO | Safety | Telemetry | Post Training | Eval | DatasetIO |
|
|
165
165
|
|:--------------------:|:------------:|:------:|:---------:|:--------:|:------:|:---------:|:-------------:|:----:|:--------:|
|
|
@@ -190,7 +190,7 @@ Please checkout for [full list](https://llama-stack.readthedocs.io/en/latest/pro
|
|
|
190
190
|
| NVIDIA NEMO | Hosted | | ✅ | ✅ | | | ✅ | ✅ | ✅ |
|
|
191
191
|
| NVIDIA | Hosted | | | | | | ✅ | ✅ | ✅ |
|
|
192
192
|
|
|
193
|
-
> **Note**: Additional providers are available through external packages. See [External Providers](https://
|
|
193
|
+
> **Note**: Additional providers are available through external packages. See [External Providers](https://llamastack.github.io/latest/providers/external/index.html) documentation.
|
|
194
194
|
|
|
195
195
|
### Distributions
|
|
196
196
|
|
|
@@ -199,24 +199,24 @@ Here are some of the distributions we support:
|
|
|
199
199
|
|
|
200
200
|
| **Distribution** | **Llama Stack Docker** | Start This Distribution |
|
|
201
201
|
|:---------------------------------------------:|:-------------------------------------------------------------------------------------------------------------------------------------------------------------:|:------------------------------------------------------------------------------------------------------------------------:|
|
|
202
|
-
| Starter Distribution | [llamastack/distribution-starter](https://hub.docker.com/repository/docker/llamastack/distribution-starter/general) | [Guide](https://
|
|
203
|
-
| Meta Reference | [llamastack/distribution-meta-reference-gpu](https://hub.docker.com/repository/docker/llamastack/distribution-meta-reference-gpu/general) | [Guide](https://
|
|
202
|
+
| Starter Distribution | [llamastack/distribution-starter](https://hub.docker.com/repository/docker/llamastack/distribution-starter/general) | [Guide](https://llamastack.github.io/latest/distributions/self_hosted_distro/starter.html) |
|
|
203
|
+
| Meta Reference | [llamastack/distribution-meta-reference-gpu](https://hub.docker.com/repository/docker/llamastack/distribution-meta-reference-gpu/general) | [Guide](https://llamastack.github.io/latest/distributions/self_hosted_distro/meta-reference-gpu.html) |
|
|
204
204
|
| PostgreSQL | [llamastack/distribution-postgres-demo](https://hub.docker.com/repository/docker/llamastack/distribution-postgres-demo/general) | |
|
|
205
205
|
|
|
206
206
|
### Documentation
|
|
207
207
|
|
|
208
|
-
Please checkout our [Documentation](https://
|
|
208
|
+
Please checkout our [Documentation](https://llamastack.github.io/latest/index.html) page for more details.
|
|
209
209
|
|
|
210
210
|
* CLI references
|
|
211
|
-
* [llama (server-side) CLI Reference](https://
|
|
212
|
-
* [llama (client-side) CLI Reference](https://
|
|
211
|
+
* [llama (server-side) CLI Reference](https://llamastack.github.io/latest/references/llama_cli_reference/index.html): Guide for using the `llama` CLI to work with Llama models (download, study prompts), and building/starting a Llama Stack distribution.
|
|
212
|
+
* [llama (client-side) CLI Reference](https://llamastack.github.io/latest/references/llama_stack_client_cli_reference.html): Guide for using the `llama-stack-client` CLI, which allows you to query information about the distribution.
|
|
213
213
|
* Getting Started
|
|
214
|
-
* [Quick guide to start a Llama Stack server](https://
|
|
214
|
+
* [Quick guide to start a Llama Stack server](https://llamastack.github.io/latest/getting_started/index.html).
|
|
215
215
|
* [Jupyter notebook](./docs/getting_started.ipynb) to walk-through how to use simple text and vision inference llama_stack_client APIs
|
|
216
216
|
* The complete Llama Stack lesson [Colab notebook](https://colab.research.google.com/drive/1dtVmxotBsI4cGZQNsJRYPrLiDeT0Wnwt) of the new [Llama 3.2 course on Deeplearning.ai](https://learn.deeplearning.ai/courses/introducing-multimodal-llama-3-2/lesson/8/llama-stack).
|
|
217
217
|
* A [Zero-to-Hero Guide](https://github.com/meta-llama/llama-stack/tree/main/docs/zero_to_hero_guide) that guide you through all the key components of llama stack with code samples.
|
|
218
218
|
* [Contributing](CONTRIBUTING.md)
|
|
219
|
-
* [Adding a new API Provider](https://
|
|
219
|
+
* [Adding a new API Provider](https://llamastack.github.io/latest/contributing/new_api_provider.html) to walk-through how to add a new API provider.
|
|
220
220
|
|
|
221
221
|
### Llama Stack Client SDKs
|
|
222
222
|
|
|
@@ -7,7 +7,7 @@
|
|
|
7
7
|
[](https://github.com/meta-llama/llama-stack/actions/workflows/unit-tests.yml?query=branch%3Amain)
|
|
8
8
|
[](https://github.com/meta-llama/llama-stack/actions/workflows/integration-tests.yml?query=branch%3Amain)
|
|
9
9
|
|
|
10
|
-
[**Quick Start**](https://
|
|
10
|
+
[**Quick Start**](https://llamastack.github.io/latest/getting_started/index.html) | [**Documentation**](https://llamastack.github.io/latest/index.html) | [**Colab Notebook**](./docs/getting_started.ipynb) | [**Discord**](https://discord.gg/llama-stack)
|
|
11
11
|
|
|
12
12
|
|
|
13
13
|
### ✨🎉 Llama 4 Support 🎉✨
|
|
@@ -109,7 +109,7 @@ By reducing friction and complexity, Llama Stack empowers developers to focus on
|
|
|
109
109
|
|
|
110
110
|
### API Providers
|
|
111
111
|
Here is a list of the various API providers and available distributions that can help developers get started easily with Llama Stack.
|
|
112
|
-
Please checkout for [full list](https://
|
|
112
|
+
Please checkout for [full list](https://llamastack.github.io/latest/providers/index.html)
|
|
113
113
|
|
|
114
114
|
| API Provider Builder | Environments | Agents | Inference | VectorIO | Safety | Telemetry | Post Training | Eval | DatasetIO |
|
|
115
115
|
|:--------------------:|:------------:|:------:|:---------:|:--------:|:------:|:---------:|:-------------:|:----:|:--------:|
|
|
@@ -140,7 +140,7 @@ Please checkout for [full list](https://llama-stack.readthedocs.io/en/latest/pro
|
|
|
140
140
|
| NVIDIA NEMO | Hosted | | ✅ | ✅ | | | ✅ | ✅ | ✅ |
|
|
141
141
|
| NVIDIA | Hosted | | | | | | ✅ | ✅ | ✅ |
|
|
142
142
|
|
|
143
|
-
> **Note**: Additional providers are available through external packages. See [External Providers](https://
|
|
143
|
+
> **Note**: Additional providers are available through external packages. See [External Providers](https://llamastack.github.io/latest/providers/external/index.html) documentation.
|
|
144
144
|
|
|
145
145
|
### Distributions
|
|
146
146
|
|
|
@@ -149,24 +149,24 @@ Here are some of the distributions we support:
|
|
|
149
149
|
|
|
150
150
|
| **Distribution** | **Llama Stack Docker** | Start This Distribution |
|
|
151
151
|
|:---------------------------------------------:|:-------------------------------------------------------------------------------------------------------------------------------------------------------------:|:------------------------------------------------------------------------------------------------------------------------:|
|
|
152
|
-
| Starter Distribution | [llamastack/distribution-starter](https://hub.docker.com/repository/docker/llamastack/distribution-starter/general) | [Guide](https://
|
|
153
|
-
| Meta Reference | [llamastack/distribution-meta-reference-gpu](https://hub.docker.com/repository/docker/llamastack/distribution-meta-reference-gpu/general) | [Guide](https://
|
|
152
|
+
| Starter Distribution | [llamastack/distribution-starter](https://hub.docker.com/repository/docker/llamastack/distribution-starter/general) | [Guide](https://llamastack.github.io/latest/distributions/self_hosted_distro/starter.html) |
|
|
153
|
+
| Meta Reference | [llamastack/distribution-meta-reference-gpu](https://hub.docker.com/repository/docker/llamastack/distribution-meta-reference-gpu/general) | [Guide](https://llamastack.github.io/latest/distributions/self_hosted_distro/meta-reference-gpu.html) |
|
|
154
154
|
| PostgreSQL | [llamastack/distribution-postgres-demo](https://hub.docker.com/repository/docker/llamastack/distribution-postgres-demo/general) | |
|
|
155
155
|
|
|
156
156
|
### Documentation
|
|
157
157
|
|
|
158
|
-
Please checkout our [Documentation](https://
|
|
158
|
+
Please checkout our [Documentation](https://llamastack.github.io/latest/index.html) page for more details.
|
|
159
159
|
|
|
160
160
|
* CLI references
|
|
161
|
-
* [llama (server-side) CLI Reference](https://
|
|
162
|
-
* [llama (client-side) CLI Reference](https://
|
|
161
|
+
* [llama (server-side) CLI Reference](https://llamastack.github.io/latest/references/llama_cli_reference/index.html): Guide for using the `llama` CLI to work with Llama models (download, study prompts), and building/starting a Llama Stack distribution.
|
|
162
|
+
* [llama (client-side) CLI Reference](https://llamastack.github.io/latest/references/llama_stack_client_cli_reference.html): Guide for using the `llama-stack-client` CLI, which allows you to query information about the distribution.
|
|
163
163
|
* Getting Started
|
|
164
|
-
* [Quick guide to start a Llama Stack server](https://
|
|
164
|
+
* [Quick guide to start a Llama Stack server](https://llamastack.github.io/latest/getting_started/index.html).
|
|
165
165
|
* [Jupyter notebook](./docs/getting_started.ipynb) to walk-through how to use simple text and vision inference llama_stack_client APIs
|
|
166
166
|
* The complete Llama Stack lesson [Colab notebook](https://colab.research.google.com/drive/1dtVmxotBsI4cGZQNsJRYPrLiDeT0Wnwt) of the new [Llama 3.2 course on Deeplearning.ai](https://learn.deeplearning.ai/courses/introducing-multimodal-llama-3-2/lesson/8/llama-stack).
|
|
167
167
|
* A [Zero-to-Hero Guide](https://github.com/meta-llama/llama-stack/tree/main/docs/zero_to_hero_guide) that guide you through all the key components of llama stack with code samples.
|
|
168
168
|
* [Contributing](CONTRIBUTING.md)
|
|
169
|
-
* [Adding a new API Provider](https://
|
|
169
|
+
* [Adding a new API Provider](https://llamastack.github.io/latest/contributing/new_api_provider.html) to walk-through how to add a new API provider.
|
|
170
170
|
|
|
171
171
|
### Llama Stack Client SDKs
|
|
172
172
|
|
|
@@ -193,4 +193,4 @@ Thanks to all of our amazing contributors!
|
|
|
193
193
|
|
|
194
194
|
<a href="https://github.com/meta-llama/llama-stack/graphs/contributors">
|
|
195
195
|
<img src="https://contrib.rocks/image?repo=meta-llama/llama-stack" />
|
|
196
|
-
</a>
|
|
196
|
+
</a>
|
|
@@ -27,6 +27,7 @@ from llama_stack.apis.inference import (
|
|
|
27
27
|
)
|
|
28
28
|
from llama_stack.apis.safety import SafetyViolation
|
|
29
29
|
from llama_stack.apis.tools import ToolDef
|
|
30
|
+
from llama_stack.apis.version import LLAMA_STACK_API_V1
|
|
30
31
|
from llama_stack.schema_utils import json_schema_type, register_schema, webmethod
|
|
31
32
|
|
|
32
33
|
from .openai_responses import (
|
|
@@ -481,7 +482,7 @@ class Agents(Protocol):
|
|
|
481
482
|
- Agents can also use Memory to retrieve information from knowledge bases. See the RAG Tool and Vector IO APIs for more details.
|
|
482
483
|
"""
|
|
483
484
|
|
|
484
|
-
@webmethod(route="/agents", method="POST", descriptive_name="create_agent")
|
|
485
|
+
@webmethod(route="/agents", method="POST", descriptive_name="create_agent", level=LLAMA_STACK_API_V1)
|
|
485
486
|
async def create_agent(
|
|
486
487
|
self,
|
|
487
488
|
agent_config: AgentConfig,
|
|
@@ -494,7 +495,10 @@ class Agents(Protocol):
|
|
|
494
495
|
...
|
|
495
496
|
|
|
496
497
|
@webmethod(
|
|
497
|
-
route="/agents/{agent_id}/session/{session_id}/turn",
|
|
498
|
+
route="/agents/{agent_id}/session/{session_id}/turn",
|
|
499
|
+
method="POST",
|
|
500
|
+
descriptive_name="create_agent_turn",
|
|
501
|
+
level=LLAMA_STACK_API_V1,
|
|
498
502
|
)
|
|
499
503
|
async def create_agent_turn(
|
|
500
504
|
self,
|
|
@@ -524,6 +528,7 @@ class Agents(Protocol):
|
|
|
524
528
|
route="/agents/{agent_id}/session/{session_id}/turn/{turn_id}/resume",
|
|
525
529
|
method="POST",
|
|
526
530
|
descriptive_name="resume_agent_turn",
|
|
531
|
+
level=LLAMA_STACK_API_V1,
|
|
527
532
|
)
|
|
528
533
|
async def resume_agent_turn(
|
|
529
534
|
self,
|
|
@@ -549,6 +554,7 @@ class Agents(Protocol):
|
|
|
549
554
|
@webmethod(
|
|
550
555
|
route="/agents/{agent_id}/session/{session_id}/turn/{turn_id}",
|
|
551
556
|
method="GET",
|
|
557
|
+
level=LLAMA_STACK_API_V1,
|
|
552
558
|
)
|
|
553
559
|
async def get_agents_turn(
|
|
554
560
|
self,
|
|
@@ -568,6 +574,7 @@ class Agents(Protocol):
|
|
|
568
574
|
@webmethod(
|
|
569
575
|
route="/agents/{agent_id}/session/{session_id}/turn/{turn_id}/step/{step_id}",
|
|
570
576
|
method="GET",
|
|
577
|
+
level=LLAMA_STACK_API_V1,
|
|
571
578
|
)
|
|
572
579
|
async def get_agents_step(
|
|
573
580
|
self,
|
|
@@ -586,7 +593,12 @@ class Agents(Protocol):
|
|
|
586
593
|
"""
|
|
587
594
|
...
|
|
588
595
|
|
|
589
|
-
@webmethod(
|
|
596
|
+
@webmethod(
|
|
597
|
+
route="/agents/{agent_id}/session",
|
|
598
|
+
method="POST",
|
|
599
|
+
descriptive_name="create_agent_session",
|
|
600
|
+
level=LLAMA_STACK_API_V1,
|
|
601
|
+
)
|
|
590
602
|
async def create_agent_session(
|
|
591
603
|
self,
|
|
592
604
|
agent_id: str,
|
|
@@ -600,7 +612,7 @@ class Agents(Protocol):
|
|
|
600
612
|
"""
|
|
601
613
|
...
|
|
602
614
|
|
|
603
|
-
@webmethod(route="/agents/{agent_id}/session/{session_id}", method="GET")
|
|
615
|
+
@webmethod(route="/agents/{agent_id}/session/{session_id}", method="GET", level=LLAMA_STACK_API_V1)
|
|
604
616
|
async def get_agents_session(
|
|
605
617
|
self,
|
|
606
618
|
session_id: str,
|
|
@@ -616,7 +628,7 @@ class Agents(Protocol):
|
|
|
616
628
|
"""
|
|
617
629
|
...
|
|
618
630
|
|
|
619
|
-
@webmethod(route="/agents/{agent_id}/session/{session_id}", method="DELETE")
|
|
631
|
+
@webmethod(route="/agents/{agent_id}/session/{session_id}", method="DELETE", level=LLAMA_STACK_API_V1)
|
|
620
632
|
async def delete_agents_session(
|
|
621
633
|
self,
|
|
622
634
|
session_id: str,
|
|
@@ -629,7 +641,7 @@ class Agents(Protocol):
|
|
|
629
641
|
"""
|
|
630
642
|
...
|
|
631
643
|
|
|
632
|
-
@webmethod(route="/agents/{agent_id}", method="DELETE")
|
|
644
|
+
@webmethod(route="/agents/{agent_id}", method="DELETE", level=LLAMA_STACK_API_V1)
|
|
633
645
|
async def delete_agent(
|
|
634
646
|
self,
|
|
635
647
|
agent_id: str,
|
|
@@ -640,7 +652,7 @@ class Agents(Protocol):
|
|
|
640
652
|
"""
|
|
641
653
|
...
|
|
642
654
|
|
|
643
|
-
@webmethod(route="/agents", method="GET")
|
|
655
|
+
@webmethod(route="/agents", method="GET", level=LLAMA_STACK_API_V1)
|
|
644
656
|
async def list_agents(self, start_index: int | None = None, limit: int | None = None) -> PaginatedResponse:
|
|
645
657
|
"""List all agents.
|
|
646
658
|
|
|
@@ -650,7 +662,7 @@ class Agents(Protocol):
|
|
|
650
662
|
"""
|
|
651
663
|
...
|
|
652
664
|
|
|
653
|
-
@webmethod(route="/agents/{agent_id}", method="GET")
|
|
665
|
+
@webmethod(route="/agents/{agent_id}", method="GET", level=LLAMA_STACK_API_V1)
|
|
654
666
|
async def get_agent(self, agent_id: str) -> Agent:
|
|
655
667
|
"""Describe an agent by its ID.
|
|
656
668
|
|
|
@@ -659,7 +671,7 @@ class Agents(Protocol):
|
|
|
659
671
|
"""
|
|
660
672
|
...
|
|
661
673
|
|
|
662
|
-
@webmethod(route="/agents/{agent_id}/sessions", method="GET")
|
|
674
|
+
@webmethod(route="/agents/{agent_id}/sessions", method="GET", level=LLAMA_STACK_API_V1)
|
|
663
675
|
async def list_agent_sessions(
|
|
664
676
|
self,
|
|
665
677
|
agent_id: str,
|
|
@@ -682,7 +694,7 @@ class Agents(Protocol):
|
|
|
682
694
|
#
|
|
683
695
|
# Both of these APIs are inherently stateful.
|
|
684
696
|
|
|
685
|
-
@webmethod(route="/openai/v1/responses/{response_id}", method="GET")
|
|
697
|
+
@webmethod(route="/openai/v1/responses/{response_id}", method="GET", level=LLAMA_STACK_API_V1)
|
|
686
698
|
async def get_openai_response(
|
|
687
699
|
self,
|
|
688
700
|
response_id: str,
|
|
@@ -694,7 +706,7 @@ class Agents(Protocol):
|
|
|
694
706
|
"""
|
|
695
707
|
...
|
|
696
708
|
|
|
697
|
-
@webmethod(route="/openai/v1/responses", method="POST")
|
|
709
|
+
@webmethod(route="/openai/v1/responses", method="POST", level=LLAMA_STACK_API_V1)
|
|
698
710
|
async def create_openai_response(
|
|
699
711
|
self,
|
|
700
712
|
input: str | list[OpenAIResponseInput],
|
|
@@ -719,7 +731,7 @@ class Agents(Protocol):
|
|
|
719
731
|
"""
|
|
720
732
|
...
|
|
721
733
|
|
|
722
|
-
@webmethod(route="/openai/v1/responses", method="GET")
|
|
734
|
+
@webmethod(route="/openai/v1/responses", method="GET", level=LLAMA_STACK_API_V1)
|
|
723
735
|
async def list_openai_responses(
|
|
724
736
|
self,
|
|
725
737
|
after: str | None = None,
|
|
@@ -737,7 +749,7 @@ class Agents(Protocol):
|
|
|
737
749
|
"""
|
|
738
750
|
...
|
|
739
751
|
|
|
740
|
-
@webmethod(route="/openai/v1/responses/{response_id}/input_items", method="GET")
|
|
752
|
+
@webmethod(route="/openai/v1/responses/{response_id}/input_items", method="GET", level=LLAMA_STACK_API_V1)
|
|
741
753
|
async def list_openai_response_input_items(
|
|
742
754
|
self,
|
|
743
755
|
response_id: str,
|
|
@@ -759,7 +771,7 @@ class Agents(Protocol):
|
|
|
759
771
|
"""
|
|
760
772
|
...
|
|
761
773
|
|
|
762
|
-
@webmethod(route="/openai/v1/responses/{response_id}", method="DELETE")
|
|
774
|
+
@webmethod(route="/openai/v1/responses/{response_id}", method="DELETE", level=LLAMA_STACK_API_V1)
|
|
763
775
|
async def delete_openai_response(self, response_id: str) -> OpenAIDeleteResponseObject:
|
|
764
776
|
"""Delete an OpenAI response by its ID.
|
|
765
777
|
|
{llama_stack-0.2.22 → llama_stack-0.2.24}/llama_stack/apis/batch_inference/batch_inference.py
RENAMED
|
@@ -17,6 +17,7 @@ from llama_stack.apis.inference import (
|
|
|
17
17
|
ToolDefinition,
|
|
18
18
|
ToolPromptFormat,
|
|
19
19
|
)
|
|
20
|
+
from llama_stack.apis.version import LLAMA_STACK_API_V1
|
|
20
21
|
from llama_stack.schema_utils import webmethod
|
|
21
22
|
|
|
22
23
|
|
|
@@ -30,7 +31,7 @@ class BatchInference(Protocol):
|
|
|
30
31
|
including (post-training, evals, etc).
|
|
31
32
|
"""
|
|
32
33
|
|
|
33
|
-
@webmethod(route="/batch-inference/completion", method="POST")
|
|
34
|
+
@webmethod(route="/batch-inference/completion", method="POST", level=LLAMA_STACK_API_V1)
|
|
34
35
|
async def completion(
|
|
35
36
|
self,
|
|
36
37
|
model: str,
|
|
@@ -50,7 +51,7 @@ class BatchInference(Protocol):
|
|
|
50
51
|
"""
|
|
51
52
|
...
|
|
52
53
|
|
|
53
|
-
@webmethod(route="/batch-inference/chat-completion", method="POST")
|
|
54
|
+
@webmethod(route="/batch-inference/chat-completion", method="POST", level=LLAMA_STACK_API_V1)
|
|
54
55
|
async def chat_completion(
|
|
55
56
|
self,
|
|
56
57
|
model: str,
|
|
@@ -8,6 +8,7 @@ from typing import Literal, Protocol, runtime_checkable
|
|
|
8
8
|
|
|
9
9
|
from pydantic import BaseModel, Field
|
|
10
10
|
|
|
11
|
+
from llama_stack.apis.version import LLAMA_STACK_API_V1
|
|
11
12
|
from llama_stack.schema_utils import json_schema_type, webmethod
|
|
12
13
|
|
|
13
14
|
try:
|
|
@@ -42,7 +43,7 @@ class Batches(Protocol):
|
|
|
42
43
|
Note: This API is currently under active development and may undergo changes.
|
|
43
44
|
"""
|
|
44
45
|
|
|
45
|
-
@webmethod(route="/openai/v1/batches", method="POST")
|
|
46
|
+
@webmethod(route="/openai/v1/batches", method="POST", level=LLAMA_STACK_API_V1)
|
|
46
47
|
async def create_batch(
|
|
47
48
|
self,
|
|
48
49
|
input_file_id: str,
|
|
@@ -62,7 +63,7 @@ class Batches(Protocol):
|
|
|
62
63
|
"""
|
|
63
64
|
...
|
|
64
65
|
|
|
65
|
-
@webmethod(route="/openai/v1/batches/{batch_id}", method="GET")
|
|
66
|
+
@webmethod(route="/openai/v1/batches/{batch_id}", method="GET", level=LLAMA_STACK_API_V1)
|
|
66
67
|
async def retrieve_batch(self, batch_id: str) -> BatchObject:
|
|
67
68
|
"""Retrieve information about a specific batch.
|
|
68
69
|
|
|
@@ -71,7 +72,7 @@ class Batches(Protocol):
|
|
|
71
72
|
"""
|
|
72
73
|
...
|
|
73
74
|
|
|
74
|
-
@webmethod(route="/openai/v1/batches/{batch_id}/cancel", method="POST")
|
|
75
|
+
@webmethod(route="/openai/v1/batches/{batch_id}/cancel", method="POST", level=LLAMA_STACK_API_V1)
|
|
75
76
|
async def cancel_batch(self, batch_id: str) -> BatchObject:
|
|
76
77
|
"""Cancel a batch that is in progress.
|
|
77
78
|
|
|
@@ -80,7 +81,7 @@ class Batches(Protocol):
|
|
|
80
81
|
"""
|
|
81
82
|
...
|
|
82
83
|
|
|
83
|
-
@webmethod(route="/openai/v1/batches", method="GET")
|
|
84
|
+
@webmethod(route="/openai/v1/batches", method="GET", level=LLAMA_STACK_API_V1)
|
|
84
85
|
async def list_batches(
|
|
85
86
|
self,
|
|
86
87
|
after: str | None = None,
|
|
@@ -8,6 +8,7 @@ from typing import Any, Literal, Protocol, runtime_checkable
|
|
|
8
8
|
from pydantic import BaseModel, Field
|
|
9
9
|
|
|
10
10
|
from llama_stack.apis.resource import Resource, ResourceType
|
|
11
|
+
from llama_stack.apis.version import LLAMA_STACK_API_V1, LLAMA_STACK_API_V1ALPHA
|
|
11
12
|
from llama_stack.schema_utils import json_schema_type, webmethod
|
|
12
13
|
|
|
13
14
|
|
|
@@ -53,7 +54,8 @@ class ListBenchmarksResponse(BaseModel):
|
|
|
53
54
|
|
|
54
55
|
@runtime_checkable
|
|
55
56
|
class Benchmarks(Protocol):
|
|
56
|
-
@webmethod(route="/eval/benchmarks", method="GET")
|
|
57
|
+
@webmethod(route="/eval/benchmarks", method="GET", level=LLAMA_STACK_API_V1, deprecated=True)
|
|
58
|
+
@webmethod(route="/eval/benchmarks", method="GET", level=LLAMA_STACK_API_V1ALPHA)
|
|
57
59
|
async def list_benchmarks(self) -> ListBenchmarksResponse:
|
|
58
60
|
"""List all benchmarks.
|
|
59
61
|
|
|
@@ -61,7 +63,8 @@ class Benchmarks(Protocol):
|
|
|
61
63
|
"""
|
|
62
64
|
...
|
|
63
65
|
|
|
64
|
-
@webmethod(route="/eval/benchmarks/{benchmark_id}", method="GET")
|
|
66
|
+
@webmethod(route="/eval/benchmarks/{benchmark_id}", method="GET", level=LLAMA_STACK_API_V1, deprecated=True)
|
|
67
|
+
@webmethod(route="/eval/benchmarks/{benchmark_id}", method="GET", level=LLAMA_STACK_API_V1ALPHA)
|
|
65
68
|
async def get_benchmark(
|
|
66
69
|
self,
|
|
67
70
|
benchmark_id: str,
|
|
@@ -73,7 +76,8 @@ class Benchmarks(Protocol):
|
|
|
73
76
|
"""
|
|
74
77
|
...
|
|
75
78
|
|
|
76
|
-
@webmethod(route="/eval/benchmarks", method="POST")
|
|
79
|
+
@webmethod(route="/eval/benchmarks", method="POST", level=LLAMA_STACK_API_V1, deprecated=True)
|
|
80
|
+
@webmethod(route="/eval/benchmarks", method="POST", level=LLAMA_STACK_API_V1ALPHA)
|
|
77
81
|
async def register_benchmark(
|
|
78
82
|
self,
|
|
79
83
|
benchmark_id: str,
|
|
@@ -94,7 +98,8 @@ class Benchmarks(Protocol):
|
|
|
94
98
|
"""
|
|
95
99
|
...
|
|
96
100
|
|
|
97
|
-
@webmethod(route="/eval/benchmarks/{benchmark_id}", method="DELETE")
|
|
101
|
+
@webmethod(route="/eval/benchmarks/{benchmark_id}", method="DELETE", level=LLAMA_STACK_API_V1, deprecated=True)
|
|
102
|
+
@webmethod(route="/eval/benchmarks/{benchmark_id}", method="DELETE", level=LLAMA_STACK_API_V1ALPHA)
|
|
98
103
|
async def unregister_benchmark(self, benchmark_id: str) -> None:
|
|
99
104
|
"""Unregister a benchmark.
|
|
100
105
|
|
|
@@ -8,6 +8,7 @@ from typing import Any, Protocol, runtime_checkable
|
|
|
8
8
|
|
|
9
9
|
from llama_stack.apis.common.responses import PaginatedResponse
|
|
10
10
|
from llama_stack.apis.datasets import Dataset
|
|
11
|
+
from llama_stack.apis.version import LLAMA_STACK_API_V1
|
|
11
12
|
from llama_stack.schema_utils import webmethod
|
|
12
13
|
|
|
13
14
|
|
|
@@ -20,7 +21,7 @@ class DatasetIO(Protocol):
|
|
|
20
21
|
# keeping for aligning with inference/safety, but this is not used
|
|
21
22
|
dataset_store: DatasetStore
|
|
22
23
|
|
|
23
|
-
@webmethod(route="/datasetio/iterrows/{dataset_id:path}", method="GET")
|
|
24
|
+
@webmethod(route="/datasetio/iterrows/{dataset_id:path}", method="GET", level=LLAMA_STACK_API_V1)
|
|
24
25
|
async def iterrows(
|
|
25
26
|
self,
|
|
26
27
|
dataset_id: str,
|
|
@@ -44,7 +45,7 @@ class DatasetIO(Protocol):
|
|
|
44
45
|
"""
|
|
45
46
|
...
|
|
46
47
|
|
|
47
|
-
@webmethod(route="/datasetio/append-rows/{dataset_id:path}", method="POST")
|
|
48
|
+
@webmethod(route="/datasetio/append-rows/{dataset_id:path}", method="POST", level=LLAMA_STACK_API_V1)
|
|
48
49
|
async def append_rows(self, dataset_id: str, rows: list[dict[str, Any]]) -> None:
|
|
49
50
|
"""Append rows to a dataset.
|
|
50
51
|
|
|
@@ -10,6 +10,7 @@ from typing import Annotated, Any, Literal, Protocol
|
|
|
10
10
|
from pydantic import BaseModel, Field
|
|
11
11
|
|
|
12
12
|
from llama_stack.apis.resource import Resource, ResourceType
|
|
13
|
+
from llama_stack.apis.version import LLAMA_STACK_API_V1
|
|
13
14
|
from llama_stack.schema_utils import json_schema_type, register_schema, webmethod
|
|
14
15
|
|
|
15
16
|
|
|
@@ -145,7 +146,7 @@ class ListDatasetsResponse(BaseModel):
|
|
|
145
146
|
|
|
146
147
|
|
|
147
148
|
class Datasets(Protocol):
|
|
148
|
-
@webmethod(route="/datasets", method="POST")
|
|
149
|
+
@webmethod(route="/datasets", method="POST", level=LLAMA_STACK_API_V1)
|
|
149
150
|
async def register_dataset(
|
|
150
151
|
self,
|
|
151
152
|
purpose: DatasetPurpose,
|
|
@@ -214,7 +215,7 @@ class Datasets(Protocol):
|
|
|
214
215
|
"""
|
|
215
216
|
...
|
|
216
217
|
|
|
217
|
-
@webmethod(route="/datasets/{dataset_id:path}", method="GET")
|
|
218
|
+
@webmethod(route="/datasets/{dataset_id:path}", method="GET", level=LLAMA_STACK_API_V1)
|
|
218
219
|
async def get_dataset(
|
|
219
220
|
self,
|
|
220
221
|
dataset_id: str,
|
|
@@ -226,7 +227,7 @@ class Datasets(Protocol):
|
|
|
226
227
|
"""
|
|
227
228
|
...
|
|
228
229
|
|
|
229
|
-
@webmethod(route="/datasets", method="GET")
|
|
230
|
+
@webmethod(route="/datasets", method="GET", level=LLAMA_STACK_API_V1)
|
|
230
231
|
async def list_datasets(self) -> ListDatasetsResponse:
|
|
231
232
|
"""List all datasets.
|
|
232
233
|
|
|
@@ -234,7 +235,7 @@ class Datasets(Protocol):
|
|
|
234
235
|
"""
|
|
235
236
|
...
|
|
236
237
|
|
|
237
|
-
@webmethod(route="/datasets/{dataset_id:path}", method="DELETE")
|
|
238
|
+
@webmethod(route="/datasets/{dataset_id:path}", method="DELETE", level=LLAMA_STACK_API_V1)
|
|
238
239
|
async def unregister_dataset(
|
|
239
240
|
self,
|
|
240
241
|
dataset_id: str,
|
|
@@ -13,6 +13,7 @@ from llama_stack.apis.common.job_types import Job
|
|
|
13
13
|
from llama_stack.apis.inference import SamplingParams, SystemMessage
|
|
14
14
|
from llama_stack.apis.scoring import ScoringResult
|
|
15
15
|
from llama_stack.apis.scoring_functions import ScoringFnParams
|
|
16
|
+
from llama_stack.apis.version import LLAMA_STACK_API_V1, LLAMA_STACK_API_V1ALPHA
|
|
16
17
|
from llama_stack.schema_utils import json_schema_type, register_schema, webmethod
|
|
17
18
|
|
|
18
19
|
|
|
@@ -83,7 +84,8 @@ class EvaluateResponse(BaseModel):
|
|
|
83
84
|
class Eval(Protocol):
|
|
84
85
|
"""Llama Stack Evaluation API for running evaluations on model and agent candidates."""
|
|
85
86
|
|
|
86
|
-
@webmethod(route="/eval/benchmarks/{benchmark_id}/jobs", method="POST")
|
|
87
|
+
@webmethod(route="/eval/benchmarks/{benchmark_id}/jobs", method="POST", level=LLAMA_STACK_API_V1, deprecated=True)
|
|
88
|
+
@webmethod(route="/eval/benchmarks/{benchmark_id}/jobs", method="POST", level=LLAMA_STACK_API_V1ALPHA)
|
|
87
89
|
async def run_eval(
|
|
88
90
|
self,
|
|
89
91
|
benchmark_id: str,
|
|
@@ -97,7 +99,10 @@ class Eval(Protocol):
|
|
|
97
99
|
"""
|
|
98
100
|
...
|
|
99
101
|
|
|
100
|
-
@webmethod(
|
|
102
|
+
@webmethod(
|
|
103
|
+
route="/eval/benchmarks/{benchmark_id}/evaluations", method="POST", level=LLAMA_STACK_API_V1, deprecated=True
|
|
104
|
+
)
|
|
105
|
+
@webmethod(route="/eval/benchmarks/{benchmark_id}/evaluations", method="POST", level=LLAMA_STACK_API_V1ALPHA)
|
|
101
106
|
async def evaluate_rows(
|
|
102
107
|
self,
|
|
103
108
|
benchmark_id: str,
|
|
@@ -115,7 +120,10 @@ class Eval(Protocol):
|
|
|
115
120
|
"""
|
|
116
121
|
...
|
|
117
122
|
|
|
118
|
-
@webmethod(
|
|
123
|
+
@webmethod(
|
|
124
|
+
route="/eval/benchmarks/{benchmark_id}/jobs/{job_id}", method="GET", level=LLAMA_STACK_API_V1, deprecated=True
|
|
125
|
+
)
|
|
126
|
+
@webmethod(route="/eval/benchmarks/{benchmark_id}/jobs/{job_id}", method="GET", level=LLAMA_STACK_API_V1ALPHA)
|
|
119
127
|
async def job_status(self, benchmark_id: str, job_id: str) -> Job:
|
|
120
128
|
"""Get the status of a job.
|
|
121
129
|
|
|
@@ -125,7 +133,13 @@ class Eval(Protocol):
|
|
|
125
133
|
"""
|
|
126
134
|
...
|
|
127
135
|
|
|
128
|
-
@webmethod(
|
|
136
|
+
@webmethod(
|
|
137
|
+
route="/eval/benchmarks/{benchmark_id}/jobs/{job_id}",
|
|
138
|
+
method="DELETE",
|
|
139
|
+
level=LLAMA_STACK_API_V1,
|
|
140
|
+
deprecated=True,
|
|
141
|
+
)
|
|
142
|
+
@webmethod(route="/eval/benchmarks/{benchmark_id}/jobs/{job_id}", method="DELETE", level=LLAMA_STACK_API_V1ALPHA)
|
|
129
143
|
async def job_cancel(self, benchmark_id: str, job_id: str) -> None:
|
|
130
144
|
"""Cancel a job.
|
|
131
145
|
|
|
@@ -134,7 +148,15 @@ class Eval(Protocol):
|
|
|
134
148
|
"""
|
|
135
149
|
...
|
|
136
150
|
|
|
137
|
-
@webmethod(
|
|
151
|
+
@webmethod(
|
|
152
|
+
route="/eval/benchmarks/{benchmark_id}/jobs/{job_id}/result",
|
|
153
|
+
method="GET",
|
|
154
|
+
level=LLAMA_STACK_API_V1,
|
|
155
|
+
deprecated=True,
|
|
156
|
+
)
|
|
157
|
+
@webmethod(
|
|
158
|
+
route="/eval/benchmarks/{benchmark_id}/jobs/{job_id}/result", method="GET", level=LLAMA_STACK_API_V1ALPHA
|
|
159
|
+
)
|
|
138
160
|
async def job_result(self, benchmark_id: str, job_id: str) -> EvaluateResponse:
|
|
139
161
|
"""Get the result of a job.
|
|
140
162
|
|
|
@@ -11,6 +11,7 @@ from fastapi import File, Form, Response, UploadFile
|
|
|
11
11
|
from pydantic import BaseModel, Field
|
|
12
12
|
|
|
13
13
|
from llama_stack.apis.common.responses import Order
|
|
14
|
+
from llama_stack.apis.version import LLAMA_STACK_API_V1
|
|
14
15
|
from llama_stack.providers.utils.telemetry.trace_protocol import trace_protocol
|
|
15
16
|
from llama_stack.schema_utils import json_schema_type, webmethod
|
|
16
17
|
|
|
@@ -104,7 +105,7 @@ class OpenAIFileDeleteResponse(BaseModel):
|
|
|
104
105
|
@trace_protocol
|
|
105
106
|
class Files(Protocol):
|
|
106
107
|
# OpenAI Files API Endpoints
|
|
107
|
-
@webmethod(route="/openai/v1/files", method="POST")
|
|
108
|
+
@webmethod(route="/openai/v1/files", method="POST", level=LLAMA_STACK_API_V1)
|
|
108
109
|
async def openai_upload_file(
|
|
109
110
|
self,
|
|
110
111
|
file: Annotated[UploadFile, File()],
|
|
@@ -119,7 +120,7 @@ class Files(Protocol):
|
|
|
119
120
|
The file upload should be a multipart form request with:
|
|
120
121
|
- file: The File object (not file name) to be uploaded.
|
|
121
122
|
- purpose: The intended purpose of the uploaded file.
|
|
122
|
-
- expires_after: Optional form values describing expiration for the file. Expected expires_after[anchor] = "created_at", expires_after[seconds] =
|
|
123
|
+
- expires_after: Optional form values describing expiration for the file. Expected expires_after[anchor] = "created_at", expires_after[seconds] = {integer}. Seconds must be between 3600 and 2592000 (1 hour to 30 days).
|
|
123
124
|
|
|
124
125
|
:param file: The uploaded file object containing content and metadata (filename, content_type, etc.).
|
|
125
126
|
:param purpose: The intended purpose of the uploaded file (e.g., "assistants", "fine-tune").
|
|
@@ -127,7 +128,7 @@ class Files(Protocol):
|
|
|
127
128
|
"""
|
|
128
129
|
...
|
|
129
130
|
|
|
130
|
-
@webmethod(route="/openai/v1/files", method="GET")
|
|
131
|
+
@webmethod(route="/openai/v1/files", method="GET", level=LLAMA_STACK_API_V1)
|
|
131
132
|
async def openai_list_files(
|
|
132
133
|
self,
|
|
133
134
|
after: str | None = None,
|
|
@@ -146,7 +147,7 @@ class Files(Protocol):
|
|
|
146
147
|
"""
|
|
147
148
|
...
|
|
148
149
|
|
|
149
|
-
@webmethod(route="/openai/v1/files/{file_id}", method="GET")
|
|
150
|
+
@webmethod(route="/openai/v1/files/{file_id}", method="GET", level=LLAMA_STACK_API_V1)
|
|
150
151
|
async def openai_retrieve_file(
|
|
151
152
|
self,
|
|
152
153
|
file_id: str,
|
|
@@ -159,7 +160,7 @@ class Files(Protocol):
|
|
|
159
160
|
"""
|
|
160
161
|
...
|
|
161
162
|
|
|
162
|
-
@webmethod(route="/openai/v1/files/{file_id}", method="DELETE")
|
|
163
|
+
@webmethod(route="/openai/v1/files/{file_id}", method="DELETE", level=LLAMA_STACK_API_V1)
|
|
163
164
|
async def openai_delete_file(
|
|
164
165
|
self,
|
|
165
166
|
file_id: str,
|
|
@@ -172,7 +173,7 @@ class Files(Protocol):
|
|
|
172
173
|
"""
|
|
173
174
|
...
|
|
174
175
|
|
|
175
|
-
@webmethod(route="/openai/v1/files/{file_id}/content", method="GET")
|
|
176
|
+
@webmethod(route="/openai/v1/files/{file_id}/content", method="GET", level=LLAMA_STACK_API_V1)
|
|
176
177
|
async def openai_retrieve_file_content(
|
|
177
178
|
self,
|
|
178
179
|
file_id: str,
|