llama-stack 0.2.20__tar.gz → 0.2.22__tar.gz
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- {llama_stack-0.2.20/llama_stack.egg-info → llama_stack-0.2.22}/PKG-INFO +5 -6
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/benchmarks/benchmarks.py +8 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/common/errors.py +7 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/datatypes.py +2 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/files/files.py +23 -2
- llama_stack-0.2.22/llama_stack/apis/prompts/__init__.py +9 -0
- llama_stack-0.2.22/llama_stack/apis/prompts/prompts.py +189 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/resource.py +1 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/scoring_functions/scoring_functions.py +8 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/stack/_build.py +7 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/verify_download.py +7 -10
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/datatypes.py +50 -4
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/library_client.py +0 -2
- llama_stack-0.2.22/llama_stack/core/prompts/prompts.py +233 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/resolver.py +11 -1
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/routers/__init__.py +4 -1
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/routers/inference.py +15 -10
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/routing_tables/benchmarks.py +4 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/routing_tables/common.py +4 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/routing_tables/scoring_functions.py +4 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/routing_tables/vector_dbs.py +22 -4
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/server/auth_providers.py +90 -3
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/server/server.py +5 -2
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/stack.py +12 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/ci-tests/build.yaml +1 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/ci-tests/ci_tests.py +1 -3
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/ci-tests/run.yaml +16 -9
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/nvidia/run.yaml +5 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/starter/build.yaml +1 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/starter/run.yaml +7 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/starter/starter.py +19 -2
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/starter-gpu/build.yaml +1 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/starter-gpu/run.yaml +16 -9
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/starter-gpu/starter_gpu.py +1 -3
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/watsonx/run.yaml +9 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/watsonx/watsonx.py +10 -2
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/batches/reference/batches.py +48 -23
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/eval/meta_reference/eval.py +7 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/files/localfs/files.py +5 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/llm_as_judge/scoring.py +3 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/tool_runtime/rag/__init__.py +1 -1
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/tool_runtime/rag/context_retriever.py +6 -6
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/tool_runtime/rag/memory.py +117 -26
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/sqlite_vec/sqlite_vec.py +5 -62
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/registry/batches.py +1 -1
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/registry/datasetio.py +2 -2
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/registry/inference.py +21 -10
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/registry/post_training.py +1 -1
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/registry/scoring.py +1 -1
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/registry/tool_runtime.py +1 -1
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/eval/nvidia/eval.py +11 -2
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/files/s3/files.py +115 -70
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/anthropic/anthropic.py +7 -1
- llama_stack-0.2.22/llama_stack/providers/remote/inference/azure/__init__.py +15 -0
- llama_stack-0.2.22/llama_stack/providers/remote/inference/azure/azure.py +64 -0
- llama_stack-0.2.22/llama_stack/providers/remote/inference/azure/config.py +63 -0
- llama_stack-0.2.22/llama_stack/providers/remote/inference/azure/models.py +28 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/bedrock/bedrock.py +49 -2
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/gemini/gemini.py +7 -1
- llama_stack-0.2.22/llama_stack/providers/remote/inference/groq/groq.py +38 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/nvidia/models.py +4 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/ollama/ollama.py +4 -4
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/sambanova/sambanova.py +25 -1
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/tgi/tgi.py +43 -15
- llama_stack-0.2.22/llama_stack/providers/remote/inference/together/models.py +103 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/together/together.py +79 -130
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/vertexai/vertexai.py +29 -4
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/vllm/vllm.py +11 -186
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/watsonx/config.py +2 -2
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/watsonx/watsonx.py +20 -4
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/bedrock/config.py +12 -10
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/inference/embedding_mixin.py +15 -8
- llama_stack-0.2.22/llama_stack/providers/utils/inference/inference_store.py +246 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/inference/openai_mixin.py +53 -8
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/memory/vector_store.py +5 -5
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/sqlstore/authorized_sqlstore.py +14 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/telemetry/tracing.py +24 -10
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/tools/mcp.py +32 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/vector_io/vector_utils.py +2 -4
- llama_stack-0.2.22/llama_stack/testing/__init__.py +5 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/testing/inference_recorder.py +133 -46
- {llama_stack-0.2.20 → llama_stack-0.2.22/llama_stack.egg-info}/PKG-INFO +5 -6
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack.egg-info/SOURCES.txt +8 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack.egg-info/requires.txt +4 -5
- {llama_stack-0.2.20 → llama_stack-0.2.22}/pyproject.toml +11 -13
- llama_stack-0.2.20/llama_stack/providers/remote/inference/groq/groq.py +0 -161
- llama_stack-0.2.20/llama_stack/providers/remote/inference/together/models.py +0 -77
- llama_stack-0.2.20/llama_stack/providers/utils/inference/inference_store.py +0 -136
- {llama_stack-0.2.20 → llama_stack-0.2.22}/LICENSE +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/MANIFEST.in +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/README.md +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/agents/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/agents/agents.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/agents/openai_responses.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/batch_inference/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/batch_inference/batch_inference.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/batches/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/batches/batches.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/benchmarks/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/common/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/common/content_types.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/common/job_types.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/common/responses.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/common/training_types.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/common/type_system.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/datasetio/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/datasetio/datasetio.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/datasets/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/datasets/datasets.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/eval/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/eval/eval.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/files/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/inference/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/inference/event_logger.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/inference/inference.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/inspect/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/inspect/inspect.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/models/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/models/models.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/post_training/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/post_training/post_training.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/providers/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/providers/providers.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/safety/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/safety/safety.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/scoring/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/scoring/scoring.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/scoring_functions/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/shields/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/shields/shields.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/synthetic_data_generation/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/synthetic_data_generation/synthetic_data_generation.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/telemetry/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/telemetry/telemetry.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/tools/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/tools/rag_tool.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/tools/tools.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/vector_dbs/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/vector_dbs/vector_dbs.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/vector_io/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/vector_io/vector_io.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/version.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/download.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/llama.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/model/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/model/describe.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/model/download.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/model/list.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/model/model.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/model/prompt_format.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/model/remove.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/model/safety_models.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/model/verify_download.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/scripts/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/scripts/install-wheel-from-presigned.sh +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/scripts/run.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/stack/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/stack/build.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/stack/list_apis.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/stack/list_providers.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/stack/list_stacks.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/stack/remove.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/stack/run.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/stack/stack.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/stack/utils.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/subcommand.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/table.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/utils.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/access_control/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/access_control/access_control.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/access_control/conditions.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/access_control/datatypes.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/build.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/build_container.sh +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/build_venv.sh +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/client.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/common.sh +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/configure.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/distribution.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/external.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/inspect.py +0 -0
- {llama_stack-0.2.20/llama_stack/core/routing_tables → llama_stack-0.2.22/llama_stack/core/prompts}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/providers.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/request_headers.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/routers/datasets.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/routers/eval_scoring.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/routers/safety.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/routers/tool_runtime.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/routers/vector_io.py +0 -0
- {llama_stack-0.2.20/llama_stack/core/server → llama_stack-0.2.22/llama_stack/core/routing_tables}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/routing_tables/datasets.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/routing_tables/models.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/routing_tables/shields.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/routing_tables/toolgroups.py +0 -0
- {llama_stack-0.2.20/llama_stack/core/ui → llama_stack-0.2.22/llama_stack/core/server}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/server/auth.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/server/quota.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/server/routes.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/start_stack.sh +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/store/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/store/registry.py +0 -0
- {llama_stack-0.2.20/llama_stack/core/ui/modules → llama_stack-0.2.22/llama_stack/core/ui}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/ui/app.py +0 -0
- {llama_stack-0.2.20/llama_stack/core/ui/page → llama_stack-0.2.22/llama_stack/core/ui/modules}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/ui/modules/api.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/ui/modules/utils.py +0 -0
- {llama_stack-0.2.20/llama_stack/core/ui/page/distribution → llama_stack-0.2.22/llama_stack/core/ui/page}/__init__.py +0 -0
- {llama_stack-0.2.20/llama_stack/core/ui/page/evaluations → llama_stack-0.2.22/llama_stack/core/ui/page/distribution}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/ui/page/distribution/datasets.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/ui/page/distribution/eval_tasks.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/ui/page/distribution/models.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/ui/page/distribution/providers.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/ui/page/distribution/resources.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/ui/page/distribution/scoring_functions.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/ui/page/distribution/shields.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/ui/page/distribution/vector_dbs.py +0 -0
- {llama_stack-0.2.20/llama_stack/core/ui/page/playground → llama_stack-0.2.22/llama_stack/core/ui/page/evaluations}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/ui/page/evaluations/app_eval.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/ui/page/evaluations/native_eval.py +0 -0
- {llama_stack-0.2.20/llama_stack/core/utils → llama_stack-0.2.22/llama_stack/core/ui/page/playground}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/ui/page/playground/chat.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/ui/page/playground/rag.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/ui/page/playground/tools.py +0 -0
- {llama_stack-0.2.20/llama_stack/distributions → llama_stack-0.2.22/llama_stack/core/utils}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/utils/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/utils/config_dirs.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/utils/config_resolution.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/utils/context.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/utils/dynamic.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/utils/exec.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/utils/image_types.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/utils/model_utils.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/utils/prompt_for_config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/utils/serialize.py +0 -0
- {llama_stack-0.2.20/llama_stack/distributions/watsonx → llama_stack-0.2.22/llama_stack/distributions}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/ci-tests/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/dell/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/dell/build.yaml +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/dell/dell.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/dell/run-with-safety.yaml +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/dell/run.yaml +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/meta-reference-gpu/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/meta-reference-gpu/build.yaml +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/meta-reference-gpu/meta_reference.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/meta-reference-gpu/run-with-safety.yaml +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/meta-reference-gpu/run.yaml +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/nvidia/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/nvidia/build.yaml +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/nvidia/nvidia.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/nvidia/run-with-safety.yaml +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/open-benchmark/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/open-benchmark/build.yaml +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/open-benchmark/open_benchmark.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/open-benchmark/run.yaml +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/postgres-demo/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/postgres-demo/build.yaml +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/postgres-demo/postgres_demo.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/postgres-demo/run.yaml +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/starter/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/starter-gpu/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/template.py +0 -0
- {llama_stack-0.2.20/llama_stack/models → llama_stack-0.2.22/llama_stack/distributions/watsonx}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/watsonx/build.yaml +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/env.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/log.py +0 -0
- {llama_stack-0.2.20/llama_stack/models/llama → llama_stack-0.2.22/llama_stack/models}/__init__.py +0 -0
- {llama_stack-0.2.20/llama_stack/models/llama/llama3 → llama_stack-0.2.22/llama_stack/models/llama}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/checkpoint.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/datatypes.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/hadamard_utils.py +0 -0
- {llama_stack-0.2.20/llama_stack/models/llama/llama3/quantization → llama_stack-0.2.22/llama_stack/models/llama/llama3}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/args.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/chat_format.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/generation.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/interface.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/model.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/multimodal/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/multimodal/encoder_utils.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/multimodal/image_transform.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/multimodal/model.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/multimodal/utils.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/prompt_templates/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/prompt_templates/base.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/prompt_templates/system_prompts.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/prompt_templates/tool_response.py +0 -0
- {llama_stack-0.2.20/llama_stack/models/llama/llama3_2 → llama_stack-0.2.22/llama_stack/models/llama/llama3/quantization}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/quantization/loader.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/template_data.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/tokenizer.model +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/tokenizer.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/tool_utils.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3_1/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3_1/prompt_format.md +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3_1/prompts.py +0 -0
- {llama_stack-0.2.20/llama_stack/models/llama/llama3_3 → llama_stack-0.2.22/llama_stack/models/llama/llama3_2}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3_2/prompts_text.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3_2/prompts_vision.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3_2/text_prompt_format.md +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3_2/vision_prompt_format.md +0 -0
- {llama_stack-0.2.20/llama_stack/models/llama/llama4 → llama_stack-0.2.22/llama_stack/models/llama/llama3_3}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3_3/prompts.py +0 -0
- {llama_stack-0.2.20/llama_stack/models/llama/llama4/prompt_templates → llama_stack-0.2.22/llama_stack/models/llama/llama4}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/args.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/chat_format.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/datatypes.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/ffn.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/generation.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/model.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/moe.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/preprocess.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/prompt_format.md +0 -0
- {llama_stack-0.2.20/llama_stack/models/llama/llama4/quantization → llama_stack-0.2.22/llama_stack/models/llama/llama4/prompt_templates}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/prompt_templates/system_prompts.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/prompts.py +0 -0
- {llama_stack-0.2.20/llama_stack/models/llama/llama4/vision → llama_stack-0.2.22/llama_stack/models/llama/llama4/quantization}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/quantization/loader.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/tokenizer.model +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/tokenizer.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers → llama_stack-0.2.22/llama_stack/models/llama/llama4/vision}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/vision/embedding.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/vision/encoder.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/prompt_format.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/quantize_impls.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/sku_list.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/sku_types.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/tokenizer_utils.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/inline → llama_stack-0.2.22/llama_stack/providers}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/datatypes.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/inline/agents → llama_stack-0.2.22/llama_stack/providers/inline}/__init__.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/inline/agents/meta_reference/responses → llama_stack-0.2.22/llama_stack/providers/inline/agents}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/agent_instance.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/agents.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/persistence.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/inline/batches → llama_stack-0.2.22/llama_stack/providers/inline/agents/meta_reference/responses}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/responses/openai_responses.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/responses/streaming.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/responses/tool_executor.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/responses/types.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/responses/utils.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/safety.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/inline/datasetio → llama_stack-0.2.22/llama_stack/providers/inline/batches}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/batches/reference/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/batches/reference/config.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/inline/eval → llama_stack-0.2.22/llama_stack/providers/inline/datasetio}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/datasetio/localfs/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/datasetio/localfs/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/datasetio/localfs/datasetio.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/inline/inference → llama_stack-0.2.22/llama_stack/providers/inline/eval}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/eval/meta_reference/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/eval/meta_reference/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/files/localfs/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/files/localfs/config.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/inline/post_training → llama_stack-0.2.22/llama_stack/providers/inline/inference}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/inference/meta_reference/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/inference/meta_reference/common.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/inference/meta_reference/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/inference/meta_reference/generators.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/inference/meta_reference/inference.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/inference/meta_reference/model_parallel.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/inference/meta_reference/parallel_utils.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/inference/sentence_transformers/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/inference/sentence_transformers/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/inference/sentence_transformers/sentence_transformers.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/inline/post_training/common → llama_stack-0.2.22/llama_stack/providers/inline/post_training}/__init__.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/inline/post_training/huggingface/recipes → llama_stack-0.2.22/llama_stack/providers/inline/post_training/common}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/common/utils.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/common/validator.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/huggingface/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/huggingface/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/huggingface/post_training.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/inline/post_training/torchtune/common → llama_stack-0.2.22/llama_stack/providers/inline/post_training/huggingface/recipes}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/huggingface/recipes/finetune_single_device.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/huggingface/recipes/finetune_single_device_dpo.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/huggingface/utils.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/torchtune/__init__.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/inline/post_training/torchtune/datasets → llama_stack-0.2.22/llama_stack/providers/inline/post_training/torchtune/common}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/torchtune/common/checkpointer.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/torchtune/common/utils.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/torchtune/config.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/inline/post_training/torchtune/recipes → llama_stack-0.2.22/llama_stack/providers/inline/post_training/torchtune/datasets}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/torchtune/datasets/format_adapter.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/torchtune/datasets/sft.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/torchtune/post_training.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/inline/safety → llama_stack-0.2.22/llama_stack/providers/inline/post_training/torchtune/recipes}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/torchtune/recipes/lora_finetuning_single_device.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/inline/scoring → llama_stack-0.2.22/llama_stack/providers/inline/safety}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/safety/code_scanner/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/safety/code_scanner/code_scanner.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/safety/code_scanner/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/safety/llama_guard/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/safety/llama_guard/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/safety/llama_guard/llama_guard.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/safety/prompt_guard/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/safety/prompt_guard/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/safety/prompt_guard/prompt_guard.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/inline/scoring/basic/scoring_fn → llama_stack-0.2.22/llama_stack/providers/inline/scoring}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs → llama_stack-0.2.22/llama_stack/providers/inline/scoring/basic/scoring_fn}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/docvqa_scoring_fn.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/equality_scoring_fn.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/inline/scoring/basic/utils → llama_stack-0.2.22/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/docvqa.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/equality.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/ifeval.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/regex_parser_math_response.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/regex_parser_multiple_choice_answer.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/subset_of.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/ifeval_scoring_fn.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/regex_parser_math_response_scoring_fn.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/regex_parser_scoring_fn.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/subset_of_scoring_fn.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/inline/scoring/braintrust/scoring_fn → llama_stack-0.2.22/llama_stack/providers/inline/scoring/basic/utils}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/utils/ifeval_utils.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/utils/math_utils.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/braintrust.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/config.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs → llama_stack-0.2.22/llama_stack/providers/inline/scoring/braintrust/scoring_fn}/__init__.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn → llama_stack-0.2.22/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/answer_correctness.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/answer_relevancy.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/answer_similarity.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_entity_recall.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_precision.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_recall.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_relevancy.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/factuality.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/faithfulness.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/llm_as_judge/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/llm_as_judge/config.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs → llama_stack-0.2.22/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn}/__init__.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/inline/telemetry → llama_stack-0.2.22/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs/llm_as_judge_405b_simpleqa.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs/llm_as_judge_base.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/llm_as_judge_scoring_fn.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/inline/tool_runtime → llama_stack-0.2.22/llama_stack/providers/inline/telemetry}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/telemetry/meta_reference/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/telemetry/meta_reference/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/telemetry/meta_reference/console_span_processor.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/telemetry/meta_reference/sqlite_span_processor.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/telemetry/meta_reference/telemetry.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/inline/vector_io → llama_stack-0.2.22/llama_stack/providers/inline/tool_runtime}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/tool_runtime/rag/config.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/registry → llama_stack-0.2.22/llama_stack/providers/inline/vector_io}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/chroma/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/chroma/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/faiss/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/faiss/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/faiss/faiss.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/milvus/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/milvus/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/qdrant/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/qdrant/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/sqlite_vec/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/sqlite_vec/config.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/remote → llama_stack-0.2.22/llama_stack/providers/registry}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/registry/agents.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/registry/eval.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/registry/files.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/registry/safety.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/registry/telemetry.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/registry/vector_io.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/remote/agents → llama_stack-0.2.22/llama_stack/providers/remote}/__init__.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/remote/datasetio → llama_stack-0.2.22/llama_stack/providers/remote/agents}/__init__.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/remote/eval → llama_stack-0.2.22/llama_stack/providers/remote/datasetio}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/datasetio/huggingface/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/datasetio/huggingface/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/datasetio/huggingface/huggingface.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/datasetio/nvidia/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/datasetio/nvidia/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/datasetio/nvidia/datasetio.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/remote/inference → llama_stack-0.2.22/llama_stack/providers/remote/eval}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/eval/nvidia/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/eval/nvidia/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/files/s3/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/files/s3/config.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/remote/post_training → llama_stack-0.2.22/llama_stack/providers/remote/inference}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/anthropic/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/anthropic/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/anthropic/models.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/bedrock/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/bedrock/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/bedrock/models.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/cerebras/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/cerebras/cerebras.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/cerebras/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/cerebras/models.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/databricks/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/databricks/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/databricks/databricks.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/fireworks/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/fireworks/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/fireworks/fireworks.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/fireworks/models.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/gemini/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/gemini/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/gemini/models.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/groq/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/groq/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/groq/models.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/llama_openai_compat/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/llama_openai_compat/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/llama_openai_compat/llama.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/llama_openai_compat/models.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/nvidia/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/nvidia/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/nvidia/nvidia.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/nvidia/openai_utils.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/nvidia/utils.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/ollama/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/ollama/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/ollama/models.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/openai/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/openai/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/openai/models.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/openai/openai.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/passthrough/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/passthrough/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/passthrough/passthrough.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/runpod/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/runpod/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/runpod/runpod.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/sambanova/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/sambanova/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/sambanova/models.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/tgi/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/tgi/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/together/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/together/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/vertexai/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/vertexai/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/vertexai/models.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/vllm/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/vllm/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/watsonx/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/watsonx/models.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/remote/safety → llama_stack-0.2.22/llama_stack/providers/remote/post_training}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/post_training/nvidia/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/post_training/nvidia/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/post_training/nvidia/models.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/post_training/nvidia/post_training.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/post_training/nvidia/utils.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/remote/tool_runtime → llama_stack-0.2.22/llama_stack/providers/remote/safety}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/safety/bedrock/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/safety/bedrock/bedrock.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/safety/bedrock/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/safety/nvidia/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/safety/nvidia/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/safety/nvidia/nvidia.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/safety/sambanova/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/safety/sambanova/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/safety/sambanova/sambanova.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/remote/vector_io → llama_stack-0.2.22/llama_stack/providers/remote/tool_runtime}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/bing_search/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/bing_search/bing_search.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/bing_search/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/brave_search/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/brave_search/brave_search.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/brave_search/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/model_context_protocol/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/model_context_protocol/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/model_context_protocol/model_context_protocol.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/tavily_search/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/tavily_search/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/tavily_search/tavily_search.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/wolfram_alpha/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/wolfram_alpha/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/wolfram_alpha/wolfram_alpha.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/utils → llama_stack-0.2.22/llama_stack/providers/remote/vector_io}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/chroma/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/chroma/chroma.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/chroma/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/milvus/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/milvus/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/milvus/milvus.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/pgvector/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/pgvector/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/pgvector/pgvector.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/qdrant/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/qdrant/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/qdrant/qdrant.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/weaviate/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/weaviate/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/weaviate/weaviate.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/utils/bedrock → llama_stack-0.2.22/llama_stack/providers/utils}/__init__.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/utils/common → llama_stack-0.2.22/llama_stack/providers/utils/bedrock}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/bedrock/client.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/bedrock/refreshable_boto_session.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/utils/datasetio → llama_stack-0.2.22/llama_stack/providers/utils/common}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/common/data_schema_validator.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/utils/memory → llama_stack-0.2.22/llama_stack/providers/utils/datasetio}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/datasetio/url_utils.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/inference/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/inference/litellm_openai_mixin.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/inference/model_registry.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/inference/openai_compat.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/inference/prompt_adapter.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/api.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/kvstore.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/mongodb/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/mongodb/mongodb.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/postgres/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/postgres/postgres.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/redis/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/redis/redis.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/sqlite/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/sqlite/config.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/sqlite/sqlite.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/utils/responses → llama_stack-0.2.22/llama_stack/providers/utils/memory}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/memory/file_utils.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/memory/openai_vector_store_mixin.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/pagination.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/utils/scoring → llama_stack-0.2.22/llama_stack/providers/utils/responses}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/responses/responses_store.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/scheduler.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/utils/sqlstore → llama_stack-0.2.22/llama_stack/providers/utils/scoring}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/scoring/aggregation_utils.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/scoring/base_scoring_fn.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/scoring/basic_scoring_utils.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/utils/telemetry → llama_stack-0.2.22/llama_stack/providers/utils/sqlstore}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/sqlstore/api.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/sqlstore/sqlalchemy_sqlstore.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/sqlstore/sqlstore.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/utils/tools → llama_stack-0.2.22/llama_stack/providers/utils/telemetry}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/telemetry/dataset_mixin.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/telemetry/sqlite_trace_store.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/telemetry/trace_protocol.py +0 -0
- {llama_stack-0.2.20/llama_stack/providers/utils/vector_io → llama_stack-0.2.22/llama_stack/providers/utils/tools}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/tools/ttl_dict.py +0 -0
- {llama_stack-0.2.20/llama_stack/testing → llama_stack-0.2.22/llama_stack/providers/utils/vector_io}/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/schema_utils.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/strong_typing/__init__.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/strong_typing/auxiliary.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/strong_typing/classdef.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/strong_typing/core.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/strong_typing/deserializer.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/strong_typing/docstring.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/strong_typing/exception.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/strong_typing/inspection.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/strong_typing/mapping.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/strong_typing/name.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/strong_typing/py.typed +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/strong_typing/schema.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/strong_typing/serialization.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/strong_typing/serializer.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/strong_typing/slots.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/strong_typing/topological.py +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack.egg-info/dependency_links.txt +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack.egg-info/entry_points.txt +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack.egg-info/top_level.txt +0 -0
- {llama_stack-0.2.20 → llama_stack-0.2.22}/setup.cfg +0 -0
|
@@ -1,6 +1,6 @@
|
|
|
1
1
|
Metadata-Version: 2.4
|
|
2
2
|
Name: llama_stack
|
|
3
|
-
Version: 0.2.
|
|
3
|
+
Version: 0.2.22
|
|
4
4
|
Summary: Llama Stack
|
|
5
5
|
Author-email: Meta Llama <llama-oss@meta.com>
|
|
6
6
|
License: MIT
|
|
@@ -23,13 +23,12 @@ Requires-Dist: httpx
|
|
|
23
23
|
Requires-Dist: huggingface-hub<1.0,>=0.34.0
|
|
24
24
|
Requires-Dist: jinja2>=3.1.6
|
|
25
25
|
Requires-Dist: jsonschema
|
|
26
|
-
Requires-Dist: llama-stack-client>=0.2.
|
|
27
|
-
Requires-Dist:
|
|
28
|
-
Requires-Dist: openai<1.100.0,>=1.99.6
|
|
26
|
+
Requires-Dist: llama-stack-client>=0.2.22
|
|
27
|
+
Requires-Dist: openai>=1.100.0
|
|
29
28
|
Requires-Dist: prompt-toolkit
|
|
30
29
|
Requires-Dist: python-dotenv
|
|
31
30
|
Requires-Dist: python-jose[cryptography]
|
|
32
|
-
Requires-Dist: pydantic>=2
|
|
31
|
+
Requires-Dist: pydantic>=2.11.9
|
|
33
32
|
Requires-Dist: rich
|
|
34
33
|
Requires-Dist: starlette
|
|
35
34
|
Requires-Dist: termcolor
|
|
@@ -45,7 +44,7 @@ Requires-Dist: asyncpg
|
|
|
45
44
|
Provides-Extra: ui
|
|
46
45
|
Requires-Dist: streamlit; extra == "ui"
|
|
47
46
|
Requires-Dist: pandas; extra == "ui"
|
|
48
|
-
Requires-Dist: llama-stack-client>=0.2.
|
|
47
|
+
Requires-Dist: llama-stack-client>=0.2.22; extra == "ui"
|
|
49
48
|
Requires-Dist: streamlit-option-menu; extra == "ui"
|
|
50
49
|
Dynamic: license-file
|
|
51
50
|
|
|
@@ -93,3 +93,11 @@ class Benchmarks(Protocol):
|
|
|
93
93
|
:param metadata: The metadata to use for the benchmark.
|
|
94
94
|
"""
|
|
95
95
|
...
|
|
96
|
+
|
|
97
|
+
@webmethod(route="/eval/benchmarks/{benchmark_id}", method="DELETE")
|
|
98
|
+
async def unregister_benchmark(self, benchmark_id: str) -> None:
|
|
99
|
+
"""Unregister a benchmark.
|
|
100
|
+
|
|
101
|
+
:param benchmark_id: The ID of the benchmark to unregister.
|
|
102
|
+
"""
|
|
103
|
+
...
|
|
@@ -79,3 +79,10 @@ class ConflictError(ValueError):
|
|
|
79
79
|
|
|
80
80
|
def __init__(self, message: str) -> None:
|
|
81
81
|
super().__init__(message)
|
|
82
|
+
|
|
83
|
+
|
|
84
|
+
class TokenValidationError(ValueError):
|
|
85
|
+
"""raised when token validation fails during authentication"""
|
|
86
|
+
|
|
87
|
+
def __init__(self, message: str) -> None:
|
|
88
|
+
super().__init__(message)
|
|
@@ -102,6 +102,7 @@ class Api(Enum, metaclass=DynamicApiMeta):
|
|
|
102
102
|
:cvar benchmarks: Benchmark suite management
|
|
103
103
|
:cvar tool_groups: Tool group organization
|
|
104
104
|
:cvar files: File storage and management
|
|
105
|
+
:cvar prompts: Prompt versions and management
|
|
105
106
|
:cvar inspect: Built-in system inspection and introspection
|
|
106
107
|
"""
|
|
107
108
|
|
|
@@ -127,6 +128,7 @@ class Api(Enum, metaclass=DynamicApiMeta):
|
|
|
127
128
|
benchmarks = "benchmarks"
|
|
128
129
|
tool_groups = "tool_groups"
|
|
129
130
|
files = "files"
|
|
131
|
+
prompts = "prompts"
|
|
130
132
|
|
|
131
133
|
# built-in API
|
|
132
134
|
inspect = "inspect"
|
|
@@ -5,10 +5,10 @@
|
|
|
5
5
|
# the root directory of this source tree.
|
|
6
6
|
|
|
7
7
|
from enum import StrEnum
|
|
8
|
-
from typing import Annotated, Literal, Protocol, runtime_checkable
|
|
8
|
+
from typing import Annotated, ClassVar, Literal, Protocol, runtime_checkable
|
|
9
9
|
|
|
10
10
|
from fastapi import File, Form, Response, UploadFile
|
|
11
|
-
from pydantic import BaseModel
|
|
11
|
+
from pydantic import BaseModel, Field
|
|
12
12
|
|
|
13
13
|
from llama_stack.apis.common.responses import Order
|
|
14
14
|
from llama_stack.providers.utils.telemetry.trace_protocol import trace_protocol
|
|
@@ -49,6 +49,23 @@ class OpenAIFileObject(BaseModel):
|
|
|
49
49
|
purpose: OpenAIFilePurpose
|
|
50
50
|
|
|
51
51
|
|
|
52
|
+
@json_schema_type
|
|
53
|
+
class ExpiresAfter(BaseModel):
|
|
54
|
+
"""
|
|
55
|
+
Control expiration of uploaded files.
|
|
56
|
+
|
|
57
|
+
Params:
|
|
58
|
+
- anchor, must be "created_at"
|
|
59
|
+
- seconds, must be int between 3600 and 2592000 (1 hour to 30 days)
|
|
60
|
+
"""
|
|
61
|
+
|
|
62
|
+
MIN: ClassVar[int] = 3600 # 1 hour
|
|
63
|
+
MAX: ClassVar[int] = 2592000 # 30 days
|
|
64
|
+
|
|
65
|
+
anchor: Literal["created_at"]
|
|
66
|
+
seconds: int = Field(..., ge=3600, le=2592000)
|
|
67
|
+
|
|
68
|
+
|
|
52
69
|
@json_schema_type
|
|
53
70
|
class ListOpenAIFileResponse(BaseModel):
|
|
54
71
|
"""
|
|
@@ -92,6 +109,9 @@ class Files(Protocol):
|
|
|
92
109
|
self,
|
|
93
110
|
file: Annotated[UploadFile, File()],
|
|
94
111
|
purpose: Annotated[OpenAIFilePurpose, Form()],
|
|
112
|
+
expires_after_anchor: Annotated[str | None, Form(alias="expires_after[anchor]")] = None,
|
|
113
|
+
expires_after_seconds: Annotated[int | None, Form(alias="expires_after[seconds]")] = None,
|
|
114
|
+
# TODO: expires_after is producing strange openapi spec, params are showing up as a required w/ oneOf being null
|
|
95
115
|
) -> OpenAIFileObject:
|
|
96
116
|
"""
|
|
97
117
|
Upload a file that can be used across various endpoints.
|
|
@@ -99,6 +119,7 @@ class Files(Protocol):
|
|
|
99
119
|
The file upload should be a multipart form request with:
|
|
100
120
|
- file: The File object (not file name) to be uploaded.
|
|
101
121
|
- purpose: The intended purpose of the uploaded file.
|
|
122
|
+
- expires_after: Optional form values describing expiration for the file. Expected expires_after[anchor] = "created_at", expires_after[seconds] = <int>. Seconds must be between 3600 and 2592000 (1 hour to 30 days).
|
|
102
123
|
|
|
103
124
|
:param file: The uploaded file object containing content and metadata (filename, content_type, etc.).
|
|
104
125
|
:param purpose: The intended purpose of the uploaded file (e.g., "assistants", "fine-tune").
|
|
@@ -0,0 +1,9 @@
|
|
|
1
|
+
# Copyright (c) Meta Platforms, Inc. and affiliates.
|
|
2
|
+
# All rights reserved.
|
|
3
|
+
#
|
|
4
|
+
# This source code is licensed under the terms described in the LICENSE file in
|
|
5
|
+
# the root directory of this source tree.
|
|
6
|
+
|
|
7
|
+
from .prompts import ListPromptsResponse, Prompt, Prompts
|
|
8
|
+
|
|
9
|
+
__all__ = ["Prompt", "Prompts", "ListPromptsResponse"]
|
|
@@ -0,0 +1,189 @@
|
|
|
1
|
+
# Copyright (c) Meta Platforms, Inc. and affiliates.
|
|
2
|
+
# All rights reserved.
|
|
3
|
+
#
|
|
4
|
+
# This source code is licensed under the terms described in the LICENSE file in
|
|
5
|
+
# the root directory of this source tree.
|
|
6
|
+
|
|
7
|
+
import re
|
|
8
|
+
import secrets
|
|
9
|
+
from typing import Protocol, runtime_checkable
|
|
10
|
+
|
|
11
|
+
from pydantic import BaseModel, Field, field_validator, model_validator
|
|
12
|
+
|
|
13
|
+
from llama_stack.providers.utils.telemetry.trace_protocol import trace_protocol
|
|
14
|
+
from llama_stack.schema_utils import json_schema_type, webmethod
|
|
15
|
+
|
|
16
|
+
|
|
17
|
+
@json_schema_type
|
|
18
|
+
class Prompt(BaseModel):
|
|
19
|
+
"""A prompt resource representing a stored OpenAI Compatible prompt template in Llama Stack.
|
|
20
|
+
|
|
21
|
+
:param prompt: The system prompt text with variable placeholders. Variables are only supported when using the Responses API.
|
|
22
|
+
:param version: Version (integer starting at 1, incremented on save)
|
|
23
|
+
:param prompt_id: Unique identifier formatted as 'pmpt_<48-digit-hash>'
|
|
24
|
+
:param variables: List of prompt variable names that can be used in the prompt template
|
|
25
|
+
:param is_default: Boolean indicating whether this version is the default version for this prompt
|
|
26
|
+
"""
|
|
27
|
+
|
|
28
|
+
prompt: str | None = Field(default=None, description="The system prompt with variable placeholders")
|
|
29
|
+
version: int = Field(description="Version (integer starting at 1, incremented on save)", ge=1)
|
|
30
|
+
prompt_id: str = Field(description="Unique identifier in format 'pmpt_<48-digit-hash>'")
|
|
31
|
+
variables: list[str] = Field(
|
|
32
|
+
default_factory=list, description="List of variable names that can be used in the prompt template"
|
|
33
|
+
)
|
|
34
|
+
is_default: bool = Field(
|
|
35
|
+
default=False, description="Boolean indicating whether this version is the default version"
|
|
36
|
+
)
|
|
37
|
+
|
|
38
|
+
@field_validator("prompt_id")
|
|
39
|
+
@classmethod
|
|
40
|
+
def validate_prompt_id(cls, prompt_id: str) -> str:
|
|
41
|
+
if not isinstance(prompt_id, str):
|
|
42
|
+
raise TypeError("prompt_id must be a string in format 'pmpt_<48-digit-hash>'")
|
|
43
|
+
|
|
44
|
+
if not prompt_id.startswith("pmpt_"):
|
|
45
|
+
raise ValueError("prompt_id must start with 'pmpt_' prefix")
|
|
46
|
+
|
|
47
|
+
hex_part = prompt_id[5:]
|
|
48
|
+
if len(hex_part) != 48:
|
|
49
|
+
raise ValueError("prompt_id must be in format 'pmpt_<48-digit-hash>' (48 lowercase hex chars)")
|
|
50
|
+
|
|
51
|
+
for char in hex_part:
|
|
52
|
+
if char not in "0123456789abcdef":
|
|
53
|
+
raise ValueError("prompt_id hex part must contain only lowercase hex characters [0-9a-f]")
|
|
54
|
+
|
|
55
|
+
return prompt_id
|
|
56
|
+
|
|
57
|
+
@field_validator("version")
|
|
58
|
+
@classmethod
|
|
59
|
+
def validate_version(cls, prompt_version: int) -> int:
|
|
60
|
+
if prompt_version < 1:
|
|
61
|
+
raise ValueError("version must be >= 1")
|
|
62
|
+
return prompt_version
|
|
63
|
+
|
|
64
|
+
@model_validator(mode="after")
|
|
65
|
+
def validate_prompt_variables(self):
|
|
66
|
+
"""Validate that all variables used in the prompt are declared in the variables list."""
|
|
67
|
+
if not self.prompt:
|
|
68
|
+
return self
|
|
69
|
+
|
|
70
|
+
prompt_variables = set(re.findall(r"{{\s*(\w+)\s*}}", self.prompt))
|
|
71
|
+
declared_variables = set(self.variables)
|
|
72
|
+
|
|
73
|
+
undeclared = prompt_variables - declared_variables
|
|
74
|
+
if undeclared:
|
|
75
|
+
raise ValueError(f"Prompt contains undeclared variables: {sorted(undeclared)}")
|
|
76
|
+
|
|
77
|
+
return self
|
|
78
|
+
|
|
79
|
+
@classmethod
|
|
80
|
+
def generate_prompt_id(cls) -> str:
|
|
81
|
+
# Generate 48 hex characters (24 bytes)
|
|
82
|
+
random_bytes = secrets.token_bytes(24)
|
|
83
|
+
hex_string = random_bytes.hex()
|
|
84
|
+
return f"pmpt_{hex_string}"
|
|
85
|
+
|
|
86
|
+
|
|
87
|
+
class ListPromptsResponse(BaseModel):
|
|
88
|
+
"""Response model to list prompts."""
|
|
89
|
+
|
|
90
|
+
data: list[Prompt]
|
|
91
|
+
|
|
92
|
+
|
|
93
|
+
@runtime_checkable
|
|
94
|
+
@trace_protocol
|
|
95
|
+
class Prompts(Protocol):
|
|
96
|
+
"""Protocol for prompt management operations."""
|
|
97
|
+
|
|
98
|
+
@webmethod(route="/prompts", method="GET")
|
|
99
|
+
async def list_prompts(self) -> ListPromptsResponse:
|
|
100
|
+
"""List all prompts.
|
|
101
|
+
|
|
102
|
+
:returns: A ListPromptsResponse containing all prompts.
|
|
103
|
+
"""
|
|
104
|
+
...
|
|
105
|
+
|
|
106
|
+
@webmethod(route="/prompts/{prompt_id}/versions", method="GET")
|
|
107
|
+
async def list_prompt_versions(
|
|
108
|
+
self,
|
|
109
|
+
prompt_id: str,
|
|
110
|
+
) -> ListPromptsResponse:
|
|
111
|
+
"""List all versions of a specific prompt.
|
|
112
|
+
|
|
113
|
+
:param prompt_id: The identifier of the prompt to list versions for.
|
|
114
|
+
:returns: A ListPromptsResponse containing all versions of the prompt.
|
|
115
|
+
"""
|
|
116
|
+
...
|
|
117
|
+
|
|
118
|
+
@webmethod(route="/prompts/{prompt_id}", method="GET")
|
|
119
|
+
async def get_prompt(
|
|
120
|
+
self,
|
|
121
|
+
prompt_id: str,
|
|
122
|
+
version: int | None = None,
|
|
123
|
+
) -> Prompt:
|
|
124
|
+
"""Get a prompt by its identifier and optional version.
|
|
125
|
+
|
|
126
|
+
:param prompt_id: The identifier of the prompt to get.
|
|
127
|
+
:param version: The version of the prompt to get (defaults to latest).
|
|
128
|
+
:returns: A Prompt resource.
|
|
129
|
+
"""
|
|
130
|
+
...
|
|
131
|
+
|
|
132
|
+
@webmethod(route="/prompts", method="POST")
|
|
133
|
+
async def create_prompt(
|
|
134
|
+
self,
|
|
135
|
+
prompt: str,
|
|
136
|
+
variables: list[str] | None = None,
|
|
137
|
+
) -> Prompt:
|
|
138
|
+
"""Create a new prompt.
|
|
139
|
+
|
|
140
|
+
:param prompt: The prompt text content with variable placeholders.
|
|
141
|
+
:param variables: List of variable names that can be used in the prompt template.
|
|
142
|
+
:returns: The created Prompt resource.
|
|
143
|
+
"""
|
|
144
|
+
...
|
|
145
|
+
|
|
146
|
+
@webmethod(route="/prompts/{prompt_id}", method="PUT")
|
|
147
|
+
async def update_prompt(
|
|
148
|
+
self,
|
|
149
|
+
prompt_id: str,
|
|
150
|
+
prompt: str,
|
|
151
|
+
version: int,
|
|
152
|
+
variables: list[str] | None = None,
|
|
153
|
+
set_as_default: bool = True,
|
|
154
|
+
) -> Prompt:
|
|
155
|
+
"""Update an existing prompt (increments version).
|
|
156
|
+
|
|
157
|
+
:param prompt_id: The identifier of the prompt to update.
|
|
158
|
+
:param prompt: The updated prompt text content.
|
|
159
|
+
:param version: The current version of the prompt being updated.
|
|
160
|
+
:param variables: Updated list of variable names that can be used in the prompt template.
|
|
161
|
+
:param set_as_default: Set the new version as the default (default=True).
|
|
162
|
+
:returns: The updated Prompt resource with incremented version.
|
|
163
|
+
"""
|
|
164
|
+
...
|
|
165
|
+
|
|
166
|
+
@webmethod(route="/prompts/{prompt_id}", method="DELETE")
|
|
167
|
+
async def delete_prompt(
|
|
168
|
+
self,
|
|
169
|
+
prompt_id: str,
|
|
170
|
+
) -> None:
|
|
171
|
+
"""Delete a prompt.
|
|
172
|
+
|
|
173
|
+
:param prompt_id: The identifier of the prompt to delete.
|
|
174
|
+
"""
|
|
175
|
+
...
|
|
176
|
+
|
|
177
|
+
@webmethod(route="/prompts/{prompt_id}/set-default-version", method="PUT")
|
|
178
|
+
async def set_default_version(
|
|
179
|
+
self,
|
|
180
|
+
prompt_id: str,
|
|
181
|
+
version: int,
|
|
182
|
+
) -> Prompt:
|
|
183
|
+
"""Set which version of a prompt should be the default in get_prompt (latest).
|
|
184
|
+
|
|
185
|
+
:param prompt_id: The identifier of the prompt.
|
|
186
|
+
:param version: The version to set as default.
|
|
187
|
+
:returns: The prompt with the specified version now set as default.
|
|
188
|
+
"""
|
|
189
|
+
...
|
{llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/scoring_functions/scoring_functions.py
RENAMED
|
@@ -197,3 +197,11 @@ class ScoringFunctions(Protocol):
|
|
|
197
197
|
:param params: The parameters for the scoring function for benchmark eval, these can be overridden for app eval.
|
|
198
198
|
"""
|
|
199
199
|
...
|
|
200
|
+
|
|
201
|
+
@webmethod(route="/scoring-functions/{scoring_fn_id:path}", method="DELETE")
|
|
202
|
+
async def unregister_scoring_function(self, scoring_fn_id: str) -> None:
|
|
203
|
+
"""Unregister a scoring function.
|
|
204
|
+
|
|
205
|
+
:param scoring_fn_id: The ID of the scoring function to unregister.
|
|
206
|
+
"""
|
|
207
|
+
...
|
|
@@ -45,6 +45,7 @@ from llama_stack.core.utils.dynamic import instantiate_class_type
|
|
|
45
45
|
from llama_stack.core.utils.exec import formulate_run_args, run_command
|
|
46
46
|
from llama_stack.core.utils.image_types import LlamaStackImageType
|
|
47
47
|
from llama_stack.providers.datatypes import Api
|
|
48
|
+
from llama_stack.providers.utils.sqlstore.sqlstore import SqliteSqlStoreConfig
|
|
48
49
|
|
|
49
50
|
DISTRIBS_PATH = Path(__file__).parent.parent.parent / "distributions"
|
|
50
51
|
|
|
@@ -294,6 +295,12 @@ def _generate_run_config(
|
|
|
294
295
|
if build_config.external_providers_dir
|
|
295
296
|
else EXTERNAL_PROVIDERS_DIR,
|
|
296
297
|
)
|
|
298
|
+
if not run_config.inference_store:
|
|
299
|
+
run_config.inference_store = SqliteSqlStoreConfig(
|
|
300
|
+
**SqliteSqlStoreConfig.sample_run_config(
|
|
301
|
+
__distro_dir__=(DISTRIBS_BASE_DIR / image_name).as_posix(), db_name="inference_store.db"
|
|
302
|
+
)
|
|
303
|
+
)
|
|
297
304
|
# build providers dict
|
|
298
305
|
provider_registry = get_provider_registry(build_config)
|
|
299
306
|
for api in apis:
|
|
@@ -48,15 +48,12 @@ def setup_verify_download_parser(parser: argparse.ArgumentParser) -> None:
|
|
|
48
48
|
parser.set_defaults(func=partial(run_verify_cmd, parser=parser))
|
|
49
49
|
|
|
50
50
|
|
|
51
|
-
def
|
|
52
|
-
|
|
53
|
-
# not for security purposes
|
|
54
|
-
# TODO: switch to SHA256
|
|
55
|
-
md5_hash = hashlib.md5(usedforsecurity=False)
|
|
51
|
+
def calculate_sha256(filepath: Path, chunk_size: int = 8192) -> str:
|
|
52
|
+
sha256_hash = hashlib.sha256()
|
|
56
53
|
with open(filepath, "rb") as f:
|
|
57
54
|
for chunk in iter(lambda: f.read(chunk_size), b""):
|
|
58
|
-
|
|
59
|
-
return
|
|
55
|
+
sha256_hash.update(chunk)
|
|
56
|
+
return sha256_hash.hexdigest()
|
|
60
57
|
|
|
61
58
|
|
|
62
59
|
def load_checksums(checklist_path: Path) -> dict[str, str]:
|
|
@@ -64,10 +61,10 @@ def load_checksums(checklist_path: Path) -> dict[str, str]:
|
|
|
64
61
|
with open(checklist_path) as f:
|
|
65
62
|
for line in f:
|
|
66
63
|
if line.strip():
|
|
67
|
-
|
|
64
|
+
sha256sum, filepath = line.strip().split(" ", 1)
|
|
68
65
|
# Remove leading './' if present
|
|
69
66
|
filepath = filepath.lstrip("./")
|
|
70
|
-
checksums[filepath] =
|
|
67
|
+
checksums[filepath] = sha256sum
|
|
71
68
|
return checksums
|
|
72
69
|
|
|
73
70
|
|
|
@@ -88,7 +85,7 @@ def verify_files(model_dir: Path, checksums: dict[str, str], console: Console) -
|
|
|
88
85
|
matches = False
|
|
89
86
|
|
|
90
87
|
if exists:
|
|
91
|
-
actual_hash =
|
|
88
|
+
actual_hash = calculate_sha256(full_path)
|
|
92
89
|
matches = actual_hash == expected_hash
|
|
93
90
|
|
|
94
91
|
results.append(
|
|
@@ -7,6 +7,7 @@
|
|
|
7
7
|
from enum import StrEnum
|
|
8
8
|
from pathlib import Path
|
|
9
9
|
from typing import Annotated, Any, Literal, Self
|
|
10
|
+
from urllib.parse import urlparse
|
|
10
11
|
|
|
11
12
|
from pydantic import BaseModel, Field, field_validator, model_validator
|
|
12
13
|
|
|
@@ -212,6 +213,7 @@ class AuthProviderType(StrEnum):
|
|
|
212
213
|
OAUTH2_TOKEN = "oauth2_token"
|
|
213
214
|
GITHUB_TOKEN = "github_token"
|
|
214
215
|
CUSTOM = "custom"
|
|
216
|
+
KUBERNETES = "kubernetes"
|
|
215
217
|
|
|
216
218
|
|
|
217
219
|
class OAuth2TokenAuthConfig(BaseModel):
|
|
@@ -282,8 +284,45 @@ class GitHubTokenAuthConfig(BaseModel):
|
|
|
282
284
|
)
|
|
283
285
|
|
|
284
286
|
|
|
287
|
+
class KubernetesAuthProviderConfig(BaseModel):
|
|
288
|
+
"""Configuration for Kubernetes authentication provider."""
|
|
289
|
+
|
|
290
|
+
type: Literal[AuthProviderType.KUBERNETES] = AuthProviderType.KUBERNETES
|
|
291
|
+
api_server_url: str = Field(
|
|
292
|
+
default="https://kubernetes.default.svc",
|
|
293
|
+
description="Kubernetes API server URL (e.g., https://api.cluster.domain:6443)",
|
|
294
|
+
)
|
|
295
|
+
verify_tls: bool = Field(default=True, description="Whether to verify TLS certificates")
|
|
296
|
+
tls_cafile: Path | None = Field(default=None, description="Path to CA certificate file for TLS verification")
|
|
297
|
+
claims_mapping: dict[str, str] = Field(
|
|
298
|
+
default_factory=lambda: {
|
|
299
|
+
"username": "roles",
|
|
300
|
+
"groups": "roles",
|
|
301
|
+
},
|
|
302
|
+
description="Mapping of Kubernetes user claims to access attributes",
|
|
303
|
+
)
|
|
304
|
+
|
|
305
|
+
@field_validator("api_server_url")
|
|
306
|
+
@classmethod
|
|
307
|
+
def validate_api_server_url(cls, v):
|
|
308
|
+
parsed = urlparse(v)
|
|
309
|
+
if not parsed.scheme or not parsed.netloc:
|
|
310
|
+
raise ValueError(f"api_server_url must be a valid URL with scheme and host: {v}")
|
|
311
|
+
if parsed.scheme not in ["http", "https"]:
|
|
312
|
+
raise ValueError(f"api_server_url scheme must be http or https: {v}")
|
|
313
|
+
return v
|
|
314
|
+
|
|
315
|
+
@field_validator("claims_mapping")
|
|
316
|
+
@classmethod
|
|
317
|
+
def validate_claims_mapping(cls, v):
|
|
318
|
+
for key, value in v.items():
|
|
319
|
+
if not value:
|
|
320
|
+
raise ValueError(f"claims_mapping value cannot be empty: {key}")
|
|
321
|
+
return v
|
|
322
|
+
|
|
323
|
+
|
|
285
324
|
AuthProviderConfig = Annotated[
|
|
286
|
-
OAuth2TokenAuthConfig | GitHubTokenAuthConfig | CustomAuthConfig,
|
|
325
|
+
OAuth2TokenAuthConfig | GitHubTokenAuthConfig | CustomAuthConfig | KubernetesAuthProviderConfig,
|
|
287
326
|
Field(discriminator="type"),
|
|
288
327
|
]
|
|
289
328
|
|
|
@@ -392,6 +431,12 @@ class ServerConfig(BaseModel):
|
|
|
392
431
|
)
|
|
393
432
|
|
|
394
433
|
|
|
434
|
+
class InferenceStoreConfig(BaseModel):
|
|
435
|
+
sql_store_config: SqlStoreConfig
|
|
436
|
+
max_write_queue_size: int = Field(default=10000, description="Max queued writes for inference store")
|
|
437
|
+
num_writers: int = Field(default=4, description="Number of concurrent background writers")
|
|
438
|
+
|
|
439
|
+
|
|
395
440
|
class StackRunConfig(BaseModel):
|
|
396
441
|
version: int = LLAMA_STACK_RUN_CONFIG_VERSION
|
|
397
442
|
|
|
@@ -425,11 +470,12 @@ Configuration for the persistence store used by the distribution registry. If no
|
|
|
425
470
|
a default SQLite store will be used.""",
|
|
426
471
|
)
|
|
427
472
|
|
|
428
|
-
inference_store: SqlStoreConfig | None = Field(
|
|
473
|
+
inference_store: InferenceStoreConfig | SqlStoreConfig | None = Field(
|
|
429
474
|
default=None,
|
|
430
475
|
description="""
|
|
431
|
-
Configuration for the persistence store used by the inference API.
|
|
432
|
-
|
|
476
|
+
Configuration for the persistence store used by the inference API. Can be either a
|
|
477
|
+
InferenceStoreConfig (with queue tuning parameters) or a SqlStoreConfig (deprecated).
|
|
478
|
+
If not specified, a default SQLite store will be used.""",
|
|
433
479
|
)
|
|
434
480
|
|
|
435
481
|
# registry of "resources" in the distribution
|
|
@@ -10,7 +10,6 @@ import json
|
|
|
10
10
|
import logging # allow-direct-logging
|
|
11
11
|
import os
|
|
12
12
|
import sys
|
|
13
|
-
from concurrent.futures import ThreadPoolExecutor
|
|
14
13
|
from enum import Enum
|
|
15
14
|
from io import BytesIO
|
|
16
15
|
from pathlib import Path
|
|
@@ -148,7 +147,6 @@ class LlamaStackAsLibraryClient(LlamaStackClient):
|
|
|
148
147
|
self.async_client = AsyncLlamaStackAsLibraryClient(
|
|
149
148
|
config_path_or_distro_name, custom_provider_registry, provider_data, skip_logger_removal
|
|
150
149
|
)
|
|
151
|
-
self.pool_executor = ThreadPoolExecutor(max_workers=4)
|
|
152
150
|
self.provider_data = provider_data
|
|
153
151
|
|
|
154
152
|
self.loop = asyncio.new_event_loop()
|