llama-stack 0.2.20__tar.gz → 0.2.22__tar.gz

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (661) hide show
  1. {llama_stack-0.2.20/llama_stack.egg-info → llama_stack-0.2.22}/PKG-INFO +5 -6
  2. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/benchmarks/benchmarks.py +8 -0
  3. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/common/errors.py +7 -0
  4. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/datatypes.py +2 -0
  5. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/files/files.py +23 -2
  6. llama_stack-0.2.22/llama_stack/apis/prompts/__init__.py +9 -0
  7. llama_stack-0.2.22/llama_stack/apis/prompts/prompts.py +189 -0
  8. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/resource.py +1 -0
  9. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/scoring_functions/scoring_functions.py +8 -0
  10. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/stack/_build.py +7 -0
  11. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/verify_download.py +7 -10
  12. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/datatypes.py +50 -4
  13. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/library_client.py +0 -2
  14. llama_stack-0.2.22/llama_stack/core/prompts/prompts.py +233 -0
  15. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/resolver.py +11 -1
  16. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/routers/__init__.py +4 -1
  17. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/routers/inference.py +15 -10
  18. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/routing_tables/benchmarks.py +4 -0
  19. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/routing_tables/common.py +4 -0
  20. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/routing_tables/scoring_functions.py +4 -0
  21. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/routing_tables/vector_dbs.py +22 -4
  22. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/server/auth_providers.py +90 -3
  23. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/server/server.py +5 -2
  24. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/stack.py +12 -0
  25. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/ci-tests/build.yaml +1 -0
  26. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/ci-tests/ci_tests.py +1 -3
  27. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/ci-tests/run.yaml +16 -9
  28. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/nvidia/run.yaml +5 -0
  29. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/starter/build.yaml +1 -0
  30. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/starter/run.yaml +7 -0
  31. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/starter/starter.py +19 -2
  32. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/starter-gpu/build.yaml +1 -0
  33. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/starter-gpu/run.yaml +16 -9
  34. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/starter-gpu/starter_gpu.py +1 -3
  35. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/watsonx/run.yaml +9 -0
  36. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/watsonx/watsonx.py +10 -2
  37. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/batches/reference/batches.py +48 -23
  38. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/eval/meta_reference/eval.py +7 -0
  39. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/files/localfs/files.py +5 -0
  40. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/llm_as_judge/scoring.py +3 -0
  41. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/tool_runtime/rag/__init__.py +1 -1
  42. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/tool_runtime/rag/context_retriever.py +6 -6
  43. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/tool_runtime/rag/memory.py +117 -26
  44. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/sqlite_vec/sqlite_vec.py +5 -62
  45. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/registry/batches.py +1 -1
  46. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/registry/datasetio.py +2 -2
  47. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/registry/inference.py +21 -10
  48. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/registry/post_training.py +1 -1
  49. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/registry/scoring.py +1 -1
  50. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/registry/tool_runtime.py +1 -1
  51. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/eval/nvidia/eval.py +11 -2
  52. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/files/s3/files.py +115 -70
  53. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/anthropic/anthropic.py +7 -1
  54. llama_stack-0.2.22/llama_stack/providers/remote/inference/azure/__init__.py +15 -0
  55. llama_stack-0.2.22/llama_stack/providers/remote/inference/azure/azure.py +64 -0
  56. llama_stack-0.2.22/llama_stack/providers/remote/inference/azure/config.py +63 -0
  57. llama_stack-0.2.22/llama_stack/providers/remote/inference/azure/models.py +28 -0
  58. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/bedrock/bedrock.py +49 -2
  59. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/gemini/gemini.py +7 -1
  60. llama_stack-0.2.22/llama_stack/providers/remote/inference/groq/groq.py +38 -0
  61. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/nvidia/models.py +4 -0
  62. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/ollama/ollama.py +4 -4
  63. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/sambanova/sambanova.py +25 -1
  64. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/tgi/tgi.py +43 -15
  65. llama_stack-0.2.22/llama_stack/providers/remote/inference/together/models.py +103 -0
  66. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/together/together.py +79 -130
  67. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/vertexai/vertexai.py +29 -4
  68. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/vllm/vllm.py +11 -186
  69. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/watsonx/config.py +2 -2
  70. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/watsonx/watsonx.py +20 -4
  71. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/bedrock/config.py +12 -10
  72. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/inference/embedding_mixin.py +15 -8
  73. llama_stack-0.2.22/llama_stack/providers/utils/inference/inference_store.py +246 -0
  74. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/inference/openai_mixin.py +53 -8
  75. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/memory/vector_store.py +5 -5
  76. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/sqlstore/authorized_sqlstore.py +14 -0
  77. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/telemetry/tracing.py +24 -10
  78. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/tools/mcp.py +32 -0
  79. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/vector_io/vector_utils.py +2 -4
  80. llama_stack-0.2.22/llama_stack/testing/__init__.py +5 -0
  81. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/testing/inference_recorder.py +133 -46
  82. {llama_stack-0.2.20 → llama_stack-0.2.22/llama_stack.egg-info}/PKG-INFO +5 -6
  83. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack.egg-info/SOURCES.txt +8 -0
  84. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack.egg-info/requires.txt +4 -5
  85. {llama_stack-0.2.20 → llama_stack-0.2.22}/pyproject.toml +11 -13
  86. llama_stack-0.2.20/llama_stack/providers/remote/inference/groq/groq.py +0 -161
  87. llama_stack-0.2.20/llama_stack/providers/remote/inference/together/models.py +0 -77
  88. llama_stack-0.2.20/llama_stack/providers/utils/inference/inference_store.py +0 -136
  89. {llama_stack-0.2.20 → llama_stack-0.2.22}/LICENSE +0 -0
  90. {llama_stack-0.2.20 → llama_stack-0.2.22}/MANIFEST.in +0 -0
  91. {llama_stack-0.2.20 → llama_stack-0.2.22}/README.md +0 -0
  92. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/__init__.py +0 -0
  93. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/__init__.py +0 -0
  94. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/agents/__init__.py +0 -0
  95. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/agents/agents.py +0 -0
  96. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/agents/openai_responses.py +0 -0
  97. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/batch_inference/__init__.py +0 -0
  98. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/batch_inference/batch_inference.py +0 -0
  99. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/batches/__init__.py +0 -0
  100. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/batches/batches.py +0 -0
  101. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/benchmarks/__init__.py +0 -0
  102. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/common/__init__.py +0 -0
  103. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/common/content_types.py +0 -0
  104. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/common/job_types.py +0 -0
  105. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/common/responses.py +0 -0
  106. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/common/training_types.py +0 -0
  107. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/common/type_system.py +0 -0
  108. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/datasetio/__init__.py +0 -0
  109. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/datasetio/datasetio.py +0 -0
  110. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/datasets/__init__.py +0 -0
  111. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/datasets/datasets.py +0 -0
  112. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/eval/__init__.py +0 -0
  113. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/eval/eval.py +0 -0
  114. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/files/__init__.py +0 -0
  115. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/inference/__init__.py +0 -0
  116. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/inference/event_logger.py +0 -0
  117. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/inference/inference.py +0 -0
  118. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/inspect/__init__.py +0 -0
  119. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/inspect/inspect.py +0 -0
  120. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/models/__init__.py +0 -0
  121. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/models/models.py +0 -0
  122. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/post_training/__init__.py +0 -0
  123. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/post_training/post_training.py +0 -0
  124. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/providers/__init__.py +0 -0
  125. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/providers/providers.py +0 -0
  126. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/safety/__init__.py +0 -0
  127. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/safety/safety.py +0 -0
  128. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/scoring/__init__.py +0 -0
  129. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/scoring/scoring.py +0 -0
  130. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/scoring_functions/__init__.py +0 -0
  131. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/shields/__init__.py +0 -0
  132. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/shields/shields.py +0 -0
  133. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/synthetic_data_generation/__init__.py +0 -0
  134. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/synthetic_data_generation/synthetic_data_generation.py +0 -0
  135. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/telemetry/__init__.py +0 -0
  136. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/telemetry/telemetry.py +0 -0
  137. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/tools/__init__.py +0 -0
  138. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/tools/rag_tool.py +0 -0
  139. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/tools/tools.py +0 -0
  140. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/vector_dbs/__init__.py +0 -0
  141. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/vector_dbs/vector_dbs.py +0 -0
  142. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/vector_io/__init__.py +0 -0
  143. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/vector_io/vector_io.py +0 -0
  144. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/apis/version.py +0 -0
  145. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/__init__.py +0 -0
  146. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/download.py +0 -0
  147. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/llama.py +0 -0
  148. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/model/__init__.py +0 -0
  149. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/model/describe.py +0 -0
  150. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/model/download.py +0 -0
  151. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/model/list.py +0 -0
  152. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/model/model.py +0 -0
  153. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/model/prompt_format.py +0 -0
  154. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/model/remove.py +0 -0
  155. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/model/safety_models.py +0 -0
  156. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/model/verify_download.py +0 -0
  157. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/scripts/__init__.py +0 -0
  158. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/scripts/install-wheel-from-presigned.sh +0 -0
  159. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/scripts/run.py +0 -0
  160. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/stack/__init__.py +0 -0
  161. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/stack/build.py +0 -0
  162. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/stack/list_apis.py +0 -0
  163. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/stack/list_providers.py +0 -0
  164. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/stack/list_stacks.py +0 -0
  165. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/stack/remove.py +0 -0
  166. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/stack/run.py +0 -0
  167. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/stack/stack.py +0 -0
  168. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/stack/utils.py +0 -0
  169. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/subcommand.py +0 -0
  170. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/table.py +0 -0
  171. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/cli/utils.py +0 -0
  172. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/__init__.py +0 -0
  173. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/access_control/__init__.py +0 -0
  174. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/access_control/access_control.py +0 -0
  175. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/access_control/conditions.py +0 -0
  176. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/access_control/datatypes.py +0 -0
  177. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/build.py +0 -0
  178. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/build_container.sh +0 -0
  179. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/build_venv.sh +0 -0
  180. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/client.py +0 -0
  181. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/common.sh +0 -0
  182. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/configure.py +0 -0
  183. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/distribution.py +0 -0
  184. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/external.py +0 -0
  185. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/inspect.py +0 -0
  186. {llama_stack-0.2.20/llama_stack/core/routing_tables → llama_stack-0.2.22/llama_stack/core/prompts}/__init__.py +0 -0
  187. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/providers.py +0 -0
  188. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/request_headers.py +0 -0
  189. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/routers/datasets.py +0 -0
  190. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/routers/eval_scoring.py +0 -0
  191. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/routers/safety.py +0 -0
  192. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/routers/tool_runtime.py +0 -0
  193. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/routers/vector_io.py +0 -0
  194. {llama_stack-0.2.20/llama_stack/core/server → llama_stack-0.2.22/llama_stack/core/routing_tables}/__init__.py +0 -0
  195. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/routing_tables/datasets.py +0 -0
  196. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/routing_tables/models.py +0 -0
  197. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/routing_tables/shields.py +0 -0
  198. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/routing_tables/toolgroups.py +0 -0
  199. {llama_stack-0.2.20/llama_stack/core/ui → llama_stack-0.2.22/llama_stack/core/server}/__init__.py +0 -0
  200. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/server/auth.py +0 -0
  201. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/server/quota.py +0 -0
  202. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/server/routes.py +0 -0
  203. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/start_stack.sh +0 -0
  204. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/store/__init__.py +0 -0
  205. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/store/registry.py +0 -0
  206. {llama_stack-0.2.20/llama_stack/core/ui/modules → llama_stack-0.2.22/llama_stack/core/ui}/__init__.py +0 -0
  207. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/ui/app.py +0 -0
  208. {llama_stack-0.2.20/llama_stack/core/ui/page → llama_stack-0.2.22/llama_stack/core/ui/modules}/__init__.py +0 -0
  209. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/ui/modules/api.py +0 -0
  210. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/ui/modules/utils.py +0 -0
  211. {llama_stack-0.2.20/llama_stack/core/ui/page/distribution → llama_stack-0.2.22/llama_stack/core/ui/page}/__init__.py +0 -0
  212. {llama_stack-0.2.20/llama_stack/core/ui/page/evaluations → llama_stack-0.2.22/llama_stack/core/ui/page/distribution}/__init__.py +0 -0
  213. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/ui/page/distribution/datasets.py +0 -0
  214. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/ui/page/distribution/eval_tasks.py +0 -0
  215. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/ui/page/distribution/models.py +0 -0
  216. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/ui/page/distribution/providers.py +0 -0
  217. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/ui/page/distribution/resources.py +0 -0
  218. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/ui/page/distribution/scoring_functions.py +0 -0
  219. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/ui/page/distribution/shields.py +0 -0
  220. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/ui/page/distribution/vector_dbs.py +0 -0
  221. {llama_stack-0.2.20/llama_stack/core/ui/page/playground → llama_stack-0.2.22/llama_stack/core/ui/page/evaluations}/__init__.py +0 -0
  222. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/ui/page/evaluations/app_eval.py +0 -0
  223. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/ui/page/evaluations/native_eval.py +0 -0
  224. {llama_stack-0.2.20/llama_stack/core/utils → llama_stack-0.2.22/llama_stack/core/ui/page/playground}/__init__.py +0 -0
  225. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/ui/page/playground/chat.py +0 -0
  226. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/ui/page/playground/rag.py +0 -0
  227. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/ui/page/playground/tools.py +0 -0
  228. {llama_stack-0.2.20/llama_stack/distributions → llama_stack-0.2.22/llama_stack/core/utils}/__init__.py +0 -0
  229. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/utils/config.py +0 -0
  230. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/utils/config_dirs.py +0 -0
  231. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/utils/config_resolution.py +0 -0
  232. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/utils/context.py +0 -0
  233. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/utils/dynamic.py +0 -0
  234. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/utils/exec.py +0 -0
  235. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/utils/image_types.py +0 -0
  236. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/utils/model_utils.py +0 -0
  237. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/utils/prompt_for_config.py +0 -0
  238. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/core/utils/serialize.py +0 -0
  239. {llama_stack-0.2.20/llama_stack/distributions/watsonx → llama_stack-0.2.22/llama_stack/distributions}/__init__.py +0 -0
  240. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/ci-tests/__init__.py +0 -0
  241. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/dell/__init__.py +0 -0
  242. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/dell/build.yaml +0 -0
  243. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/dell/dell.py +0 -0
  244. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/dell/run-with-safety.yaml +0 -0
  245. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/dell/run.yaml +0 -0
  246. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/meta-reference-gpu/__init__.py +0 -0
  247. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/meta-reference-gpu/build.yaml +0 -0
  248. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/meta-reference-gpu/meta_reference.py +0 -0
  249. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/meta-reference-gpu/run-with-safety.yaml +0 -0
  250. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/meta-reference-gpu/run.yaml +0 -0
  251. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/nvidia/__init__.py +0 -0
  252. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/nvidia/build.yaml +0 -0
  253. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/nvidia/nvidia.py +0 -0
  254. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/nvidia/run-with-safety.yaml +0 -0
  255. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/open-benchmark/__init__.py +0 -0
  256. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/open-benchmark/build.yaml +0 -0
  257. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/open-benchmark/open_benchmark.py +0 -0
  258. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/open-benchmark/run.yaml +0 -0
  259. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/postgres-demo/__init__.py +0 -0
  260. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/postgres-demo/build.yaml +0 -0
  261. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/postgres-demo/postgres_demo.py +0 -0
  262. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/postgres-demo/run.yaml +0 -0
  263. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/starter/__init__.py +0 -0
  264. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/starter-gpu/__init__.py +0 -0
  265. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/template.py +0 -0
  266. {llama_stack-0.2.20/llama_stack/models → llama_stack-0.2.22/llama_stack/distributions/watsonx}/__init__.py +0 -0
  267. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/distributions/watsonx/build.yaml +0 -0
  268. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/env.py +0 -0
  269. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/log.py +0 -0
  270. {llama_stack-0.2.20/llama_stack/models/llama → llama_stack-0.2.22/llama_stack/models}/__init__.py +0 -0
  271. {llama_stack-0.2.20/llama_stack/models/llama/llama3 → llama_stack-0.2.22/llama_stack/models/llama}/__init__.py +0 -0
  272. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/checkpoint.py +0 -0
  273. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/datatypes.py +0 -0
  274. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/hadamard_utils.py +0 -0
  275. {llama_stack-0.2.20/llama_stack/models/llama/llama3/quantization → llama_stack-0.2.22/llama_stack/models/llama/llama3}/__init__.py +0 -0
  276. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/args.py +0 -0
  277. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/chat_format.py +0 -0
  278. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/generation.py +0 -0
  279. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/interface.py +0 -0
  280. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/model.py +0 -0
  281. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/multimodal/__init__.py +0 -0
  282. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/multimodal/encoder_utils.py +0 -0
  283. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/multimodal/image_transform.py +0 -0
  284. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/multimodal/model.py +0 -0
  285. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/multimodal/utils.py +0 -0
  286. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/prompt_templates/__init__.py +0 -0
  287. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/prompt_templates/base.py +0 -0
  288. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/prompt_templates/system_prompts.py +0 -0
  289. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/prompt_templates/tool_response.py +0 -0
  290. {llama_stack-0.2.20/llama_stack/models/llama/llama3_2 → llama_stack-0.2.22/llama_stack/models/llama/llama3/quantization}/__init__.py +0 -0
  291. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/quantization/loader.py +0 -0
  292. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/template_data.py +0 -0
  293. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/tokenizer.model +0 -0
  294. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/tokenizer.py +0 -0
  295. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/tool_utils.py +0 -0
  296. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3_1/__init__.py +0 -0
  297. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3_1/prompt_format.md +0 -0
  298. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3_1/prompts.py +0 -0
  299. {llama_stack-0.2.20/llama_stack/models/llama/llama3_3 → llama_stack-0.2.22/llama_stack/models/llama/llama3_2}/__init__.py +0 -0
  300. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3_2/prompts_text.py +0 -0
  301. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3_2/prompts_vision.py +0 -0
  302. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3_2/text_prompt_format.md +0 -0
  303. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3_2/vision_prompt_format.md +0 -0
  304. {llama_stack-0.2.20/llama_stack/models/llama/llama4 → llama_stack-0.2.22/llama_stack/models/llama/llama3_3}/__init__.py +0 -0
  305. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama3_3/prompts.py +0 -0
  306. {llama_stack-0.2.20/llama_stack/models/llama/llama4/prompt_templates → llama_stack-0.2.22/llama_stack/models/llama/llama4}/__init__.py +0 -0
  307. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/args.py +0 -0
  308. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/chat_format.py +0 -0
  309. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/datatypes.py +0 -0
  310. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/ffn.py +0 -0
  311. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/generation.py +0 -0
  312. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/model.py +0 -0
  313. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/moe.py +0 -0
  314. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/preprocess.py +0 -0
  315. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/prompt_format.md +0 -0
  316. {llama_stack-0.2.20/llama_stack/models/llama/llama4/quantization → llama_stack-0.2.22/llama_stack/models/llama/llama4/prompt_templates}/__init__.py +0 -0
  317. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/prompt_templates/system_prompts.py +0 -0
  318. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/prompts.py +0 -0
  319. {llama_stack-0.2.20/llama_stack/models/llama/llama4/vision → llama_stack-0.2.22/llama_stack/models/llama/llama4/quantization}/__init__.py +0 -0
  320. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/quantization/loader.py +0 -0
  321. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/tokenizer.model +0 -0
  322. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/tokenizer.py +0 -0
  323. {llama_stack-0.2.20/llama_stack/providers → llama_stack-0.2.22/llama_stack/models/llama/llama4/vision}/__init__.py +0 -0
  324. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/vision/embedding.py +0 -0
  325. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/vision/encoder.py +0 -0
  326. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/prompt_format.py +0 -0
  327. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/quantize_impls.py +0 -0
  328. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/sku_list.py +0 -0
  329. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/sku_types.py +0 -0
  330. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/models/llama/tokenizer_utils.py +0 -0
  331. {llama_stack-0.2.20/llama_stack/providers/inline → llama_stack-0.2.22/llama_stack/providers}/__init__.py +0 -0
  332. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/datatypes.py +0 -0
  333. {llama_stack-0.2.20/llama_stack/providers/inline/agents → llama_stack-0.2.22/llama_stack/providers/inline}/__init__.py +0 -0
  334. {llama_stack-0.2.20/llama_stack/providers/inline/agents/meta_reference/responses → llama_stack-0.2.22/llama_stack/providers/inline/agents}/__init__.py +0 -0
  335. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/__init__.py +0 -0
  336. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/agent_instance.py +0 -0
  337. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/agents.py +0 -0
  338. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/config.py +0 -0
  339. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/persistence.py +0 -0
  340. {llama_stack-0.2.20/llama_stack/providers/inline/batches → llama_stack-0.2.22/llama_stack/providers/inline/agents/meta_reference/responses}/__init__.py +0 -0
  341. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/responses/openai_responses.py +0 -0
  342. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/responses/streaming.py +0 -0
  343. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/responses/tool_executor.py +0 -0
  344. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/responses/types.py +0 -0
  345. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/responses/utils.py +0 -0
  346. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/safety.py +0 -0
  347. {llama_stack-0.2.20/llama_stack/providers/inline/datasetio → llama_stack-0.2.22/llama_stack/providers/inline/batches}/__init__.py +0 -0
  348. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/batches/reference/__init__.py +0 -0
  349. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/batches/reference/config.py +0 -0
  350. {llama_stack-0.2.20/llama_stack/providers/inline/eval → llama_stack-0.2.22/llama_stack/providers/inline/datasetio}/__init__.py +0 -0
  351. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/datasetio/localfs/__init__.py +0 -0
  352. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/datasetio/localfs/config.py +0 -0
  353. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/datasetio/localfs/datasetio.py +0 -0
  354. {llama_stack-0.2.20/llama_stack/providers/inline/inference → llama_stack-0.2.22/llama_stack/providers/inline/eval}/__init__.py +0 -0
  355. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/eval/meta_reference/__init__.py +0 -0
  356. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/eval/meta_reference/config.py +0 -0
  357. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/files/localfs/__init__.py +0 -0
  358. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/files/localfs/config.py +0 -0
  359. {llama_stack-0.2.20/llama_stack/providers/inline/post_training → llama_stack-0.2.22/llama_stack/providers/inline/inference}/__init__.py +0 -0
  360. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/inference/meta_reference/__init__.py +0 -0
  361. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/inference/meta_reference/common.py +0 -0
  362. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/inference/meta_reference/config.py +0 -0
  363. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/inference/meta_reference/generators.py +0 -0
  364. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/inference/meta_reference/inference.py +0 -0
  365. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/inference/meta_reference/model_parallel.py +0 -0
  366. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/inference/meta_reference/parallel_utils.py +0 -0
  367. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/inference/sentence_transformers/__init__.py +0 -0
  368. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/inference/sentence_transformers/config.py +0 -0
  369. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/inference/sentence_transformers/sentence_transformers.py +0 -0
  370. {llama_stack-0.2.20/llama_stack/providers/inline/post_training/common → llama_stack-0.2.22/llama_stack/providers/inline/post_training}/__init__.py +0 -0
  371. {llama_stack-0.2.20/llama_stack/providers/inline/post_training/huggingface/recipes → llama_stack-0.2.22/llama_stack/providers/inline/post_training/common}/__init__.py +0 -0
  372. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/common/utils.py +0 -0
  373. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/common/validator.py +0 -0
  374. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/huggingface/__init__.py +0 -0
  375. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/huggingface/config.py +0 -0
  376. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/huggingface/post_training.py +0 -0
  377. {llama_stack-0.2.20/llama_stack/providers/inline/post_training/torchtune/common → llama_stack-0.2.22/llama_stack/providers/inline/post_training/huggingface/recipes}/__init__.py +0 -0
  378. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/huggingface/recipes/finetune_single_device.py +0 -0
  379. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/huggingface/recipes/finetune_single_device_dpo.py +0 -0
  380. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/huggingface/utils.py +0 -0
  381. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/torchtune/__init__.py +0 -0
  382. {llama_stack-0.2.20/llama_stack/providers/inline/post_training/torchtune/datasets → llama_stack-0.2.22/llama_stack/providers/inline/post_training/torchtune/common}/__init__.py +0 -0
  383. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/torchtune/common/checkpointer.py +0 -0
  384. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/torchtune/common/utils.py +0 -0
  385. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/torchtune/config.py +0 -0
  386. {llama_stack-0.2.20/llama_stack/providers/inline/post_training/torchtune/recipes → llama_stack-0.2.22/llama_stack/providers/inline/post_training/torchtune/datasets}/__init__.py +0 -0
  387. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/torchtune/datasets/format_adapter.py +0 -0
  388. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/torchtune/datasets/sft.py +0 -0
  389. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/torchtune/post_training.py +0 -0
  390. {llama_stack-0.2.20/llama_stack/providers/inline/safety → llama_stack-0.2.22/llama_stack/providers/inline/post_training/torchtune/recipes}/__init__.py +0 -0
  391. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/torchtune/recipes/lora_finetuning_single_device.py +0 -0
  392. {llama_stack-0.2.20/llama_stack/providers/inline/scoring → llama_stack-0.2.22/llama_stack/providers/inline/safety}/__init__.py +0 -0
  393. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/safety/code_scanner/__init__.py +0 -0
  394. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/safety/code_scanner/code_scanner.py +0 -0
  395. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/safety/code_scanner/config.py +0 -0
  396. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/safety/llama_guard/__init__.py +0 -0
  397. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/safety/llama_guard/config.py +0 -0
  398. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/safety/llama_guard/llama_guard.py +0 -0
  399. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/safety/prompt_guard/__init__.py +0 -0
  400. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/safety/prompt_guard/config.py +0 -0
  401. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/safety/prompt_guard/prompt_guard.py +0 -0
  402. {llama_stack-0.2.20/llama_stack/providers/inline/scoring/basic/scoring_fn → llama_stack-0.2.22/llama_stack/providers/inline/scoring}/__init__.py +0 -0
  403. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/__init__.py +0 -0
  404. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/config.py +0 -0
  405. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring.py +0 -0
  406. {llama_stack-0.2.20/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs → llama_stack-0.2.22/llama_stack/providers/inline/scoring/basic/scoring_fn}/__init__.py +0 -0
  407. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/docvqa_scoring_fn.py +0 -0
  408. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/equality_scoring_fn.py +0 -0
  409. {llama_stack-0.2.20/llama_stack/providers/inline/scoring/basic/utils → llama_stack-0.2.22/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs}/__init__.py +0 -0
  410. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/docvqa.py +0 -0
  411. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/equality.py +0 -0
  412. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/ifeval.py +0 -0
  413. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/regex_parser_math_response.py +0 -0
  414. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/regex_parser_multiple_choice_answer.py +0 -0
  415. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/subset_of.py +0 -0
  416. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/ifeval_scoring_fn.py +0 -0
  417. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/regex_parser_math_response_scoring_fn.py +0 -0
  418. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/regex_parser_scoring_fn.py +0 -0
  419. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/subset_of_scoring_fn.py +0 -0
  420. {llama_stack-0.2.20/llama_stack/providers/inline/scoring/braintrust/scoring_fn → llama_stack-0.2.22/llama_stack/providers/inline/scoring/basic/utils}/__init__.py +0 -0
  421. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/utils/ifeval_utils.py +0 -0
  422. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/utils/math_utils.py +0 -0
  423. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/__init__.py +0 -0
  424. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/braintrust.py +0 -0
  425. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/config.py +0 -0
  426. {llama_stack-0.2.20/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs → llama_stack-0.2.22/llama_stack/providers/inline/scoring/braintrust/scoring_fn}/__init__.py +0 -0
  427. {llama_stack-0.2.20/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn → llama_stack-0.2.22/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs}/__init__.py +0 -0
  428. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/answer_correctness.py +0 -0
  429. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/answer_relevancy.py +0 -0
  430. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/answer_similarity.py +0 -0
  431. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_entity_recall.py +0 -0
  432. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_precision.py +0 -0
  433. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_recall.py +0 -0
  434. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_relevancy.py +0 -0
  435. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/factuality.py +0 -0
  436. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/faithfulness.py +0 -0
  437. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/llm_as_judge/__init__.py +0 -0
  438. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/llm_as_judge/config.py +0 -0
  439. {llama_stack-0.2.20/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs → llama_stack-0.2.22/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn}/__init__.py +0 -0
  440. {llama_stack-0.2.20/llama_stack/providers/inline/telemetry → llama_stack-0.2.22/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs}/__init__.py +0 -0
  441. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs/llm_as_judge_405b_simpleqa.py +0 -0
  442. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs/llm_as_judge_base.py +0 -0
  443. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/llm_as_judge_scoring_fn.py +0 -0
  444. {llama_stack-0.2.20/llama_stack/providers/inline/tool_runtime → llama_stack-0.2.22/llama_stack/providers/inline/telemetry}/__init__.py +0 -0
  445. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/telemetry/meta_reference/__init__.py +0 -0
  446. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/telemetry/meta_reference/config.py +0 -0
  447. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/telemetry/meta_reference/console_span_processor.py +0 -0
  448. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/telemetry/meta_reference/sqlite_span_processor.py +0 -0
  449. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/telemetry/meta_reference/telemetry.py +0 -0
  450. {llama_stack-0.2.20/llama_stack/providers/inline/vector_io → llama_stack-0.2.22/llama_stack/providers/inline/tool_runtime}/__init__.py +0 -0
  451. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/tool_runtime/rag/config.py +0 -0
  452. {llama_stack-0.2.20/llama_stack/providers/registry → llama_stack-0.2.22/llama_stack/providers/inline/vector_io}/__init__.py +0 -0
  453. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/chroma/__init__.py +0 -0
  454. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/chroma/config.py +0 -0
  455. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/faiss/__init__.py +0 -0
  456. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/faiss/config.py +0 -0
  457. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/faiss/faiss.py +0 -0
  458. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/milvus/__init__.py +0 -0
  459. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/milvus/config.py +0 -0
  460. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/qdrant/__init__.py +0 -0
  461. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/qdrant/config.py +0 -0
  462. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/sqlite_vec/__init__.py +0 -0
  463. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/sqlite_vec/config.py +0 -0
  464. {llama_stack-0.2.20/llama_stack/providers/remote → llama_stack-0.2.22/llama_stack/providers/registry}/__init__.py +0 -0
  465. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/registry/agents.py +0 -0
  466. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/registry/eval.py +0 -0
  467. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/registry/files.py +0 -0
  468. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/registry/safety.py +0 -0
  469. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/registry/telemetry.py +0 -0
  470. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/registry/vector_io.py +0 -0
  471. {llama_stack-0.2.20/llama_stack/providers/remote/agents → llama_stack-0.2.22/llama_stack/providers/remote}/__init__.py +0 -0
  472. {llama_stack-0.2.20/llama_stack/providers/remote/datasetio → llama_stack-0.2.22/llama_stack/providers/remote/agents}/__init__.py +0 -0
  473. {llama_stack-0.2.20/llama_stack/providers/remote/eval → llama_stack-0.2.22/llama_stack/providers/remote/datasetio}/__init__.py +0 -0
  474. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/datasetio/huggingface/__init__.py +0 -0
  475. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/datasetio/huggingface/config.py +0 -0
  476. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/datasetio/huggingface/huggingface.py +0 -0
  477. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/datasetio/nvidia/__init__.py +0 -0
  478. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/datasetio/nvidia/config.py +0 -0
  479. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/datasetio/nvidia/datasetio.py +0 -0
  480. {llama_stack-0.2.20/llama_stack/providers/remote/inference → llama_stack-0.2.22/llama_stack/providers/remote/eval}/__init__.py +0 -0
  481. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/eval/nvidia/__init__.py +0 -0
  482. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/eval/nvidia/config.py +0 -0
  483. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/files/s3/__init__.py +0 -0
  484. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/files/s3/config.py +0 -0
  485. {llama_stack-0.2.20/llama_stack/providers/remote/post_training → llama_stack-0.2.22/llama_stack/providers/remote/inference}/__init__.py +0 -0
  486. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/anthropic/__init__.py +0 -0
  487. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/anthropic/config.py +0 -0
  488. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/anthropic/models.py +0 -0
  489. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/bedrock/__init__.py +0 -0
  490. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/bedrock/config.py +0 -0
  491. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/bedrock/models.py +0 -0
  492. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/cerebras/__init__.py +0 -0
  493. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/cerebras/cerebras.py +0 -0
  494. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/cerebras/config.py +0 -0
  495. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/cerebras/models.py +0 -0
  496. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/databricks/__init__.py +0 -0
  497. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/databricks/config.py +0 -0
  498. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/databricks/databricks.py +0 -0
  499. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/fireworks/__init__.py +0 -0
  500. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/fireworks/config.py +0 -0
  501. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/fireworks/fireworks.py +0 -0
  502. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/fireworks/models.py +0 -0
  503. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/gemini/__init__.py +0 -0
  504. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/gemini/config.py +0 -0
  505. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/gemini/models.py +0 -0
  506. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/groq/__init__.py +0 -0
  507. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/groq/config.py +0 -0
  508. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/groq/models.py +0 -0
  509. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/llama_openai_compat/__init__.py +0 -0
  510. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/llama_openai_compat/config.py +0 -0
  511. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/llama_openai_compat/llama.py +0 -0
  512. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/llama_openai_compat/models.py +0 -0
  513. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/nvidia/__init__.py +0 -0
  514. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/nvidia/config.py +0 -0
  515. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/nvidia/nvidia.py +0 -0
  516. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/nvidia/openai_utils.py +0 -0
  517. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/nvidia/utils.py +0 -0
  518. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/ollama/__init__.py +0 -0
  519. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/ollama/config.py +0 -0
  520. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/ollama/models.py +0 -0
  521. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/openai/__init__.py +0 -0
  522. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/openai/config.py +0 -0
  523. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/openai/models.py +0 -0
  524. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/openai/openai.py +0 -0
  525. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/passthrough/__init__.py +0 -0
  526. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/passthrough/config.py +0 -0
  527. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/passthrough/passthrough.py +0 -0
  528. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/runpod/__init__.py +0 -0
  529. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/runpod/config.py +0 -0
  530. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/runpod/runpod.py +0 -0
  531. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/sambanova/__init__.py +0 -0
  532. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/sambanova/config.py +0 -0
  533. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/sambanova/models.py +0 -0
  534. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/tgi/__init__.py +0 -0
  535. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/tgi/config.py +0 -0
  536. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/together/__init__.py +0 -0
  537. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/together/config.py +0 -0
  538. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/vertexai/__init__.py +0 -0
  539. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/vertexai/config.py +0 -0
  540. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/vertexai/models.py +0 -0
  541. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/vllm/__init__.py +0 -0
  542. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/vllm/config.py +0 -0
  543. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/watsonx/__init__.py +0 -0
  544. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/watsonx/models.py +0 -0
  545. {llama_stack-0.2.20/llama_stack/providers/remote/safety → llama_stack-0.2.22/llama_stack/providers/remote/post_training}/__init__.py +0 -0
  546. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/post_training/nvidia/__init__.py +0 -0
  547. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/post_training/nvidia/config.py +0 -0
  548. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/post_training/nvidia/models.py +0 -0
  549. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/post_training/nvidia/post_training.py +0 -0
  550. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/post_training/nvidia/utils.py +0 -0
  551. {llama_stack-0.2.20/llama_stack/providers/remote/tool_runtime → llama_stack-0.2.22/llama_stack/providers/remote/safety}/__init__.py +0 -0
  552. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/safety/bedrock/__init__.py +0 -0
  553. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/safety/bedrock/bedrock.py +0 -0
  554. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/safety/bedrock/config.py +0 -0
  555. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/safety/nvidia/__init__.py +0 -0
  556. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/safety/nvidia/config.py +0 -0
  557. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/safety/nvidia/nvidia.py +0 -0
  558. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/safety/sambanova/__init__.py +0 -0
  559. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/safety/sambanova/config.py +0 -0
  560. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/safety/sambanova/sambanova.py +0 -0
  561. {llama_stack-0.2.20/llama_stack/providers/remote/vector_io → llama_stack-0.2.22/llama_stack/providers/remote/tool_runtime}/__init__.py +0 -0
  562. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/bing_search/__init__.py +0 -0
  563. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/bing_search/bing_search.py +0 -0
  564. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/bing_search/config.py +0 -0
  565. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/brave_search/__init__.py +0 -0
  566. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/brave_search/brave_search.py +0 -0
  567. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/brave_search/config.py +0 -0
  568. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/model_context_protocol/__init__.py +0 -0
  569. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/model_context_protocol/config.py +0 -0
  570. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/model_context_protocol/model_context_protocol.py +0 -0
  571. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/tavily_search/__init__.py +0 -0
  572. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/tavily_search/config.py +0 -0
  573. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/tavily_search/tavily_search.py +0 -0
  574. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/wolfram_alpha/__init__.py +0 -0
  575. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/wolfram_alpha/config.py +0 -0
  576. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/wolfram_alpha/wolfram_alpha.py +0 -0
  577. {llama_stack-0.2.20/llama_stack/providers/utils → llama_stack-0.2.22/llama_stack/providers/remote/vector_io}/__init__.py +0 -0
  578. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/chroma/__init__.py +0 -0
  579. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/chroma/chroma.py +0 -0
  580. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/chroma/config.py +0 -0
  581. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/milvus/__init__.py +0 -0
  582. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/milvus/config.py +0 -0
  583. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/milvus/milvus.py +0 -0
  584. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/pgvector/__init__.py +0 -0
  585. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/pgvector/config.py +0 -0
  586. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/pgvector/pgvector.py +0 -0
  587. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/qdrant/__init__.py +0 -0
  588. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/qdrant/config.py +0 -0
  589. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/qdrant/qdrant.py +0 -0
  590. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/weaviate/__init__.py +0 -0
  591. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/weaviate/config.py +0 -0
  592. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/weaviate/weaviate.py +0 -0
  593. {llama_stack-0.2.20/llama_stack/providers/utils/bedrock → llama_stack-0.2.22/llama_stack/providers/utils}/__init__.py +0 -0
  594. {llama_stack-0.2.20/llama_stack/providers/utils/common → llama_stack-0.2.22/llama_stack/providers/utils/bedrock}/__init__.py +0 -0
  595. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/bedrock/client.py +0 -0
  596. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/bedrock/refreshable_boto_session.py +0 -0
  597. {llama_stack-0.2.20/llama_stack/providers/utils/datasetio → llama_stack-0.2.22/llama_stack/providers/utils/common}/__init__.py +0 -0
  598. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/common/data_schema_validator.py +0 -0
  599. {llama_stack-0.2.20/llama_stack/providers/utils/memory → llama_stack-0.2.22/llama_stack/providers/utils/datasetio}/__init__.py +0 -0
  600. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/datasetio/url_utils.py +0 -0
  601. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/inference/__init__.py +0 -0
  602. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/inference/litellm_openai_mixin.py +0 -0
  603. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/inference/model_registry.py +0 -0
  604. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/inference/openai_compat.py +0 -0
  605. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/inference/prompt_adapter.py +0 -0
  606. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/__init__.py +0 -0
  607. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/api.py +0 -0
  608. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/config.py +0 -0
  609. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/kvstore.py +0 -0
  610. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/mongodb/__init__.py +0 -0
  611. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/mongodb/mongodb.py +0 -0
  612. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/postgres/__init__.py +0 -0
  613. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/postgres/postgres.py +0 -0
  614. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/redis/__init__.py +0 -0
  615. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/redis/redis.py +0 -0
  616. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/sqlite/__init__.py +0 -0
  617. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/sqlite/config.py +0 -0
  618. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/sqlite/sqlite.py +0 -0
  619. {llama_stack-0.2.20/llama_stack/providers/utils/responses → llama_stack-0.2.22/llama_stack/providers/utils/memory}/__init__.py +0 -0
  620. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/memory/file_utils.py +0 -0
  621. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/memory/openai_vector_store_mixin.py +0 -0
  622. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/pagination.py +0 -0
  623. {llama_stack-0.2.20/llama_stack/providers/utils/scoring → llama_stack-0.2.22/llama_stack/providers/utils/responses}/__init__.py +0 -0
  624. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/responses/responses_store.py +0 -0
  625. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/scheduler.py +0 -0
  626. {llama_stack-0.2.20/llama_stack/providers/utils/sqlstore → llama_stack-0.2.22/llama_stack/providers/utils/scoring}/__init__.py +0 -0
  627. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/scoring/aggregation_utils.py +0 -0
  628. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/scoring/base_scoring_fn.py +0 -0
  629. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/scoring/basic_scoring_utils.py +0 -0
  630. {llama_stack-0.2.20/llama_stack/providers/utils/telemetry → llama_stack-0.2.22/llama_stack/providers/utils/sqlstore}/__init__.py +0 -0
  631. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/sqlstore/api.py +0 -0
  632. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/sqlstore/sqlalchemy_sqlstore.py +0 -0
  633. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/sqlstore/sqlstore.py +0 -0
  634. {llama_stack-0.2.20/llama_stack/providers/utils/tools → llama_stack-0.2.22/llama_stack/providers/utils/telemetry}/__init__.py +0 -0
  635. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/telemetry/dataset_mixin.py +0 -0
  636. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/telemetry/sqlite_trace_store.py +0 -0
  637. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/telemetry/trace_protocol.py +0 -0
  638. {llama_stack-0.2.20/llama_stack/providers/utils/vector_io → llama_stack-0.2.22/llama_stack/providers/utils/tools}/__init__.py +0 -0
  639. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/providers/utils/tools/ttl_dict.py +0 -0
  640. {llama_stack-0.2.20/llama_stack/testing → llama_stack-0.2.22/llama_stack/providers/utils/vector_io}/__init__.py +0 -0
  641. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/schema_utils.py +0 -0
  642. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/strong_typing/__init__.py +0 -0
  643. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/strong_typing/auxiliary.py +0 -0
  644. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/strong_typing/classdef.py +0 -0
  645. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/strong_typing/core.py +0 -0
  646. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/strong_typing/deserializer.py +0 -0
  647. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/strong_typing/docstring.py +0 -0
  648. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/strong_typing/exception.py +0 -0
  649. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/strong_typing/inspection.py +0 -0
  650. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/strong_typing/mapping.py +0 -0
  651. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/strong_typing/name.py +0 -0
  652. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/strong_typing/py.typed +0 -0
  653. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/strong_typing/schema.py +0 -0
  654. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/strong_typing/serialization.py +0 -0
  655. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/strong_typing/serializer.py +0 -0
  656. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/strong_typing/slots.py +0 -0
  657. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack/strong_typing/topological.py +0 -0
  658. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack.egg-info/dependency_links.txt +0 -0
  659. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack.egg-info/entry_points.txt +0 -0
  660. {llama_stack-0.2.20 → llama_stack-0.2.22}/llama_stack.egg-info/top_level.txt +0 -0
  661. {llama_stack-0.2.20 → llama_stack-0.2.22}/setup.cfg +0 -0
@@ -1,6 +1,6 @@
1
1
  Metadata-Version: 2.4
2
2
  Name: llama_stack
3
- Version: 0.2.20
3
+ Version: 0.2.22
4
4
  Summary: Llama Stack
5
5
  Author-email: Meta Llama <llama-oss@meta.com>
6
6
  License: MIT
@@ -23,13 +23,12 @@ Requires-Dist: httpx
23
23
  Requires-Dist: huggingface-hub<1.0,>=0.34.0
24
24
  Requires-Dist: jinja2>=3.1.6
25
25
  Requires-Dist: jsonschema
26
- Requires-Dist: llama-stack-client>=0.2.20
27
- Requires-Dist: llama-api-client>=0.1.2
28
- Requires-Dist: openai<1.100.0,>=1.99.6
26
+ Requires-Dist: llama-stack-client>=0.2.22
27
+ Requires-Dist: openai>=1.100.0
29
28
  Requires-Dist: prompt-toolkit
30
29
  Requires-Dist: python-dotenv
31
30
  Requires-Dist: python-jose[cryptography]
32
- Requires-Dist: pydantic>=2
31
+ Requires-Dist: pydantic>=2.11.9
33
32
  Requires-Dist: rich
34
33
  Requires-Dist: starlette
35
34
  Requires-Dist: termcolor
@@ -45,7 +44,7 @@ Requires-Dist: asyncpg
45
44
  Provides-Extra: ui
46
45
  Requires-Dist: streamlit; extra == "ui"
47
46
  Requires-Dist: pandas; extra == "ui"
48
- Requires-Dist: llama-stack-client>=0.2.20; extra == "ui"
47
+ Requires-Dist: llama-stack-client>=0.2.22; extra == "ui"
49
48
  Requires-Dist: streamlit-option-menu; extra == "ui"
50
49
  Dynamic: license-file
51
50
 
@@ -93,3 +93,11 @@ class Benchmarks(Protocol):
93
93
  :param metadata: The metadata to use for the benchmark.
94
94
  """
95
95
  ...
96
+
97
+ @webmethod(route="/eval/benchmarks/{benchmark_id}", method="DELETE")
98
+ async def unregister_benchmark(self, benchmark_id: str) -> None:
99
+ """Unregister a benchmark.
100
+
101
+ :param benchmark_id: The ID of the benchmark to unregister.
102
+ """
103
+ ...
@@ -79,3 +79,10 @@ class ConflictError(ValueError):
79
79
 
80
80
  def __init__(self, message: str) -> None:
81
81
  super().__init__(message)
82
+
83
+
84
+ class TokenValidationError(ValueError):
85
+ """raised when token validation fails during authentication"""
86
+
87
+ def __init__(self, message: str) -> None:
88
+ super().__init__(message)
@@ -102,6 +102,7 @@ class Api(Enum, metaclass=DynamicApiMeta):
102
102
  :cvar benchmarks: Benchmark suite management
103
103
  :cvar tool_groups: Tool group organization
104
104
  :cvar files: File storage and management
105
+ :cvar prompts: Prompt versions and management
105
106
  :cvar inspect: Built-in system inspection and introspection
106
107
  """
107
108
 
@@ -127,6 +128,7 @@ class Api(Enum, metaclass=DynamicApiMeta):
127
128
  benchmarks = "benchmarks"
128
129
  tool_groups = "tool_groups"
129
130
  files = "files"
131
+ prompts = "prompts"
130
132
 
131
133
  # built-in API
132
134
  inspect = "inspect"
@@ -5,10 +5,10 @@
5
5
  # the root directory of this source tree.
6
6
 
7
7
  from enum import StrEnum
8
- from typing import Annotated, Literal, Protocol, runtime_checkable
8
+ from typing import Annotated, ClassVar, Literal, Protocol, runtime_checkable
9
9
 
10
10
  from fastapi import File, Form, Response, UploadFile
11
- from pydantic import BaseModel
11
+ from pydantic import BaseModel, Field
12
12
 
13
13
  from llama_stack.apis.common.responses import Order
14
14
  from llama_stack.providers.utils.telemetry.trace_protocol import trace_protocol
@@ -49,6 +49,23 @@ class OpenAIFileObject(BaseModel):
49
49
  purpose: OpenAIFilePurpose
50
50
 
51
51
 
52
+ @json_schema_type
53
+ class ExpiresAfter(BaseModel):
54
+ """
55
+ Control expiration of uploaded files.
56
+
57
+ Params:
58
+ - anchor, must be "created_at"
59
+ - seconds, must be int between 3600 and 2592000 (1 hour to 30 days)
60
+ """
61
+
62
+ MIN: ClassVar[int] = 3600 # 1 hour
63
+ MAX: ClassVar[int] = 2592000 # 30 days
64
+
65
+ anchor: Literal["created_at"]
66
+ seconds: int = Field(..., ge=3600, le=2592000)
67
+
68
+
52
69
  @json_schema_type
53
70
  class ListOpenAIFileResponse(BaseModel):
54
71
  """
@@ -92,6 +109,9 @@ class Files(Protocol):
92
109
  self,
93
110
  file: Annotated[UploadFile, File()],
94
111
  purpose: Annotated[OpenAIFilePurpose, Form()],
112
+ expires_after_anchor: Annotated[str | None, Form(alias="expires_after[anchor]")] = None,
113
+ expires_after_seconds: Annotated[int | None, Form(alias="expires_after[seconds]")] = None,
114
+ # TODO: expires_after is producing strange openapi spec, params are showing up as a required w/ oneOf being null
95
115
  ) -> OpenAIFileObject:
96
116
  """
97
117
  Upload a file that can be used across various endpoints.
@@ -99,6 +119,7 @@ class Files(Protocol):
99
119
  The file upload should be a multipart form request with:
100
120
  - file: The File object (not file name) to be uploaded.
101
121
  - purpose: The intended purpose of the uploaded file.
122
+ - expires_after: Optional form values describing expiration for the file. Expected expires_after[anchor] = "created_at", expires_after[seconds] = <int>. Seconds must be between 3600 and 2592000 (1 hour to 30 days).
102
123
 
103
124
  :param file: The uploaded file object containing content and metadata (filename, content_type, etc.).
104
125
  :param purpose: The intended purpose of the uploaded file (e.g., "assistants", "fine-tune").
@@ -0,0 +1,9 @@
1
+ # Copyright (c) Meta Platforms, Inc. and affiliates.
2
+ # All rights reserved.
3
+ #
4
+ # This source code is licensed under the terms described in the LICENSE file in
5
+ # the root directory of this source tree.
6
+
7
+ from .prompts import ListPromptsResponse, Prompt, Prompts
8
+
9
+ __all__ = ["Prompt", "Prompts", "ListPromptsResponse"]
@@ -0,0 +1,189 @@
1
+ # Copyright (c) Meta Platforms, Inc. and affiliates.
2
+ # All rights reserved.
3
+ #
4
+ # This source code is licensed under the terms described in the LICENSE file in
5
+ # the root directory of this source tree.
6
+
7
+ import re
8
+ import secrets
9
+ from typing import Protocol, runtime_checkable
10
+
11
+ from pydantic import BaseModel, Field, field_validator, model_validator
12
+
13
+ from llama_stack.providers.utils.telemetry.trace_protocol import trace_protocol
14
+ from llama_stack.schema_utils import json_schema_type, webmethod
15
+
16
+
17
+ @json_schema_type
18
+ class Prompt(BaseModel):
19
+ """A prompt resource representing a stored OpenAI Compatible prompt template in Llama Stack.
20
+
21
+ :param prompt: The system prompt text with variable placeholders. Variables are only supported when using the Responses API.
22
+ :param version: Version (integer starting at 1, incremented on save)
23
+ :param prompt_id: Unique identifier formatted as 'pmpt_<48-digit-hash>'
24
+ :param variables: List of prompt variable names that can be used in the prompt template
25
+ :param is_default: Boolean indicating whether this version is the default version for this prompt
26
+ """
27
+
28
+ prompt: str | None = Field(default=None, description="The system prompt with variable placeholders")
29
+ version: int = Field(description="Version (integer starting at 1, incremented on save)", ge=1)
30
+ prompt_id: str = Field(description="Unique identifier in format 'pmpt_<48-digit-hash>'")
31
+ variables: list[str] = Field(
32
+ default_factory=list, description="List of variable names that can be used in the prompt template"
33
+ )
34
+ is_default: bool = Field(
35
+ default=False, description="Boolean indicating whether this version is the default version"
36
+ )
37
+
38
+ @field_validator("prompt_id")
39
+ @classmethod
40
+ def validate_prompt_id(cls, prompt_id: str) -> str:
41
+ if not isinstance(prompt_id, str):
42
+ raise TypeError("prompt_id must be a string in format 'pmpt_<48-digit-hash>'")
43
+
44
+ if not prompt_id.startswith("pmpt_"):
45
+ raise ValueError("prompt_id must start with 'pmpt_' prefix")
46
+
47
+ hex_part = prompt_id[5:]
48
+ if len(hex_part) != 48:
49
+ raise ValueError("prompt_id must be in format 'pmpt_<48-digit-hash>' (48 lowercase hex chars)")
50
+
51
+ for char in hex_part:
52
+ if char not in "0123456789abcdef":
53
+ raise ValueError("prompt_id hex part must contain only lowercase hex characters [0-9a-f]")
54
+
55
+ return prompt_id
56
+
57
+ @field_validator("version")
58
+ @classmethod
59
+ def validate_version(cls, prompt_version: int) -> int:
60
+ if prompt_version < 1:
61
+ raise ValueError("version must be >= 1")
62
+ return prompt_version
63
+
64
+ @model_validator(mode="after")
65
+ def validate_prompt_variables(self):
66
+ """Validate that all variables used in the prompt are declared in the variables list."""
67
+ if not self.prompt:
68
+ return self
69
+
70
+ prompt_variables = set(re.findall(r"{{\s*(\w+)\s*}}", self.prompt))
71
+ declared_variables = set(self.variables)
72
+
73
+ undeclared = prompt_variables - declared_variables
74
+ if undeclared:
75
+ raise ValueError(f"Prompt contains undeclared variables: {sorted(undeclared)}")
76
+
77
+ return self
78
+
79
+ @classmethod
80
+ def generate_prompt_id(cls) -> str:
81
+ # Generate 48 hex characters (24 bytes)
82
+ random_bytes = secrets.token_bytes(24)
83
+ hex_string = random_bytes.hex()
84
+ return f"pmpt_{hex_string}"
85
+
86
+
87
+ class ListPromptsResponse(BaseModel):
88
+ """Response model to list prompts."""
89
+
90
+ data: list[Prompt]
91
+
92
+
93
+ @runtime_checkable
94
+ @trace_protocol
95
+ class Prompts(Protocol):
96
+ """Protocol for prompt management operations."""
97
+
98
+ @webmethod(route="/prompts", method="GET")
99
+ async def list_prompts(self) -> ListPromptsResponse:
100
+ """List all prompts.
101
+
102
+ :returns: A ListPromptsResponse containing all prompts.
103
+ """
104
+ ...
105
+
106
+ @webmethod(route="/prompts/{prompt_id}/versions", method="GET")
107
+ async def list_prompt_versions(
108
+ self,
109
+ prompt_id: str,
110
+ ) -> ListPromptsResponse:
111
+ """List all versions of a specific prompt.
112
+
113
+ :param prompt_id: The identifier of the prompt to list versions for.
114
+ :returns: A ListPromptsResponse containing all versions of the prompt.
115
+ """
116
+ ...
117
+
118
+ @webmethod(route="/prompts/{prompt_id}", method="GET")
119
+ async def get_prompt(
120
+ self,
121
+ prompt_id: str,
122
+ version: int | None = None,
123
+ ) -> Prompt:
124
+ """Get a prompt by its identifier and optional version.
125
+
126
+ :param prompt_id: The identifier of the prompt to get.
127
+ :param version: The version of the prompt to get (defaults to latest).
128
+ :returns: A Prompt resource.
129
+ """
130
+ ...
131
+
132
+ @webmethod(route="/prompts", method="POST")
133
+ async def create_prompt(
134
+ self,
135
+ prompt: str,
136
+ variables: list[str] | None = None,
137
+ ) -> Prompt:
138
+ """Create a new prompt.
139
+
140
+ :param prompt: The prompt text content with variable placeholders.
141
+ :param variables: List of variable names that can be used in the prompt template.
142
+ :returns: The created Prompt resource.
143
+ """
144
+ ...
145
+
146
+ @webmethod(route="/prompts/{prompt_id}", method="PUT")
147
+ async def update_prompt(
148
+ self,
149
+ prompt_id: str,
150
+ prompt: str,
151
+ version: int,
152
+ variables: list[str] | None = None,
153
+ set_as_default: bool = True,
154
+ ) -> Prompt:
155
+ """Update an existing prompt (increments version).
156
+
157
+ :param prompt_id: The identifier of the prompt to update.
158
+ :param prompt: The updated prompt text content.
159
+ :param version: The current version of the prompt being updated.
160
+ :param variables: Updated list of variable names that can be used in the prompt template.
161
+ :param set_as_default: Set the new version as the default (default=True).
162
+ :returns: The updated Prompt resource with incremented version.
163
+ """
164
+ ...
165
+
166
+ @webmethod(route="/prompts/{prompt_id}", method="DELETE")
167
+ async def delete_prompt(
168
+ self,
169
+ prompt_id: str,
170
+ ) -> None:
171
+ """Delete a prompt.
172
+
173
+ :param prompt_id: The identifier of the prompt to delete.
174
+ """
175
+ ...
176
+
177
+ @webmethod(route="/prompts/{prompt_id}/set-default-version", method="PUT")
178
+ async def set_default_version(
179
+ self,
180
+ prompt_id: str,
181
+ version: int,
182
+ ) -> Prompt:
183
+ """Set which version of a prompt should be the default in get_prompt (latest).
184
+
185
+ :param prompt_id: The identifier of the prompt.
186
+ :param version: The version to set as default.
187
+ :returns: The prompt with the specified version now set as default.
188
+ """
189
+ ...
@@ -19,6 +19,7 @@ class ResourceType(StrEnum):
19
19
  benchmark = "benchmark"
20
20
  tool = "tool"
21
21
  tool_group = "tool_group"
22
+ prompt = "prompt"
22
23
 
23
24
 
24
25
  class Resource(BaseModel):
@@ -197,3 +197,11 @@ class ScoringFunctions(Protocol):
197
197
  :param params: The parameters for the scoring function for benchmark eval, these can be overridden for app eval.
198
198
  """
199
199
  ...
200
+
201
+ @webmethod(route="/scoring-functions/{scoring_fn_id:path}", method="DELETE")
202
+ async def unregister_scoring_function(self, scoring_fn_id: str) -> None:
203
+ """Unregister a scoring function.
204
+
205
+ :param scoring_fn_id: The ID of the scoring function to unregister.
206
+ """
207
+ ...
@@ -45,6 +45,7 @@ from llama_stack.core.utils.dynamic import instantiate_class_type
45
45
  from llama_stack.core.utils.exec import formulate_run_args, run_command
46
46
  from llama_stack.core.utils.image_types import LlamaStackImageType
47
47
  from llama_stack.providers.datatypes import Api
48
+ from llama_stack.providers.utils.sqlstore.sqlstore import SqliteSqlStoreConfig
48
49
 
49
50
  DISTRIBS_PATH = Path(__file__).parent.parent.parent / "distributions"
50
51
 
@@ -294,6 +295,12 @@ def _generate_run_config(
294
295
  if build_config.external_providers_dir
295
296
  else EXTERNAL_PROVIDERS_DIR,
296
297
  )
298
+ if not run_config.inference_store:
299
+ run_config.inference_store = SqliteSqlStoreConfig(
300
+ **SqliteSqlStoreConfig.sample_run_config(
301
+ __distro_dir__=(DISTRIBS_BASE_DIR / image_name).as_posix(), db_name="inference_store.db"
302
+ )
303
+ )
297
304
  # build providers dict
298
305
  provider_registry = get_provider_registry(build_config)
299
306
  for api in apis:
@@ -48,15 +48,12 @@ def setup_verify_download_parser(parser: argparse.ArgumentParser) -> None:
48
48
  parser.set_defaults(func=partial(run_verify_cmd, parser=parser))
49
49
 
50
50
 
51
- def calculate_md5(filepath: Path, chunk_size: int = 8192) -> str:
52
- # NOTE: MD5 is used here only for download integrity verification,
53
- # not for security purposes
54
- # TODO: switch to SHA256
55
- md5_hash = hashlib.md5(usedforsecurity=False)
51
+ def calculate_sha256(filepath: Path, chunk_size: int = 8192) -> str:
52
+ sha256_hash = hashlib.sha256()
56
53
  with open(filepath, "rb") as f:
57
54
  for chunk in iter(lambda: f.read(chunk_size), b""):
58
- md5_hash.update(chunk)
59
- return md5_hash.hexdigest()
55
+ sha256_hash.update(chunk)
56
+ return sha256_hash.hexdigest()
60
57
 
61
58
 
62
59
  def load_checksums(checklist_path: Path) -> dict[str, str]:
@@ -64,10 +61,10 @@ def load_checksums(checklist_path: Path) -> dict[str, str]:
64
61
  with open(checklist_path) as f:
65
62
  for line in f:
66
63
  if line.strip():
67
- md5sum, filepath = line.strip().split(" ", 1)
64
+ sha256sum, filepath = line.strip().split(" ", 1)
68
65
  # Remove leading './' if present
69
66
  filepath = filepath.lstrip("./")
70
- checksums[filepath] = md5sum
67
+ checksums[filepath] = sha256sum
71
68
  return checksums
72
69
 
73
70
 
@@ -88,7 +85,7 @@ def verify_files(model_dir: Path, checksums: dict[str, str], console: Console) -
88
85
  matches = False
89
86
 
90
87
  if exists:
91
- actual_hash = calculate_md5(full_path)
88
+ actual_hash = calculate_sha256(full_path)
92
89
  matches = actual_hash == expected_hash
93
90
 
94
91
  results.append(
@@ -7,6 +7,7 @@
7
7
  from enum import StrEnum
8
8
  from pathlib import Path
9
9
  from typing import Annotated, Any, Literal, Self
10
+ from urllib.parse import urlparse
10
11
 
11
12
  from pydantic import BaseModel, Field, field_validator, model_validator
12
13
 
@@ -212,6 +213,7 @@ class AuthProviderType(StrEnum):
212
213
  OAUTH2_TOKEN = "oauth2_token"
213
214
  GITHUB_TOKEN = "github_token"
214
215
  CUSTOM = "custom"
216
+ KUBERNETES = "kubernetes"
215
217
 
216
218
 
217
219
  class OAuth2TokenAuthConfig(BaseModel):
@@ -282,8 +284,45 @@ class GitHubTokenAuthConfig(BaseModel):
282
284
  )
283
285
 
284
286
 
287
+ class KubernetesAuthProviderConfig(BaseModel):
288
+ """Configuration for Kubernetes authentication provider."""
289
+
290
+ type: Literal[AuthProviderType.KUBERNETES] = AuthProviderType.KUBERNETES
291
+ api_server_url: str = Field(
292
+ default="https://kubernetes.default.svc",
293
+ description="Kubernetes API server URL (e.g., https://api.cluster.domain:6443)",
294
+ )
295
+ verify_tls: bool = Field(default=True, description="Whether to verify TLS certificates")
296
+ tls_cafile: Path | None = Field(default=None, description="Path to CA certificate file for TLS verification")
297
+ claims_mapping: dict[str, str] = Field(
298
+ default_factory=lambda: {
299
+ "username": "roles",
300
+ "groups": "roles",
301
+ },
302
+ description="Mapping of Kubernetes user claims to access attributes",
303
+ )
304
+
305
+ @field_validator("api_server_url")
306
+ @classmethod
307
+ def validate_api_server_url(cls, v):
308
+ parsed = urlparse(v)
309
+ if not parsed.scheme or not parsed.netloc:
310
+ raise ValueError(f"api_server_url must be a valid URL with scheme and host: {v}")
311
+ if parsed.scheme not in ["http", "https"]:
312
+ raise ValueError(f"api_server_url scheme must be http or https: {v}")
313
+ return v
314
+
315
+ @field_validator("claims_mapping")
316
+ @classmethod
317
+ def validate_claims_mapping(cls, v):
318
+ for key, value in v.items():
319
+ if not value:
320
+ raise ValueError(f"claims_mapping value cannot be empty: {key}")
321
+ return v
322
+
323
+
285
324
  AuthProviderConfig = Annotated[
286
- OAuth2TokenAuthConfig | GitHubTokenAuthConfig | CustomAuthConfig,
325
+ OAuth2TokenAuthConfig | GitHubTokenAuthConfig | CustomAuthConfig | KubernetesAuthProviderConfig,
287
326
  Field(discriminator="type"),
288
327
  ]
289
328
 
@@ -392,6 +431,12 @@ class ServerConfig(BaseModel):
392
431
  )
393
432
 
394
433
 
434
+ class InferenceStoreConfig(BaseModel):
435
+ sql_store_config: SqlStoreConfig
436
+ max_write_queue_size: int = Field(default=10000, description="Max queued writes for inference store")
437
+ num_writers: int = Field(default=4, description="Number of concurrent background writers")
438
+
439
+
395
440
  class StackRunConfig(BaseModel):
396
441
  version: int = LLAMA_STACK_RUN_CONFIG_VERSION
397
442
 
@@ -425,11 +470,12 @@ Configuration for the persistence store used by the distribution registry. If no
425
470
  a default SQLite store will be used.""",
426
471
  )
427
472
 
428
- inference_store: SqlStoreConfig | None = Field(
473
+ inference_store: InferenceStoreConfig | SqlStoreConfig | None = Field(
429
474
  default=None,
430
475
  description="""
431
- Configuration for the persistence store used by the inference API. If not specified,
432
- a default SQLite store will be used.""",
476
+ Configuration for the persistence store used by the inference API. Can be either a
477
+ InferenceStoreConfig (with queue tuning parameters) or a SqlStoreConfig (deprecated).
478
+ If not specified, a default SQLite store will be used.""",
433
479
  )
434
480
 
435
481
  # registry of "resources" in the distribution
@@ -10,7 +10,6 @@ import json
10
10
  import logging # allow-direct-logging
11
11
  import os
12
12
  import sys
13
- from concurrent.futures import ThreadPoolExecutor
14
13
  from enum import Enum
15
14
  from io import BytesIO
16
15
  from pathlib import Path
@@ -148,7 +147,6 @@ class LlamaStackAsLibraryClient(LlamaStackClient):
148
147
  self.async_client = AsyncLlamaStackAsLibraryClient(
149
148
  config_path_or_distro_name, custom_provider_registry, provider_data, skip_logger_removal
150
149
  )
151
- self.pool_executor = ThreadPoolExecutor(max_workers=4)
152
150
  self.provider_data = provider_data
153
151
 
154
152
  self.loop = asyncio.new_event_loop()