llama-stack 0.2.21__tar.gz → 0.2.22__tar.gz

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (660) hide show
  1. {llama_stack-0.2.21/llama_stack.egg-info → llama_stack-0.2.22}/PKG-INFO +5 -5
  2. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/benchmarks/benchmarks.py +8 -0
  3. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/scoring_functions/scoring_functions.py +8 -0
  4. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/cli/stack/_build.py +7 -0
  5. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/cli/verify_download.py +7 -10
  6. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/datatypes.py +10 -3
  7. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/library_client.py +0 -2
  8. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/routers/__init__.py +4 -1
  9. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/routers/inference.py +12 -7
  10. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/routing_tables/benchmarks.py +4 -0
  11. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/routing_tables/common.py +4 -0
  12. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/routing_tables/scoring_functions.py +4 -0
  13. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/ci-tests/build.yaml +1 -0
  14. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/ci-tests/run.yaml +7 -0
  15. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/starter/build.yaml +1 -0
  16. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/starter/run.yaml +7 -0
  17. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/starter/starter.py +18 -0
  18. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/starter-gpu/build.yaml +1 -0
  19. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/starter-gpu/run.yaml +7 -0
  20. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/watsonx/run.yaml +9 -0
  21. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/watsonx/watsonx.py +10 -2
  22. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/eval/meta_reference/eval.py +7 -0
  23. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/llm_as_judge/scoring.py +3 -0
  24. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/tool_runtime/rag/context_retriever.py +6 -6
  25. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/tool_runtime/rag/memory.py +101 -46
  26. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/registry/batches.py +1 -1
  27. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/registry/inference.py +22 -11
  28. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/registry/scoring.py +1 -1
  29. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/eval/nvidia/eval.py +11 -2
  30. llama_stack-0.2.22/llama_stack/providers/remote/inference/azure/__init__.py +15 -0
  31. llama_stack-0.2.22/llama_stack/providers/remote/inference/azure/azure.py +64 -0
  32. llama_stack-0.2.22/llama_stack/providers/remote/inference/azure/config.py +63 -0
  33. llama_stack-0.2.22/llama_stack/providers/remote/inference/azure/models.py +28 -0
  34. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/bedrock/bedrock.py +49 -2
  35. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/tgi/tgi.py +43 -15
  36. llama_stack-0.2.22/llama_stack/providers/remote/inference/together/models.py +103 -0
  37. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/together/together.py +79 -130
  38. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/vertexai/vertexai.py +29 -4
  39. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/vllm/vllm.py +11 -186
  40. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/watsonx/config.py +2 -2
  41. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/watsonx/watsonx.py +18 -2
  42. llama_stack-0.2.22/llama_stack/providers/utils/inference/inference_store.py +246 -0
  43. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/inference/openai_mixin.py +53 -8
  44. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/sqlstore/authorized_sqlstore.py +14 -0
  45. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/telemetry/tracing.py +24 -10
  46. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/vector_io/vector_utils.py +2 -4
  47. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/testing/inference_recorder.py +43 -32
  48. {llama_stack-0.2.21 → llama_stack-0.2.22/llama_stack.egg-info}/PKG-INFO +5 -5
  49. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack.egg-info/SOURCES.txt +4 -0
  50. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack.egg-info/requires.txt +4 -4
  51. {llama_stack-0.2.21 → llama_stack-0.2.22}/pyproject.toml +7 -8
  52. llama_stack-0.2.21/llama_stack/providers/remote/inference/together/models.py +0 -77
  53. llama_stack-0.2.21/llama_stack/providers/utils/inference/inference_store.py +0 -136
  54. {llama_stack-0.2.21 → llama_stack-0.2.22}/LICENSE +0 -0
  55. {llama_stack-0.2.21 → llama_stack-0.2.22}/MANIFEST.in +0 -0
  56. {llama_stack-0.2.21 → llama_stack-0.2.22}/README.md +0 -0
  57. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/__init__.py +0 -0
  58. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/__init__.py +0 -0
  59. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/agents/__init__.py +0 -0
  60. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/agents/agents.py +0 -0
  61. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/agents/openai_responses.py +0 -0
  62. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/batch_inference/__init__.py +0 -0
  63. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/batch_inference/batch_inference.py +0 -0
  64. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/batches/__init__.py +0 -0
  65. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/batches/batches.py +0 -0
  66. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/benchmarks/__init__.py +0 -0
  67. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/common/__init__.py +0 -0
  68. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/common/content_types.py +0 -0
  69. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/common/errors.py +0 -0
  70. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/common/job_types.py +0 -0
  71. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/common/responses.py +0 -0
  72. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/common/training_types.py +0 -0
  73. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/common/type_system.py +0 -0
  74. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/datasetio/__init__.py +0 -0
  75. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/datasetio/datasetio.py +0 -0
  76. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/datasets/__init__.py +0 -0
  77. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/datasets/datasets.py +0 -0
  78. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/datatypes.py +0 -0
  79. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/eval/__init__.py +0 -0
  80. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/eval/eval.py +0 -0
  81. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/files/__init__.py +0 -0
  82. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/files/files.py +0 -0
  83. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/inference/__init__.py +0 -0
  84. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/inference/event_logger.py +0 -0
  85. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/inference/inference.py +0 -0
  86. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/inspect/__init__.py +0 -0
  87. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/inspect/inspect.py +0 -0
  88. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/models/__init__.py +0 -0
  89. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/models/models.py +0 -0
  90. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/post_training/__init__.py +0 -0
  91. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/post_training/post_training.py +0 -0
  92. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/prompts/__init__.py +0 -0
  93. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/prompts/prompts.py +0 -0
  94. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/providers/__init__.py +0 -0
  95. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/providers/providers.py +0 -0
  96. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/resource.py +0 -0
  97. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/safety/__init__.py +0 -0
  98. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/safety/safety.py +0 -0
  99. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/scoring/__init__.py +0 -0
  100. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/scoring/scoring.py +0 -0
  101. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/scoring_functions/__init__.py +0 -0
  102. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/shields/__init__.py +0 -0
  103. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/shields/shields.py +0 -0
  104. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/synthetic_data_generation/__init__.py +0 -0
  105. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/synthetic_data_generation/synthetic_data_generation.py +0 -0
  106. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/telemetry/__init__.py +0 -0
  107. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/telemetry/telemetry.py +0 -0
  108. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/tools/__init__.py +0 -0
  109. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/tools/rag_tool.py +0 -0
  110. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/tools/tools.py +0 -0
  111. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/vector_dbs/__init__.py +0 -0
  112. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/vector_dbs/vector_dbs.py +0 -0
  113. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/vector_io/__init__.py +0 -0
  114. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/vector_io/vector_io.py +0 -0
  115. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/apis/version.py +0 -0
  116. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/cli/__init__.py +0 -0
  117. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/cli/download.py +0 -0
  118. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/cli/llama.py +0 -0
  119. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/cli/model/__init__.py +0 -0
  120. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/cli/model/describe.py +0 -0
  121. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/cli/model/download.py +0 -0
  122. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/cli/model/list.py +0 -0
  123. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/cli/model/model.py +0 -0
  124. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/cli/model/prompt_format.py +0 -0
  125. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/cli/model/remove.py +0 -0
  126. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/cli/model/safety_models.py +0 -0
  127. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/cli/model/verify_download.py +0 -0
  128. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/cli/scripts/__init__.py +0 -0
  129. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/cli/scripts/install-wheel-from-presigned.sh +0 -0
  130. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/cli/scripts/run.py +0 -0
  131. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/cli/stack/__init__.py +0 -0
  132. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/cli/stack/build.py +0 -0
  133. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/cli/stack/list_apis.py +0 -0
  134. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/cli/stack/list_providers.py +0 -0
  135. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/cli/stack/list_stacks.py +0 -0
  136. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/cli/stack/remove.py +0 -0
  137. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/cli/stack/run.py +0 -0
  138. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/cli/stack/stack.py +0 -0
  139. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/cli/stack/utils.py +0 -0
  140. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/cli/subcommand.py +0 -0
  141. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/cli/table.py +0 -0
  142. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/cli/utils.py +0 -0
  143. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/__init__.py +0 -0
  144. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/access_control/__init__.py +0 -0
  145. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/access_control/access_control.py +0 -0
  146. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/access_control/conditions.py +0 -0
  147. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/access_control/datatypes.py +0 -0
  148. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/build.py +0 -0
  149. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/build_container.sh +0 -0
  150. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/build_venv.sh +0 -0
  151. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/client.py +0 -0
  152. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/common.sh +0 -0
  153. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/configure.py +0 -0
  154. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/distribution.py +0 -0
  155. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/external.py +0 -0
  156. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/inspect.py +0 -0
  157. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/prompts/__init__.py +0 -0
  158. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/prompts/prompts.py +0 -0
  159. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/providers.py +0 -0
  160. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/request_headers.py +0 -0
  161. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/resolver.py +0 -0
  162. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/routers/datasets.py +0 -0
  163. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/routers/eval_scoring.py +0 -0
  164. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/routers/safety.py +0 -0
  165. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/routers/tool_runtime.py +0 -0
  166. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/routers/vector_io.py +0 -0
  167. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/routing_tables/__init__.py +0 -0
  168. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/routing_tables/datasets.py +0 -0
  169. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/routing_tables/models.py +0 -0
  170. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/routing_tables/shields.py +0 -0
  171. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/routing_tables/toolgroups.py +0 -0
  172. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/routing_tables/vector_dbs.py +0 -0
  173. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/server/__init__.py +0 -0
  174. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/server/auth.py +0 -0
  175. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/server/auth_providers.py +0 -0
  176. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/server/quota.py +0 -0
  177. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/server/routes.py +0 -0
  178. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/server/server.py +0 -0
  179. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/stack.py +0 -0
  180. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/start_stack.sh +0 -0
  181. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/store/__init__.py +0 -0
  182. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/store/registry.py +0 -0
  183. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/ui/__init__.py +0 -0
  184. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/ui/app.py +0 -0
  185. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/ui/modules/__init__.py +0 -0
  186. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/ui/modules/api.py +0 -0
  187. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/ui/modules/utils.py +0 -0
  188. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/ui/page/__init__.py +0 -0
  189. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/ui/page/distribution/__init__.py +0 -0
  190. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/ui/page/distribution/datasets.py +0 -0
  191. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/ui/page/distribution/eval_tasks.py +0 -0
  192. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/ui/page/distribution/models.py +0 -0
  193. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/ui/page/distribution/providers.py +0 -0
  194. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/ui/page/distribution/resources.py +0 -0
  195. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/ui/page/distribution/scoring_functions.py +0 -0
  196. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/ui/page/distribution/shields.py +0 -0
  197. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/ui/page/distribution/vector_dbs.py +0 -0
  198. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/ui/page/evaluations/__init__.py +0 -0
  199. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/ui/page/evaluations/app_eval.py +0 -0
  200. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/ui/page/evaluations/native_eval.py +0 -0
  201. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/ui/page/playground/__init__.py +0 -0
  202. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/ui/page/playground/chat.py +0 -0
  203. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/ui/page/playground/rag.py +0 -0
  204. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/ui/page/playground/tools.py +0 -0
  205. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/utils/__init__.py +0 -0
  206. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/utils/config.py +0 -0
  207. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/utils/config_dirs.py +0 -0
  208. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/utils/config_resolution.py +0 -0
  209. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/utils/context.py +0 -0
  210. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/utils/dynamic.py +0 -0
  211. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/utils/exec.py +0 -0
  212. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/utils/image_types.py +0 -0
  213. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/utils/model_utils.py +0 -0
  214. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/utils/prompt_for_config.py +0 -0
  215. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/core/utils/serialize.py +0 -0
  216. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/__init__.py +0 -0
  217. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/ci-tests/__init__.py +0 -0
  218. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/ci-tests/ci_tests.py +0 -0
  219. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/dell/__init__.py +0 -0
  220. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/dell/build.yaml +0 -0
  221. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/dell/dell.py +0 -0
  222. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/dell/run-with-safety.yaml +0 -0
  223. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/dell/run.yaml +0 -0
  224. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/meta-reference-gpu/__init__.py +0 -0
  225. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/meta-reference-gpu/build.yaml +0 -0
  226. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/meta-reference-gpu/meta_reference.py +0 -0
  227. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/meta-reference-gpu/run-with-safety.yaml +0 -0
  228. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/meta-reference-gpu/run.yaml +0 -0
  229. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/nvidia/__init__.py +0 -0
  230. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/nvidia/build.yaml +0 -0
  231. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/nvidia/nvidia.py +0 -0
  232. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/nvidia/run-with-safety.yaml +0 -0
  233. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/nvidia/run.yaml +0 -0
  234. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/open-benchmark/__init__.py +0 -0
  235. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/open-benchmark/build.yaml +0 -0
  236. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/open-benchmark/open_benchmark.py +0 -0
  237. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/open-benchmark/run.yaml +0 -0
  238. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/postgres-demo/__init__.py +0 -0
  239. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/postgres-demo/build.yaml +0 -0
  240. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/postgres-demo/postgres_demo.py +0 -0
  241. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/postgres-demo/run.yaml +0 -0
  242. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/starter/__init__.py +0 -0
  243. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/starter-gpu/__init__.py +0 -0
  244. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/starter-gpu/starter_gpu.py +0 -0
  245. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/template.py +0 -0
  246. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/watsonx/__init__.py +0 -0
  247. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/distributions/watsonx/build.yaml +0 -0
  248. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/env.py +0 -0
  249. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/log.py +0 -0
  250. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/__init__.py +0 -0
  251. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/__init__.py +0 -0
  252. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/checkpoint.py +0 -0
  253. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/datatypes.py +0 -0
  254. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/hadamard_utils.py +0 -0
  255. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/__init__.py +0 -0
  256. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/args.py +0 -0
  257. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/chat_format.py +0 -0
  258. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/generation.py +0 -0
  259. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/interface.py +0 -0
  260. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/model.py +0 -0
  261. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/multimodal/__init__.py +0 -0
  262. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/multimodal/encoder_utils.py +0 -0
  263. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/multimodal/image_transform.py +0 -0
  264. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/multimodal/model.py +0 -0
  265. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/multimodal/utils.py +0 -0
  266. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/prompt_templates/__init__.py +0 -0
  267. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/prompt_templates/base.py +0 -0
  268. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/prompt_templates/system_prompts.py +0 -0
  269. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/prompt_templates/tool_response.py +0 -0
  270. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/quantization/__init__.py +0 -0
  271. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/quantization/loader.py +0 -0
  272. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/template_data.py +0 -0
  273. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/tokenizer.model +0 -0
  274. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/tokenizer.py +0 -0
  275. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama3/tool_utils.py +0 -0
  276. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama3_1/__init__.py +0 -0
  277. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama3_1/prompt_format.md +0 -0
  278. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama3_1/prompts.py +0 -0
  279. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama3_2/__init__.py +0 -0
  280. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama3_2/prompts_text.py +0 -0
  281. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama3_2/prompts_vision.py +0 -0
  282. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama3_2/text_prompt_format.md +0 -0
  283. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama3_2/vision_prompt_format.md +0 -0
  284. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama3_3/__init__.py +0 -0
  285. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama3_3/prompts.py +0 -0
  286. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/__init__.py +0 -0
  287. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/args.py +0 -0
  288. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/chat_format.py +0 -0
  289. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/datatypes.py +0 -0
  290. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/ffn.py +0 -0
  291. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/generation.py +0 -0
  292. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/model.py +0 -0
  293. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/moe.py +0 -0
  294. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/preprocess.py +0 -0
  295. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/prompt_format.md +0 -0
  296. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/prompt_templates/__init__.py +0 -0
  297. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/prompt_templates/system_prompts.py +0 -0
  298. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/prompts.py +0 -0
  299. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/quantization/__init__.py +0 -0
  300. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/quantization/loader.py +0 -0
  301. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/tokenizer.model +0 -0
  302. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/tokenizer.py +0 -0
  303. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/vision/__init__.py +0 -0
  304. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/vision/embedding.py +0 -0
  305. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/llama4/vision/encoder.py +0 -0
  306. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/prompt_format.py +0 -0
  307. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/quantize_impls.py +0 -0
  308. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/sku_list.py +0 -0
  309. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/sku_types.py +0 -0
  310. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/models/llama/tokenizer_utils.py +0 -0
  311. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/__init__.py +0 -0
  312. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/datatypes.py +0 -0
  313. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/__init__.py +0 -0
  314. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/__init__.py +0 -0
  315. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/__init__.py +0 -0
  316. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/agent_instance.py +0 -0
  317. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/agents.py +0 -0
  318. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/config.py +0 -0
  319. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/persistence.py +0 -0
  320. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/responses/__init__.py +0 -0
  321. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/responses/openai_responses.py +0 -0
  322. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/responses/streaming.py +0 -0
  323. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/responses/tool_executor.py +0 -0
  324. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/responses/types.py +0 -0
  325. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/responses/utils.py +0 -0
  326. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/agents/meta_reference/safety.py +0 -0
  327. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/batches/__init__.py +0 -0
  328. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/batches/reference/__init__.py +0 -0
  329. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/batches/reference/batches.py +0 -0
  330. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/batches/reference/config.py +0 -0
  331. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/datasetio/__init__.py +0 -0
  332. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/datasetio/localfs/__init__.py +0 -0
  333. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/datasetio/localfs/config.py +0 -0
  334. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/datasetio/localfs/datasetio.py +0 -0
  335. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/eval/__init__.py +0 -0
  336. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/eval/meta_reference/__init__.py +0 -0
  337. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/eval/meta_reference/config.py +0 -0
  338. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/files/localfs/__init__.py +0 -0
  339. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/files/localfs/config.py +0 -0
  340. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/files/localfs/files.py +0 -0
  341. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/inference/__init__.py +0 -0
  342. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/inference/meta_reference/__init__.py +0 -0
  343. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/inference/meta_reference/common.py +0 -0
  344. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/inference/meta_reference/config.py +0 -0
  345. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/inference/meta_reference/generators.py +0 -0
  346. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/inference/meta_reference/inference.py +0 -0
  347. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/inference/meta_reference/model_parallel.py +0 -0
  348. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/inference/meta_reference/parallel_utils.py +0 -0
  349. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/inference/sentence_transformers/__init__.py +0 -0
  350. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/inference/sentence_transformers/config.py +0 -0
  351. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/inference/sentence_transformers/sentence_transformers.py +0 -0
  352. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/__init__.py +0 -0
  353. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/common/__init__.py +0 -0
  354. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/common/utils.py +0 -0
  355. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/common/validator.py +0 -0
  356. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/huggingface/__init__.py +0 -0
  357. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/huggingface/config.py +0 -0
  358. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/huggingface/post_training.py +0 -0
  359. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/huggingface/recipes/__init__.py +0 -0
  360. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/huggingface/recipes/finetune_single_device.py +0 -0
  361. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/huggingface/recipes/finetune_single_device_dpo.py +0 -0
  362. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/huggingface/utils.py +0 -0
  363. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/torchtune/__init__.py +0 -0
  364. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/torchtune/common/__init__.py +0 -0
  365. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/torchtune/common/checkpointer.py +0 -0
  366. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/torchtune/common/utils.py +0 -0
  367. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/torchtune/config.py +0 -0
  368. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/torchtune/datasets/__init__.py +0 -0
  369. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/torchtune/datasets/format_adapter.py +0 -0
  370. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/torchtune/datasets/sft.py +0 -0
  371. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/torchtune/post_training.py +0 -0
  372. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/torchtune/recipes/__init__.py +0 -0
  373. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/post_training/torchtune/recipes/lora_finetuning_single_device.py +0 -0
  374. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/safety/__init__.py +0 -0
  375. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/safety/code_scanner/__init__.py +0 -0
  376. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/safety/code_scanner/code_scanner.py +0 -0
  377. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/safety/code_scanner/config.py +0 -0
  378. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/safety/llama_guard/__init__.py +0 -0
  379. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/safety/llama_guard/config.py +0 -0
  380. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/safety/llama_guard/llama_guard.py +0 -0
  381. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/safety/prompt_guard/__init__.py +0 -0
  382. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/safety/prompt_guard/config.py +0 -0
  383. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/safety/prompt_guard/prompt_guard.py +0 -0
  384. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/__init__.py +0 -0
  385. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/__init__.py +0 -0
  386. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/config.py +0 -0
  387. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring.py +0 -0
  388. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/__init__.py +0 -0
  389. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/docvqa_scoring_fn.py +0 -0
  390. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/equality_scoring_fn.py +0 -0
  391. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/__init__.py +0 -0
  392. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/docvqa.py +0 -0
  393. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/equality.py +0 -0
  394. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/ifeval.py +0 -0
  395. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/regex_parser_math_response.py +0 -0
  396. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/regex_parser_multiple_choice_answer.py +0 -0
  397. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/subset_of.py +0 -0
  398. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/ifeval_scoring_fn.py +0 -0
  399. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/regex_parser_math_response_scoring_fn.py +0 -0
  400. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/regex_parser_scoring_fn.py +0 -0
  401. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/scoring_fn/subset_of_scoring_fn.py +0 -0
  402. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/utils/__init__.py +0 -0
  403. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/utils/ifeval_utils.py +0 -0
  404. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/basic/utils/math_utils.py +0 -0
  405. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/__init__.py +0 -0
  406. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/braintrust.py +0 -0
  407. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/config.py +0 -0
  408. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/__init__.py +0 -0
  409. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/__init__.py +0 -0
  410. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/answer_correctness.py +0 -0
  411. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/answer_relevancy.py +0 -0
  412. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/answer_similarity.py +0 -0
  413. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_entity_recall.py +0 -0
  414. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_precision.py +0 -0
  415. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_recall.py +0 -0
  416. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_relevancy.py +0 -0
  417. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/factuality.py +0 -0
  418. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/faithfulness.py +0 -0
  419. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/llm_as_judge/__init__.py +0 -0
  420. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/llm_as_judge/config.py +0 -0
  421. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/__init__.py +0 -0
  422. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs/__init__.py +0 -0
  423. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs/llm_as_judge_405b_simpleqa.py +0 -0
  424. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs/llm_as_judge_base.py +0 -0
  425. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/llm_as_judge_scoring_fn.py +0 -0
  426. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/telemetry/__init__.py +0 -0
  427. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/telemetry/meta_reference/__init__.py +0 -0
  428. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/telemetry/meta_reference/config.py +0 -0
  429. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/telemetry/meta_reference/console_span_processor.py +0 -0
  430. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/telemetry/meta_reference/sqlite_span_processor.py +0 -0
  431. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/telemetry/meta_reference/telemetry.py +0 -0
  432. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/tool_runtime/__init__.py +0 -0
  433. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/tool_runtime/rag/__init__.py +0 -0
  434. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/tool_runtime/rag/config.py +0 -0
  435. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/__init__.py +0 -0
  436. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/chroma/__init__.py +0 -0
  437. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/chroma/config.py +0 -0
  438. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/faiss/__init__.py +0 -0
  439. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/faiss/config.py +0 -0
  440. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/faiss/faiss.py +0 -0
  441. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/milvus/__init__.py +0 -0
  442. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/milvus/config.py +0 -0
  443. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/qdrant/__init__.py +0 -0
  444. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/qdrant/config.py +0 -0
  445. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/sqlite_vec/__init__.py +0 -0
  446. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/sqlite_vec/config.py +0 -0
  447. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/inline/vector_io/sqlite_vec/sqlite_vec.py +0 -0
  448. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/registry/__init__.py +0 -0
  449. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/registry/agents.py +0 -0
  450. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/registry/datasetio.py +0 -0
  451. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/registry/eval.py +0 -0
  452. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/registry/files.py +0 -0
  453. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/registry/post_training.py +0 -0
  454. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/registry/safety.py +0 -0
  455. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/registry/telemetry.py +0 -0
  456. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/registry/tool_runtime.py +0 -0
  457. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/registry/vector_io.py +0 -0
  458. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/__init__.py +0 -0
  459. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/agents/__init__.py +0 -0
  460. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/datasetio/__init__.py +0 -0
  461. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/datasetio/huggingface/__init__.py +0 -0
  462. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/datasetio/huggingface/config.py +0 -0
  463. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/datasetio/huggingface/huggingface.py +0 -0
  464. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/datasetio/nvidia/__init__.py +0 -0
  465. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/datasetio/nvidia/config.py +0 -0
  466. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/datasetio/nvidia/datasetio.py +0 -0
  467. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/eval/__init__.py +0 -0
  468. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/eval/nvidia/__init__.py +0 -0
  469. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/eval/nvidia/config.py +0 -0
  470. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/files/s3/__init__.py +0 -0
  471. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/files/s3/config.py +0 -0
  472. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/files/s3/files.py +0 -0
  473. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/__init__.py +0 -0
  474. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/anthropic/__init__.py +0 -0
  475. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/anthropic/anthropic.py +0 -0
  476. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/anthropic/config.py +0 -0
  477. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/anthropic/models.py +0 -0
  478. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/bedrock/__init__.py +0 -0
  479. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/bedrock/config.py +0 -0
  480. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/bedrock/models.py +0 -0
  481. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/cerebras/__init__.py +0 -0
  482. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/cerebras/cerebras.py +0 -0
  483. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/cerebras/config.py +0 -0
  484. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/cerebras/models.py +0 -0
  485. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/databricks/__init__.py +0 -0
  486. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/databricks/config.py +0 -0
  487. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/databricks/databricks.py +0 -0
  488. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/fireworks/__init__.py +0 -0
  489. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/fireworks/config.py +0 -0
  490. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/fireworks/fireworks.py +0 -0
  491. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/fireworks/models.py +0 -0
  492. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/gemini/__init__.py +0 -0
  493. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/gemini/config.py +0 -0
  494. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/gemini/gemini.py +0 -0
  495. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/gemini/models.py +0 -0
  496. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/groq/__init__.py +0 -0
  497. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/groq/config.py +0 -0
  498. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/groq/groq.py +0 -0
  499. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/groq/models.py +0 -0
  500. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/llama_openai_compat/__init__.py +0 -0
  501. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/llama_openai_compat/config.py +0 -0
  502. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/llama_openai_compat/llama.py +0 -0
  503. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/llama_openai_compat/models.py +0 -0
  504. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/nvidia/__init__.py +0 -0
  505. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/nvidia/config.py +0 -0
  506. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/nvidia/models.py +0 -0
  507. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/nvidia/nvidia.py +0 -0
  508. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/nvidia/openai_utils.py +0 -0
  509. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/nvidia/utils.py +0 -0
  510. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/ollama/__init__.py +0 -0
  511. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/ollama/config.py +0 -0
  512. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/ollama/models.py +0 -0
  513. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/ollama/ollama.py +0 -0
  514. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/openai/__init__.py +0 -0
  515. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/openai/config.py +0 -0
  516. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/openai/models.py +0 -0
  517. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/openai/openai.py +0 -0
  518. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/passthrough/__init__.py +0 -0
  519. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/passthrough/config.py +0 -0
  520. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/passthrough/passthrough.py +0 -0
  521. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/runpod/__init__.py +0 -0
  522. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/runpod/config.py +0 -0
  523. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/runpod/runpod.py +0 -0
  524. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/sambanova/__init__.py +0 -0
  525. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/sambanova/config.py +0 -0
  526. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/sambanova/models.py +0 -0
  527. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/sambanova/sambanova.py +0 -0
  528. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/tgi/__init__.py +0 -0
  529. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/tgi/config.py +0 -0
  530. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/together/__init__.py +0 -0
  531. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/together/config.py +0 -0
  532. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/vertexai/__init__.py +0 -0
  533. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/vertexai/config.py +0 -0
  534. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/vertexai/models.py +0 -0
  535. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/vllm/__init__.py +0 -0
  536. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/vllm/config.py +0 -0
  537. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/watsonx/__init__.py +0 -0
  538. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/inference/watsonx/models.py +0 -0
  539. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/post_training/__init__.py +0 -0
  540. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/post_training/nvidia/__init__.py +0 -0
  541. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/post_training/nvidia/config.py +0 -0
  542. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/post_training/nvidia/models.py +0 -0
  543. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/post_training/nvidia/post_training.py +0 -0
  544. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/post_training/nvidia/utils.py +0 -0
  545. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/safety/__init__.py +0 -0
  546. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/safety/bedrock/__init__.py +0 -0
  547. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/safety/bedrock/bedrock.py +0 -0
  548. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/safety/bedrock/config.py +0 -0
  549. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/safety/nvidia/__init__.py +0 -0
  550. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/safety/nvidia/config.py +0 -0
  551. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/safety/nvidia/nvidia.py +0 -0
  552. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/safety/sambanova/__init__.py +0 -0
  553. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/safety/sambanova/config.py +0 -0
  554. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/safety/sambanova/sambanova.py +0 -0
  555. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/__init__.py +0 -0
  556. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/bing_search/__init__.py +0 -0
  557. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/bing_search/bing_search.py +0 -0
  558. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/bing_search/config.py +0 -0
  559. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/brave_search/__init__.py +0 -0
  560. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/brave_search/brave_search.py +0 -0
  561. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/brave_search/config.py +0 -0
  562. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/model_context_protocol/__init__.py +0 -0
  563. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/model_context_protocol/config.py +0 -0
  564. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/model_context_protocol/model_context_protocol.py +0 -0
  565. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/tavily_search/__init__.py +0 -0
  566. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/tavily_search/config.py +0 -0
  567. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/tavily_search/tavily_search.py +0 -0
  568. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/wolfram_alpha/__init__.py +0 -0
  569. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/wolfram_alpha/config.py +0 -0
  570. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/tool_runtime/wolfram_alpha/wolfram_alpha.py +0 -0
  571. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/__init__.py +0 -0
  572. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/chroma/__init__.py +0 -0
  573. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/chroma/chroma.py +0 -0
  574. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/chroma/config.py +0 -0
  575. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/milvus/__init__.py +0 -0
  576. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/milvus/config.py +0 -0
  577. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/milvus/milvus.py +0 -0
  578. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/pgvector/__init__.py +0 -0
  579. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/pgvector/config.py +0 -0
  580. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/pgvector/pgvector.py +0 -0
  581. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/qdrant/__init__.py +0 -0
  582. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/qdrant/config.py +0 -0
  583. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/qdrant/qdrant.py +0 -0
  584. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/weaviate/__init__.py +0 -0
  585. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/weaviate/config.py +0 -0
  586. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/remote/vector_io/weaviate/weaviate.py +0 -0
  587. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/__init__.py +0 -0
  588. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/bedrock/__init__.py +0 -0
  589. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/bedrock/client.py +0 -0
  590. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/bedrock/config.py +0 -0
  591. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/bedrock/refreshable_boto_session.py +0 -0
  592. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/common/__init__.py +0 -0
  593. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/common/data_schema_validator.py +0 -0
  594. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/datasetio/__init__.py +0 -0
  595. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/datasetio/url_utils.py +0 -0
  596. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/inference/__init__.py +0 -0
  597. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/inference/embedding_mixin.py +0 -0
  598. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/inference/litellm_openai_mixin.py +0 -0
  599. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/inference/model_registry.py +0 -0
  600. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/inference/openai_compat.py +0 -0
  601. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/inference/prompt_adapter.py +0 -0
  602. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/__init__.py +0 -0
  603. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/api.py +0 -0
  604. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/config.py +0 -0
  605. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/kvstore.py +0 -0
  606. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/mongodb/__init__.py +0 -0
  607. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/mongodb/mongodb.py +0 -0
  608. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/postgres/__init__.py +0 -0
  609. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/postgres/postgres.py +0 -0
  610. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/redis/__init__.py +0 -0
  611. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/redis/redis.py +0 -0
  612. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/sqlite/__init__.py +0 -0
  613. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/sqlite/config.py +0 -0
  614. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/kvstore/sqlite/sqlite.py +0 -0
  615. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/memory/__init__.py +0 -0
  616. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/memory/file_utils.py +0 -0
  617. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/memory/openai_vector_store_mixin.py +0 -0
  618. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/memory/vector_store.py +0 -0
  619. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/pagination.py +0 -0
  620. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/responses/__init__.py +0 -0
  621. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/responses/responses_store.py +0 -0
  622. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/scheduler.py +0 -0
  623. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/scoring/__init__.py +0 -0
  624. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/scoring/aggregation_utils.py +0 -0
  625. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/scoring/base_scoring_fn.py +0 -0
  626. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/scoring/basic_scoring_utils.py +0 -0
  627. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/sqlstore/__init__.py +0 -0
  628. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/sqlstore/api.py +0 -0
  629. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/sqlstore/sqlalchemy_sqlstore.py +0 -0
  630. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/sqlstore/sqlstore.py +0 -0
  631. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/telemetry/__init__.py +0 -0
  632. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/telemetry/dataset_mixin.py +0 -0
  633. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/telemetry/sqlite_trace_store.py +0 -0
  634. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/telemetry/trace_protocol.py +0 -0
  635. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/tools/__init__.py +0 -0
  636. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/tools/mcp.py +0 -0
  637. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/tools/ttl_dict.py +0 -0
  638. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/providers/utils/vector_io/__init__.py +0 -0
  639. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/schema_utils.py +0 -0
  640. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/strong_typing/__init__.py +0 -0
  641. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/strong_typing/auxiliary.py +0 -0
  642. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/strong_typing/classdef.py +0 -0
  643. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/strong_typing/core.py +0 -0
  644. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/strong_typing/deserializer.py +0 -0
  645. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/strong_typing/docstring.py +0 -0
  646. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/strong_typing/exception.py +0 -0
  647. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/strong_typing/inspection.py +0 -0
  648. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/strong_typing/mapping.py +0 -0
  649. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/strong_typing/name.py +0 -0
  650. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/strong_typing/py.typed +0 -0
  651. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/strong_typing/schema.py +0 -0
  652. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/strong_typing/serialization.py +0 -0
  653. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/strong_typing/serializer.py +0 -0
  654. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/strong_typing/slots.py +0 -0
  655. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/strong_typing/topological.py +0 -0
  656. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack/testing/__init__.py +0 -0
  657. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack.egg-info/dependency_links.txt +0 -0
  658. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack.egg-info/entry_points.txt +0 -0
  659. {llama_stack-0.2.21 → llama_stack-0.2.22}/llama_stack.egg-info/top_level.txt +0 -0
  660. {llama_stack-0.2.21 → llama_stack-0.2.22}/setup.cfg +0 -0
@@ -1,6 +1,6 @@
1
1
  Metadata-Version: 2.4
2
2
  Name: llama_stack
3
- Version: 0.2.21
3
+ Version: 0.2.22
4
4
  Summary: Llama Stack
5
5
  Author-email: Meta Llama <llama-oss@meta.com>
6
6
  License: MIT
@@ -23,12 +23,12 @@ Requires-Dist: httpx
23
23
  Requires-Dist: huggingface-hub<1.0,>=0.34.0
24
24
  Requires-Dist: jinja2>=3.1.6
25
25
  Requires-Dist: jsonschema
26
- Requires-Dist: llama-stack-client>=0.2.21
27
- Requires-Dist: openai>=1.99.6
26
+ Requires-Dist: llama-stack-client>=0.2.22
27
+ Requires-Dist: openai>=1.100.0
28
28
  Requires-Dist: prompt-toolkit
29
29
  Requires-Dist: python-dotenv
30
30
  Requires-Dist: python-jose[cryptography]
31
- Requires-Dist: pydantic>=2
31
+ Requires-Dist: pydantic>=2.11.9
32
32
  Requires-Dist: rich
33
33
  Requires-Dist: starlette
34
34
  Requires-Dist: termcolor
@@ -44,7 +44,7 @@ Requires-Dist: asyncpg
44
44
  Provides-Extra: ui
45
45
  Requires-Dist: streamlit; extra == "ui"
46
46
  Requires-Dist: pandas; extra == "ui"
47
- Requires-Dist: llama-stack-client>=0.2.21; extra == "ui"
47
+ Requires-Dist: llama-stack-client>=0.2.22; extra == "ui"
48
48
  Requires-Dist: streamlit-option-menu; extra == "ui"
49
49
  Dynamic: license-file
50
50
 
@@ -93,3 +93,11 @@ class Benchmarks(Protocol):
93
93
  :param metadata: The metadata to use for the benchmark.
94
94
  """
95
95
  ...
96
+
97
+ @webmethod(route="/eval/benchmarks/{benchmark_id}", method="DELETE")
98
+ async def unregister_benchmark(self, benchmark_id: str) -> None:
99
+ """Unregister a benchmark.
100
+
101
+ :param benchmark_id: The ID of the benchmark to unregister.
102
+ """
103
+ ...
@@ -197,3 +197,11 @@ class ScoringFunctions(Protocol):
197
197
  :param params: The parameters for the scoring function for benchmark eval, these can be overridden for app eval.
198
198
  """
199
199
  ...
200
+
201
+ @webmethod(route="/scoring-functions/{scoring_fn_id:path}", method="DELETE")
202
+ async def unregister_scoring_function(self, scoring_fn_id: str) -> None:
203
+ """Unregister a scoring function.
204
+
205
+ :param scoring_fn_id: The ID of the scoring function to unregister.
206
+ """
207
+ ...
@@ -45,6 +45,7 @@ from llama_stack.core.utils.dynamic import instantiate_class_type
45
45
  from llama_stack.core.utils.exec import formulate_run_args, run_command
46
46
  from llama_stack.core.utils.image_types import LlamaStackImageType
47
47
  from llama_stack.providers.datatypes import Api
48
+ from llama_stack.providers.utils.sqlstore.sqlstore import SqliteSqlStoreConfig
48
49
 
49
50
  DISTRIBS_PATH = Path(__file__).parent.parent.parent / "distributions"
50
51
 
@@ -294,6 +295,12 @@ def _generate_run_config(
294
295
  if build_config.external_providers_dir
295
296
  else EXTERNAL_PROVIDERS_DIR,
296
297
  )
298
+ if not run_config.inference_store:
299
+ run_config.inference_store = SqliteSqlStoreConfig(
300
+ **SqliteSqlStoreConfig.sample_run_config(
301
+ __distro_dir__=(DISTRIBS_BASE_DIR / image_name).as_posix(), db_name="inference_store.db"
302
+ )
303
+ )
297
304
  # build providers dict
298
305
  provider_registry = get_provider_registry(build_config)
299
306
  for api in apis:
@@ -48,15 +48,12 @@ def setup_verify_download_parser(parser: argparse.ArgumentParser) -> None:
48
48
  parser.set_defaults(func=partial(run_verify_cmd, parser=parser))
49
49
 
50
50
 
51
- def calculate_md5(filepath: Path, chunk_size: int = 8192) -> str:
52
- # NOTE: MD5 is used here only for download integrity verification,
53
- # not for security purposes
54
- # TODO: switch to SHA256
55
- md5_hash = hashlib.md5(usedforsecurity=False)
51
+ def calculate_sha256(filepath: Path, chunk_size: int = 8192) -> str:
52
+ sha256_hash = hashlib.sha256()
56
53
  with open(filepath, "rb") as f:
57
54
  for chunk in iter(lambda: f.read(chunk_size), b""):
58
- md5_hash.update(chunk)
59
- return md5_hash.hexdigest()
55
+ sha256_hash.update(chunk)
56
+ return sha256_hash.hexdigest()
60
57
 
61
58
 
62
59
  def load_checksums(checklist_path: Path) -> dict[str, str]:
@@ -64,10 +61,10 @@ def load_checksums(checklist_path: Path) -> dict[str, str]:
64
61
  with open(checklist_path) as f:
65
62
  for line in f:
66
63
  if line.strip():
67
- md5sum, filepath = line.strip().split(" ", 1)
64
+ sha256sum, filepath = line.strip().split(" ", 1)
68
65
  # Remove leading './' if present
69
66
  filepath = filepath.lstrip("./")
70
- checksums[filepath] = md5sum
67
+ checksums[filepath] = sha256sum
71
68
  return checksums
72
69
 
73
70
 
@@ -88,7 +85,7 @@ def verify_files(model_dir: Path, checksums: dict[str, str], console: Console) -
88
85
  matches = False
89
86
 
90
87
  if exists:
91
- actual_hash = calculate_md5(full_path)
88
+ actual_hash = calculate_sha256(full_path)
92
89
  matches = actual_hash == expected_hash
93
90
 
94
91
  results.append(
@@ -431,6 +431,12 @@ class ServerConfig(BaseModel):
431
431
  )
432
432
 
433
433
 
434
+ class InferenceStoreConfig(BaseModel):
435
+ sql_store_config: SqlStoreConfig
436
+ max_write_queue_size: int = Field(default=10000, description="Max queued writes for inference store")
437
+ num_writers: int = Field(default=4, description="Number of concurrent background writers")
438
+
439
+
434
440
  class StackRunConfig(BaseModel):
435
441
  version: int = LLAMA_STACK_RUN_CONFIG_VERSION
436
442
 
@@ -464,11 +470,12 @@ Configuration for the persistence store used by the distribution registry. If no
464
470
  a default SQLite store will be used.""",
465
471
  )
466
472
 
467
- inference_store: SqlStoreConfig | None = Field(
473
+ inference_store: InferenceStoreConfig | SqlStoreConfig | None = Field(
468
474
  default=None,
469
475
  description="""
470
- Configuration for the persistence store used by the inference API. If not specified,
471
- a default SQLite store will be used.""",
476
+ Configuration for the persistence store used by the inference API. Can be either a
477
+ InferenceStoreConfig (with queue tuning parameters) or a SqlStoreConfig (deprecated).
478
+ If not specified, a default SQLite store will be used.""",
472
479
  )
473
480
 
474
481
  # registry of "resources" in the distribution
@@ -10,7 +10,6 @@ import json
10
10
  import logging # allow-direct-logging
11
11
  import os
12
12
  import sys
13
- from concurrent.futures import ThreadPoolExecutor
14
13
  from enum import Enum
15
14
  from io import BytesIO
16
15
  from pathlib import Path
@@ -148,7 +147,6 @@ class LlamaStackAsLibraryClient(LlamaStackClient):
148
147
  self.async_client = AsyncLlamaStackAsLibraryClient(
149
148
  config_path_or_distro_name, custom_provider_registry, provider_data, skip_logger_removal
150
149
  )
151
- self.pool_executor = ThreadPoolExecutor(max_workers=4)
152
150
  self.provider_data = provider_data
153
151
 
154
152
  self.loop = asyncio.new_event_loop()
@@ -78,7 +78,10 @@ async def get_auto_router_impl(
78
78
 
79
79
  # TODO: move pass configs to routers instead
80
80
  if api == Api.inference and run_config.inference_store:
81
- inference_store = InferenceStore(run_config.inference_store, policy)
81
+ inference_store = InferenceStore(
82
+ config=run_config.inference_store,
83
+ policy=policy,
84
+ )
82
85
  await inference_store.initialize()
83
86
  api_to_dep_impl["store"] = inference_store
84
87
 
@@ -63,7 +63,7 @@ from llama_stack.models.llama.llama3.chat_format import ChatFormat
63
63
  from llama_stack.models.llama.llama3.tokenizer import Tokenizer
64
64
  from llama_stack.providers.datatypes import HealthResponse, HealthStatus, RoutingTable
65
65
  from llama_stack.providers.utils.inference.inference_store import InferenceStore
66
- from llama_stack.providers.utils.telemetry.tracing import get_current_span
66
+ from llama_stack.providers.utils.telemetry.tracing import enqueue_event, get_current_span
67
67
 
68
68
  logger = get_logger(name=__name__, category="core::routers")
69
69
 
@@ -90,6 +90,11 @@ class InferenceRouter(Inference):
90
90
 
91
91
  async def shutdown(self) -> None:
92
92
  logger.debug("InferenceRouter.shutdown")
93
+ if self.store:
94
+ try:
95
+ await self.store.shutdown()
96
+ except Exception as e:
97
+ logger.warning(f"Error during InferenceStore shutdown: {e}")
93
98
 
94
99
  async def register_model(
95
100
  self,
@@ -160,7 +165,7 @@ class InferenceRouter(Inference):
160
165
  metrics = self._construct_metrics(prompt_tokens, completion_tokens, total_tokens, model)
161
166
  if self.telemetry:
162
167
  for metric in metrics:
163
- await self.telemetry.log_event(metric)
168
+ enqueue_event(metric)
164
169
  return [MetricInResponse(metric=metric.metric, value=metric.value) for metric in metrics]
165
170
 
166
171
  async def _count_tokens(
@@ -431,7 +436,7 @@ class InferenceRouter(Inference):
431
436
  model=model_obj,
432
437
  )
433
438
  for metric in metrics:
434
- await self.telemetry.log_event(metric)
439
+ enqueue_event(metric)
435
440
 
436
441
  # these metrics will show up in the client response.
437
442
  response.metrics = (
@@ -537,7 +542,7 @@ class InferenceRouter(Inference):
537
542
  model=model_obj,
538
543
  )
539
544
  for metric in metrics:
540
- await self.telemetry.log_event(metric)
545
+ enqueue_event(metric)
541
546
  # these metrics will show up in the client response.
542
547
  response.metrics = (
543
548
  metrics if not hasattr(response, "metrics") or response.metrics is None else response.metrics + metrics
@@ -664,7 +669,7 @@ class InferenceRouter(Inference):
664
669
  "completion_tokens",
665
670
  "total_tokens",
666
671
  ]: # Only log completion and total tokens
667
- await self.telemetry.log_event(metric)
672
+ enqueue_event(metric)
668
673
 
669
674
  # Return metrics in response
670
675
  async_metrics = [
@@ -710,7 +715,7 @@ class InferenceRouter(Inference):
710
715
  )
711
716
  for metric in completion_metrics:
712
717
  if metric.metric in ["completion_tokens", "total_tokens"]: # Only log completion and total tokens
713
- await self.telemetry.log_event(metric)
718
+ enqueue_event(metric)
714
719
 
715
720
  # Return metrics in response
716
721
  return [MetricInResponse(metric=metric.metric, value=metric.value) for metric in completion_metrics]
@@ -806,7 +811,7 @@ class InferenceRouter(Inference):
806
811
  model=model,
807
812
  )
808
813
  for metric in metrics:
809
- await self.telemetry.log_event(metric)
814
+ enqueue_event(metric)
810
815
 
811
816
  yield chunk
812
817
  finally:
@@ -56,3 +56,7 @@ class BenchmarksRoutingTable(CommonRoutingTableImpl, Benchmarks):
56
56
  provider_resource_id=provider_benchmark_id,
57
57
  )
58
58
  await self.register_object(benchmark)
59
+
60
+ async def unregister_benchmark(self, benchmark_id: str) -> None:
61
+ existing_benchmark = await self.get_benchmark(benchmark_id)
62
+ await self.unregister_object(existing_benchmark)
@@ -64,6 +64,10 @@ async def unregister_object_from_provider(obj: RoutableObject, p: Any) -> None:
64
64
  return await p.unregister_shield(obj.identifier)
65
65
  elif api == Api.datasetio:
66
66
  return await p.unregister_dataset(obj.identifier)
67
+ elif api == Api.eval:
68
+ return await p.unregister_benchmark(obj.identifier)
69
+ elif api == Api.scoring:
70
+ return await p.unregister_scoring_function(obj.identifier)
67
71
  elif api == Api.tool_runtime:
68
72
  return await p.unregister_toolgroup(obj.identifier)
69
73
  else:
@@ -60,3 +60,7 @@ class ScoringFunctionsRoutingTable(CommonRoutingTableImpl, ScoringFunctions):
60
60
  )
61
61
  scoring_fn.provider_id = provider_id
62
62
  await self.register_object(scoring_fn)
63
+
64
+ async def unregister_scoring_function(self, scoring_fn_id: str) -> None:
65
+ existing_scoring_fn = await self.get_scoring_function(scoring_fn_id)
66
+ await self.unregister_object(existing_scoring_fn)
@@ -17,6 +17,7 @@ distribution_spec:
17
17
  - provider_type: remote::vertexai
18
18
  - provider_type: remote::groq
19
19
  - provider_type: remote::sambanova
20
+ - provider_type: remote::azure
20
21
  - provider_type: inline::sentence-transformers
21
22
  vector_io:
22
23
  - provider_type: inline::faiss
@@ -81,6 +81,13 @@ providers:
81
81
  config:
82
82
  url: https://api.sambanova.ai/v1
83
83
  api_key: ${env.SAMBANOVA_API_KEY:=}
84
+ - provider_id: ${env.AZURE_API_KEY:+azure}
85
+ provider_type: remote::azure
86
+ config:
87
+ api_key: ${env.AZURE_API_KEY:=}
88
+ api_base: ${env.AZURE_API_BASE:=}
89
+ api_version: ${env.AZURE_API_VERSION:=}
90
+ api_type: ${env.AZURE_API_TYPE:=}
84
91
  - provider_id: sentence-transformers
85
92
  provider_type: inline::sentence-transformers
86
93
  vector_io:
@@ -18,6 +18,7 @@ distribution_spec:
18
18
  - provider_type: remote::vertexai
19
19
  - provider_type: remote::groq
20
20
  - provider_type: remote::sambanova
21
+ - provider_type: remote::azure
21
22
  - provider_type: inline::sentence-transformers
22
23
  vector_io:
23
24
  - provider_type: inline::faiss
@@ -81,6 +81,13 @@ providers:
81
81
  config:
82
82
  url: https://api.sambanova.ai/v1
83
83
  api_key: ${env.SAMBANOVA_API_KEY:=}
84
+ - provider_id: ${env.AZURE_API_KEY:+azure}
85
+ provider_type: remote::azure
86
+ config:
87
+ api_key: ${env.AZURE_API_KEY:=}
88
+ api_base: ${env.AZURE_API_BASE:=}
89
+ api_version: ${env.AZURE_API_VERSION:=}
90
+ api_type: ${env.AZURE_API_TYPE:=}
84
91
  - provider_id: sentence-transformers
85
92
  provider_type: inline::sentence-transformers
86
93
  vector_io:
@@ -59,6 +59,7 @@ ENABLED_INFERENCE_PROVIDERS = [
59
59
  "cerebras",
60
60
  "nvidia",
61
61
  "bedrock",
62
+ "azure",
62
63
  ]
63
64
 
64
65
  INFERENCE_PROVIDER_IDS = {
@@ -68,6 +69,7 @@ INFERENCE_PROVIDER_IDS = {
68
69
  "cerebras": "${env.CEREBRAS_API_KEY:+cerebras}",
69
70
  "nvidia": "${env.NVIDIA_API_KEY:+nvidia}",
70
71
  "vertexai": "${env.VERTEX_AI_PROJECT:+vertexai}",
72
+ "azure": "${env.AZURE_API_KEY:+azure}",
71
73
  }
72
74
 
73
75
 
@@ -277,5 +279,21 @@ def get_distribution_template(name: str = "starter") -> DistributionTemplate:
277
279
  "http://localhost:11434",
278
280
  "Ollama URL",
279
281
  ),
282
+ "AZURE_API_KEY": (
283
+ "",
284
+ "Azure API Key",
285
+ ),
286
+ "AZURE_API_BASE": (
287
+ "",
288
+ "Azure API Base",
289
+ ),
290
+ "AZURE_API_VERSION": (
291
+ "",
292
+ "Azure API Version",
293
+ ),
294
+ "AZURE_API_TYPE": (
295
+ "azure",
296
+ "Azure API Type",
297
+ ),
280
298
  },
281
299
  )
@@ -18,6 +18,7 @@ distribution_spec:
18
18
  - provider_type: remote::vertexai
19
19
  - provider_type: remote::groq
20
20
  - provider_type: remote::sambanova
21
+ - provider_type: remote::azure
21
22
  - provider_type: inline::sentence-transformers
22
23
  vector_io:
23
24
  - provider_type: inline::faiss
@@ -81,6 +81,13 @@ providers:
81
81
  config:
82
82
  url: https://api.sambanova.ai/v1
83
83
  api_key: ${env.SAMBANOVA_API_KEY:=}
84
+ - provider_id: ${env.AZURE_API_KEY:+azure}
85
+ provider_type: remote::azure
86
+ config:
87
+ api_key: ${env.AZURE_API_KEY:=}
88
+ api_base: ${env.AZURE_API_BASE:=}
89
+ api_version: ${env.AZURE_API_VERSION:=}
90
+ api_type: ${env.AZURE_API_TYPE:=}
84
91
  - provider_id: sentence-transformers
85
92
  provider_type: inline::sentence-transformers
86
93
  vector_io:
@@ -10,6 +10,7 @@ apis:
10
10
  - telemetry
11
11
  - tool_runtime
12
12
  - vector_io
13
+ - files
13
14
  providers:
14
15
  inference:
15
16
  - provider_id: watsonx
@@ -94,6 +95,14 @@ providers:
94
95
  provider_type: inline::rag-runtime
95
96
  - provider_id: model-context-protocol
96
97
  provider_type: remote::model-context-protocol
98
+ files:
99
+ - provider_id: meta-reference-files
100
+ provider_type: inline::localfs
101
+ config:
102
+ storage_dir: ${env.FILES_STORAGE_DIR:=~/.llama/distributions/watsonx/files}
103
+ metadata_store:
104
+ type: sqlite
105
+ db_path: ${env.SQLITE_STORE_DIR:=~/.llama/distributions/watsonx}/files_metadata.db
97
106
  metadata_store:
98
107
  type: sqlite
99
108
  db_path: ${env.SQLITE_STORE_DIR:=~/.llama/distributions/watsonx}/registry.db
@@ -9,6 +9,7 @@ from pathlib import Path
9
9
  from llama_stack.apis.models import ModelType
10
10
  from llama_stack.core.datatypes import BuildProvider, ModelInput, Provider, ToolGroupInput
11
11
  from llama_stack.distributions.template import DistributionTemplate, RunConfigSettings, get_model_registry
12
+ from llama_stack.providers.inline.files.localfs.config import LocalfsFilesImplConfig
12
13
  from llama_stack.providers.inline.inference.sentence_transformers import (
13
14
  SentenceTransformersInferenceConfig,
14
15
  )
@@ -16,7 +17,7 @@ from llama_stack.providers.remote.inference.watsonx import WatsonXConfig
16
17
  from llama_stack.providers.remote.inference.watsonx.models import MODEL_ENTRIES
17
18
 
18
19
 
19
- def get_distribution_template() -> DistributionTemplate:
20
+ def get_distribution_template(name: str = "watsonx") -> DistributionTemplate:
20
21
  providers = {
21
22
  "inference": [
22
23
  BuildProvider(provider_type="remote::watsonx"),
@@ -42,6 +43,7 @@ def get_distribution_template() -> DistributionTemplate:
42
43
  BuildProvider(provider_type="inline::rag-runtime"),
43
44
  BuildProvider(provider_type="remote::model-context-protocol"),
44
45
  ],
46
+ "files": [BuildProvider(provider_type="inline::localfs")],
45
47
  }
46
48
 
47
49
  inference_provider = Provider(
@@ -79,9 +81,14 @@ def get_distribution_template() -> DistributionTemplate:
79
81
  },
80
82
  )
81
83
 
84
+ files_provider = Provider(
85
+ provider_id="meta-reference-files",
86
+ provider_type="inline::localfs",
87
+ config=LocalfsFilesImplConfig.sample_run_config(f"~/.llama/distributions/{name}"),
88
+ )
82
89
  default_models, _ = get_model_registry(available_models)
83
90
  return DistributionTemplate(
84
- name="watsonx",
91
+ name=name,
85
92
  distro_type="remote_hosted",
86
93
  description="Use watsonx for running LLM inference",
87
94
  container_image=None,
@@ -92,6 +99,7 @@ def get_distribution_template() -> DistributionTemplate:
92
99
  "run.yaml": RunConfigSettings(
93
100
  provider_overrides={
94
101
  "inference": [inference_provider, embedding_provider],
102
+ "files": [files_provider],
95
103
  },
96
104
  default_models=default_models + [embedding_model],
97
105
  default_tool_groups=default_tool_groups,
@@ -75,6 +75,13 @@ class MetaReferenceEvalImpl(
75
75
  )
76
76
  self.benchmarks[task_def.identifier] = task_def
77
77
 
78
+ async def unregister_benchmark(self, benchmark_id: str) -> None:
79
+ if benchmark_id in self.benchmarks:
80
+ del self.benchmarks[benchmark_id]
81
+
82
+ key = f"{EVAL_TASKS_PREFIX}{benchmark_id}"
83
+ await self.kvstore.delete(key)
84
+
78
85
  async def run_eval(
79
86
  self,
80
87
  benchmark_id: str,
@@ -63,6 +63,9 @@ class LlmAsJudgeScoringImpl(
63
63
  async def register_scoring_function(self, function_def: ScoringFn) -> None:
64
64
  self.llm_as_judge_fn.register_scoring_fn_def(function_def)
65
65
 
66
+ async def unregister_scoring_function(self, scoring_fn_id: str) -> None:
67
+ self.llm_as_judge_fn.unregister_scoring_fn_def(scoring_fn_id)
68
+
66
69
  async def score_batch(
67
70
  self,
68
71
  dataset_id: str,
@@ -8,7 +8,7 @@
8
8
  from jinja2 import Template
9
9
 
10
10
  from llama_stack.apis.common.content_types import InterleavedContent
11
- from llama_stack.apis.inference import UserMessage
11
+ from llama_stack.apis.inference import OpenAIUserMessageParam
12
12
  from llama_stack.apis.tools.rag_tool import (
13
13
  DefaultRAGQueryGeneratorConfig,
14
14
  LLMRAGQueryGeneratorConfig,
@@ -61,16 +61,16 @@ async def llm_rag_query_generator(
61
61
  messages = [interleaved_content_as_str(content)]
62
62
 
63
63
  template = Template(config.template)
64
- content = template.render({"messages": messages})
64
+ rendered_content: str = template.render({"messages": messages})
65
65
 
66
66
  model = config.model
67
- message = UserMessage(content=content)
68
- response = await inference_api.chat_completion(
69
- model_id=model,
67
+ message = OpenAIUserMessageParam(content=rendered_content)
68
+ response = await inference_api.openai_chat_completion(
69
+ model=model,
70
70
  messages=[message],
71
71
  stream=False,
72
72
  )
73
73
 
74
- query = response.completion_message.content
74
+ query = response.choices[0].message.content
75
75
 
76
76
  return query