llama-stack 0.2.21__tar.gz → 0.2.23__tar.gz

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (663) hide show
  1. {llama_stack-0.2.21/llama_stack.egg-info → llama_stack-0.2.23}/PKG-INFO +15 -15
  2. {llama_stack-0.2.21 → llama_stack-0.2.23}/README.md +11 -11
  3. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/agents/agents.py +26 -14
  4. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/batch_inference/batch_inference.py +3 -2
  5. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/batches/batches.py +5 -4
  6. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/benchmarks/benchmarks.py +16 -3
  7. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/datasetio/datasetio.py +3 -2
  8. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/datasets/datasets.py +5 -4
  9. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/eval/eval.py +27 -5
  10. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/files/files.py +7 -6
  11. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/inference/inference.py +13 -11
  12. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/inspect/inspect.py +4 -3
  13. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/models/models.py +6 -5
  14. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/post_training/post_training.py +13 -6
  15. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/prompts/prompts.py +8 -7
  16. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/providers/providers.py +3 -2
  17. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/safety/safety.py +3 -2
  18. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/scoring/scoring.py +3 -2
  19. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/scoring_functions/scoring_functions.py +12 -3
  20. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/shields/shields.py +5 -4
  21. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/synthetic_data_generation/synthetic_data_generation.py +2 -1
  22. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/telemetry/telemetry.py +21 -8
  23. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/tools/rag_tool.py +3 -2
  24. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/tools/tools.py +9 -8
  25. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/vector_dbs/vector_dbs.py +5 -4
  26. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/vector_io/vector_io.py +25 -14
  27. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/version.py +3 -1
  28. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/cli/stack/_build.py +7 -0
  29. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/cli/verify_download.py +7 -10
  30. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/build_container.sh +2 -2
  31. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/client.py +18 -2
  32. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/datatypes.py +10 -7
  33. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/distribution.py +7 -20
  34. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/library_client.py +6 -4
  35. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/routers/__init__.py +4 -1
  36. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/routers/inference.py +12 -7
  37. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/routing_tables/benchmarks.py +4 -0
  38. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/routing_tables/common.py +4 -0
  39. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/routing_tables/models.py +1 -1
  40. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/routing_tables/scoring_functions.py +4 -0
  41. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/routing_tables/toolgroups.py +13 -2
  42. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/server/routes.py +15 -15
  43. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/server/server.py +99 -124
  44. llama_stack-0.2.23/llama_stack/core/server/tracing.py +80 -0
  45. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/stack.py +66 -60
  46. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/start_stack.sh +1 -1
  47. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/ci-tests/build.yaml +1 -0
  48. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/ci-tests/run.yaml +7 -0
  49. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/nvidia/build.yaml +2 -0
  50. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/nvidia/nvidia.py +12 -10
  51. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/nvidia/run-with-safety.yaml +9 -0
  52. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/nvidia/run.yaml +10 -84
  53. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/starter/build.yaml +1 -0
  54. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/starter/run.yaml +7 -0
  55. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/starter/starter.py +20 -2
  56. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/starter-gpu/build.yaml +1 -0
  57. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/starter-gpu/run.yaml +7 -0
  58. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/watsonx/run.yaml +9 -0
  59. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/watsonx/watsonx.py +10 -2
  60. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/datatypes.py +17 -71
  61. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/eval/meta_reference/eval.py +7 -0
  62. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/files/localfs/files.py +2 -3
  63. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/llm_as_judge/scoring.py +3 -0
  64. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/tool_runtime/rag/context_retriever.py +6 -6
  65. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/tool_runtime/rag/memory.py +101 -46
  66. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/registry/batches.py +1 -1
  67. llama_stack-0.2.23/llama_stack/providers/registry/datasetio.py +49 -0
  68. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/registry/eval.py +10 -11
  69. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/registry/files.py +8 -15
  70. llama_stack-0.2.23/llama_stack/providers/registry/inference.py +300 -0
  71. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/registry/post_training.py +8 -9
  72. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/registry/safety.py +23 -27
  73. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/registry/scoring.py +1 -1
  74. llama_stack-0.2.23/llama_stack/providers/registry/tool_runtime.py +87 -0
  75. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/registry/vector_io.py +59 -59
  76. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/eval/nvidia/eval.py +12 -4
  77. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/files/s3/files.py +2 -3
  78. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/anthropic/__init__.py +0 -6
  79. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/anthropic/anthropic.py +12 -2
  80. llama_stack-0.2.23/llama_stack/providers/remote/inference/azure/__init__.py +15 -0
  81. llama_stack-0.2.23/llama_stack/providers/remote/inference/azure/azure.py +62 -0
  82. llama_stack-0.2.23/llama_stack/providers/remote/inference/azure/config.py +63 -0
  83. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/bedrock/bedrock.py +50 -3
  84. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/cerebras/cerebras.py +14 -14
  85. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/cerebras/config.py +2 -2
  86. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/databricks/__init__.py +2 -1
  87. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/databricks/config.py +5 -5
  88. llama_stack-0.2.23/llama_stack/providers/remote/inference/databricks/databricks.py +158 -0
  89. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/fireworks/fireworks.py +17 -169
  90. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/gemini/__init__.py +0 -6
  91. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/gemini/gemini.py +4 -2
  92. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/groq/__init__.py +1 -3
  93. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/groq/groq.py +0 -3
  94. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/llama_openai_compat/llama.py +0 -3
  95. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/nvidia/nvidia.py +9 -8
  96. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/ollama/ollama.py +70 -217
  97. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/openai/__init__.py +0 -6
  98. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/openai/openai.py +5 -2
  99. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/passthrough/passthrough.py +1 -1
  100. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/sambanova/__init__.py +1 -3
  101. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/sambanova/sambanova.py +1 -3
  102. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/tgi/tgi.py +43 -15
  103. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/together/together.py +85 -130
  104. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/vertexai/vertexai.py +29 -6
  105. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/vllm/__init__.py +6 -0
  106. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/vllm/vllm.py +56 -193
  107. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/watsonx/config.py +2 -2
  108. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/watsonx/watsonx.py +19 -3
  109. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/vector_io/qdrant/qdrant.py +6 -2
  110. llama_stack-0.2.23/llama_stack/providers/utils/inference/inference_store.py +244 -0
  111. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/inference/litellm_openai_mixin.py +3 -3
  112. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/inference/model_registry.py +9 -22
  113. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/inference/openai_mixin.py +109 -24
  114. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/kvstore/config.py +5 -5
  115. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/kvstore/mongodb/mongodb.py +8 -3
  116. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/kvstore/sqlite/sqlite.py +7 -0
  117. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/responses/responses_store.py +2 -5
  118. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/sqlstore/authorized_sqlstore.py +19 -6
  119. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/telemetry/tracing.py +29 -15
  120. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/vector_io/vector_utils.py +2 -4
  121. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/schema_utils.py +15 -1
  122. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/testing/inference_recorder.py +51 -31
  123. {llama_stack-0.2.21 → llama_stack-0.2.23/llama_stack.egg-info}/PKG-INFO +15 -15
  124. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack.egg-info/SOURCES.txt +4 -12
  125. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack.egg-info/requires.txt +4 -4
  126. {llama_stack-0.2.21 → llama_stack-0.2.23}/pyproject.toml +8 -28
  127. llama_stack-0.2.21/llama_stack/providers/registry/datasetio.py +0 -52
  128. llama_stack-0.2.21/llama_stack/providers/registry/inference.py +0 -302
  129. llama_stack-0.2.21/llama_stack/providers/registry/tool_runtime.py +0 -93
  130. llama_stack-0.2.21/llama_stack/providers/remote/inference/anthropic/models.py +0 -40
  131. llama_stack-0.2.21/llama_stack/providers/remote/inference/cerebras/models.py +0 -28
  132. llama_stack-0.2.21/llama_stack/providers/remote/inference/databricks/databricks.py +0 -168
  133. llama_stack-0.2.21/llama_stack/providers/remote/inference/fireworks/models.py +0 -70
  134. llama_stack-0.2.21/llama_stack/providers/remote/inference/gemini/models.py +0 -34
  135. llama_stack-0.2.21/llama_stack/providers/remote/inference/groq/models.py +0 -48
  136. llama_stack-0.2.21/llama_stack/providers/remote/inference/llama_openai_compat/models.py +0 -25
  137. llama_stack-0.2.21/llama_stack/providers/remote/inference/nvidia/models.py +0 -109
  138. llama_stack-0.2.21/llama_stack/providers/remote/inference/ollama/models.py +0 -106
  139. llama_stack-0.2.21/llama_stack/providers/remote/inference/openai/models.py +0 -60
  140. llama_stack-0.2.21/llama_stack/providers/remote/inference/sambanova/models.py +0 -28
  141. llama_stack-0.2.21/llama_stack/providers/remote/inference/together/models.py +0 -77
  142. llama_stack-0.2.21/llama_stack/providers/remote/inference/vertexai/models.py +0 -20
  143. llama_stack-0.2.21/llama_stack/providers/utils/inference/inference_store.py +0 -136
  144. {llama_stack-0.2.21 → llama_stack-0.2.23}/LICENSE +0 -0
  145. {llama_stack-0.2.21 → llama_stack-0.2.23}/MANIFEST.in +0 -0
  146. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/__init__.py +0 -0
  147. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/__init__.py +0 -0
  148. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/agents/__init__.py +0 -0
  149. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/agents/openai_responses.py +0 -0
  150. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/batch_inference/__init__.py +0 -0
  151. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/batches/__init__.py +0 -0
  152. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/benchmarks/__init__.py +0 -0
  153. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/common/__init__.py +0 -0
  154. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/common/content_types.py +0 -0
  155. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/common/errors.py +0 -0
  156. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/common/job_types.py +0 -0
  157. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/common/responses.py +0 -0
  158. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/common/training_types.py +0 -0
  159. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/common/type_system.py +0 -0
  160. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/datasetio/__init__.py +0 -0
  161. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/datasets/__init__.py +0 -0
  162. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/datatypes.py +0 -0
  163. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/eval/__init__.py +0 -0
  164. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/files/__init__.py +0 -0
  165. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/inference/__init__.py +0 -0
  166. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/inference/event_logger.py +0 -0
  167. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/inspect/__init__.py +0 -0
  168. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/models/__init__.py +0 -0
  169. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/post_training/__init__.py +0 -0
  170. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/prompts/__init__.py +0 -0
  171. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/providers/__init__.py +0 -0
  172. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/resource.py +0 -0
  173. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/safety/__init__.py +0 -0
  174. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/scoring/__init__.py +0 -0
  175. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/scoring_functions/__init__.py +0 -0
  176. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/shields/__init__.py +0 -0
  177. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/synthetic_data_generation/__init__.py +0 -0
  178. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/telemetry/__init__.py +0 -0
  179. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/tools/__init__.py +0 -0
  180. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/vector_dbs/__init__.py +0 -0
  181. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/apis/vector_io/__init__.py +0 -0
  182. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/cli/__init__.py +0 -0
  183. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/cli/download.py +0 -0
  184. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/cli/llama.py +0 -0
  185. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/cli/model/__init__.py +0 -0
  186. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/cli/model/describe.py +0 -0
  187. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/cli/model/download.py +0 -0
  188. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/cli/model/list.py +0 -0
  189. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/cli/model/model.py +0 -0
  190. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/cli/model/prompt_format.py +0 -0
  191. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/cli/model/remove.py +0 -0
  192. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/cli/model/safety_models.py +0 -0
  193. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/cli/model/verify_download.py +0 -0
  194. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/cli/scripts/__init__.py +0 -0
  195. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/cli/scripts/install-wheel-from-presigned.sh +0 -0
  196. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/cli/scripts/run.py +0 -0
  197. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/cli/stack/__init__.py +0 -0
  198. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/cli/stack/build.py +0 -0
  199. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/cli/stack/list_apis.py +0 -0
  200. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/cli/stack/list_providers.py +0 -0
  201. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/cli/stack/list_stacks.py +0 -0
  202. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/cli/stack/remove.py +0 -0
  203. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/cli/stack/run.py +0 -0
  204. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/cli/stack/stack.py +0 -0
  205. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/cli/stack/utils.py +0 -0
  206. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/cli/subcommand.py +0 -0
  207. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/cli/table.py +0 -0
  208. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/cli/utils.py +0 -0
  209. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/__init__.py +0 -0
  210. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/access_control/__init__.py +0 -0
  211. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/access_control/access_control.py +0 -0
  212. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/access_control/conditions.py +0 -0
  213. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/access_control/datatypes.py +0 -0
  214. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/build.py +0 -0
  215. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/build_venv.sh +0 -0
  216. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/common.sh +0 -0
  217. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/configure.py +0 -0
  218. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/external.py +0 -0
  219. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/inspect.py +0 -0
  220. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/prompts/__init__.py +0 -0
  221. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/prompts/prompts.py +0 -0
  222. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/providers.py +0 -0
  223. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/request_headers.py +0 -0
  224. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/resolver.py +0 -0
  225. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/routers/datasets.py +0 -0
  226. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/routers/eval_scoring.py +0 -0
  227. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/routers/safety.py +0 -0
  228. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/routers/tool_runtime.py +0 -0
  229. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/routers/vector_io.py +0 -0
  230. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/routing_tables/__init__.py +0 -0
  231. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/routing_tables/datasets.py +0 -0
  232. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/routing_tables/shields.py +0 -0
  233. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/routing_tables/vector_dbs.py +0 -0
  234. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/server/__init__.py +0 -0
  235. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/server/auth.py +0 -0
  236. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/server/auth_providers.py +0 -0
  237. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/server/quota.py +0 -0
  238. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/store/__init__.py +0 -0
  239. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/store/registry.py +0 -0
  240. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/ui/__init__.py +0 -0
  241. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/ui/app.py +0 -0
  242. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/ui/modules/__init__.py +0 -0
  243. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/ui/modules/api.py +0 -0
  244. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/ui/modules/utils.py +0 -0
  245. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/ui/page/__init__.py +0 -0
  246. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/ui/page/distribution/__init__.py +0 -0
  247. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/ui/page/distribution/datasets.py +0 -0
  248. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/ui/page/distribution/eval_tasks.py +0 -0
  249. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/ui/page/distribution/models.py +0 -0
  250. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/ui/page/distribution/providers.py +0 -0
  251. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/ui/page/distribution/resources.py +0 -0
  252. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/ui/page/distribution/scoring_functions.py +0 -0
  253. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/ui/page/distribution/shields.py +0 -0
  254. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/ui/page/distribution/vector_dbs.py +0 -0
  255. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/ui/page/evaluations/__init__.py +0 -0
  256. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/ui/page/evaluations/app_eval.py +0 -0
  257. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/ui/page/evaluations/native_eval.py +0 -0
  258. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/ui/page/playground/__init__.py +0 -0
  259. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/ui/page/playground/chat.py +0 -0
  260. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/ui/page/playground/rag.py +0 -0
  261. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/ui/page/playground/tools.py +0 -0
  262. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/utils/__init__.py +0 -0
  263. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/utils/config.py +0 -0
  264. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/utils/config_dirs.py +0 -0
  265. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/utils/config_resolution.py +0 -0
  266. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/utils/context.py +0 -0
  267. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/utils/dynamic.py +0 -0
  268. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/utils/exec.py +0 -0
  269. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/utils/image_types.py +0 -0
  270. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/utils/model_utils.py +0 -0
  271. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/utils/prompt_for_config.py +0 -0
  272. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/core/utils/serialize.py +0 -0
  273. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/__init__.py +0 -0
  274. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/ci-tests/__init__.py +0 -0
  275. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/ci-tests/ci_tests.py +0 -0
  276. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/dell/__init__.py +0 -0
  277. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/dell/build.yaml +0 -0
  278. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/dell/dell.py +0 -0
  279. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/dell/run-with-safety.yaml +0 -0
  280. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/dell/run.yaml +0 -0
  281. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/meta-reference-gpu/__init__.py +0 -0
  282. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/meta-reference-gpu/build.yaml +0 -0
  283. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/meta-reference-gpu/meta_reference.py +0 -0
  284. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/meta-reference-gpu/run-with-safety.yaml +0 -0
  285. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/meta-reference-gpu/run.yaml +0 -0
  286. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/nvidia/__init__.py +0 -0
  287. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/open-benchmark/__init__.py +0 -0
  288. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/open-benchmark/build.yaml +0 -0
  289. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/open-benchmark/open_benchmark.py +0 -0
  290. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/open-benchmark/run.yaml +0 -0
  291. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/postgres-demo/__init__.py +0 -0
  292. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/postgres-demo/build.yaml +0 -0
  293. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/postgres-demo/postgres_demo.py +0 -0
  294. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/postgres-demo/run.yaml +0 -0
  295. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/starter/__init__.py +0 -0
  296. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/starter-gpu/__init__.py +0 -0
  297. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/starter-gpu/starter_gpu.py +0 -0
  298. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/template.py +0 -0
  299. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/watsonx/__init__.py +0 -0
  300. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/distributions/watsonx/build.yaml +0 -0
  301. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/env.py +0 -0
  302. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/log.py +0 -0
  303. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/__init__.py +0 -0
  304. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/__init__.py +0 -0
  305. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/checkpoint.py +0 -0
  306. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/datatypes.py +0 -0
  307. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/hadamard_utils.py +0 -0
  308. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama3/__init__.py +0 -0
  309. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama3/args.py +0 -0
  310. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama3/chat_format.py +0 -0
  311. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama3/generation.py +0 -0
  312. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama3/interface.py +0 -0
  313. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama3/model.py +0 -0
  314. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama3/multimodal/__init__.py +0 -0
  315. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama3/multimodal/encoder_utils.py +0 -0
  316. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama3/multimodal/image_transform.py +0 -0
  317. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama3/multimodal/model.py +0 -0
  318. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama3/multimodal/utils.py +0 -0
  319. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama3/prompt_templates/__init__.py +0 -0
  320. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama3/prompt_templates/base.py +0 -0
  321. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama3/prompt_templates/system_prompts.py +0 -0
  322. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama3/prompt_templates/tool_response.py +0 -0
  323. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama3/quantization/__init__.py +0 -0
  324. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama3/quantization/loader.py +0 -0
  325. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama3/template_data.py +0 -0
  326. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama3/tokenizer.model +0 -0
  327. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama3/tokenizer.py +0 -0
  328. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama3/tool_utils.py +0 -0
  329. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama3_1/__init__.py +0 -0
  330. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama3_1/prompt_format.md +0 -0
  331. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama3_1/prompts.py +0 -0
  332. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama3_2/__init__.py +0 -0
  333. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama3_2/prompts_text.py +0 -0
  334. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama3_2/prompts_vision.py +0 -0
  335. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama3_2/text_prompt_format.md +0 -0
  336. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama3_2/vision_prompt_format.md +0 -0
  337. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama3_3/__init__.py +0 -0
  338. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama3_3/prompts.py +0 -0
  339. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama4/__init__.py +0 -0
  340. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama4/args.py +0 -0
  341. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama4/chat_format.py +0 -0
  342. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama4/datatypes.py +0 -0
  343. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama4/ffn.py +0 -0
  344. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama4/generation.py +0 -0
  345. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama4/model.py +0 -0
  346. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama4/moe.py +0 -0
  347. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama4/preprocess.py +0 -0
  348. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama4/prompt_format.md +0 -0
  349. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama4/prompt_templates/__init__.py +0 -0
  350. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama4/prompt_templates/system_prompts.py +0 -0
  351. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama4/prompts.py +0 -0
  352. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama4/quantization/__init__.py +0 -0
  353. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama4/quantization/loader.py +0 -0
  354. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama4/tokenizer.model +0 -0
  355. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama4/tokenizer.py +0 -0
  356. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama4/vision/__init__.py +0 -0
  357. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama4/vision/embedding.py +0 -0
  358. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/llama4/vision/encoder.py +0 -0
  359. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/prompt_format.py +0 -0
  360. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/quantize_impls.py +0 -0
  361. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/sku_list.py +0 -0
  362. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/sku_types.py +0 -0
  363. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/models/llama/tokenizer_utils.py +0 -0
  364. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/__init__.py +0 -0
  365. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/__init__.py +0 -0
  366. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/agents/__init__.py +0 -0
  367. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/agents/meta_reference/__init__.py +0 -0
  368. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/agents/meta_reference/agent_instance.py +0 -0
  369. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/agents/meta_reference/agents.py +0 -0
  370. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/agents/meta_reference/config.py +0 -0
  371. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/agents/meta_reference/persistence.py +0 -0
  372. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/agents/meta_reference/responses/__init__.py +0 -0
  373. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/agents/meta_reference/responses/openai_responses.py +0 -0
  374. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/agents/meta_reference/responses/streaming.py +0 -0
  375. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/agents/meta_reference/responses/tool_executor.py +0 -0
  376. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/agents/meta_reference/responses/types.py +0 -0
  377. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/agents/meta_reference/responses/utils.py +0 -0
  378. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/agents/meta_reference/safety.py +0 -0
  379. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/batches/__init__.py +0 -0
  380. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/batches/reference/__init__.py +0 -0
  381. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/batches/reference/batches.py +0 -0
  382. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/batches/reference/config.py +0 -0
  383. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/datasetio/__init__.py +0 -0
  384. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/datasetio/localfs/__init__.py +0 -0
  385. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/datasetio/localfs/config.py +0 -0
  386. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/datasetio/localfs/datasetio.py +0 -0
  387. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/eval/__init__.py +0 -0
  388. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/eval/meta_reference/__init__.py +0 -0
  389. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/eval/meta_reference/config.py +0 -0
  390. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/files/localfs/__init__.py +0 -0
  391. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/files/localfs/config.py +0 -0
  392. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/inference/__init__.py +0 -0
  393. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/inference/meta_reference/__init__.py +0 -0
  394. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/inference/meta_reference/common.py +0 -0
  395. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/inference/meta_reference/config.py +0 -0
  396. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/inference/meta_reference/generators.py +0 -0
  397. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/inference/meta_reference/inference.py +0 -0
  398. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/inference/meta_reference/model_parallel.py +0 -0
  399. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/inference/meta_reference/parallel_utils.py +0 -0
  400. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/inference/sentence_transformers/__init__.py +0 -0
  401. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/inference/sentence_transformers/config.py +0 -0
  402. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/inference/sentence_transformers/sentence_transformers.py +0 -0
  403. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/post_training/__init__.py +0 -0
  404. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/post_training/common/__init__.py +0 -0
  405. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/post_training/common/utils.py +0 -0
  406. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/post_training/common/validator.py +0 -0
  407. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/post_training/huggingface/__init__.py +0 -0
  408. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/post_training/huggingface/config.py +0 -0
  409. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/post_training/huggingface/post_training.py +0 -0
  410. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/post_training/huggingface/recipes/__init__.py +0 -0
  411. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/post_training/huggingface/recipes/finetune_single_device.py +0 -0
  412. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/post_training/huggingface/recipes/finetune_single_device_dpo.py +0 -0
  413. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/post_training/huggingface/utils.py +0 -0
  414. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/post_training/torchtune/__init__.py +0 -0
  415. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/post_training/torchtune/common/__init__.py +0 -0
  416. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/post_training/torchtune/common/checkpointer.py +0 -0
  417. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/post_training/torchtune/common/utils.py +0 -0
  418. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/post_training/torchtune/config.py +0 -0
  419. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/post_training/torchtune/datasets/__init__.py +0 -0
  420. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/post_training/torchtune/datasets/format_adapter.py +0 -0
  421. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/post_training/torchtune/datasets/sft.py +0 -0
  422. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/post_training/torchtune/post_training.py +0 -0
  423. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/post_training/torchtune/recipes/__init__.py +0 -0
  424. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/post_training/torchtune/recipes/lora_finetuning_single_device.py +0 -0
  425. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/safety/__init__.py +0 -0
  426. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/safety/code_scanner/__init__.py +0 -0
  427. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/safety/code_scanner/code_scanner.py +0 -0
  428. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/safety/code_scanner/config.py +0 -0
  429. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/safety/llama_guard/__init__.py +0 -0
  430. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/safety/llama_guard/config.py +0 -0
  431. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/safety/llama_guard/llama_guard.py +0 -0
  432. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/safety/prompt_guard/__init__.py +0 -0
  433. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/safety/prompt_guard/config.py +0 -0
  434. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/safety/prompt_guard/prompt_guard.py +0 -0
  435. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/__init__.py +0 -0
  436. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/basic/__init__.py +0 -0
  437. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/basic/config.py +0 -0
  438. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/basic/scoring.py +0 -0
  439. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/basic/scoring_fn/__init__.py +0 -0
  440. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/basic/scoring_fn/docvqa_scoring_fn.py +0 -0
  441. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/basic/scoring_fn/equality_scoring_fn.py +0 -0
  442. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/__init__.py +0 -0
  443. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/docvqa.py +0 -0
  444. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/equality.py +0 -0
  445. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/ifeval.py +0 -0
  446. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/regex_parser_math_response.py +0 -0
  447. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/regex_parser_multiple_choice_answer.py +0 -0
  448. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/subset_of.py +0 -0
  449. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/basic/scoring_fn/ifeval_scoring_fn.py +0 -0
  450. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/basic/scoring_fn/regex_parser_math_response_scoring_fn.py +0 -0
  451. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/basic/scoring_fn/regex_parser_scoring_fn.py +0 -0
  452. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/basic/scoring_fn/subset_of_scoring_fn.py +0 -0
  453. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/basic/utils/__init__.py +0 -0
  454. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/basic/utils/ifeval_utils.py +0 -0
  455. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/basic/utils/math_utils.py +0 -0
  456. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/braintrust/__init__.py +0 -0
  457. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/braintrust/braintrust.py +0 -0
  458. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/braintrust/config.py +0 -0
  459. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/__init__.py +0 -0
  460. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/__init__.py +0 -0
  461. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/answer_correctness.py +0 -0
  462. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/answer_relevancy.py +0 -0
  463. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/answer_similarity.py +0 -0
  464. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_entity_recall.py +0 -0
  465. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_precision.py +0 -0
  466. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_recall.py +0 -0
  467. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_relevancy.py +0 -0
  468. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/factuality.py +0 -0
  469. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/faithfulness.py +0 -0
  470. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/llm_as_judge/__init__.py +0 -0
  471. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/llm_as_judge/config.py +0 -0
  472. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/__init__.py +0 -0
  473. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs/__init__.py +0 -0
  474. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs/llm_as_judge_405b_simpleqa.py +0 -0
  475. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs/llm_as_judge_base.py +0 -0
  476. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/llm_as_judge_scoring_fn.py +0 -0
  477. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/telemetry/__init__.py +0 -0
  478. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/telemetry/meta_reference/__init__.py +0 -0
  479. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/telemetry/meta_reference/config.py +0 -0
  480. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/telemetry/meta_reference/console_span_processor.py +0 -0
  481. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/telemetry/meta_reference/sqlite_span_processor.py +0 -0
  482. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/telemetry/meta_reference/telemetry.py +0 -0
  483. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/tool_runtime/__init__.py +0 -0
  484. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/tool_runtime/rag/__init__.py +0 -0
  485. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/tool_runtime/rag/config.py +0 -0
  486. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/vector_io/__init__.py +0 -0
  487. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/vector_io/chroma/__init__.py +0 -0
  488. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/vector_io/chroma/config.py +0 -0
  489. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/vector_io/faiss/__init__.py +0 -0
  490. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/vector_io/faiss/config.py +0 -0
  491. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/vector_io/faiss/faiss.py +0 -0
  492. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/vector_io/milvus/__init__.py +0 -0
  493. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/vector_io/milvus/config.py +0 -0
  494. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/vector_io/qdrant/__init__.py +0 -0
  495. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/vector_io/qdrant/config.py +0 -0
  496. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/vector_io/sqlite_vec/__init__.py +0 -0
  497. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/vector_io/sqlite_vec/config.py +0 -0
  498. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/inline/vector_io/sqlite_vec/sqlite_vec.py +0 -0
  499. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/registry/__init__.py +0 -0
  500. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/registry/agents.py +0 -0
  501. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/registry/telemetry.py +0 -0
  502. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/__init__.py +0 -0
  503. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/agents/__init__.py +0 -0
  504. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/datasetio/__init__.py +0 -0
  505. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/datasetio/huggingface/__init__.py +0 -0
  506. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/datasetio/huggingface/config.py +0 -0
  507. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/datasetio/huggingface/huggingface.py +0 -0
  508. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/datasetio/nvidia/__init__.py +0 -0
  509. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/datasetio/nvidia/config.py +0 -0
  510. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/datasetio/nvidia/datasetio.py +0 -0
  511. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/eval/__init__.py +0 -0
  512. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/eval/nvidia/__init__.py +0 -0
  513. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/eval/nvidia/config.py +0 -0
  514. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/files/s3/__init__.py +0 -0
  515. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/files/s3/config.py +0 -0
  516. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/__init__.py +0 -0
  517. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/anthropic/config.py +0 -0
  518. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/bedrock/__init__.py +0 -0
  519. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/bedrock/config.py +0 -0
  520. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/bedrock/models.py +0 -0
  521. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/cerebras/__init__.py +0 -0
  522. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/fireworks/__init__.py +0 -0
  523. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/fireworks/config.py +0 -0
  524. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/gemini/config.py +0 -0
  525. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/groq/config.py +0 -0
  526. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/llama_openai_compat/__init__.py +0 -0
  527. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/llama_openai_compat/config.py +0 -0
  528. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/nvidia/__init__.py +0 -0
  529. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/nvidia/config.py +0 -0
  530. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/nvidia/openai_utils.py +0 -0
  531. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/nvidia/utils.py +0 -0
  532. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/ollama/__init__.py +0 -0
  533. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/ollama/config.py +0 -0
  534. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/openai/config.py +0 -0
  535. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/passthrough/__init__.py +0 -0
  536. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/passthrough/config.py +0 -0
  537. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/runpod/__init__.py +0 -0
  538. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/runpod/config.py +0 -0
  539. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/runpod/runpod.py +0 -0
  540. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/sambanova/config.py +0 -0
  541. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/tgi/__init__.py +0 -0
  542. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/tgi/config.py +0 -0
  543. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/together/__init__.py +0 -0
  544. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/together/config.py +0 -0
  545. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/vertexai/__init__.py +0 -0
  546. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/vertexai/config.py +0 -0
  547. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/vllm/config.py +0 -0
  548. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/watsonx/__init__.py +0 -0
  549. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/inference/watsonx/models.py +0 -0
  550. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/post_training/__init__.py +0 -0
  551. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/post_training/nvidia/__init__.py +0 -0
  552. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/post_training/nvidia/config.py +0 -0
  553. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/post_training/nvidia/models.py +0 -0
  554. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/post_training/nvidia/post_training.py +0 -0
  555. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/post_training/nvidia/utils.py +0 -0
  556. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/safety/__init__.py +0 -0
  557. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/safety/bedrock/__init__.py +0 -0
  558. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/safety/bedrock/bedrock.py +0 -0
  559. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/safety/bedrock/config.py +0 -0
  560. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/safety/nvidia/__init__.py +0 -0
  561. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/safety/nvidia/config.py +0 -0
  562. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/safety/nvidia/nvidia.py +0 -0
  563. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/safety/sambanova/__init__.py +0 -0
  564. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/safety/sambanova/config.py +0 -0
  565. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/safety/sambanova/sambanova.py +0 -0
  566. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/tool_runtime/__init__.py +0 -0
  567. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/tool_runtime/bing_search/__init__.py +0 -0
  568. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/tool_runtime/bing_search/bing_search.py +0 -0
  569. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/tool_runtime/bing_search/config.py +0 -0
  570. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/tool_runtime/brave_search/__init__.py +0 -0
  571. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/tool_runtime/brave_search/brave_search.py +0 -0
  572. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/tool_runtime/brave_search/config.py +0 -0
  573. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/tool_runtime/model_context_protocol/__init__.py +0 -0
  574. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/tool_runtime/model_context_protocol/config.py +0 -0
  575. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/tool_runtime/model_context_protocol/model_context_protocol.py +0 -0
  576. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/tool_runtime/tavily_search/__init__.py +0 -0
  577. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/tool_runtime/tavily_search/config.py +0 -0
  578. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/tool_runtime/tavily_search/tavily_search.py +0 -0
  579. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/tool_runtime/wolfram_alpha/__init__.py +0 -0
  580. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/tool_runtime/wolfram_alpha/config.py +0 -0
  581. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/tool_runtime/wolfram_alpha/wolfram_alpha.py +0 -0
  582. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/vector_io/__init__.py +0 -0
  583. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/vector_io/chroma/__init__.py +0 -0
  584. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/vector_io/chroma/chroma.py +0 -0
  585. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/vector_io/chroma/config.py +0 -0
  586. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/vector_io/milvus/__init__.py +0 -0
  587. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/vector_io/milvus/config.py +0 -0
  588. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/vector_io/milvus/milvus.py +0 -0
  589. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/vector_io/pgvector/__init__.py +0 -0
  590. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/vector_io/pgvector/config.py +0 -0
  591. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/vector_io/pgvector/pgvector.py +0 -0
  592. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/vector_io/qdrant/__init__.py +0 -0
  593. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/vector_io/qdrant/config.py +0 -0
  594. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/vector_io/weaviate/__init__.py +0 -0
  595. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/vector_io/weaviate/config.py +0 -0
  596. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/remote/vector_io/weaviate/weaviate.py +0 -0
  597. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/__init__.py +0 -0
  598. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/bedrock/__init__.py +0 -0
  599. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/bedrock/client.py +0 -0
  600. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/bedrock/config.py +0 -0
  601. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/bedrock/refreshable_boto_session.py +0 -0
  602. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/common/__init__.py +0 -0
  603. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/common/data_schema_validator.py +0 -0
  604. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/datasetio/__init__.py +0 -0
  605. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/datasetio/url_utils.py +0 -0
  606. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/inference/__init__.py +0 -0
  607. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/inference/embedding_mixin.py +0 -0
  608. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/inference/openai_compat.py +0 -0
  609. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/inference/prompt_adapter.py +0 -0
  610. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/kvstore/__init__.py +0 -0
  611. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/kvstore/api.py +0 -0
  612. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/kvstore/kvstore.py +0 -0
  613. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/kvstore/mongodb/__init__.py +0 -0
  614. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/kvstore/postgres/__init__.py +0 -0
  615. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/kvstore/postgres/postgres.py +0 -0
  616. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/kvstore/redis/__init__.py +0 -0
  617. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/kvstore/redis/redis.py +0 -0
  618. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/kvstore/sqlite/__init__.py +0 -0
  619. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/kvstore/sqlite/config.py +0 -0
  620. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/memory/__init__.py +0 -0
  621. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/memory/file_utils.py +0 -0
  622. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/memory/openai_vector_store_mixin.py +0 -0
  623. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/memory/vector_store.py +0 -0
  624. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/pagination.py +0 -0
  625. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/responses/__init__.py +0 -0
  626. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/scheduler.py +0 -0
  627. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/scoring/__init__.py +0 -0
  628. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/scoring/aggregation_utils.py +0 -0
  629. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/scoring/base_scoring_fn.py +0 -0
  630. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/scoring/basic_scoring_utils.py +0 -0
  631. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/sqlstore/__init__.py +0 -0
  632. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/sqlstore/api.py +0 -0
  633. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/sqlstore/sqlalchemy_sqlstore.py +0 -0
  634. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/sqlstore/sqlstore.py +0 -0
  635. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/telemetry/__init__.py +0 -0
  636. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/telemetry/dataset_mixin.py +0 -0
  637. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/telemetry/sqlite_trace_store.py +0 -0
  638. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/telemetry/trace_protocol.py +0 -0
  639. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/tools/__init__.py +0 -0
  640. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/tools/mcp.py +0 -0
  641. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/tools/ttl_dict.py +0 -0
  642. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/providers/utils/vector_io/__init__.py +0 -0
  643. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/strong_typing/__init__.py +0 -0
  644. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/strong_typing/auxiliary.py +0 -0
  645. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/strong_typing/classdef.py +0 -0
  646. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/strong_typing/core.py +0 -0
  647. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/strong_typing/deserializer.py +0 -0
  648. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/strong_typing/docstring.py +0 -0
  649. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/strong_typing/exception.py +0 -0
  650. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/strong_typing/inspection.py +0 -0
  651. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/strong_typing/mapping.py +0 -0
  652. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/strong_typing/name.py +0 -0
  653. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/strong_typing/py.typed +0 -0
  654. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/strong_typing/schema.py +0 -0
  655. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/strong_typing/serialization.py +0 -0
  656. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/strong_typing/serializer.py +0 -0
  657. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/strong_typing/slots.py +0 -0
  658. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/strong_typing/topological.py +0 -0
  659. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack/testing/__init__.py +0 -0
  660. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack.egg-info/dependency_links.txt +0 -0
  661. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack.egg-info/entry_points.txt +0 -0
  662. {llama_stack-0.2.21 → llama_stack-0.2.23}/llama_stack.egg-info/top_level.txt +0 -0
  663. {llama_stack-0.2.21 → llama_stack-0.2.23}/setup.cfg +0 -0
@@ -1,6 +1,6 @@
1
1
  Metadata-Version: 2.4
2
2
  Name: llama_stack
3
- Version: 0.2.21
3
+ Version: 0.2.23
4
4
  Summary: Llama Stack
5
5
  Author-email: Meta Llama <llama-oss@meta.com>
6
6
  License: MIT
@@ -23,12 +23,12 @@ Requires-Dist: httpx
23
23
  Requires-Dist: huggingface-hub<1.0,>=0.34.0
24
24
  Requires-Dist: jinja2>=3.1.6
25
25
  Requires-Dist: jsonschema
26
- Requires-Dist: llama-stack-client>=0.2.21
27
- Requires-Dist: openai>=1.99.6
26
+ Requires-Dist: llama-stack-client>=0.2.23
27
+ Requires-Dist: openai>=1.100.0
28
28
  Requires-Dist: prompt-toolkit
29
29
  Requires-Dist: python-dotenv
30
30
  Requires-Dist: python-jose[cryptography]
31
- Requires-Dist: pydantic>=2
31
+ Requires-Dist: pydantic>=2.11.9
32
32
  Requires-Dist: rich
33
33
  Requires-Dist: starlette
34
34
  Requires-Dist: termcolor
@@ -44,7 +44,7 @@ Requires-Dist: asyncpg
44
44
  Provides-Extra: ui
45
45
  Requires-Dist: streamlit; extra == "ui"
46
46
  Requires-Dist: pandas; extra == "ui"
47
- Requires-Dist: llama-stack-client>=0.2.21; extra == "ui"
47
+ Requires-Dist: llama-stack-client>=0.2.23; extra == "ui"
48
48
  Requires-Dist: streamlit-option-menu; extra == "ui"
49
49
  Dynamic: license-file
50
50
 
@@ -57,7 +57,7 @@ Dynamic: license-file
57
57
  [![Unit Tests](https://github.com/meta-llama/llama-stack/actions/workflows/unit-tests.yml/badge.svg?branch=main)](https://github.com/meta-llama/llama-stack/actions/workflows/unit-tests.yml?query=branch%3Amain)
58
58
  [![Integration Tests](https://github.com/meta-llama/llama-stack/actions/workflows/integration-tests.yml/badge.svg?branch=main)](https://github.com/meta-llama/llama-stack/actions/workflows/integration-tests.yml?query=branch%3Amain)
59
59
 
60
- [**Quick Start**](https://llama-stack.readthedocs.io/en/latest/getting_started/index.html) | [**Documentation**](https://llama-stack.readthedocs.io/en/latest/index.html) | [**Colab Notebook**](./docs/getting_started.ipynb) | [**Discord**](https://discord.gg/llama-stack)
60
+ [**Quick Start**](https://llamastack.github.io/latest/getting_started/index.html) | [**Documentation**](https://llamastack.github.io/latest/index.html) | [**Colab Notebook**](./docs/getting_started.ipynb) | [**Discord**](https://discord.gg/llama-stack)
61
61
 
62
62
 
63
63
  ### ✨🎉 Llama 4 Support 🎉✨
@@ -159,7 +159,7 @@ By reducing friction and complexity, Llama Stack empowers developers to focus on
159
159
 
160
160
  ### API Providers
161
161
  Here is a list of the various API providers and available distributions that can help developers get started easily with Llama Stack.
162
- Please checkout for [full list](https://llama-stack.readthedocs.io/en/latest/providers/index.html)
162
+ Please checkout for [full list](https://llamastack.github.io/latest/providers/index.html)
163
163
 
164
164
  | API Provider Builder | Environments | Agents | Inference | VectorIO | Safety | Telemetry | Post Training | Eval | DatasetIO |
165
165
  |:--------------------:|:------------:|:------:|:---------:|:--------:|:------:|:---------:|:-------------:|:----:|:--------:|
@@ -190,7 +190,7 @@ Please checkout for [full list](https://llama-stack.readthedocs.io/en/latest/pro
190
190
  | NVIDIA NEMO | Hosted | | ✅ | ✅ | | | ✅ | ✅ | ✅ |
191
191
  | NVIDIA | Hosted | | | | | | ✅ | ✅ | ✅ |
192
192
 
193
- > **Note**: Additional providers are available through external packages. See [External Providers](https://llama-stack.readthedocs.io/en/latest/providers/external.html) documentation.
193
+ > **Note**: Additional providers are available through external packages. See [External Providers](https://llamastack.github.io/latest/providers/external/index.html) documentation.
194
194
 
195
195
  ### Distributions
196
196
 
@@ -199,24 +199,24 @@ Here are some of the distributions we support:
199
199
 
200
200
  | **Distribution** | **Llama Stack Docker** | Start This Distribution |
201
201
  |:---------------------------------------------:|:-------------------------------------------------------------------------------------------------------------------------------------------------------------:|:------------------------------------------------------------------------------------------------------------------------:|
202
- | Starter Distribution | [llamastack/distribution-starter](https://hub.docker.com/repository/docker/llamastack/distribution-starter/general) | [Guide](https://llama-stack.readthedocs.io/en/latest/distributions/self_hosted_distro/starter.html) |
203
- | Meta Reference | [llamastack/distribution-meta-reference-gpu](https://hub.docker.com/repository/docker/llamastack/distribution-meta-reference-gpu/general) | [Guide](https://llama-stack.readthedocs.io/en/latest/distributions/self_hosted_distro/meta-reference-gpu.html) |
202
+ | Starter Distribution | [llamastack/distribution-starter](https://hub.docker.com/repository/docker/llamastack/distribution-starter/general) | [Guide](https://llamastack.github.io/latest/distributions/self_hosted_distro/starter.html) |
203
+ | Meta Reference | [llamastack/distribution-meta-reference-gpu](https://hub.docker.com/repository/docker/llamastack/distribution-meta-reference-gpu/general) | [Guide](https://llamastack.github.io/latest/distributions/self_hosted_distro/meta-reference-gpu.html) |
204
204
  | PostgreSQL | [llamastack/distribution-postgres-demo](https://hub.docker.com/repository/docker/llamastack/distribution-postgres-demo/general) | |
205
205
 
206
206
  ### Documentation
207
207
 
208
- Please checkout our [Documentation](https://llama-stack.readthedocs.io/en/latest/index.html) page for more details.
208
+ Please checkout our [Documentation](https://llamastack.github.io/latest/index.html) page for more details.
209
209
 
210
210
  * CLI references
211
- * [llama (server-side) CLI Reference](https://llama-stack.readthedocs.io/en/latest/references/llama_cli_reference/index.html): Guide for using the `llama` CLI to work with Llama models (download, study prompts), and building/starting a Llama Stack distribution.
212
- * [llama (client-side) CLI Reference](https://llama-stack.readthedocs.io/en/latest/references/llama_stack_client_cli_reference.html): Guide for using the `llama-stack-client` CLI, which allows you to query information about the distribution.
211
+ * [llama (server-side) CLI Reference](https://llamastack.github.io/latest/references/llama_cli_reference/index.html): Guide for using the `llama` CLI to work with Llama models (download, study prompts), and building/starting a Llama Stack distribution.
212
+ * [llama (client-side) CLI Reference](https://llamastack.github.io/latest/references/llama_stack_client_cli_reference.html): Guide for using the `llama-stack-client` CLI, which allows you to query information about the distribution.
213
213
  * Getting Started
214
- * [Quick guide to start a Llama Stack server](https://llama-stack.readthedocs.io/en/latest/getting_started/index.html).
214
+ * [Quick guide to start a Llama Stack server](https://llamastack.github.io/latest/getting_started/index.html).
215
215
  * [Jupyter notebook](./docs/getting_started.ipynb) to walk-through how to use simple text and vision inference llama_stack_client APIs
216
216
  * The complete Llama Stack lesson [Colab notebook](https://colab.research.google.com/drive/1dtVmxotBsI4cGZQNsJRYPrLiDeT0Wnwt) of the new [Llama 3.2 course on Deeplearning.ai](https://learn.deeplearning.ai/courses/introducing-multimodal-llama-3-2/lesson/8/llama-stack).
217
217
  * A [Zero-to-Hero Guide](https://github.com/meta-llama/llama-stack/tree/main/docs/zero_to_hero_guide) that guide you through all the key components of llama stack with code samples.
218
218
  * [Contributing](CONTRIBUTING.md)
219
- * [Adding a new API Provider](https://llama-stack.readthedocs.io/en/latest/contributing/new_api_provider.html) to walk-through how to add a new API provider.
219
+ * [Adding a new API Provider](https://llamastack.github.io/latest/contributing/new_api_provider.html) to walk-through how to add a new API provider.
220
220
 
221
221
  ### Llama Stack Client SDKs
222
222
 
@@ -7,7 +7,7 @@
7
7
  [![Unit Tests](https://github.com/meta-llama/llama-stack/actions/workflows/unit-tests.yml/badge.svg?branch=main)](https://github.com/meta-llama/llama-stack/actions/workflows/unit-tests.yml?query=branch%3Amain)
8
8
  [![Integration Tests](https://github.com/meta-llama/llama-stack/actions/workflows/integration-tests.yml/badge.svg?branch=main)](https://github.com/meta-llama/llama-stack/actions/workflows/integration-tests.yml?query=branch%3Amain)
9
9
 
10
- [**Quick Start**](https://llama-stack.readthedocs.io/en/latest/getting_started/index.html) | [**Documentation**](https://llama-stack.readthedocs.io/en/latest/index.html) | [**Colab Notebook**](./docs/getting_started.ipynb) | [**Discord**](https://discord.gg/llama-stack)
10
+ [**Quick Start**](https://llamastack.github.io/latest/getting_started/index.html) | [**Documentation**](https://llamastack.github.io/latest/index.html) | [**Colab Notebook**](./docs/getting_started.ipynb) | [**Discord**](https://discord.gg/llama-stack)
11
11
 
12
12
 
13
13
  ### ✨🎉 Llama 4 Support 🎉✨
@@ -109,7 +109,7 @@ By reducing friction and complexity, Llama Stack empowers developers to focus on
109
109
 
110
110
  ### API Providers
111
111
  Here is a list of the various API providers and available distributions that can help developers get started easily with Llama Stack.
112
- Please checkout for [full list](https://llama-stack.readthedocs.io/en/latest/providers/index.html)
112
+ Please checkout for [full list](https://llamastack.github.io/latest/providers/index.html)
113
113
 
114
114
  | API Provider Builder | Environments | Agents | Inference | VectorIO | Safety | Telemetry | Post Training | Eval | DatasetIO |
115
115
  |:--------------------:|:------------:|:------:|:---------:|:--------:|:------:|:---------:|:-------------:|:----:|:--------:|
@@ -140,7 +140,7 @@ Please checkout for [full list](https://llama-stack.readthedocs.io/en/latest/pro
140
140
  | NVIDIA NEMO | Hosted | | ✅ | ✅ | | | ✅ | ✅ | ✅ |
141
141
  | NVIDIA | Hosted | | | | | | ✅ | ✅ | ✅ |
142
142
 
143
- > **Note**: Additional providers are available through external packages. See [External Providers](https://llama-stack.readthedocs.io/en/latest/providers/external.html) documentation.
143
+ > **Note**: Additional providers are available through external packages. See [External Providers](https://llamastack.github.io/latest/providers/external/index.html) documentation.
144
144
 
145
145
  ### Distributions
146
146
 
@@ -149,24 +149,24 @@ Here are some of the distributions we support:
149
149
 
150
150
  | **Distribution** | **Llama Stack Docker** | Start This Distribution |
151
151
  |:---------------------------------------------:|:-------------------------------------------------------------------------------------------------------------------------------------------------------------:|:------------------------------------------------------------------------------------------------------------------------:|
152
- | Starter Distribution | [llamastack/distribution-starter](https://hub.docker.com/repository/docker/llamastack/distribution-starter/general) | [Guide](https://llama-stack.readthedocs.io/en/latest/distributions/self_hosted_distro/starter.html) |
153
- | Meta Reference | [llamastack/distribution-meta-reference-gpu](https://hub.docker.com/repository/docker/llamastack/distribution-meta-reference-gpu/general) | [Guide](https://llama-stack.readthedocs.io/en/latest/distributions/self_hosted_distro/meta-reference-gpu.html) |
152
+ | Starter Distribution | [llamastack/distribution-starter](https://hub.docker.com/repository/docker/llamastack/distribution-starter/general) | [Guide](https://llamastack.github.io/latest/distributions/self_hosted_distro/starter.html) |
153
+ | Meta Reference | [llamastack/distribution-meta-reference-gpu](https://hub.docker.com/repository/docker/llamastack/distribution-meta-reference-gpu/general) | [Guide](https://llamastack.github.io/latest/distributions/self_hosted_distro/meta-reference-gpu.html) |
154
154
  | PostgreSQL | [llamastack/distribution-postgres-demo](https://hub.docker.com/repository/docker/llamastack/distribution-postgres-demo/general) | |
155
155
 
156
156
  ### Documentation
157
157
 
158
- Please checkout our [Documentation](https://llama-stack.readthedocs.io/en/latest/index.html) page for more details.
158
+ Please checkout our [Documentation](https://llamastack.github.io/latest/index.html) page for more details.
159
159
 
160
160
  * CLI references
161
- * [llama (server-side) CLI Reference](https://llama-stack.readthedocs.io/en/latest/references/llama_cli_reference/index.html): Guide for using the `llama` CLI to work with Llama models (download, study prompts), and building/starting a Llama Stack distribution.
162
- * [llama (client-side) CLI Reference](https://llama-stack.readthedocs.io/en/latest/references/llama_stack_client_cli_reference.html): Guide for using the `llama-stack-client` CLI, which allows you to query information about the distribution.
161
+ * [llama (server-side) CLI Reference](https://llamastack.github.io/latest/references/llama_cli_reference/index.html): Guide for using the `llama` CLI to work with Llama models (download, study prompts), and building/starting a Llama Stack distribution.
162
+ * [llama (client-side) CLI Reference](https://llamastack.github.io/latest/references/llama_stack_client_cli_reference.html): Guide for using the `llama-stack-client` CLI, which allows you to query information about the distribution.
163
163
  * Getting Started
164
- * [Quick guide to start a Llama Stack server](https://llama-stack.readthedocs.io/en/latest/getting_started/index.html).
164
+ * [Quick guide to start a Llama Stack server](https://llamastack.github.io/latest/getting_started/index.html).
165
165
  * [Jupyter notebook](./docs/getting_started.ipynb) to walk-through how to use simple text and vision inference llama_stack_client APIs
166
166
  * The complete Llama Stack lesson [Colab notebook](https://colab.research.google.com/drive/1dtVmxotBsI4cGZQNsJRYPrLiDeT0Wnwt) of the new [Llama 3.2 course on Deeplearning.ai](https://learn.deeplearning.ai/courses/introducing-multimodal-llama-3-2/lesson/8/llama-stack).
167
167
  * A [Zero-to-Hero Guide](https://github.com/meta-llama/llama-stack/tree/main/docs/zero_to_hero_guide) that guide you through all the key components of llama stack with code samples.
168
168
  * [Contributing](CONTRIBUTING.md)
169
- * [Adding a new API Provider](https://llama-stack.readthedocs.io/en/latest/contributing/new_api_provider.html) to walk-through how to add a new API provider.
169
+ * [Adding a new API Provider](https://llamastack.github.io/latest/contributing/new_api_provider.html) to walk-through how to add a new API provider.
170
170
 
171
171
  ### Llama Stack Client SDKs
172
172
 
@@ -193,4 +193,4 @@ Thanks to all of our amazing contributors!
193
193
 
194
194
  <a href="https://github.com/meta-llama/llama-stack/graphs/contributors">
195
195
  <img src="https://contrib.rocks/image?repo=meta-llama/llama-stack" />
196
- </a>
196
+ </a>
@@ -27,6 +27,7 @@ from llama_stack.apis.inference import (
27
27
  )
28
28
  from llama_stack.apis.safety import SafetyViolation
29
29
  from llama_stack.apis.tools import ToolDef
30
+ from llama_stack.apis.version import LLAMA_STACK_API_V1
30
31
  from llama_stack.schema_utils import json_schema_type, register_schema, webmethod
31
32
 
32
33
  from .openai_responses import (
@@ -481,7 +482,7 @@ class Agents(Protocol):
481
482
  - Agents can also use Memory to retrieve information from knowledge bases. See the RAG Tool and Vector IO APIs for more details.
482
483
  """
483
484
 
484
- @webmethod(route="/agents", method="POST", descriptive_name="create_agent")
485
+ @webmethod(route="/agents", method="POST", descriptive_name="create_agent", level=LLAMA_STACK_API_V1)
485
486
  async def create_agent(
486
487
  self,
487
488
  agent_config: AgentConfig,
@@ -494,7 +495,10 @@ class Agents(Protocol):
494
495
  ...
495
496
 
496
497
  @webmethod(
497
- route="/agents/{agent_id}/session/{session_id}/turn", method="POST", descriptive_name="create_agent_turn"
498
+ route="/agents/{agent_id}/session/{session_id}/turn",
499
+ method="POST",
500
+ descriptive_name="create_agent_turn",
501
+ level=LLAMA_STACK_API_V1,
498
502
  )
499
503
  async def create_agent_turn(
500
504
  self,
@@ -524,6 +528,7 @@ class Agents(Protocol):
524
528
  route="/agents/{agent_id}/session/{session_id}/turn/{turn_id}/resume",
525
529
  method="POST",
526
530
  descriptive_name="resume_agent_turn",
531
+ level=LLAMA_STACK_API_V1,
527
532
  )
528
533
  async def resume_agent_turn(
529
534
  self,
@@ -549,6 +554,7 @@ class Agents(Protocol):
549
554
  @webmethod(
550
555
  route="/agents/{agent_id}/session/{session_id}/turn/{turn_id}",
551
556
  method="GET",
557
+ level=LLAMA_STACK_API_V1,
552
558
  )
553
559
  async def get_agents_turn(
554
560
  self,
@@ -568,6 +574,7 @@ class Agents(Protocol):
568
574
  @webmethod(
569
575
  route="/agents/{agent_id}/session/{session_id}/turn/{turn_id}/step/{step_id}",
570
576
  method="GET",
577
+ level=LLAMA_STACK_API_V1,
571
578
  )
572
579
  async def get_agents_step(
573
580
  self,
@@ -586,7 +593,12 @@ class Agents(Protocol):
586
593
  """
587
594
  ...
588
595
 
589
- @webmethod(route="/agents/{agent_id}/session", method="POST", descriptive_name="create_agent_session")
596
+ @webmethod(
597
+ route="/agents/{agent_id}/session",
598
+ method="POST",
599
+ descriptive_name="create_agent_session",
600
+ level=LLAMA_STACK_API_V1,
601
+ )
590
602
  async def create_agent_session(
591
603
  self,
592
604
  agent_id: str,
@@ -600,7 +612,7 @@ class Agents(Protocol):
600
612
  """
601
613
  ...
602
614
 
603
- @webmethod(route="/agents/{agent_id}/session/{session_id}", method="GET")
615
+ @webmethod(route="/agents/{agent_id}/session/{session_id}", method="GET", level=LLAMA_STACK_API_V1)
604
616
  async def get_agents_session(
605
617
  self,
606
618
  session_id: str,
@@ -616,7 +628,7 @@ class Agents(Protocol):
616
628
  """
617
629
  ...
618
630
 
619
- @webmethod(route="/agents/{agent_id}/session/{session_id}", method="DELETE")
631
+ @webmethod(route="/agents/{agent_id}/session/{session_id}", method="DELETE", level=LLAMA_STACK_API_V1)
620
632
  async def delete_agents_session(
621
633
  self,
622
634
  session_id: str,
@@ -629,7 +641,7 @@ class Agents(Protocol):
629
641
  """
630
642
  ...
631
643
 
632
- @webmethod(route="/agents/{agent_id}", method="DELETE")
644
+ @webmethod(route="/agents/{agent_id}", method="DELETE", level=LLAMA_STACK_API_V1)
633
645
  async def delete_agent(
634
646
  self,
635
647
  agent_id: str,
@@ -640,7 +652,7 @@ class Agents(Protocol):
640
652
  """
641
653
  ...
642
654
 
643
- @webmethod(route="/agents", method="GET")
655
+ @webmethod(route="/agents", method="GET", level=LLAMA_STACK_API_V1)
644
656
  async def list_agents(self, start_index: int | None = None, limit: int | None = None) -> PaginatedResponse:
645
657
  """List all agents.
646
658
 
@@ -650,7 +662,7 @@ class Agents(Protocol):
650
662
  """
651
663
  ...
652
664
 
653
- @webmethod(route="/agents/{agent_id}", method="GET")
665
+ @webmethod(route="/agents/{agent_id}", method="GET", level=LLAMA_STACK_API_V1)
654
666
  async def get_agent(self, agent_id: str) -> Agent:
655
667
  """Describe an agent by its ID.
656
668
 
@@ -659,7 +671,7 @@ class Agents(Protocol):
659
671
  """
660
672
  ...
661
673
 
662
- @webmethod(route="/agents/{agent_id}/sessions", method="GET")
674
+ @webmethod(route="/agents/{agent_id}/sessions", method="GET", level=LLAMA_STACK_API_V1)
663
675
  async def list_agent_sessions(
664
676
  self,
665
677
  agent_id: str,
@@ -682,7 +694,7 @@ class Agents(Protocol):
682
694
  #
683
695
  # Both of these APIs are inherently stateful.
684
696
 
685
- @webmethod(route="/openai/v1/responses/{response_id}", method="GET")
697
+ @webmethod(route="/openai/v1/responses/{response_id}", method="GET", level=LLAMA_STACK_API_V1)
686
698
  async def get_openai_response(
687
699
  self,
688
700
  response_id: str,
@@ -694,7 +706,7 @@ class Agents(Protocol):
694
706
  """
695
707
  ...
696
708
 
697
- @webmethod(route="/openai/v1/responses", method="POST")
709
+ @webmethod(route="/openai/v1/responses", method="POST", level=LLAMA_STACK_API_V1)
698
710
  async def create_openai_response(
699
711
  self,
700
712
  input: str | list[OpenAIResponseInput],
@@ -719,7 +731,7 @@ class Agents(Protocol):
719
731
  """
720
732
  ...
721
733
 
722
- @webmethod(route="/openai/v1/responses", method="GET")
734
+ @webmethod(route="/openai/v1/responses", method="GET", level=LLAMA_STACK_API_V1)
723
735
  async def list_openai_responses(
724
736
  self,
725
737
  after: str | None = None,
@@ -737,7 +749,7 @@ class Agents(Protocol):
737
749
  """
738
750
  ...
739
751
 
740
- @webmethod(route="/openai/v1/responses/{response_id}/input_items", method="GET")
752
+ @webmethod(route="/openai/v1/responses/{response_id}/input_items", method="GET", level=LLAMA_STACK_API_V1)
741
753
  async def list_openai_response_input_items(
742
754
  self,
743
755
  response_id: str,
@@ -759,7 +771,7 @@ class Agents(Protocol):
759
771
  """
760
772
  ...
761
773
 
762
- @webmethod(route="/openai/v1/responses/{response_id}", method="DELETE")
774
+ @webmethod(route="/openai/v1/responses/{response_id}", method="DELETE", level=LLAMA_STACK_API_V1)
763
775
  async def delete_openai_response(self, response_id: str) -> OpenAIDeleteResponseObject:
764
776
  """Delete an OpenAI response by its ID.
765
777
 
@@ -17,6 +17,7 @@ from llama_stack.apis.inference import (
17
17
  ToolDefinition,
18
18
  ToolPromptFormat,
19
19
  )
20
+ from llama_stack.apis.version import LLAMA_STACK_API_V1
20
21
  from llama_stack.schema_utils import webmethod
21
22
 
22
23
 
@@ -30,7 +31,7 @@ class BatchInference(Protocol):
30
31
  including (post-training, evals, etc).
31
32
  """
32
33
 
33
- @webmethod(route="/batch-inference/completion", method="POST")
34
+ @webmethod(route="/batch-inference/completion", method="POST", level=LLAMA_STACK_API_V1)
34
35
  async def completion(
35
36
  self,
36
37
  model: str,
@@ -50,7 +51,7 @@ class BatchInference(Protocol):
50
51
  """
51
52
  ...
52
53
 
53
- @webmethod(route="/batch-inference/chat-completion", method="POST")
54
+ @webmethod(route="/batch-inference/chat-completion", method="POST", level=LLAMA_STACK_API_V1)
54
55
  async def chat_completion(
55
56
  self,
56
57
  model: str,
@@ -8,6 +8,7 @@ from typing import Literal, Protocol, runtime_checkable
8
8
 
9
9
  from pydantic import BaseModel, Field
10
10
 
11
+ from llama_stack.apis.version import LLAMA_STACK_API_V1
11
12
  from llama_stack.schema_utils import json_schema_type, webmethod
12
13
 
13
14
  try:
@@ -42,7 +43,7 @@ class Batches(Protocol):
42
43
  Note: This API is currently under active development and may undergo changes.
43
44
  """
44
45
 
45
- @webmethod(route="/openai/v1/batches", method="POST")
46
+ @webmethod(route="/openai/v1/batches", method="POST", level=LLAMA_STACK_API_V1)
46
47
  async def create_batch(
47
48
  self,
48
49
  input_file_id: str,
@@ -62,7 +63,7 @@ class Batches(Protocol):
62
63
  """
63
64
  ...
64
65
 
65
- @webmethod(route="/openai/v1/batches/{batch_id}", method="GET")
66
+ @webmethod(route="/openai/v1/batches/{batch_id}", method="GET", level=LLAMA_STACK_API_V1)
66
67
  async def retrieve_batch(self, batch_id: str) -> BatchObject:
67
68
  """Retrieve information about a specific batch.
68
69
 
@@ -71,7 +72,7 @@ class Batches(Protocol):
71
72
  """
72
73
  ...
73
74
 
74
- @webmethod(route="/openai/v1/batches/{batch_id}/cancel", method="POST")
75
+ @webmethod(route="/openai/v1/batches/{batch_id}/cancel", method="POST", level=LLAMA_STACK_API_V1)
75
76
  async def cancel_batch(self, batch_id: str) -> BatchObject:
76
77
  """Cancel a batch that is in progress.
77
78
 
@@ -80,7 +81,7 @@ class Batches(Protocol):
80
81
  """
81
82
  ...
82
83
 
83
- @webmethod(route="/openai/v1/batches", method="GET")
84
+ @webmethod(route="/openai/v1/batches", method="GET", level=LLAMA_STACK_API_V1)
84
85
  async def list_batches(
85
86
  self,
86
87
  after: str | None = None,
@@ -8,6 +8,7 @@ from typing import Any, Literal, Protocol, runtime_checkable
8
8
  from pydantic import BaseModel, Field
9
9
 
10
10
  from llama_stack.apis.resource import Resource, ResourceType
11
+ from llama_stack.apis.version import LLAMA_STACK_API_V1, LLAMA_STACK_API_V1ALPHA
11
12
  from llama_stack.schema_utils import json_schema_type, webmethod
12
13
 
13
14
 
@@ -53,7 +54,8 @@ class ListBenchmarksResponse(BaseModel):
53
54
 
54
55
  @runtime_checkable
55
56
  class Benchmarks(Protocol):
56
- @webmethod(route="/eval/benchmarks", method="GET")
57
+ @webmethod(route="/eval/benchmarks", method="GET", level=LLAMA_STACK_API_V1, deprecated=True)
58
+ @webmethod(route="/eval/benchmarks", method="GET", level=LLAMA_STACK_API_V1ALPHA)
57
59
  async def list_benchmarks(self) -> ListBenchmarksResponse:
58
60
  """List all benchmarks.
59
61
 
@@ -61,7 +63,8 @@ class Benchmarks(Protocol):
61
63
  """
62
64
  ...
63
65
 
64
- @webmethod(route="/eval/benchmarks/{benchmark_id}", method="GET")
66
+ @webmethod(route="/eval/benchmarks/{benchmark_id}", method="GET", level=LLAMA_STACK_API_V1, deprecated=True)
67
+ @webmethod(route="/eval/benchmarks/{benchmark_id}", method="GET", level=LLAMA_STACK_API_V1ALPHA)
65
68
  async def get_benchmark(
66
69
  self,
67
70
  benchmark_id: str,
@@ -73,7 +76,8 @@ class Benchmarks(Protocol):
73
76
  """
74
77
  ...
75
78
 
76
- @webmethod(route="/eval/benchmarks", method="POST")
79
+ @webmethod(route="/eval/benchmarks", method="POST", level=LLAMA_STACK_API_V1, deprecated=True)
80
+ @webmethod(route="/eval/benchmarks", method="POST", level=LLAMA_STACK_API_V1ALPHA)
77
81
  async def register_benchmark(
78
82
  self,
79
83
  benchmark_id: str,
@@ -93,3 +97,12 @@ class Benchmarks(Protocol):
93
97
  :param metadata: The metadata to use for the benchmark.
94
98
  """
95
99
  ...
100
+
101
+ @webmethod(route="/eval/benchmarks/{benchmark_id}", method="DELETE", level=LLAMA_STACK_API_V1, deprecated=True)
102
+ @webmethod(route="/eval/benchmarks/{benchmark_id}", method="DELETE", level=LLAMA_STACK_API_V1ALPHA)
103
+ async def unregister_benchmark(self, benchmark_id: str) -> None:
104
+ """Unregister a benchmark.
105
+
106
+ :param benchmark_id: The ID of the benchmark to unregister.
107
+ """
108
+ ...
@@ -8,6 +8,7 @@ from typing import Any, Protocol, runtime_checkable
8
8
 
9
9
  from llama_stack.apis.common.responses import PaginatedResponse
10
10
  from llama_stack.apis.datasets import Dataset
11
+ from llama_stack.apis.version import LLAMA_STACK_API_V1
11
12
  from llama_stack.schema_utils import webmethod
12
13
 
13
14
 
@@ -20,7 +21,7 @@ class DatasetIO(Protocol):
20
21
  # keeping for aligning with inference/safety, but this is not used
21
22
  dataset_store: DatasetStore
22
23
 
23
- @webmethod(route="/datasetio/iterrows/{dataset_id:path}", method="GET")
24
+ @webmethod(route="/datasetio/iterrows/{dataset_id:path}", method="GET", level=LLAMA_STACK_API_V1)
24
25
  async def iterrows(
25
26
  self,
26
27
  dataset_id: str,
@@ -44,7 +45,7 @@ class DatasetIO(Protocol):
44
45
  """
45
46
  ...
46
47
 
47
- @webmethod(route="/datasetio/append-rows/{dataset_id:path}", method="POST")
48
+ @webmethod(route="/datasetio/append-rows/{dataset_id:path}", method="POST", level=LLAMA_STACK_API_V1)
48
49
  async def append_rows(self, dataset_id: str, rows: list[dict[str, Any]]) -> None:
49
50
  """Append rows to a dataset.
50
51
 
@@ -10,6 +10,7 @@ from typing import Annotated, Any, Literal, Protocol
10
10
  from pydantic import BaseModel, Field
11
11
 
12
12
  from llama_stack.apis.resource import Resource, ResourceType
13
+ from llama_stack.apis.version import LLAMA_STACK_API_V1
13
14
  from llama_stack.schema_utils import json_schema_type, register_schema, webmethod
14
15
 
15
16
 
@@ -145,7 +146,7 @@ class ListDatasetsResponse(BaseModel):
145
146
 
146
147
 
147
148
  class Datasets(Protocol):
148
- @webmethod(route="/datasets", method="POST")
149
+ @webmethod(route="/datasets", method="POST", level=LLAMA_STACK_API_V1)
149
150
  async def register_dataset(
150
151
  self,
151
152
  purpose: DatasetPurpose,
@@ -214,7 +215,7 @@ class Datasets(Protocol):
214
215
  """
215
216
  ...
216
217
 
217
- @webmethod(route="/datasets/{dataset_id:path}", method="GET")
218
+ @webmethod(route="/datasets/{dataset_id:path}", method="GET", level=LLAMA_STACK_API_V1)
218
219
  async def get_dataset(
219
220
  self,
220
221
  dataset_id: str,
@@ -226,7 +227,7 @@ class Datasets(Protocol):
226
227
  """
227
228
  ...
228
229
 
229
- @webmethod(route="/datasets", method="GET")
230
+ @webmethod(route="/datasets", method="GET", level=LLAMA_STACK_API_V1)
230
231
  async def list_datasets(self) -> ListDatasetsResponse:
231
232
  """List all datasets.
232
233
 
@@ -234,7 +235,7 @@ class Datasets(Protocol):
234
235
  """
235
236
  ...
236
237
 
237
- @webmethod(route="/datasets/{dataset_id:path}", method="DELETE")
238
+ @webmethod(route="/datasets/{dataset_id:path}", method="DELETE", level=LLAMA_STACK_API_V1)
238
239
  async def unregister_dataset(
239
240
  self,
240
241
  dataset_id: str,
@@ -13,6 +13,7 @@ from llama_stack.apis.common.job_types import Job
13
13
  from llama_stack.apis.inference import SamplingParams, SystemMessage
14
14
  from llama_stack.apis.scoring import ScoringResult
15
15
  from llama_stack.apis.scoring_functions import ScoringFnParams
16
+ from llama_stack.apis.version import LLAMA_STACK_API_V1, LLAMA_STACK_API_V1ALPHA
16
17
  from llama_stack.schema_utils import json_schema_type, register_schema, webmethod
17
18
 
18
19
 
@@ -83,7 +84,8 @@ class EvaluateResponse(BaseModel):
83
84
  class Eval(Protocol):
84
85
  """Llama Stack Evaluation API for running evaluations on model and agent candidates."""
85
86
 
86
- @webmethod(route="/eval/benchmarks/{benchmark_id}/jobs", method="POST")
87
+ @webmethod(route="/eval/benchmarks/{benchmark_id}/jobs", method="POST", level=LLAMA_STACK_API_V1, deprecated=True)
88
+ @webmethod(route="/eval/benchmarks/{benchmark_id}/jobs", method="POST", level=LLAMA_STACK_API_V1ALPHA)
87
89
  async def run_eval(
88
90
  self,
89
91
  benchmark_id: str,
@@ -97,7 +99,10 @@ class Eval(Protocol):
97
99
  """
98
100
  ...
99
101
 
100
- @webmethod(route="/eval/benchmarks/{benchmark_id}/evaluations", method="POST")
102
+ @webmethod(
103
+ route="/eval/benchmarks/{benchmark_id}/evaluations", method="POST", level=LLAMA_STACK_API_V1, deprecated=True
104
+ )
105
+ @webmethod(route="/eval/benchmarks/{benchmark_id}/evaluations", method="POST", level=LLAMA_STACK_API_V1ALPHA)
101
106
  async def evaluate_rows(
102
107
  self,
103
108
  benchmark_id: str,
@@ -115,7 +120,10 @@ class Eval(Protocol):
115
120
  """
116
121
  ...
117
122
 
118
- @webmethod(route="/eval/benchmarks/{benchmark_id}/jobs/{job_id}", method="GET")
123
+ @webmethod(
124
+ route="/eval/benchmarks/{benchmark_id}/jobs/{job_id}", method="GET", level=LLAMA_STACK_API_V1, deprecated=True
125
+ )
126
+ @webmethod(route="/eval/benchmarks/{benchmark_id}/jobs/{job_id}", method="GET", level=LLAMA_STACK_API_V1ALPHA)
119
127
  async def job_status(self, benchmark_id: str, job_id: str) -> Job:
120
128
  """Get the status of a job.
121
129
 
@@ -125,7 +133,13 @@ class Eval(Protocol):
125
133
  """
126
134
  ...
127
135
 
128
- @webmethod(route="/eval/benchmarks/{benchmark_id}/jobs/{job_id}", method="DELETE")
136
+ @webmethod(
137
+ route="/eval/benchmarks/{benchmark_id}/jobs/{job_id}",
138
+ method="DELETE",
139
+ level=LLAMA_STACK_API_V1,
140
+ deprecated=True,
141
+ )
142
+ @webmethod(route="/eval/benchmarks/{benchmark_id}/jobs/{job_id}", method="DELETE", level=LLAMA_STACK_API_V1ALPHA)
129
143
  async def job_cancel(self, benchmark_id: str, job_id: str) -> None:
130
144
  """Cancel a job.
131
145
 
@@ -134,7 +148,15 @@ class Eval(Protocol):
134
148
  """
135
149
  ...
136
150
 
137
- @webmethod(route="/eval/benchmarks/{benchmark_id}/jobs/{job_id}/result", method="GET")
151
+ @webmethod(
152
+ route="/eval/benchmarks/{benchmark_id}/jobs/{job_id}/result",
153
+ method="GET",
154
+ level=LLAMA_STACK_API_V1,
155
+ deprecated=True,
156
+ )
157
+ @webmethod(
158
+ route="/eval/benchmarks/{benchmark_id}/jobs/{job_id}/result", method="GET", level=LLAMA_STACK_API_V1ALPHA
159
+ )
138
160
  async def job_result(self, benchmark_id: str, job_id: str) -> EvaluateResponse:
139
161
  """Get the result of a job.
140
162
 
@@ -11,6 +11,7 @@ from fastapi import File, Form, Response, UploadFile
11
11
  from pydantic import BaseModel, Field
12
12
 
13
13
  from llama_stack.apis.common.responses import Order
14
+ from llama_stack.apis.version import LLAMA_STACK_API_V1
14
15
  from llama_stack.providers.utils.telemetry.trace_protocol import trace_protocol
15
16
  from llama_stack.schema_utils import json_schema_type, webmethod
16
17
 
@@ -104,7 +105,7 @@ class OpenAIFileDeleteResponse(BaseModel):
104
105
  @trace_protocol
105
106
  class Files(Protocol):
106
107
  # OpenAI Files API Endpoints
107
- @webmethod(route="/openai/v1/files", method="POST")
108
+ @webmethod(route="/openai/v1/files", method="POST", level=LLAMA_STACK_API_V1)
108
109
  async def openai_upload_file(
109
110
  self,
110
111
  file: Annotated[UploadFile, File()],
@@ -119,7 +120,7 @@ class Files(Protocol):
119
120
  The file upload should be a multipart form request with:
120
121
  - file: The File object (not file name) to be uploaded.
121
122
  - purpose: The intended purpose of the uploaded file.
122
- - expires_after: Optional form values describing expiration for the file. Expected expires_after[anchor] = "created_at", expires_after[seconds] = <int>. Seconds must be between 3600 and 2592000 (1 hour to 30 days).
123
+ - expires_after: Optional form values describing expiration for the file. Expected expires_after[anchor] = "created_at", expires_after[seconds] = {integer}. Seconds must be between 3600 and 2592000 (1 hour to 30 days).
123
124
 
124
125
  :param file: The uploaded file object containing content and metadata (filename, content_type, etc.).
125
126
  :param purpose: The intended purpose of the uploaded file (e.g., "assistants", "fine-tune").
@@ -127,7 +128,7 @@ class Files(Protocol):
127
128
  """
128
129
  ...
129
130
 
130
- @webmethod(route="/openai/v1/files", method="GET")
131
+ @webmethod(route="/openai/v1/files", method="GET", level=LLAMA_STACK_API_V1)
131
132
  async def openai_list_files(
132
133
  self,
133
134
  after: str | None = None,
@@ -146,7 +147,7 @@ class Files(Protocol):
146
147
  """
147
148
  ...
148
149
 
149
- @webmethod(route="/openai/v1/files/{file_id}", method="GET")
150
+ @webmethod(route="/openai/v1/files/{file_id}", method="GET", level=LLAMA_STACK_API_V1)
150
151
  async def openai_retrieve_file(
151
152
  self,
152
153
  file_id: str,
@@ -159,7 +160,7 @@ class Files(Protocol):
159
160
  """
160
161
  ...
161
162
 
162
- @webmethod(route="/openai/v1/files/{file_id}", method="DELETE")
163
+ @webmethod(route="/openai/v1/files/{file_id}", method="DELETE", level=LLAMA_STACK_API_V1)
163
164
  async def openai_delete_file(
164
165
  self,
165
166
  file_id: str,
@@ -172,7 +173,7 @@ class Files(Protocol):
172
173
  """
173
174
  ...
174
175
 
175
- @webmethod(route="/openai/v1/files/{file_id}/content", method="GET")
176
+ @webmethod(route="/openai/v1/files/{file_id}/content", method="GET", level=LLAMA_STACK_API_V1)
176
177
  async def openai_retrieve_file_content(
177
178
  self,
178
179
  file_id: str,