llama-stack 0.2.23__tar.gz → 0.3.1__tar.gz

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (907) hide show
  1. llama_stack-0.3.1/MANIFEST.in +11 -0
  2. llama_stack-0.3.1/PKG-INFO +260 -0
  3. llama_stack-0.3.1/README.md +210 -0
  4. llama_stack-0.3.1/llama_stack/apis/agents/agents.py +894 -0
  5. llama_stack-0.3.1/llama_stack/apis/agents/openai_responses.py +1311 -0
  6. llama_stack-0.3.1/llama_stack/apis/batches/batches.py +100 -0
  7. llama_stack-0.3.1/llama_stack/apis/common/errors.py +103 -0
  8. llama_stack-0.3.1/llama_stack/apis/conversations/__init__.py +31 -0
  9. llama_stack-0.3.1/llama_stack/apis/conversations/conversations.py +286 -0
  10. llama_stack-0.3.1/llama_stack/apis/datasetio/datasetio.py +59 -0
  11. llama_stack-0.3.1/llama_stack/apis/datasets/datasets.py +251 -0
  12. llama_stack-0.3.1/llama_stack/apis/datatypes.py +160 -0
  13. llama_stack-0.3.1/llama_stack/apis/eval/eval.py +169 -0
  14. llama_stack-0.3.1/llama_stack/apis/files/files.py +199 -0
  15. llama_stack-0.3.1/llama_stack/apis/inference/inference.py +1273 -0
  16. llama_stack-0.3.1/llama_stack/apis/inspect/inspect.py +94 -0
  17. llama_stack-0.3.1/llama_stack/apis/models/models.py +169 -0
  18. llama_stack-0.3.1/llama_stack/apis/prompts/prompts.py +204 -0
  19. llama_stack-0.3.1/llama_stack/apis/providers/providers.py +69 -0
  20. llama_stack-0.3.1/llama_stack/apis/resource.py +37 -0
  21. llama_stack-0.3.1/llama_stack/apis/safety/safety.py +135 -0
  22. llama_stack-0.3.1/llama_stack/apis/telemetry/telemetry.py +423 -0
  23. llama_stack-0.3.1/llama_stack/apis/tools/tools.py +221 -0
  24. llama_stack-0.3.1/llama_stack/apis/vector_io/vector_io.py +960 -0
  25. llama_stack-0.3.1/llama_stack/apis/vector_stores/__init__.py +7 -0
  26. llama_stack-0.3.1/llama_stack/apis/vector_stores/vector_stores.py +51 -0
  27. llama_stack-0.3.1/llama_stack/cli/llama.py +56 -0
  28. llama_stack-0.3.1/llama_stack/cli/stack/_list_deps.py +182 -0
  29. llama_stack-0.3.1/llama_stack/cli/stack/list_deps.py +51 -0
  30. llama_stack-0.3.1/llama_stack/cli/stack/run.py +216 -0
  31. llama_stack-0.3.1/llama_stack/cli/stack/stack.py +48 -0
  32. llama_stack-0.3.1/llama_stack/cli/stack/utils.py +151 -0
  33. llama_stack-0.3.1/llama_stack/core/access_control/datatypes.py +107 -0
  34. llama_stack-0.3.1/llama_stack/core/configure.py +203 -0
  35. llama_stack-0.3.1/llama_stack/core/conversations/conversations.py +309 -0
  36. llama_stack-0.3.1/llama_stack/core/datatypes.py +625 -0
  37. llama_stack-0.3.1/llama_stack/core/distribution.py +276 -0
  38. llama_stack-0.3.1/llama_stack/core/id_generation.py +42 -0
  39. llama_stack-0.3.1/llama_stack/core/library_client.py +539 -0
  40. llama_stack-0.3.1/llama_stack/core/prompts/prompts.py +234 -0
  41. llama_stack-0.3.1/llama_stack/core/resolver.py +503 -0
  42. llama_stack-0.3.1/llama_stack/core/routers/__init__.py +101 -0
  43. llama_stack-0.3.1/llama_stack/core/routers/inference.py +586 -0
  44. llama_stack-0.3.1/llama_stack/core/routers/tool_runtime.py +91 -0
  45. llama_stack-0.3.1/llama_stack/core/routers/vector_io.py +442 -0
  46. llama_stack-0.3.1/llama_stack/core/routing_tables/common.py +254 -0
  47. llama_stack-0.3.1/llama_stack/core/routing_tables/models.py +163 -0
  48. llama_stack-0.3.1/llama_stack/core/routing_tables/toolgroups.py +129 -0
  49. llama_stack-0.3.1/llama_stack/core/routing_tables/vector_stores.py +292 -0
  50. llama_stack-0.3.1/llama_stack/core/server/auth.py +187 -0
  51. llama_stack-0.3.1/llama_stack/core/server/auth_providers.py +494 -0
  52. llama_stack-0.3.1/llama_stack/core/server/quota.py +110 -0
  53. llama_stack-0.3.1/llama_stack/core/server/server.py +542 -0
  54. llama_stack-0.3.1/llama_stack/core/stack.py +546 -0
  55. llama_stack-0.3.1/llama_stack/core/start_stack.sh +117 -0
  56. llama_stack-0.3.1/llama_stack/core/storage/datatypes.py +283 -0
  57. llama_stack-0.3.1/llama_stack/core/store/registry.py +199 -0
  58. llama_stack-0.3.1/llama_stack/core/testing_context.py +49 -0
  59. llama_stack-0.3.1/llama_stack/core/ui/page/distribution/resources.py +48 -0
  60. llama_stack-0.3.1/llama_stack/core/ui/page/playground/tools.py +352 -0
  61. llama_stack-0.3.1/llama_stack/core/utils/config_resolution.py +125 -0
  62. llama_stack-0.3.1/llama_stack/core/utils/context.py +84 -0
  63. llama_stack-0.3.1/llama_stack/distributions/dell/build.yaml +33 -0
  64. llama_stack-0.3.1/llama_stack/distributions/dell/dell.py +158 -0
  65. llama_stack-0.3.1/llama_stack/distributions/dell/run-with-safety.yaml +141 -0
  66. llama_stack-0.3.1/llama_stack/distributions/dell/run.yaml +132 -0
  67. llama_stack-0.3.1/llama_stack/distributions/meta-reference-gpu/build.yaml +32 -0
  68. llama_stack-0.3.1/llama_stack/distributions/meta-reference-gpu/meta_reference.py +163 -0
  69. llama_stack-0.3.1/llama_stack/distributions/meta-reference-gpu/run-with-safety.yaml +154 -0
  70. llama_stack-0.3.1/llama_stack/distributions/meta-reference-gpu/run.yaml +139 -0
  71. llama_stack-0.3.1/llama_stack/distributions/nvidia/build.yaml +29 -0
  72. llama_stack-0.3.1/llama_stack/distributions/nvidia/nvidia.py +154 -0
  73. llama_stack-0.3.1/llama_stack/distributions/nvidia/run-with-safety.yaml +137 -0
  74. llama_stack-0.3.1/llama_stack/distributions/nvidia/run.yaml +116 -0
  75. llama_stack-0.3.1/llama_stack/distributions/open-benchmark/build.yaml +36 -0
  76. llama_stack-0.3.1/llama_stack/distributions/open-benchmark/open_benchmark.py +303 -0
  77. llama_stack-0.3.1/llama_stack/distributions/open-benchmark/run.yaml +252 -0
  78. llama_stack-0.3.1/llama_stack/distributions/postgres-demo/build.yaml +23 -0
  79. llama_stack-0.3.1/llama_stack/distributions/postgres-demo/postgres_demo.py +125 -0
  80. llama_stack-0.3.1/llama_stack/distributions/postgres-demo/run.yaml +115 -0
  81. llama_stack-0.3.1/llama_stack/distributions/starter/build.yaml +60 -0
  82. llama_stack-0.3.1/llama_stack/distributions/starter/run.yaml +276 -0
  83. llama_stack-0.3.1/llama_stack/distributions/starter/starter.py +327 -0
  84. llama_stack-0.3.1/llama_stack/distributions/starter-gpu/build.yaml +60 -0
  85. llama_stack-0.3.1/llama_stack/distributions/starter-gpu/run.yaml +279 -0
  86. llama_stack-0.3.1/llama_stack/distributions/template.py +456 -0
  87. llama_stack-0.3.1/llama_stack/distributions/watsonx/__init__.py +7 -0
  88. llama_stack-0.3.1/llama_stack/distributions/watsonx/build.yaml +33 -0
  89. llama_stack-0.3.1/llama_stack/distributions/watsonx/run.yaml +133 -0
  90. llama_stack-0.3.1/llama_stack/distributions/watsonx/watsonx.py +95 -0
  91. llama_stack-0.3.1/llama_stack/log.py +314 -0
  92. llama_stack-0.3.1/llama_stack/models/llama/datatypes.py +164 -0
  93. llama_stack-0.3.1/llama_stack/models/llama/llama3/chat_format.py +286 -0
  94. llama_stack-0.3.1/llama_stack/models/llama/llama3/prompt_templates/system_prompts.py +319 -0
  95. llama_stack-0.3.1/llama_stack/models/llama/llama3/tool_utils.py +266 -0
  96. llama_stack-0.3.1/llama_stack/models/llama/llama3_1/prompts.py +258 -0
  97. llama_stack-0.3.1/llama_stack/models/llama/llama3_3/prompts.py +259 -0
  98. llama_stack-0.3.1/llama_stack/models/llama/llama4/chat_format.py +317 -0
  99. llama_stack-0.3.1/llama_stack/models/llama/llama4/prompt_templates/system_prompts.py +136 -0
  100. llama_stack-0.3.1/llama_stack/models/llama/prompt_format.py +191 -0
  101. llama_stack-0.3.1/llama_stack/models/llama/tokenizer_utils.py +40 -0
  102. llama_stack-0.3.1/llama_stack/providers/datatypes.py +217 -0
  103. llama_stack-0.3.1/llama_stack/providers/inline/agents/meta_reference/__init__.py +34 -0
  104. llama_stack-0.3.1/llama_stack/providers/inline/agents/meta_reference/agent_instance.py +1024 -0
  105. llama_stack-0.3.1/llama_stack/providers/inline/agents/meta_reference/agents.py +383 -0
  106. llama_stack-0.3.1/llama_stack/providers/inline/agents/meta_reference/config.py +37 -0
  107. llama_stack-0.3.1/llama_stack/providers/inline/agents/meta_reference/responses/openai_responses.py +423 -0
  108. llama_stack-0.3.1/llama_stack/providers/inline/agents/meta_reference/responses/streaming.py +1226 -0
  109. llama_stack-0.3.1/llama_stack/providers/inline/agents/meta_reference/responses/tool_executor.py +449 -0
  110. llama_stack-0.3.1/llama_stack/providers/inline/agents/meta_reference/responses/types.py +194 -0
  111. llama_stack-0.3.1/llama_stack/providers/inline/agents/meta_reference/responses/utils.py +365 -0
  112. llama_stack-0.3.1/llama_stack/providers/inline/batches/reference/batches.py +679 -0
  113. llama_stack-0.3.1/llama_stack/providers/inline/batches/reference/config.py +40 -0
  114. llama_stack-0.3.1/llama_stack/providers/inline/datasetio/localfs/config.py +23 -0
  115. llama_stack-0.3.1/llama_stack/providers/inline/eval/meta_reference/config.py +23 -0
  116. llama_stack-0.3.1/llama_stack/providers/inline/eval/meta_reference/eval.py +259 -0
  117. llama_stack-0.3.1/llama_stack/providers/inline/files/localfs/config.py +31 -0
  118. llama_stack-0.3.1/llama_stack/providers/inline/files/localfs/files.py +219 -0
  119. llama_stack-0.3.1/llama_stack/providers/inline/inference/meta_reference/common.py +24 -0
  120. llama_stack-0.3.1/llama_stack/providers/inline/inference/meta_reference/inference.py +158 -0
  121. llama_stack-0.3.1/llama_stack/providers/inline/inference/meta_reference/model_parallel.py +96 -0
  122. llama_stack-0.3.1/llama_stack/providers/inline/inference/sentence_transformers/sentence_transformers.py +83 -0
  123. llama_stack-0.3.1/llama_stack/providers/inline/post_training/torchtune/recipes/lora_finetuning_single_device.py +588 -0
  124. llama_stack-0.3.1/llama_stack/providers/inline/safety/code_scanner/code_scanner.py +128 -0
  125. llama_stack-0.3.1/llama_stack/providers/inline/safety/llama_guard/llama_guard.py +489 -0
  126. llama_stack-0.3.1/llama_stack/providers/inline/safety/prompt_guard/prompt_guard.py +131 -0
  127. llama_stack-0.3.1/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/llm_as_judge_scoring_fn.py +81 -0
  128. llama_stack-0.3.1/llama_stack/providers/inline/telemetry/meta_reference/config.py +47 -0
  129. llama_stack-0.3.1/llama_stack/providers/inline/telemetry/meta_reference/telemetry.py +252 -0
  130. llama_stack-0.3.1/llama_stack/providers/inline/tool_runtime/rag/context_retriever.py +77 -0
  131. llama_stack-0.3.1/llama_stack/providers/inline/tool_runtime/rag/memory.py +332 -0
  132. llama_stack-0.3.1/llama_stack/providers/inline/vector_io/chroma/__init__.py +19 -0
  133. llama_stack-0.3.1/llama_stack/providers/inline/vector_io/chroma/config.py +30 -0
  134. llama_stack-0.3.1/llama_stack/providers/inline/vector_io/faiss/__init__.py +21 -0
  135. llama_stack-0.3.1/llama_stack/providers/inline/vector_io/faiss/config.py +26 -0
  136. llama_stack-0.3.1/llama_stack/providers/inline/vector_io/faiss/faiss.py +270 -0
  137. llama_stack-0.3.1/llama_stack/providers/inline/vector_io/milvus/__init__.py +19 -0
  138. llama_stack-0.3.1/llama_stack/providers/inline/vector_io/milvus/config.py +29 -0
  139. llama_stack-0.3.1/llama_stack/providers/inline/vector_io/qdrant/__init__.py +20 -0
  140. llama_stack-0.3.1/llama_stack/providers/inline/vector_io/qdrant/config.py +29 -0
  141. llama_stack-0.3.1/llama_stack/providers/inline/vector_io/sqlite_vec/__init__.py +20 -0
  142. llama_stack-0.3.1/llama_stack/providers/inline/vector_io/sqlite_vec/config.py +26 -0
  143. llama_stack-0.3.1/llama_stack/providers/inline/vector_io/sqlite_vec/sqlite_vec.py +472 -0
  144. llama_stack-0.3.1/llama_stack/providers/registry/agents.py +41 -0
  145. llama_stack-0.3.1/llama_stack/providers/registry/inference.py +297 -0
  146. llama_stack-0.3.1/llama_stack/providers/registry/tool_runtime.py +87 -0
  147. llama_stack-0.3.1/llama_stack/providers/registry/vector_io.py +828 -0
  148. llama_stack-0.3.1/llama_stack/providers/remote/datasetio/huggingface/config.py +23 -0
  149. llama_stack-0.3.1/llama_stack/providers/remote/files/s3/config.py +42 -0
  150. llama_stack-0.3.1/llama_stack/providers/remote/files/s3/files.py +313 -0
  151. llama_stack-0.3.1/llama_stack/providers/remote/inference/anthropic/__init__.py +15 -0
  152. llama_stack-0.3.1/llama_stack/providers/remote/inference/anthropic/anthropic.py +36 -0
  153. llama_stack-0.3.1/llama_stack/providers/remote/inference/anthropic/config.py +28 -0
  154. llama_stack-0.3.1/llama_stack/providers/remote/inference/azure/__init__.py +15 -0
  155. llama_stack-0.3.1/llama_stack/providers/remote/inference/azure/azure.py +25 -0
  156. llama_stack-0.3.1/llama_stack/providers/remote/inference/azure/config.py +61 -0
  157. llama_stack-0.3.1/llama_stack/providers/remote/inference/bedrock/bedrock.py +142 -0
  158. llama_stack-0.3.1/llama_stack/providers/remote/inference/cerebras/__init__.py +19 -0
  159. llama_stack-0.3.1/llama_stack/providers/remote/inference/cerebras/cerebras.py +28 -0
  160. llama_stack-0.3.1/llama_stack/providers/remote/inference/cerebras/config.py +30 -0
  161. llama_stack-0.3.1/llama_stack/providers/remote/inference/databricks/__init__.py +16 -0
  162. llama_stack-0.3.1/llama_stack/providers/remote/inference/databricks/config.py +37 -0
  163. llama_stack-0.3.1/llama_stack/providers/remote/inference/databricks/databricks.py +44 -0
  164. llama_stack-0.3.1/llama_stack/providers/remote/inference/fireworks/__init__.py +22 -0
  165. llama_stack-0.3.1/llama_stack/providers/remote/inference/fireworks/config.py +27 -0
  166. llama_stack-0.3.1/llama_stack/providers/remote/inference/fireworks/fireworks.py +27 -0
  167. llama_stack-0.3.1/llama_stack/providers/remote/inference/gemini/__init__.py +15 -0
  168. llama_stack-0.3.1/llama_stack/providers/remote/inference/gemini/config.py +28 -0
  169. llama_stack-0.3.1/llama_stack/providers/remote/inference/gemini/gemini.py +82 -0
  170. llama_stack-0.3.1/llama_stack/providers/remote/inference/groq/__init__.py +15 -0
  171. llama_stack-0.3.1/llama_stack/providers/remote/inference/groq/config.py +34 -0
  172. llama_stack-0.3.1/llama_stack/providers/remote/inference/groq/groq.py +18 -0
  173. llama_stack-0.3.1/llama_stack/providers/remote/inference/llama_openai_compat/__init__.py +15 -0
  174. llama_stack-0.3.1/llama_stack/providers/remote/inference/llama_openai_compat/config.py +34 -0
  175. llama_stack-0.3.1/llama_stack/providers/remote/inference/llama_openai_compat/llama.py +46 -0
  176. llama_stack-0.3.1/llama_stack/providers/remote/inference/nvidia/__init__.py +23 -0
  177. llama_stack-0.3.1/llama_stack/providers/remote/inference/nvidia/config.py +64 -0
  178. llama_stack-0.3.1/llama_stack/providers/remote/inference/nvidia/nvidia.py +61 -0
  179. llama_stack-0.3.1/llama_stack/providers/remote/inference/nvidia/utils.py +11 -0
  180. llama_stack-0.3.1/llama_stack/providers/remote/inference/ollama/__init__.py +15 -0
  181. llama_stack-0.3.1/llama_stack/providers/remote/inference/ollama/config.py +25 -0
  182. llama_stack-0.3.1/llama_stack/providers/remote/inference/ollama/ollama.py +102 -0
  183. llama_stack-0.3.1/llama_stack/providers/remote/inference/openai/__init__.py +15 -0
  184. llama_stack-0.3.1/llama_stack/providers/remote/inference/openai/config.py +39 -0
  185. llama_stack-0.3.1/llama_stack/providers/remote/inference/openai/openai.py +38 -0
  186. llama_stack-0.3.1/llama_stack/providers/remote/inference/passthrough/config.py +34 -0
  187. llama_stack-0.3.1/llama_stack/providers/remote/inference/passthrough/passthrough.py +122 -0
  188. llama_stack-0.3.1/llama_stack/providers/remote/inference/runpod/__init__.py +16 -0
  189. llama_stack-0.3.1/llama_stack/providers/remote/inference/runpod/config.py +32 -0
  190. llama_stack-0.3.1/llama_stack/providers/remote/inference/runpod/runpod.py +42 -0
  191. llama_stack-0.3.1/llama_stack/providers/remote/inference/sambanova/__init__.py +16 -0
  192. llama_stack-0.3.1/llama_stack/providers/remote/inference/sambanova/config.py +34 -0
  193. llama_stack-0.3.1/llama_stack/providers/remote/inference/sambanova/sambanova.py +28 -0
  194. llama_stack-0.3.1/llama_stack/providers/remote/inference/tgi/config.py +76 -0
  195. llama_stack-0.3.1/llama_stack/providers/remote/inference/tgi/tgi.py +85 -0
  196. llama_stack-0.3.1/llama_stack/providers/remote/inference/together/__init__.py +22 -0
  197. llama_stack-0.3.1/llama_stack/providers/remote/inference/together/config.py +27 -0
  198. llama_stack-0.3.1/llama_stack/providers/remote/inference/together/together.py +102 -0
  199. llama_stack-0.3.1/llama_stack/providers/remote/inference/vertexai/__init__.py +15 -0
  200. llama_stack-0.3.1/llama_stack/providers/remote/inference/vertexai/config.py +48 -0
  201. llama_stack-0.3.1/llama_stack/providers/remote/inference/vertexai/vertexai.py +44 -0
  202. llama_stack-0.3.1/llama_stack/providers/remote/inference/vllm/__init__.py +22 -0
  203. llama_stack-0.3.1/llama_stack/providers/remote/inference/vllm/config.py +59 -0
  204. llama_stack-0.3.1/llama_stack/providers/remote/inference/vllm/vllm.py +111 -0
  205. llama_stack-0.3.1/llama_stack/providers/remote/inference/watsonx/__init__.py +15 -0
  206. llama_stack-0.3.1/llama_stack/providers/remote/inference/watsonx/config.py +45 -0
  207. llama_stack-0.3.1/llama_stack/providers/remote/inference/watsonx/watsonx.py +340 -0
  208. llama_stack-0.3.1/llama_stack/providers/remote/safety/bedrock/bedrock.py +111 -0
  209. llama_stack-0.3.1/llama_stack/providers/remote/safety/nvidia/nvidia.py +161 -0
  210. llama_stack-0.3.1/llama_stack/providers/remote/safety/sambanova/sambanova.py +98 -0
  211. llama_stack-0.3.1/llama_stack/providers/remote/tool_runtime/bing_search/bing_search.py +112 -0
  212. llama_stack-0.3.1/llama_stack/providers/remote/tool_runtime/brave_search/brave_search.py +148 -0
  213. llama_stack-0.3.1/llama_stack/providers/remote/tool_runtime/tavily_search/tavily_search.py +84 -0
  214. llama_stack-0.3.1/llama_stack/providers/remote/tool_runtime/wolfram_alpha/wolfram_alpha.py +140 -0
  215. llama_stack-0.3.1/llama_stack/providers/remote/vector_io/chroma/chroma.py +209 -0
  216. llama_stack-0.3.1/llama_stack/providers/remote/vector_io/chroma/config.py +28 -0
  217. llama_stack-0.3.1/llama_stack/providers/remote/vector_io/milvus/__init__.py +18 -0
  218. llama_stack-0.3.1/llama_stack/providers/remote/vector_io/milvus/config.py +35 -0
  219. llama_stack-0.3.1/llama_stack/providers/remote/vector_io/milvus/milvus.py +372 -0
  220. llama_stack-0.3.1/llama_stack/providers/remote/vector_io/pgvector/__init__.py +17 -0
  221. llama_stack-0.3.1/llama_stack/providers/remote/vector_io/pgvector/config.py +47 -0
  222. llama_stack-0.3.1/llama_stack/providers/remote/vector_io/pgvector/pgvector.py +434 -0
  223. llama_stack-0.3.1/llama_stack/providers/remote/vector_io/qdrant/__init__.py +17 -0
  224. llama_stack-0.3.1/llama_stack/providers/remote/vector_io/qdrant/config.py +37 -0
  225. llama_stack-0.3.1/llama_stack/providers/remote/vector_io/qdrant/qdrant.py +260 -0
  226. llama_stack-0.3.1/llama_stack/providers/remote/vector_io/weaviate/__init__.py +17 -0
  227. llama_stack-0.3.1/llama_stack/providers/remote/vector_io/weaviate/config.py +32 -0
  228. llama_stack-0.3.1/llama_stack/providers/remote/vector_io/weaviate/weaviate.py +390 -0
  229. llama_stack-0.3.1/llama_stack/providers/utils/bedrock/config.py +64 -0
  230. llama_stack-0.3.1/llama_stack/providers/utils/files/form_data.py +69 -0
  231. llama_stack-0.3.1/llama_stack/providers/utils/inference/embedding_mixin.py +102 -0
  232. llama_stack-0.3.1/llama_stack/providers/utils/inference/inference_store.py +244 -0
  233. llama_stack-0.3.1/llama_stack/providers/utils/inference/litellm_openai_mixin.py +336 -0
  234. llama_stack-0.3.1/llama_stack/providers/utils/inference/model_registry.py +191 -0
  235. llama_stack-0.3.1/llama_stack/providers/utils/inference/openai_compat.py +1401 -0
  236. llama_stack-0.3.1/llama_stack/providers/utils/inference/openai_mixin.py +483 -0
  237. llama_stack-0.3.1/llama_stack/providers/utils/inference/prompt_adapter.py +495 -0
  238. llama_stack-0.3.1/llama_stack/providers/utils/kvstore/config.py +39 -0
  239. llama_stack-0.3.1/llama_stack/providers/utils/kvstore/kvstore.py +97 -0
  240. llama_stack-0.3.1/llama_stack/providers/utils/kvstore/sqlite/sqlite.py +174 -0
  241. llama_stack-0.3.1/llama_stack/providers/utils/memory/openai_vector_store_mixin.py +1304 -0
  242. llama_stack-0.3.1/llama_stack/providers/utils/memory/vector_store.py +332 -0
  243. llama_stack-0.3.1/llama_stack/providers/utils/responses/responses_store.py +354 -0
  244. llama_stack-0.3.1/llama_stack/providers/utils/sqlstore/api.py +128 -0
  245. llama_stack-0.3.1/llama_stack/providers/utils/sqlstore/authorized_sqlstore.py +303 -0
  246. llama_stack-0.3.1/llama_stack/providers/utils/sqlstore/sqlalchemy_sqlstore.py +313 -0
  247. llama_stack-0.3.1/llama_stack/providers/utils/sqlstore/sqlstore.py +70 -0
  248. llama_stack-0.3.1/llama_stack/providers/utils/telemetry/trace_protocol.py +142 -0
  249. llama_stack-0.3.1/llama_stack/providers/utils/tools/mcp.py +148 -0
  250. llama_stack-0.3.1/llama_stack/providers/utils/vector_io/__init__.py +5 -0
  251. llama_stack-0.3.1/llama_stack/schema_utils.py +118 -0
  252. llama_stack-0.3.1/llama_stack/strong_typing/inspection.py +1085 -0
  253. llama_stack-0.3.1/llama_stack/strong_typing/schema.py +792 -0
  254. llama_stack-0.3.1/llama_stack/testing/__init__.py +5 -0
  255. llama_stack-0.3.1/llama_stack/testing/api_recorder.py +956 -0
  256. llama_stack-0.3.1/llama_stack.egg-info/PKG-INFO +260 -0
  257. llama_stack-0.3.1/llama_stack.egg-info/SOURCES.txt +628 -0
  258. llama_stack-0.3.1/llama_stack.egg-info/requires.txt +31 -0
  259. llama_stack-0.3.1/pyproject.toml +332 -0
  260. llama_stack-0.3.1/tests/integration/test_cases/inference/chat_completion.json +362 -0
  261. llama_stack-0.3.1/tests/integration/test_cases/inference/completion.json +67 -0
  262. llama_stack-0.2.23/MANIFEST.in +0 -9
  263. llama_stack-0.2.23/PKG-INFO +0 -246
  264. llama_stack-0.2.23/README.md +0 -196
  265. llama_stack-0.2.23/llama_stack/apis/agents/agents.py +0 -781
  266. llama_stack-0.2.23/llama_stack/apis/agents/openai_responses.py +0 -880
  267. llama_stack-0.2.23/llama_stack/apis/batch_inference/__init__.py +0 -7
  268. llama_stack-0.2.23/llama_stack/apis/batch_inference/batch_inference.py +0 -79
  269. llama_stack-0.2.23/llama_stack/apis/batches/batches.py +0 -96
  270. llama_stack-0.2.23/llama_stack/apis/common/errors.py +0 -88
  271. llama_stack-0.2.23/llama_stack/apis/datasetio/datasetio.py +0 -55
  272. llama_stack-0.2.23/llama_stack/apis/datasets/datasets.py +0 -247
  273. llama_stack-0.2.23/llama_stack/apis/datatypes.py +0 -160
  274. llama_stack-0.2.23/llama_stack/apis/eval/eval.py +0 -167
  275. llama_stack-0.2.23/llama_stack/apis/files/files.py +0 -187
  276. llama_stack-0.2.23/llama_stack/apis/inference/inference.py +0 -1340
  277. llama_stack-0.2.23/llama_stack/apis/inspect/inspect.py +0 -83
  278. llama_stack-0.2.23/llama_stack/apis/models/models.py +0 -163
  279. llama_stack-0.2.23/llama_stack/apis/prompts/prompts.py +0 -190
  280. llama_stack-0.2.23/llama_stack/apis/providers/providers.py +0 -64
  281. llama_stack-0.2.23/llama_stack/apis/resource.py +0 -37
  282. llama_stack-0.2.23/llama_stack/apis/safety/safety.py +0 -125
  283. llama_stack-0.2.23/llama_stack/apis/telemetry/telemetry.py +0 -549
  284. llama_stack-0.2.23/llama_stack/apis/tools/tools.py +0 -262
  285. llama_stack-0.2.23/llama_stack/apis/vector_dbs/__init__.py +0 -7
  286. llama_stack-0.2.23/llama_stack/apis/vector_dbs/vector_dbs.py +0 -117
  287. llama_stack-0.2.23/llama_stack/apis/vector_io/vector_io.py +0 -694
  288. llama_stack-0.2.23/llama_stack/cli/download.py +0 -495
  289. llama_stack-0.2.23/llama_stack/cli/llama.py +0 -57
  290. llama_stack-0.2.23/llama_stack/cli/model/__init__.py +0 -7
  291. llama_stack-0.2.23/llama_stack/cli/model/describe.py +0 -70
  292. llama_stack-0.2.23/llama_stack/cli/model/download.py +0 -24
  293. llama_stack-0.2.23/llama_stack/cli/model/list.py +0 -119
  294. llama_stack-0.2.23/llama_stack/cli/model/model.py +0 -43
  295. llama_stack-0.2.23/llama_stack/cli/model/prompt_format.py +0 -133
  296. llama_stack-0.2.23/llama_stack/cli/model/remove.py +0 -68
  297. llama_stack-0.2.23/llama_stack/cli/model/safety_models.py +0 -64
  298. llama_stack-0.2.23/llama_stack/cli/model/verify_download.py +0 -24
  299. llama_stack-0.2.23/llama_stack/cli/stack/_build.py +0 -478
  300. llama_stack-0.2.23/llama_stack/cli/stack/build.py +0 -100
  301. llama_stack-0.2.23/llama_stack/cli/stack/run.py +0 -226
  302. llama_stack-0.2.23/llama_stack/cli/stack/stack.py +0 -48
  303. llama_stack-0.2.23/llama_stack/cli/stack/utils.py +0 -21
  304. llama_stack-0.2.23/llama_stack/cli/verify_download.py +0 -141
  305. llama_stack-0.2.23/llama_stack/core/access_control/datatypes.py +0 -107
  306. llama_stack-0.2.23/llama_stack/core/build_container.sh +0 -410
  307. llama_stack-0.2.23/llama_stack/core/build_venv.sh +0 -220
  308. llama_stack-0.2.23/llama_stack/core/configure.py +0 -181
  309. llama_stack-0.2.23/llama_stack/core/datatypes.py +0 -546
  310. llama_stack-0.2.23/llama_stack/core/distribution.py +0 -264
  311. llama_stack-0.2.23/llama_stack/core/library_client.py +0 -517
  312. llama_stack-0.2.23/llama_stack/core/prompts/prompts.py +0 -233
  313. llama_stack-0.2.23/llama_stack/core/resolver.py +0 -474
  314. llama_stack-0.2.23/llama_stack/core/routers/__init__.py +0 -90
  315. llama_stack-0.2.23/llama_stack/core/routers/inference.py +0 -863
  316. llama_stack-0.2.23/llama_stack/core/routers/tool_runtime.py +0 -91
  317. llama_stack-0.2.23/llama_stack/core/routers/vector_io.py +0 -365
  318. llama_stack-0.2.23/llama_stack/core/routing_tables/common.py +0 -272
  319. llama_stack-0.2.23/llama_stack/core/routing_tables/models.py +0 -158
  320. llama_stack-0.2.23/llama_stack/core/routing_tables/toolgroups.py +0 -141
  321. llama_stack-0.2.23/llama_stack/core/routing_tables/vector_dbs.py +0 -247
  322. llama_stack-0.2.23/llama_stack/core/server/auth.py +0 -175
  323. llama_stack-0.2.23/llama_stack/core/server/auth_providers.py +0 -475
  324. llama_stack-0.2.23/llama_stack/core/server/quota.py +0 -110
  325. llama_stack-0.2.23/llama_stack/core/server/server.py +0 -620
  326. llama_stack-0.2.23/llama_stack/core/stack.py +0 -471
  327. llama_stack-0.2.23/llama_stack/core/start_stack.sh +0 -128
  328. llama_stack-0.2.23/llama_stack/core/store/registry.py +0 -204
  329. llama_stack-0.2.23/llama_stack/core/ui/page/distribution/resources.py +0 -52
  330. llama_stack-0.2.23/llama_stack/core/ui/page/distribution/vector_dbs.py +0 -20
  331. llama_stack-0.2.23/llama_stack/core/ui/page/playground/rag.py +0 -301
  332. llama_stack-0.2.23/llama_stack/core/ui/page/playground/tools.py +0 -352
  333. llama_stack-0.2.23/llama_stack/core/utils/config_resolution.py +0 -125
  334. llama_stack-0.2.23/llama_stack/core/utils/context.py +0 -40
  335. llama_stack-0.2.23/llama_stack/distributions/ci-tests/__init__.py +0 -7
  336. llama_stack-0.2.23/llama_stack/distributions/ci-tests/build.yaml +0 -59
  337. llama_stack-0.2.23/llama_stack/distributions/ci-tests/ci_tests.py +0 -17
  338. llama_stack-0.2.23/llama_stack/distributions/ci-tests/run.yaml +0 -245
  339. llama_stack-0.2.23/llama_stack/distributions/dell/build.yaml +0 -35
  340. llama_stack-0.2.23/llama_stack/distributions/dell/dell.py +0 -159
  341. llama_stack-0.2.23/llama_stack/distributions/dell/run-with-safety.yaml +0 -130
  342. llama_stack-0.2.23/llama_stack/distributions/dell/run.yaml +0 -121
  343. llama_stack-0.2.23/llama_stack/distributions/meta-reference-gpu/build.yaml +0 -34
  344. llama_stack-0.2.23/llama_stack/distributions/meta-reference-gpu/meta_reference.py +0 -164
  345. llama_stack-0.2.23/llama_stack/distributions/meta-reference-gpu/run-with-safety.yaml +0 -143
  346. llama_stack-0.2.23/llama_stack/distributions/meta-reference-gpu/run.yaml +0 -128
  347. llama_stack-0.2.23/llama_stack/distributions/nvidia/build.yaml +0 -31
  348. llama_stack-0.2.23/llama_stack/distributions/nvidia/nvidia.py +0 -155
  349. llama_stack-0.2.23/llama_stack/distributions/nvidia/run-with-safety.yaml +0 -126
  350. llama_stack-0.2.23/llama_stack/distributions/nvidia/run.yaml +0 -105
  351. llama_stack-0.2.23/llama_stack/distributions/open-benchmark/build.yaml +0 -38
  352. llama_stack-0.2.23/llama_stack/distributions/open-benchmark/open_benchmark.py +0 -304
  353. llama_stack-0.2.23/llama_stack/distributions/open-benchmark/run.yaml +0 -241
  354. llama_stack-0.2.23/llama_stack/distributions/postgres-demo/build.yaml +0 -25
  355. llama_stack-0.2.23/llama_stack/distributions/postgres-demo/postgres_demo.py +0 -144
  356. llama_stack-0.2.23/llama_stack/distributions/postgres-demo/run.yaml +0 -111
  357. llama_stack-0.2.23/llama_stack/distributions/starter/build.yaml +0 -60
  358. llama_stack-0.2.23/llama_stack/distributions/starter/run.yaml +0 -245
  359. llama_stack-0.2.23/llama_stack/distributions/starter/starter.py +0 -299
  360. llama_stack-0.2.23/llama_stack/distributions/starter-gpu/build.yaml +0 -60
  361. llama_stack-0.2.23/llama_stack/distributions/starter-gpu/run.yaml +0 -248
  362. llama_stack-0.2.23/llama_stack/distributions/template.py +0 -410
  363. llama_stack-0.2.23/llama_stack/distributions/watsonx/build.yaml +0 -46
  364. llama_stack-0.2.23/llama_stack/distributions/watsonx/run.yaml +0 -219
  365. llama_stack-0.2.23/llama_stack/distributions/watsonx/watsonx.py +0 -122
  366. llama_stack-0.2.23/llama_stack/log.py +0 -260
  367. llama_stack-0.2.23/llama_stack/models/llama/datatypes.py +0 -177
  368. llama_stack-0.2.23/llama_stack/models/llama/llama3/chat_format.py +0 -287
  369. llama_stack-0.2.23/llama_stack/models/llama/llama3/prompt_templates/system_prompts.py +0 -317
  370. llama_stack-0.2.23/llama_stack/models/llama/llama3/tool_utils.py +0 -266
  371. llama_stack-0.2.23/llama_stack/models/llama/llama3_1/prompts.py +0 -257
  372. llama_stack-0.2.23/llama_stack/models/llama/llama3_3/prompts.py +0 -258
  373. llama_stack-0.2.23/llama_stack/models/llama/llama4/chat_format.py +0 -318
  374. llama_stack-0.2.23/llama_stack/models/llama/llama4/prompt_templates/system_prompts.py +0 -137
  375. llama_stack-0.2.23/llama_stack/models/llama/prompt_format.py +0 -245
  376. llama_stack-0.2.23/llama_stack/models/llama/tokenizer_utils.py +0 -40
  377. llama_stack-0.2.23/llama_stack/providers/datatypes.py +0 -217
  378. llama_stack-0.2.23/llama_stack/providers/inline/agents/meta_reference/__init__.py +0 -27
  379. llama_stack-0.2.23/llama_stack/providers/inline/agents/meta_reference/agent_instance.py +0 -948
  380. llama_stack-0.2.23/llama_stack/providers/inline/agents/meta_reference/agents.py +0 -370
  381. llama_stack-0.2.23/llama_stack/providers/inline/agents/meta_reference/config.py +0 -31
  382. llama_stack-0.2.23/llama_stack/providers/inline/agents/meta_reference/responses/openai_responses.py +0 -271
  383. llama_stack-0.2.23/llama_stack/providers/inline/agents/meta_reference/responses/streaming.py +0 -634
  384. llama_stack-0.2.23/llama_stack/providers/inline/agents/meta_reference/responses/tool_executor.py +0 -379
  385. llama_stack-0.2.23/llama_stack/providers/inline/agents/meta_reference/responses/types.py +0 -60
  386. llama_stack-0.2.23/llama_stack/providers/inline/agents/meta_reference/responses/utils.py +0 -205
  387. llama_stack-0.2.23/llama_stack/providers/inline/batches/reference/batches.py +0 -653
  388. llama_stack-0.2.23/llama_stack/providers/inline/batches/reference/config.py +0 -40
  389. llama_stack-0.2.23/llama_stack/providers/inline/datasetio/localfs/config.py +0 -26
  390. llama_stack-0.2.23/llama_stack/providers/inline/eval/meta_reference/config.py +0 -26
  391. llama_stack-0.2.23/llama_stack/providers/inline/eval/meta_reference/eval.py +0 -241
  392. llama_stack-0.2.23/llama_stack/providers/inline/files/localfs/config.py +0 -31
  393. llama_stack-0.2.23/llama_stack/providers/inline/files/localfs/files.py +0 -215
  394. llama_stack-0.2.23/llama_stack/providers/inline/inference/meta_reference/common.py +0 -24
  395. llama_stack-0.2.23/llama_stack/providers/inline/inference/meta_reference/inference.py +0 -637
  396. llama_stack-0.2.23/llama_stack/providers/inline/inference/meta_reference/model_parallel.py +0 -98
  397. llama_stack-0.2.23/llama_stack/providers/inline/inference/sentence_transformers/sentence_transformers.py +0 -101
  398. llama_stack-0.2.23/llama_stack/providers/inline/post_training/torchtune/recipes/lora_finetuning_single_device.py +0 -587
  399. llama_stack-0.2.23/llama_stack/providers/inline/safety/code_scanner/code_scanner.py +0 -128
  400. llama_stack-0.2.23/llama_stack/providers/inline/safety/llama_guard/llama_guard.py +0 -481
  401. llama_stack-0.2.23/llama_stack/providers/inline/safety/prompt_guard/prompt_guard.py +0 -133
  402. llama_stack-0.2.23/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/llm_as_judge_scoring_fn.py +0 -79
  403. llama_stack-0.2.23/llama_stack/providers/inline/telemetry/meta_reference/config.py +0 -55
  404. llama_stack-0.2.23/llama_stack/providers/inline/telemetry/meta_reference/console_span_processor.py +0 -75
  405. llama_stack-0.2.23/llama_stack/providers/inline/telemetry/meta_reference/sqlite_span_processor.py +0 -190
  406. llama_stack-0.2.23/llama_stack/providers/inline/telemetry/meta_reference/telemetry.py +0 -370
  407. llama_stack-0.2.23/llama_stack/providers/inline/tool_runtime/rag/context_retriever.py +0 -76
  408. llama_stack-0.2.23/llama_stack/providers/inline/tool_runtime/rag/memory.py +0 -333
  409. llama_stack-0.2.23/llama_stack/providers/inline/vector_io/chroma/__init__.py +0 -21
  410. llama_stack-0.2.23/llama_stack/providers/inline/vector_io/chroma/config.py +0 -30
  411. llama_stack-0.2.23/llama_stack/providers/inline/vector_io/faiss/__init__.py +0 -21
  412. llama_stack-0.2.23/llama_stack/providers/inline/vector_io/faiss/config.py +0 -29
  413. llama_stack-0.2.23/llama_stack/providers/inline/vector_io/faiss/faiss.py +0 -309
  414. llama_stack-0.2.23/llama_stack/providers/inline/vector_io/milvus/__init__.py +0 -19
  415. llama_stack-0.2.23/llama_stack/providers/inline/vector_io/milvus/config.py +0 -32
  416. llama_stack-0.2.23/llama_stack/providers/inline/vector_io/qdrant/__init__.py +0 -21
  417. llama_stack-0.2.23/llama_stack/providers/inline/vector_io/qdrant/config.py +0 -31
  418. llama_stack-0.2.23/llama_stack/providers/inline/vector_io/sqlite_vec/__init__.py +0 -20
  419. llama_stack-0.2.23/llama_stack/providers/inline/vector_io/sqlite_vec/config.py +0 -29
  420. llama_stack-0.2.23/llama_stack/providers/inline/vector_io/sqlite_vec/sqlite_vec.py +0 -506
  421. llama_stack-0.2.23/llama_stack/providers/registry/agents.py +0 -41
  422. llama_stack-0.2.23/llama_stack/providers/registry/inference.py +0 -300
  423. llama_stack-0.2.23/llama_stack/providers/registry/telemetry.py +0 -29
  424. llama_stack-0.2.23/llama_stack/providers/registry/tool_runtime.py +0 -87
  425. llama_stack-0.2.23/llama_stack/providers/registry/vector_io.py +0 -825
  426. llama_stack-0.2.23/llama_stack/providers/remote/datasetio/huggingface/config.py +0 -26
  427. llama_stack-0.2.23/llama_stack/providers/remote/files/s3/config.py +0 -42
  428. llama_stack-0.2.23/llama_stack/providers/remote/files/s3/files.py +0 -320
  429. llama_stack-0.2.23/llama_stack/providers/remote/inference/anthropic/__init__.py +0 -15
  430. llama_stack-0.2.23/llama_stack/providers/remote/inference/anthropic/anthropic.py +0 -44
  431. llama_stack-0.2.23/llama_stack/providers/remote/inference/anthropic/config.py +0 -32
  432. llama_stack-0.2.23/llama_stack/providers/remote/inference/azure/__init__.py +0 -15
  433. llama_stack-0.2.23/llama_stack/providers/remote/inference/azure/azure.py +0 -62
  434. llama_stack-0.2.23/llama_stack/providers/remote/inference/azure/config.py +0 -63
  435. llama_stack-0.2.23/llama_stack/providers/remote/inference/bedrock/bedrock.py +0 -259
  436. llama_stack-0.2.23/llama_stack/providers/remote/inference/cerebras/__init__.py +0 -19
  437. llama_stack-0.2.23/llama_stack/providers/remote/inference/cerebras/cerebras.py +0 -208
  438. llama_stack-0.2.23/llama_stack/providers/remote/inference/cerebras/config.py +0 -33
  439. llama_stack-0.2.23/llama_stack/providers/remote/inference/databricks/__init__.py +0 -16
  440. llama_stack-0.2.23/llama_stack/providers/remote/inference/databricks/config.py +0 -35
  441. llama_stack-0.2.23/llama_stack/providers/remote/inference/databricks/databricks.py +0 -158
  442. llama_stack-0.2.23/llama_stack/providers/remote/inference/fireworks/__init__.py +0 -22
  443. llama_stack-0.2.23/llama_stack/providers/remote/inference/fireworks/config.py +0 -31
  444. llama_stack-0.2.23/llama_stack/providers/remote/inference/fireworks/fireworks.py +0 -285
  445. llama_stack-0.2.23/llama_stack/providers/remote/inference/gemini/__init__.py +0 -15
  446. llama_stack-0.2.23/llama_stack/providers/remote/inference/gemini/config.py +0 -32
  447. llama_stack-0.2.23/llama_stack/providers/remote/inference/gemini/gemini.py +0 -36
  448. llama_stack-0.2.23/llama_stack/providers/remote/inference/groq/__init__.py +0 -15
  449. llama_stack-0.2.23/llama_stack/providers/remote/inference/groq/config.py +0 -39
  450. llama_stack-0.2.23/llama_stack/providers/remote/inference/groq/groq.py +0 -35
  451. llama_stack-0.2.23/llama_stack/providers/remote/inference/llama_openai_compat/__init__.py +0 -17
  452. llama_stack-0.2.23/llama_stack/providers/remote/inference/llama_openai_compat/config.py +0 -38
  453. llama_stack-0.2.23/llama_stack/providers/remote/inference/llama_openai_compat/llama.py +0 -53
  454. llama_stack-0.2.23/llama_stack/providers/remote/inference/nvidia/__init__.py +0 -22
  455. llama_stack-0.2.23/llama_stack/providers/remote/inference/nvidia/config.py +0 -67
  456. llama_stack-0.2.23/llama_stack/providers/remote/inference/nvidia/nvidia.py +0 -308
  457. llama_stack-0.2.23/llama_stack/providers/remote/inference/nvidia/openai_utils.py +0 -217
  458. llama_stack-0.2.23/llama_stack/providers/remote/inference/nvidia/utils.py +0 -56
  459. llama_stack-0.2.23/llama_stack/providers/remote/inference/ollama/__init__.py +0 -15
  460. llama_stack-0.2.23/llama_stack/providers/remote/inference/ollama/config.py +0 -25
  461. llama_stack-0.2.23/llama_stack/providers/remote/inference/ollama/ollama.py +0 -494
  462. llama_stack-0.2.23/llama_stack/providers/remote/inference/openai/__init__.py +0 -15
  463. llama_stack-0.2.23/llama_stack/providers/remote/inference/openai/config.py +0 -42
  464. llama_stack-0.2.23/llama_stack/providers/remote/inference/openai/openai.py +0 -78
  465. llama_stack-0.2.23/llama_stack/providers/remote/inference/passthrough/config.py +0 -33
  466. llama_stack-0.2.23/llama_stack/providers/remote/inference/passthrough/passthrough.py +0 -346
  467. llama_stack-0.2.23/llama_stack/providers/remote/inference/runpod/__init__.py +0 -16
  468. llama_stack-0.2.23/llama_stack/providers/remote/inference/runpod/config.py +0 -30
  469. llama_stack-0.2.23/llama_stack/providers/remote/inference/runpod/runpod.py +0 -157
  470. llama_stack-0.2.23/llama_stack/providers/remote/inference/sambanova/__init__.py +0 -16
  471. llama_stack-0.2.23/llama_stack/providers/remote/inference/sambanova/config.py +0 -37
  472. llama_stack-0.2.23/llama_stack/providers/remote/inference/sambanova/sambanova.py +0 -48
  473. llama_stack-0.2.23/llama_stack/providers/remote/inference/tgi/config.py +0 -73
  474. llama_stack-0.2.23/llama_stack/providers/remote/inference/tgi/tgi.py +0 -364
  475. llama_stack-0.2.23/llama_stack/providers/remote/inference/together/__init__.py +0 -22
  476. llama_stack-0.2.23/llama_stack/providers/remote/inference/together/config.py +0 -31
  477. llama_stack-0.2.23/llama_stack/providers/remote/inference/together/together.py +0 -342
  478. llama_stack-0.2.23/llama_stack/providers/remote/inference/vertexai/__init__.py +0 -15
  479. llama_stack-0.2.23/llama_stack/providers/remote/inference/vertexai/config.py +0 -45
  480. llama_stack-0.2.23/llama_stack/providers/remote/inference/vertexai/vertexai.py +0 -75
  481. llama_stack-0.2.23/llama_stack/providers/remote/inference/vllm/__init__.py +0 -22
  482. llama_stack-0.2.23/llama_stack/providers/remote/inference/vllm/config.py +0 -61
  483. llama_stack-0.2.23/llama_stack/providers/remote/inference/vllm/vllm.py +0 -576
  484. llama_stack-0.2.23/llama_stack/providers/remote/inference/watsonx/__init__.py +0 -22
  485. llama_stack-0.2.23/llama_stack/providers/remote/inference/watsonx/config.py +0 -46
  486. llama_stack-0.2.23/llama_stack/providers/remote/inference/watsonx/models.py +0 -47
  487. llama_stack-0.2.23/llama_stack/providers/remote/inference/watsonx/watsonx.py +0 -405
  488. llama_stack-0.2.23/llama_stack/providers/remote/safety/bedrock/bedrock.py +0 -111
  489. llama_stack-0.2.23/llama_stack/providers/remote/safety/nvidia/nvidia.py +0 -163
  490. llama_stack-0.2.23/llama_stack/providers/remote/safety/sambanova/sambanova.py +0 -104
  491. llama_stack-0.2.23/llama_stack/providers/remote/tool_runtime/bing_search/bing_search.py +0 -110
  492. llama_stack-0.2.23/llama_stack/providers/remote/tool_runtime/brave_search/brave_search.py +0 -146
  493. llama_stack-0.2.23/llama_stack/providers/remote/tool_runtime/tavily_search/tavily_search.py +0 -82
  494. llama_stack-0.2.23/llama_stack/providers/remote/tool_runtime/wolfram_alpha/wolfram_alpha.py +0 -138
  495. llama_stack-0.2.23/llama_stack/providers/remote/vector_io/chroma/chroma.py +0 -240
  496. llama_stack-0.2.23/llama_stack/providers/remote/vector_io/chroma/config.py +0 -28
  497. llama_stack-0.2.23/llama_stack/providers/remote/vector_io/milvus/__init__.py +0 -19
  498. llama_stack-0.2.23/llama_stack/providers/remote/vector_io/milvus/config.py +0 -35
  499. llama_stack-0.2.23/llama_stack/providers/remote/vector_io/milvus/milvus.py +0 -424
  500. llama_stack-0.2.23/llama_stack/providers/remote/vector_io/pgvector/__init__.py +0 -17
  501. llama_stack-0.2.23/llama_stack/providers/remote/vector_io/pgvector/config.py +0 -48
  502. llama_stack-0.2.23/llama_stack/providers/remote/vector_io/pgvector/pgvector.py +0 -464
  503. llama_stack-0.2.23/llama_stack/providers/remote/vector_io/qdrant/__init__.py +0 -18
  504. llama_stack-0.2.23/llama_stack/providers/remote/vector_io/qdrant/config.py +0 -40
  505. llama_stack-0.2.23/llama_stack/providers/remote/vector_io/qdrant/qdrant.py +0 -283
  506. llama_stack-0.2.23/llama_stack/providers/remote/vector_io/weaviate/__init__.py +0 -17
  507. llama_stack-0.2.23/llama_stack/providers/remote/vector_io/weaviate/config.py +0 -37
  508. llama_stack-0.2.23/llama_stack/providers/remote/vector_io/weaviate/weaviate.py +0 -319
  509. llama_stack-0.2.23/llama_stack/providers/utils/bedrock/config.py +0 -61
  510. llama_stack-0.2.23/llama_stack/providers/utils/inference/embedding_mixin.py +0 -115
  511. llama_stack-0.2.23/llama_stack/providers/utils/inference/inference_store.py +0 -244
  512. llama_stack-0.2.23/llama_stack/providers/utils/inference/litellm_openai_mixin.py +0 -444
  513. llama_stack-0.2.23/llama_stack/providers/utils/inference/model_registry.py +0 -182
  514. llama_stack-0.2.23/llama_stack/providers/utils/inference/openai_compat.py +0 -1550
  515. llama_stack-0.2.23/llama_stack/providers/utils/inference/openai_mixin.py +0 -357
  516. llama_stack-0.2.23/llama_stack/providers/utils/inference/prompt_adapter.py +0 -497
  517. llama_stack-0.2.23/llama_stack/providers/utils/kvstore/config.py +0 -162
  518. llama_stack-0.2.23/llama_stack/providers/utils/kvstore/kvstore.py +0 -68
  519. llama_stack-0.2.23/llama_stack/providers/utils/kvstore/sqlite/sqlite.py +0 -87
  520. llama_stack-0.2.23/llama_stack/providers/utils/memory/openai_vector_store_mixin.py +0 -807
  521. llama_stack-0.2.23/llama_stack/providers/utils/memory/vector_store.py +0 -344
  522. llama_stack-0.2.23/llama_stack/providers/utils/responses/responses_store.py +0 -175
  523. llama_stack-0.2.23/llama_stack/providers/utils/sqlstore/api.py +0 -128
  524. llama_stack-0.2.23/llama_stack/providers/utils/sqlstore/authorized_sqlstore.py +0 -295
  525. llama_stack-0.2.23/llama_stack/providers/utils/sqlstore/sqlalchemy_sqlstore.py +0 -313
  526. llama_stack-0.2.23/llama_stack/providers/utils/sqlstore/sqlstore.py +0 -116
  527. llama_stack-0.2.23/llama_stack/providers/utils/telemetry/dataset_mixin.py +0 -80
  528. llama_stack-0.2.23/llama_stack/providers/utils/telemetry/sqlite_trace_store.py +0 -383
  529. llama_stack-0.2.23/llama_stack/providers/utils/telemetry/trace_protocol.py +0 -142
  530. llama_stack-0.2.23/llama_stack/providers/utils/tools/mcp.py +0 -157
  531. llama_stack-0.2.23/llama_stack/schema_utils.py +0 -81
  532. llama_stack-0.2.23/llama_stack/strong_typing/inspection.py +0 -1035
  533. llama_stack-0.2.23/llama_stack/strong_typing/schema.py +0 -780
  534. llama_stack-0.2.23/llama_stack/testing/inference_recorder.py +0 -507
  535. llama_stack-0.2.23/llama_stack.egg-info/PKG-INFO +0 -246
  536. llama_stack-0.2.23/llama_stack.egg-info/SOURCES.txt +0 -644
  537. llama_stack-0.2.23/llama_stack.egg-info/requires.txt +0 -31
  538. llama_stack-0.2.23/pyproject.toml +0 -342
  539. {llama_stack-0.2.23 → llama_stack-0.3.1}/LICENSE +0 -0
  540. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/__init__.py +0 -0
  541. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/__init__.py +0 -0
  542. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/agents/__init__.py +0 -0
  543. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/batches/__init__.py +0 -0
  544. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/benchmarks/__init__.py +0 -0
  545. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/benchmarks/benchmarks.py +0 -0
  546. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/common/__init__.py +0 -0
  547. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/common/content_types.py +0 -0
  548. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/common/job_types.py +0 -0
  549. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/common/responses.py +0 -0
  550. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/common/training_types.py +0 -0
  551. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/common/type_system.py +0 -0
  552. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/datasetio/__init__.py +0 -0
  553. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/datasets/__init__.py +0 -0
  554. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/eval/__init__.py +0 -0
  555. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/files/__init__.py +0 -0
  556. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/inference/__init__.py +0 -0
  557. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/inference/event_logger.py +0 -0
  558. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/inspect/__init__.py +0 -0
  559. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/models/__init__.py +0 -0
  560. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/post_training/__init__.py +0 -0
  561. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/post_training/post_training.py +0 -0
  562. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/prompts/__init__.py +0 -0
  563. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/providers/__init__.py +0 -0
  564. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/safety/__init__.py +0 -0
  565. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/scoring/__init__.py +0 -0
  566. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/scoring/scoring.py +0 -0
  567. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/scoring_functions/__init__.py +0 -0
  568. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/scoring_functions/scoring_functions.py +0 -0
  569. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/shields/__init__.py +0 -0
  570. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/shields/shields.py +0 -0
  571. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/synthetic_data_generation/__init__.py +0 -0
  572. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/synthetic_data_generation/synthetic_data_generation.py +0 -0
  573. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/telemetry/__init__.py +0 -0
  574. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/tools/__init__.py +0 -0
  575. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/tools/rag_tool.py +0 -0
  576. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/vector_io/__init__.py +0 -0
  577. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/apis/version.py +0 -0
  578. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/cli/__init__.py +0 -0
  579. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/cli/scripts/__init__.py +0 -0
  580. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/cli/scripts/install-wheel-from-presigned.sh +0 -0
  581. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/cli/scripts/run.py +0 -0
  582. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/cli/stack/__init__.py +0 -0
  583. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/cli/stack/list_apis.py +0 -0
  584. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/cli/stack/list_providers.py +0 -0
  585. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/cli/stack/list_stacks.py +0 -0
  586. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/cli/stack/remove.py +0 -0
  587. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/cli/subcommand.py +0 -0
  588. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/cli/table.py +0 -0
  589. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/cli/utils.py +0 -0
  590. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/__init__.py +0 -0
  591. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/access_control/__init__.py +0 -0
  592. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/access_control/access_control.py +0 -0
  593. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/access_control/conditions.py +0 -0
  594. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/build.py +0 -0
  595. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/client.py +0 -0
  596. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/common.sh +0 -0
  597. {llama_stack-0.2.23/llama_stack/core/prompts → llama_stack-0.3.1/llama_stack/core/conversations}/__init__.py +0 -0
  598. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/external.py +0 -0
  599. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/inspect.py +0 -0
  600. {llama_stack-0.2.23/llama_stack/core/routing_tables → llama_stack-0.3.1/llama_stack/core/prompts}/__init__.py +0 -0
  601. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/providers.py +0 -0
  602. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/request_headers.py +0 -0
  603. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/routers/datasets.py +0 -0
  604. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/routers/eval_scoring.py +0 -0
  605. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/routers/safety.py +0 -0
  606. {llama_stack-0.2.23/llama_stack/core/server → llama_stack-0.3.1/llama_stack/core/routing_tables}/__init__.py +0 -0
  607. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/routing_tables/benchmarks.py +0 -0
  608. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/routing_tables/datasets.py +0 -0
  609. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/routing_tables/scoring_functions.py +0 -0
  610. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/routing_tables/shields.py +0 -0
  611. {llama_stack-0.2.23/llama_stack/core/ui → llama_stack-0.3.1/llama_stack/core/server}/__init__.py +0 -0
  612. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/server/routes.py +0 -0
  613. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/server/tracing.py +0 -0
  614. {llama_stack-0.2.23/llama_stack/core/ui/modules → llama_stack-0.3.1/llama_stack/core/storage}/__init__.py +0 -0
  615. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/store/__init__.py +0 -0
  616. {llama_stack-0.2.23/llama_stack/core/ui/page → llama_stack-0.3.1/llama_stack/core/ui}/__init__.py +0 -0
  617. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/ui/app.py +0 -0
  618. {llama_stack-0.2.23/llama_stack/core/ui/page/distribution → llama_stack-0.3.1/llama_stack/core/ui/modules}/__init__.py +0 -0
  619. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/ui/modules/api.py +0 -0
  620. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/ui/modules/utils.py +0 -0
  621. {llama_stack-0.2.23/llama_stack/core/ui/page/evaluations → llama_stack-0.3.1/llama_stack/core/ui/page}/__init__.py +0 -0
  622. {llama_stack-0.2.23/llama_stack/core/ui/page/playground → llama_stack-0.3.1/llama_stack/core/ui/page/distribution}/__init__.py +0 -0
  623. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/ui/page/distribution/datasets.py +0 -0
  624. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/ui/page/distribution/eval_tasks.py +0 -0
  625. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/ui/page/distribution/models.py +0 -0
  626. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/ui/page/distribution/providers.py +0 -0
  627. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/ui/page/distribution/scoring_functions.py +0 -0
  628. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/ui/page/distribution/shields.py +0 -0
  629. {llama_stack-0.2.23/llama_stack/core/utils → llama_stack-0.3.1/llama_stack/core/ui/page/evaluations}/__init__.py +0 -0
  630. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/ui/page/evaluations/app_eval.py +0 -0
  631. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/ui/page/evaluations/native_eval.py +0 -0
  632. {llama_stack-0.2.23/llama_stack/distributions → llama_stack-0.3.1/llama_stack/core/ui/page/playground}/__init__.py +0 -0
  633. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/ui/page/playground/chat.py +0 -0
  634. {llama_stack-0.2.23/llama_stack/distributions/watsonx → llama_stack-0.3.1/llama_stack/core/utils}/__init__.py +0 -0
  635. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/utils/config.py +0 -0
  636. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/utils/config_dirs.py +0 -0
  637. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/utils/dynamic.py +0 -0
  638. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/utils/exec.py +0 -0
  639. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/utils/image_types.py +0 -0
  640. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/utils/model_utils.py +0 -0
  641. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/utils/prompt_for_config.py +0 -0
  642. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/core/utils/serialize.py +0 -0
  643. {llama_stack-0.2.23/llama_stack/models → llama_stack-0.3.1/llama_stack/distributions}/__init__.py +0 -0
  644. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/distributions/dell/__init__.py +0 -0
  645. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/distributions/meta-reference-gpu/__init__.py +0 -0
  646. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/distributions/nvidia/__init__.py +0 -0
  647. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/distributions/open-benchmark/__init__.py +0 -0
  648. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/distributions/postgres-demo/__init__.py +0 -0
  649. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/distributions/starter/__init__.py +0 -0
  650. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/distributions/starter-gpu/__init__.py +0 -0
  651. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/distributions/starter-gpu/starter_gpu.py +0 -0
  652. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/env.py +0 -0
  653. {llama_stack-0.2.23/llama_stack/models/llama → llama_stack-0.3.1/llama_stack/models}/__init__.py +0 -0
  654. {llama_stack-0.2.23/llama_stack/models/llama/llama3 → llama_stack-0.3.1/llama_stack/models/llama}/__init__.py +0 -0
  655. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/checkpoint.py +0 -0
  656. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/hadamard_utils.py +0 -0
  657. {llama_stack-0.2.23/llama_stack/models/llama/llama3/quantization → llama_stack-0.3.1/llama_stack/models/llama/llama3}/__init__.py +0 -0
  658. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama3/args.py +0 -0
  659. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama3/generation.py +0 -0
  660. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama3/interface.py +0 -0
  661. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama3/model.py +0 -0
  662. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama3/multimodal/__init__.py +0 -0
  663. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama3/multimodal/encoder_utils.py +0 -0
  664. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama3/multimodal/image_transform.py +0 -0
  665. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama3/multimodal/model.py +0 -0
  666. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama3/multimodal/utils.py +0 -0
  667. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama3/prompt_templates/__init__.py +0 -0
  668. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama3/prompt_templates/base.py +0 -0
  669. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama3/prompt_templates/tool_response.py +0 -0
  670. {llama_stack-0.2.23/llama_stack/models/llama/llama3_2 → llama_stack-0.3.1/llama_stack/models/llama/llama3/quantization}/__init__.py +0 -0
  671. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama3/quantization/loader.py +0 -0
  672. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama3/template_data.py +0 -0
  673. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama3/tokenizer.model +0 -0
  674. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama3/tokenizer.py +0 -0
  675. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama3_1/__init__.py +0 -0
  676. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama3_1/prompt_format.md +0 -0
  677. {llama_stack-0.2.23/llama_stack/models/llama/llama3_3 → llama_stack-0.3.1/llama_stack/models/llama/llama3_2}/__init__.py +0 -0
  678. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama3_2/prompts_text.py +0 -0
  679. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama3_2/prompts_vision.py +0 -0
  680. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama3_2/text_prompt_format.md +0 -0
  681. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama3_2/vision_prompt_format.md +0 -0
  682. {llama_stack-0.2.23/llama_stack/models/llama/llama4 → llama_stack-0.3.1/llama_stack/models/llama/llama3_3}/__init__.py +0 -0
  683. {llama_stack-0.2.23/llama_stack/models/llama/llama4/prompt_templates → llama_stack-0.3.1/llama_stack/models/llama/llama4}/__init__.py +0 -0
  684. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama4/args.py +0 -0
  685. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama4/datatypes.py +0 -0
  686. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama4/ffn.py +0 -0
  687. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama4/generation.py +0 -0
  688. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama4/model.py +0 -0
  689. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama4/moe.py +0 -0
  690. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama4/preprocess.py +0 -0
  691. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama4/prompt_format.md +0 -0
  692. {llama_stack-0.2.23/llama_stack/models/llama/llama4/quantization → llama_stack-0.3.1/llama_stack/models/llama/llama4/prompt_templates}/__init__.py +0 -0
  693. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama4/prompts.py +0 -0
  694. {llama_stack-0.2.23/llama_stack/models/llama/llama4/vision → llama_stack-0.3.1/llama_stack/models/llama/llama4/quantization}/__init__.py +0 -0
  695. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama4/quantization/loader.py +0 -0
  696. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama4/tokenizer.model +0 -0
  697. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama4/tokenizer.py +0 -0
  698. {llama_stack-0.2.23/llama_stack/providers → llama_stack-0.3.1/llama_stack/models/llama/llama4/vision}/__init__.py +0 -0
  699. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama4/vision/embedding.py +0 -0
  700. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/llama4/vision/encoder.py +0 -0
  701. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/quantize_impls.py +0 -0
  702. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/sku_list.py +0 -0
  703. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/models/llama/sku_types.py +0 -0
  704. {llama_stack-0.2.23/llama_stack/providers/inline → llama_stack-0.3.1/llama_stack/providers}/__init__.py +0 -0
  705. {llama_stack-0.2.23/llama_stack/providers/inline/agents → llama_stack-0.3.1/llama_stack/providers/inline}/__init__.py +0 -0
  706. {llama_stack-0.2.23/llama_stack/providers/inline/agents/meta_reference/responses → llama_stack-0.3.1/llama_stack/providers/inline/agents}/__init__.py +0 -0
  707. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/agents/meta_reference/persistence.py +0 -0
  708. {llama_stack-0.2.23/llama_stack/providers/inline/batches → llama_stack-0.3.1/llama_stack/providers/inline/agents/meta_reference/responses}/__init__.py +0 -0
  709. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/agents/meta_reference/safety.py +0 -0
  710. {llama_stack-0.2.23/llama_stack/providers/inline/datasetio → llama_stack-0.3.1/llama_stack/providers/inline/batches}/__init__.py +0 -0
  711. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/batches/reference/__init__.py +0 -0
  712. {llama_stack-0.2.23/llama_stack/providers/inline/eval → llama_stack-0.3.1/llama_stack/providers/inline/datasetio}/__init__.py +0 -0
  713. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/datasetio/localfs/__init__.py +0 -0
  714. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/datasetio/localfs/datasetio.py +0 -0
  715. {llama_stack-0.2.23/llama_stack/providers/inline/inference → llama_stack-0.3.1/llama_stack/providers/inline/eval}/__init__.py +0 -0
  716. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/eval/meta_reference/__init__.py +0 -0
  717. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/files/localfs/__init__.py +0 -0
  718. {llama_stack-0.2.23/llama_stack/providers/inline/post_training → llama_stack-0.3.1/llama_stack/providers/inline/inference}/__init__.py +0 -0
  719. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/inference/meta_reference/__init__.py +0 -0
  720. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/inference/meta_reference/config.py +0 -0
  721. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/inference/meta_reference/generators.py +0 -0
  722. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/inference/meta_reference/parallel_utils.py +0 -0
  723. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/inference/sentence_transformers/__init__.py +0 -0
  724. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/inference/sentence_transformers/config.py +0 -0
  725. {llama_stack-0.2.23/llama_stack/providers/inline/post_training/common → llama_stack-0.3.1/llama_stack/providers/inline/post_training}/__init__.py +0 -0
  726. {llama_stack-0.2.23/llama_stack/providers/inline/post_training/huggingface/recipes → llama_stack-0.3.1/llama_stack/providers/inline/post_training/common}/__init__.py +0 -0
  727. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/post_training/common/utils.py +0 -0
  728. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/post_training/common/validator.py +0 -0
  729. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/post_training/huggingface/__init__.py +0 -0
  730. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/post_training/huggingface/config.py +0 -0
  731. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/post_training/huggingface/post_training.py +0 -0
  732. {llama_stack-0.2.23/llama_stack/providers/inline/post_training/torchtune/common → llama_stack-0.3.1/llama_stack/providers/inline/post_training/huggingface/recipes}/__init__.py +0 -0
  733. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/post_training/huggingface/recipes/finetune_single_device.py +0 -0
  734. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/post_training/huggingface/recipes/finetune_single_device_dpo.py +0 -0
  735. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/post_training/huggingface/utils.py +0 -0
  736. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/post_training/torchtune/__init__.py +0 -0
  737. {llama_stack-0.2.23/llama_stack/providers/inline/post_training/torchtune/datasets → llama_stack-0.3.1/llama_stack/providers/inline/post_training/torchtune/common}/__init__.py +0 -0
  738. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/post_training/torchtune/common/checkpointer.py +0 -0
  739. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/post_training/torchtune/common/utils.py +0 -0
  740. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/post_training/torchtune/config.py +0 -0
  741. {llama_stack-0.2.23/llama_stack/providers/inline/post_training/torchtune/recipes → llama_stack-0.3.1/llama_stack/providers/inline/post_training/torchtune/datasets}/__init__.py +0 -0
  742. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/post_training/torchtune/datasets/format_adapter.py +0 -0
  743. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/post_training/torchtune/datasets/sft.py +0 -0
  744. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/post_training/torchtune/post_training.py +0 -0
  745. {llama_stack-0.2.23/llama_stack/providers/inline/safety → llama_stack-0.3.1/llama_stack/providers/inline/post_training/torchtune/recipes}/__init__.py +0 -0
  746. {llama_stack-0.2.23/llama_stack/providers/inline/scoring → llama_stack-0.3.1/llama_stack/providers/inline/safety}/__init__.py +0 -0
  747. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/safety/code_scanner/__init__.py +0 -0
  748. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/safety/code_scanner/config.py +0 -0
  749. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/safety/llama_guard/__init__.py +0 -0
  750. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/safety/llama_guard/config.py +0 -0
  751. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/safety/prompt_guard/__init__.py +0 -0
  752. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/safety/prompt_guard/config.py +0 -0
  753. {llama_stack-0.2.23/llama_stack/providers/inline/scoring/basic/scoring_fn → llama_stack-0.3.1/llama_stack/providers/inline/scoring}/__init__.py +0 -0
  754. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/basic/__init__.py +0 -0
  755. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/basic/config.py +0 -0
  756. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/basic/scoring.py +0 -0
  757. {llama_stack-0.2.23/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs → llama_stack-0.3.1/llama_stack/providers/inline/scoring/basic/scoring_fn}/__init__.py +0 -0
  758. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/basic/scoring_fn/docvqa_scoring_fn.py +0 -0
  759. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/basic/scoring_fn/equality_scoring_fn.py +0 -0
  760. {llama_stack-0.2.23/llama_stack/providers/inline/scoring/basic/utils → llama_stack-0.3.1/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs}/__init__.py +0 -0
  761. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/docvqa.py +0 -0
  762. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/equality.py +0 -0
  763. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/ifeval.py +0 -0
  764. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/regex_parser_math_response.py +0 -0
  765. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/regex_parser_multiple_choice_answer.py +0 -0
  766. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/subset_of.py +0 -0
  767. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/basic/scoring_fn/ifeval_scoring_fn.py +0 -0
  768. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/basic/scoring_fn/regex_parser_math_response_scoring_fn.py +0 -0
  769. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/basic/scoring_fn/regex_parser_scoring_fn.py +0 -0
  770. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/basic/scoring_fn/subset_of_scoring_fn.py +0 -0
  771. {llama_stack-0.2.23/llama_stack/providers/inline/scoring/braintrust/scoring_fn → llama_stack-0.3.1/llama_stack/providers/inline/scoring/basic/utils}/__init__.py +0 -0
  772. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/basic/utils/ifeval_utils.py +0 -0
  773. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/basic/utils/math_utils.py +0 -0
  774. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/braintrust/__init__.py +0 -0
  775. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/braintrust/braintrust.py +0 -0
  776. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/braintrust/config.py +0 -0
  777. {llama_stack-0.2.23/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs → llama_stack-0.3.1/llama_stack/providers/inline/scoring/braintrust/scoring_fn}/__init__.py +0 -0
  778. {llama_stack-0.2.23/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn → llama_stack-0.3.1/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs}/__init__.py +0 -0
  779. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/answer_correctness.py +0 -0
  780. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/answer_relevancy.py +0 -0
  781. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/answer_similarity.py +0 -0
  782. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_entity_recall.py +0 -0
  783. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_precision.py +0 -0
  784. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_recall.py +0 -0
  785. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_relevancy.py +0 -0
  786. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/factuality.py +0 -0
  787. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/faithfulness.py +0 -0
  788. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/llm_as_judge/__init__.py +0 -0
  789. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/llm_as_judge/config.py +0 -0
  790. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/llm_as_judge/scoring.py +0 -0
  791. {llama_stack-0.2.23/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs → llama_stack-0.3.1/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn}/__init__.py +0 -0
  792. {llama_stack-0.2.23/llama_stack/providers/inline/telemetry → llama_stack-0.3.1/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs}/__init__.py +0 -0
  793. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs/llm_as_judge_405b_simpleqa.py +0 -0
  794. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs/llm_as_judge_base.py +0 -0
  795. {llama_stack-0.2.23/llama_stack/providers/inline/tool_runtime → llama_stack-0.3.1/llama_stack/providers/inline/telemetry}/__init__.py +0 -0
  796. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/telemetry/meta_reference/__init__.py +0 -0
  797. {llama_stack-0.2.23/llama_stack/providers/inline/vector_io → llama_stack-0.3.1/llama_stack/providers/inline/tool_runtime}/__init__.py +0 -0
  798. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/tool_runtime/rag/__init__.py +0 -0
  799. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/inline/tool_runtime/rag/config.py +0 -0
  800. {llama_stack-0.2.23/llama_stack/providers/registry → llama_stack-0.3.1/llama_stack/providers/inline/vector_io}/__init__.py +0 -0
  801. {llama_stack-0.2.23/llama_stack/providers/remote → llama_stack-0.3.1/llama_stack/providers/registry}/__init__.py +0 -0
  802. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/registry/batches.py +0 -0
  803. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/registry/datasetio.py +0 -0
  804. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/registry/eval.py +0 -0
  805. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/registry/files.py +0 -0
  806. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/registry/post_training.py +0 -0
  807. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/registry/safety.py +0 -0
  808. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/registry/scoring.py +0 -0
  809. {llama_stack-0.2.23/llama_stack/providers/remote/agents → llama_stack-0.3.1/llama_stack/providers/remote}/__init__.py +0 -0
  810. {llama_stack-0.2.23/llama_stack/providers/remote/datasetio → llama_stack-0.3.1/llama_stack/providers/remote/agents}/__init__.py +0 -0
  811. {llama_stack-0.2.23/llama_stack/providers/remote/eval → llama_stack-0.3.1/llama_stack/providers/remote/datasetio}/__init__.py +0 -0
  812. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/datasetio/huggingface/__init__.py +0 -0
  813. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/datasetio/huggingface/huggingface.py +0 -0
  814. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/datasetio/nvidia/__init__.py +0 -0
  815. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/datasetio/nvidia/config.py +0 -0
  816. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/datasetio/nvidia/datasetio.py +0 -0
  817. {llama_stack-0.2.23/llama_stack/providers/remote/inference → llama_stack-0.3.1/llama_stack/providers/remote/eval}/__init__.py +0 -0
  818. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/eval/nvidia/__init__.py +0 -0
  819. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/eval/nvidia/config.py +0 -0
  820. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/eval/nvidia/eval.py +0 -0
  821. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/files/s3/__init__.py +0 -0
  822. {llama_stack-0.2.23/llama_stack/providers/remote/post_training → llama_stack-0.3.1/llama_stack/providers/remote/inference}/__init__.py +0 -0
  823. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/inference/bedrock/__init__.py +0 -0
  824. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/inference/bedrock/config.py +0 -0
  825. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/inference/bedrock/models.py +0 -0
  826. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/inference/passthrough/__init__.py +0 -0
  827. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/inference/tgi/__init__.py +0 -0
  828. {llama_stack-0.2.23/llama_stack/providers/remote/safety → llama_stack-0.3.1/llama_stack/providers/remote/post_training}/__init__.py +0 -0
  829. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/post_training/nvidia/__init__.py +0 -0
  830. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/post_training/nvidia/config.py +0 -0
  831. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/post_training/nvidia/models.py +0 -0
  832. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/post_training/nvidia/post_training.py +0 -0
  833. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/post_training/nvidia/utils.py +0 -0
  834. {llama_stack-0.2.23/llama_stack/providers/remote/tool_runtime → llama_stack-0.3.1/llama_stack/providers/remote/safety}/__init__.py +0 -0
  835. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/safety/bedrock/__init__.py +0 -0
  836. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/safety/bedrock/config.py +0 -0
  837. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/safety/nvidia/__init__.py +0 -0
  838. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/safety/nvidia/config.py +0 -0
  839. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/safety/sambanova/__init__.py +0 -0
  840. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/safety/sambanova/config.py +0 -0
  841. {llama_stack-0.2.23/llama_stack/providers/remote/vector_io → llama_stack-0.3.1/llama_stack/providers/remote/tool_runtime}/__init__.py +0 -0
  842. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/tool_runtime/bing_search/__init__.py +0 -0
  843. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/tool_runtime/bing_search/config.py +0 -0
  844. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/tool_runtime/brave_search/__init__.py +0 -0
  845. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/tool_runtime/brave_search/config.py +0 -0
  846. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/tool_runtime/model_context_protocol/__init__.py +0 -0
  847. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/tool_runtime/model_context_protocol/config.py +0 -0
  848. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/tool_runtime/model_context_protocol/model_context_protocol.py +0 -0
  849. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/tool_runtime/tavily_search/__init__.py +0 -0
  850. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/tool_runtime/tavily_search/config.py +0 -0
  851. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/tool_runtime/wolfram_alpha/__init__.py +0 -0
  852. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/tool_runtime/wolfram_alpha/config.py +0 -0
  853. {llama_stack-0.2.23/llama_stack/providers/utils → llama_stack-0.3.1/llama_stack/providers/remote/vector_io}/__init__.py +0 -0
  854. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/remote/vector_io/chroma/__init__.py +0 -0
  855. {llama_stack-0.2.23/llama_stack/providers/utils/bedrock → llama_stack-0.3.1/llama_stack/providers/utils}/__init__.py +0 -0
  856. {llama_stack-0.2.23/llama_stack/providers/utils/common → llama_stack-0.3.1/llama_stack/providers/utils/bedrock}/__init__.py +0 -0
  857. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/utils/bedrock/client.py +0 -0
  858. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/utils/bedrock/refreshable_boto_session.py +0 -0
  859. {llama_stack-0.2.23/llama_stack/providers/utils/datasetio → llama_stack-0.3.1/llama_stack/providers/utils/common}/__init__.py +0 -0
  860. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/utils/common/data_schema_validator.py +0 -0
  861. {llama_stack-0.2.23/llama_stack/providers/utils/memory → llama_stack-0.3.1/llama_stack/providers/utils/datasetio}/__init__.py +0 -0
  862. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/utils/datasetio/url_utils.py +0 -0
  863. {llama_stack-0.2.23/llama_stack/providers/utils/responses → llama_stack-0.3.1/llama_stack/providers/utils/files}/__init__.py +0 -0
  864. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/utils/inference/__init__.py +0 -0
  865. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/utils/kvstore/__init__.py +0 -0
  866. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/utils/kvstore/api.py +0 -0
  867. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/utils/kvstore/mongodb/__init__.py +0 -0
  868. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/utils/kvstore/mongodb/mongodb.py +0 -0
  869. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/utils/kvstore/postgres/__init__.py +0 -0
  870. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/utils/kvstore/postgres/postgres.py +0 -0
  871. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/utils/kvstore/redis/__init__.py +0 -0
  872. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/utils/kvstore/redis/redis.py +0 -0
  873. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/utils/kvstore/sqlite/__init__.py +0 -0
  874. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/utils/kvstore/sqlite/config.py +0 -0
  875. {llama_stack-0.2.23/llama_stack/providers/utils/scoring → llama_stack-0.3.1/llama_stack/providers/utils/memory}/__init__.py +0 -0
  876. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/utils/memory/file_utils.py +0 -0
  877. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/utils/pagination.py +0 -0
  878. {llama_stack-0.2.23/llama_stack/providers/utils/sqlstore → llama_stack-0.3.1/llama_stack/providers/utils/responses}/__init__.py +0 -0
  879. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/utils/scheduler.py +0 -0
  880. {llama_stack-0.2.23/llama_stack/providers/utils/telemetry → llama_stack-0.3.1/llama_stack/providers/utils/scoring}/__init__.py +0 -0
  881. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/utils/scoring/aggregation_utils.py +0 -0
  882. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/utils/scoring/base_scoring_fn.py +0 -0
  883. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/utils/scoring/basic_scoring_utils.py +0 -0
  884. {llama_stack-0.2.23/llama_stack/providers/utils/tools → llama_stack-0.3.1/llama_stack/providers/utils/sqlstore}/__init__.py +0 -0
  885. {llama_stack-0.2.23/llama_stack/providers/utils/vector_io → llama_stack-0.3.1/llama_stack/providers/utils/telemetry}/__init__.py +0 -0
  886. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/utils/telemetry/tracing.py +0 -0
  887. {llama_stack-0.2.23/llama_stack/testing → llama_stack-0.3.1/llama_stack/providers/utils/tools}/__init__.py +0 -0
  888. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/utils/tools/ttl_dict.py +0 -0
  889. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/providers/utils/vector_io/vector_utils.py +0 -0
  890. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/strong_typing/__init__.py +0 -0
  891. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/strong_typing/auxiliary.py +0 -0
  892. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/strong_typing/classdef.py +0 -0
  893. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/strong_typing/core.py +0 -0
  894. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/strong_typing/deserializer.py +0 -0
  895. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/strong_typing/docstring.py +0 -0
  896. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/strong_typing/exception.py +0 -0
  897. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/strong_typing/mapping.py +0 -0
  898. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/strong_typing/name.py +0 -0
  899. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/strong_typing/py.typed +0 -0
  900. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/strong_typing/serialization.py +0 -0
  901. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/strong_typing/serializer.py +0 -0
  902. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/strong_typing/slots.py +0 -0
  903. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack/strong_typing/topological.py +0 -0
  904. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack.egg-info/dependency_links.txt +0 -0
  905. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack.egg-info/entry_points.txt +0 -0
  906. {llama_stack-0.2.23 → llama_stack-0.3.1}/llama_stack.egg-info/top_level.txt +0 -0
  907. {llama_stack-0.2.23 → llama_stack-0.3.1}/setup.cfg +0 -0
@@ -0,0 +1,11 @@
1
+ include pyproject.toml
2
+ include llama_stack/models/llama/llama3/tokenizer.model
3
+ include llama_stack/models/llama/llama4/tokenizer.model
4
+ include llama_stack/core/*.sh
5
+ include llama_stack/cli/scripts/*.sh
6
+ include llama_stack/distributions/*/*.yaml
7
+ exclude llama_stack/distributions/ci-tests
8
+ include tests/integration/test_cases/inference/*.json
9
+ include llama_stack/models/llama/*/*.md
10
+ include llama_stack/tests/integration/*.jpg
11
+ prune llama_stack/distributions/ci-tests
@@ -0,0 +1,260 @@
1
+ Metadata-Version: 2.4
2
+ Name: llama_stack
3
+ Version: 0.3.1
4
+ Summary: Llama Stack
5
+ Author-email: Meta Llama <llama-oss@meta.com>
6
+ License: MIT
7
+ Project-URL: Homepage, https://github.com/llamastack/llama-stack
8
+ Classifier: License :: OSI Approved :: MIT License
9
+ Classifier: Programming Language :: Python :: 3
10
+ Classifier: Operating System :: OS Independent
11
+ Classifier: Intended Audience :: Developers
12
+ Classifier: Intended Audience :: Information Technology
13
+ Classifier: Intended Audience :: Science/Research
14
+ Classifier: Topic :: Scientific/Engineering :: Artificial Intelligence
15
+ Classifier: Topic :: Scientific/Engineering :: Information Analysis
16
+ Requires-Python: >=3.12
17
+ Description-Content-Type: text/markdown
18
+ License-File: LICENSE
19
+ Requires-Dist: aiohttp
20
+ Requires-Dist: fastapi<1.0,>=0.115.0
21
+ Requires-Dist: fire
22
+ Requires-Dist: httpx
23
+ Requires-Dist: jinja2>=3.1.6
24
+ Requires-Dist: jsonschema
25
+ Requires-Dist: llama-stack-client>=0.3.1
26
+ Requires-Dist: openai>=1.107
27
+ Requires-Dist: prompt-toolkit
28
+ Requires-Dist: python-dotenv
29
+ Requires-Dist: pyjwt[crypto]>=2.10.0
30
+ Requires-Dist: pydantic>=2.11.9
31
+ Requires-Dist: rich
32
+ Requires-Dist: starlette
33
+ Requires-Dist: termcolor
34
+ Requires-Dist: tiktoken
35
+ Requires-Dist: pillow
36
+ Requires-Dist: h11>=0.16.0
37
+ Requires-Dist: python-multipart>=0.0.20
38
+ Requires-Dist: uvicorn>=0.34.0
39
+ Requires-Dist: opentelemetry-sdk>=1.30.0
40
+ Requires-Dist: opentelemetry-exporter-otlp-proto-http>=1.30.0
41
+ Requires-Dist: aiosqlite>=0.21.0
42
+ Requires-Dist: asyncpg
43
+ Requires-Dist: sqlalchemy[asyncio]>=2.0.41
44
+ Provides-Extra: ui
45
+ Requires-Dist: streamlit; extra == "ui"
46
+ Requires-Dist: pandas; extra == "ui"
47
+ Requires-Dist: llama-stack-client>=0.3.1; extra == "ui"
48
+ Requires-Dist: streamlit-option-menu; extra == "ui"
49
+ Dynamic: license-file
50
+
51
+ # Llama Stack
52
+
53
+ [![PyPI version](https://img.shields.io/pypi/v/llama_stack.svg)](https://pypi.org/project/llama_stack/)
54
+ [![PyPI - Downloads](https://img.shields.io/pypi/dm/llama-stack)](https://pypi.org/project/llama-stack/)
55
+ [![License](https://img.shields.io/pypi/l/llama_stack.svg)](https://github.com/meta-llama/llama-stack/blob/main/LICENSE)
56
+ [![Discord](https://img.shields.io/discord/1257833999603335178?color=6A7EC2&logo=discord&logoColor=ffffff)](https://discord.gg/llama-stack)
57
+ [![Unit Tests](https://github.com/meta-llama/llama-stack/actions/workflows/unit-tests.yml/badge.svg?branch=main)](https://github.com/meta-llama/llama-stack/actions/workflows/unit-tests.yml?query=branch%3Amain)
58
+ [![Integration Tests](https://github.com/meta-llama/llama-stack/actions/workflows/integration-tests.yml/badge.svg?branch=main)](https://github.com/meta-llama/llama-stack/actions/workflows/integration-tests.yml?query=branch%3Amain)
59
+
60
+ [**Quick Start**](https://llamastack.github.io/docs/getting_started/quickstart) | [**Documentation**](https://llamastack.github.io/docs) | [**Colab Notebook**](./docs/getting_started.ipynb) | [**Discord**](https://discord.gg/llama-stack)
61
+
62
+
63
+ ### ✨🎉 Llama 4 Support 🎉✨
64
+ We released [Version 0.2.0](https://github.com/meta-llama/llama-stack/releases/tag/v0.2.0) with support for the Llama 4 herd of models released by Meta.
65
+
66
+ <details>
67
+
68
+ <summary>👋 Click here to see how to run Llama 4 models on Llama Stack </summary>
69
+
70
+ \
71
+ *Note you need 8xH100 GPU-host to run these models*
72
+
73
+ ```bash
74
+ pip install -U llama_stack
75
+
76
+ MODEL="Llama-4-Scout-17B-16E-Instruct"
77
+ # get meta url from llama.com
78
+ huggingface-cli download meta-llama/$MODEL --local-dir ~/.llama/$MODEL
79
+
80
+ # install dependencies for the distribution
81
+ llama stack list-deps meta-reference-gpu | xargs -L1 uv pip install
82
+
83
+ # start a llama stack server
84
+ INFERENCE_MODEL=meta-llama/$MODEL llama stack run meta-reference-gpu
85
+
86
+ # install client to interact with the server
87
+ pip install llama-stack-client
88
+ ```
89
+ ### CLI
90
+ ```bash
91
+ # Run a chat completion
92
+ MODEL="Llama-4-Scout-17B-16E-Instruct"
93
+
94
+ llama-stack-client --endpoint http://localhost:8321 \
95
+ inference chat-completion \
96
+ --model-id meta-llama/$MODEL \
97
+ --message "write a haiku for meta's llama 4 models"
98
+
99
+ OpenAIChatCompletion(
100
+ ...
101
+ choices=[
102
+ OpenAIChatCompletionChoice(
103
+ finish_reason='stop',
104
+ index=0,
105
+ message=OpenAIChatCompletionChoiceMessageOpenAIAssistantMessageParam(
106
+ role='assistant',
107
+ content='...**Silent minds awaken,** \n**Whispers of billions of words,** \n**Reasoning breaks the night.** \n\n— \n*This haiku blends the essence of LLaMA 4\'s capabilities with nature-inspired metaphor, evoking its vast training data and transformative potential.*',
108
+ ...
109
+ ),
110
+ ...
111
+ )
112
+ ],
113
+ ...
114
+ )
115
+ ```
116
+ ### Python SDK
117
+ ```python
118
+ from llama_stack_client import LlamaStackClient
119
+
120
+ client = LlamaStackClient(base_url=f"http://localhost:8321")
121
+
122
+ model_id = "meta-llama/Llama-4-Scout-17B-16E-Instruct"
123
+ prompt = "Write a haiku about coding"
124
+
125
+ print(f"User> {prompt}")
126
+ response = client.chat.completions.create(
127
+ model=model_id,
128
+ messages=[
129
+ {"role": "system", "content": "You are a helpful assistant."},
130
+ {"role": "user", "content": prompt},
131
+ ],
132
+ )
133
+ print(f"Assistant> {response.choices[0].message.content}")
134
+ ```
135
+ As more providers start supporting Llama 4, you can use them in Llama Stack as well. We are adding to the list. Stay tuned!
136
+
137
+
138
+ </details>
139
+
140
+ ### 🚀 One-Line Installer 🚀
141
+
142
+ To try Llama Stack locally, run:
143
+
144
+ ```bash
145
+ curl -LsSf https://github.com/llamastack/llama-stack/raw/main/scripts/install.sh | bash
146
+ ```
147
+
148
+ ### Overview
149
+
150
+ Llama Stack standardizes the core building blocks that simplify AI application development. It codifies best practices across the Llama ecosystem. More specifically, it provides
151
+
152
+ - **Unified API layer** for Inference, RAG, Agents, Tools, Safety, Evals, and Telemetry.
153
+ - **Plugin architecture** to support the rich ecosystem of different API implementations in various environments, including local development, on-premises, cloud, and mobile.
154
+ - **Prepackaged verified distributions** which offer a one-stop solution for developers to get started quickly and reliably in any environment.
155
+ - **Multiple developer interfaces** like CLI and SDKs for Python, Typescript, iOS, and Android.
156
+ - **Standalone applications** as examples for how to build production-grade AI applications with Llama Stack.
157
+
158
+ <div style="text-align: center;">
159
+ <img
160
+ src="https://github.com/user-attachments/assets/33d9576d-95ea-468d-95e2-8fa233205a50"
161
+ width="480"
162
+ title="Llama Stack"
163
+ alt="Llama Stack"
164
+ />
165
+ </div>
166
+
167
+ ### Llama Stack Benefits
168
+ - **Flexible Options**: Developers can choose their preferred infrastructure without changing APIs and enjoy flexible deployment choices.
169
+ - **Consistent Experience**: With its unified APIs, Llama Stack makes it easier to build, test, and deploy AI applications with consistent application behavior.
170
+ - **Robust Ecosystem**: Llama Stack is already integrated with distribution partners (cloud providers, hardware vendors, and AI-focused companies) that offer tailored infrastructure, software, and services for deploying Llama models.
171
+
172
+ By reducing friction and complexity, Llama Stack empowers developers to focus on what they do best: building transformative generative AI applications.
173
+
174
+ ### API Providers
175
+ Here is a list of the various API providers and available distributions that can help developers get started easily with Llama Stack.
176
+ Please checkout for [full list](https://llamastack.github.io/docs/providers)
177
+
178
+ | API Provider Builder | Environments | Agents | Inference | VectorIO | Safety | Telemetry | Post Training | Eval | DatasetIO |
179
+ |:--------------------:|:------------:|:------:|:---------:|:--------:|:------:|:---------:|:-------------:|:----:|:--------:|
180
+ | Meta Reference | Single Node | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
181
+ | SambaNova | Hosted | | ✅ | | ✅ | | | | |
182
+ | Cerebras | Hosted | | ✅ | | | | | | |
183
+ | Fireworks | Hosted | ✅ | ✅ | ✅ | | | | | |
184
+ | AWS Bedrock | Hosted | | ✅ | | ✅ | | | | |
185
+ | Together | Hosted | ✅ | ✅ | | ✅ | | | | |
186
+ | Groq | Hosted | | ✅ | | | | | | |
187
+ | Ollama | Single Node | | ✅ | | | | | | |
188
+ | TGI | Hosted/Single Node | | ✅ | | | | | | |
189
+ | NVIDIA NIM | Hosted/Single Node | | ✅ | | ✅ | | | | |
190
+ | ChromaDB | Hosted/Single Node | | | ✅ | | | | | |
191
+ | Milvus | Hosted/Single Node | | | ✅ | | | | | |
192
+ | Qdrant | Hosted/Single Node | | | ✅ | | | | | |
193
+ | Weaviate | Hosted/Single Node | | | ✅ | | | | | |
194
+ | SQLite-vec | Single Node | | | ✅ | | | | | |
195
+ | PG Vector | Single Node | | | ✅ | | | | | |
196
+ | PyTorch ExecuTorch | On-device iOS | ✅ | ✅ | | | | | | |
197
+ | vLLM | Single Node | | ✅ | | | | | | |
198
+ | OpenAI | Hosted | | ✅ | | | | | | |
199
+ | Anthropic | Hosted | | ✅ | | | | | | |
200
+ | Gemini | Hosted | | ✅ | | | | | | |
201
+ | WatsonX | Hosted | | ✅ | | | | | | |
202
+ | HuggingFace | Single Node | | | | | | ✅ | | ✅ |
203
+ | TorchTune | Single Node | | | | | | ✅ | | |
204
+ | NVIDIA NEMO | Hosted | | ✅ | ✅ | | | ✅ | ✅ | ✅ |
205
+ | NVIDIA | Hosted | | | | | | ✅ | ✅ | ✅ |
206
+
207
+ > **Note**: Additional providers are available through external packages. See [External Providers](https://llamastack.github.io/docs/providers/external) documentation.
208
+
209
+ ### Distributions
210
+
211
+ A Llama Stack Distribution (or "distro") is a pre-configured bundle of provider implementations for each API component. Distributions make it easy to get started with a specific deployment scenario - you can begin with a local development setup (eg. ollama) and seamlessly transition to production (eg. Fireworks) without changing your application code.
212
+ Here are some of the distributions we support:
213
+
214
+ | **Distribution** | **Llama Stack Docker** | Start This Distribution |
215
+ |:---------------------------------------------:|:-------------------------------------------------------------------------------------------------------------------------------------------------------------:|:------------------------------------------------------------------------------------------------------------------------:|
216
+ | Starter Distribution | [llamastack/distribution-starter](https://hub.docker.com/repository/docker/llamastack/distribution-starter/general) | [Guide](https://llamastack.github.io/latest/distributions/self_hosted_distro/starter.html) |
217
+ | Meta Reference | [llamastack/distribution-meta-reference-gpu](https://hub.docker.com/repository/docker/llamastack/distribution-meta-reference-gpu/general) | [Guide](https://llamastack.github.io/latest/distributions/self_hosted_distro/meta-reference-gpu.html) |
218
+ | PostgreSQL | [llamastack/distribution-postgres-demo](https://hub.docker.com/repository/docker/llamastack/distribution-postgres-demo/general) | |
219
+
220
+ ### Documentation
221
+
222
+ Please checkout our [Documentation](https://llamastack.github.io/latest/index.html) page for more details.
223
+
224
+ * CLI references
225
+ * [llama (server-side) CLI Reference](https://llamastack.github.io/latest/references/llama_cli_reference/index.html): Guide for using the `llama` CLI to work with Llama models (download, study prompts), and building/starting a Llama Stack distribution.
226
+ * [llama (client-side) CLI Reference](https://llamastack.github.io/latest/references/llama_stack_client_cli_reference.html): Guide for using the `llama-stack-client` CLI, which allows you to query information about the distribution.
227
+ * Getting Started
228
+ * [Quick guide to start a Llama Stack server](https://llamastack.github.io/latest/getting_started/index.html).
229
+ * [Jupyter notebook](./docs/getting_started.ipynb) to walk-through how to use simple text and vision inference llama_stack_client APIs
230
+ * The complete Llama Stack lesson [Colab notebook](https://colab.research.google.com/drive/1dtVmxotBsI4cGZQNsJRYPrLiDeT0Wnwt) of the new [Llama 3.2 course on Deeplearning.ai](https://learn.deeplearning.ai/courses/introducing-multimodal-llama-3-2/lesson/8/llama-stack).
231
+ * A [Zero-to-Hero Guide](https://github.com/meta-llama/llama-stack/tree/main/docs/zero_to_hero_guide) that guide you through all the key components of llama stack with code samples.
232
+ * [Contributing](CONTRIBUTING.md)
233
+ * [Adding a new API Provider](https://llamastack.github.io/latest/contributing/new_api_provider.html) to walk-through how to add a new API provider.
234
+
235
+ ### Llama Stack Client SDKs
236
+
237
+ | **Language** | **Client SDK** | **Package** |
238
+ | :----: | :----: | :----: |
239
+ | Python | [llama-stack-client-python](https://github.com/meta-llama/llama-stack-client-python) | [![PyPI version](https://img.shields.io/pypi/v/llama_stack_client.svg)](https://pypi.org/project/llama_stack_client/)
240
+ | Swift | [llama-stack-client-swift](https://github.com/meta-llama/llama-stack-client-swift) | [![Swift Package Index](https://img.shields.io/endpoint?url=https%3A%2F%2Fswiftpackageindex.com%2Fapi%2Fpackages%2Fmeta-llama%2Fllama-stack-client-swift%2Fbadge%3Ftype%3Dswift-versions)](https://swiftpackageindex.com/meta-llama/llama-stack-client-swift)
241
+ | Typescript | [llama-stack-client-typescript](https://github.com/meta-llama/llama-stack-client-typescript) | [![NPM version](https://img.shields.io/npm/v/llama-stack-client.svg)](https://npmjs.org/package/llama-stack-client)
242
+ | Kotlin | [llama-stack-client-kotlin](https://github.com/meta-llama/llama-stack-client-kotlin) | [![Maven version](https://img.shields.io/maven-central/v/com.llama.llamastack/llama-stack-client-kotlin)](https://central.sonatype.com/artifact/com.llama.llamastack/llama-stack-client-kotlin)
243
+
244
+ Check out our client SDKs for connecting to a Llama Stack server in your preferred language, you can choose from [python](https://github.com/meta-llama/llama-stack-client-python), [typescript](https://github.com/meta-llama/llama-stack-client-typescript), [swift](https://github.com/meta-llama/llama-stack-client-swift), and [kotlin](https://github.com/meta-llama/llama-stack-client-kotlin) programming languages to quickly build your applications.
245
+
246
+ You can find more example scripts with client SDKs to talk with the Llama Stack server in our [llama-stack-apps](https://github.com/meta-llama/llama-stack-apps/tree/main/examples) repo.
247
+
248
+
249
+ ## 🌟 GitHub Star History
250
+ ## Star History
251
+
252
+ [![Star History Chart](https://api.star-history.com/svg?repos=meta-llama/llama-stack&type=Date)](https://www.star-history.com/#meta-llama/llama-stack&Date)
253
+
254
+ ## ✨ Contributors
255
+
256
+ Thanks to all of our amazing contributors!
257
+
258
+ <a href="https://github.com/meta-llama/llama-stack/graphs/contributors">
259
+ <img src="https://contrib.rocks/image?repo=meta-llama/llama-stack" />
260
+ </a>
@@ -0,0 +1,210 @@
1
+ # Llama Stack
2
+
3
+ [![PyPI version](https://img.shields.io/pypi/v/llama_stack.svg)](https://pypi.org/project/llama_stack/)
4
+ [![PyPI - Downloads](https://img.shields.io/pypi/dm/llama-stack)](https://pypi.org/project/llama-stack/)
5
+ [![License](https://img.shields.io/pypi/l/llama_stack.svg)](https://github.com/meta-llama/llama-stack/blob/main/LICENSE)
6
+ [![Discord](https://img.shields.io/discord/1257833999603335178?color=6A7EC2&logo=discord&logoColor=ffffff)](https://discord.gg/llama-stack)
7
+ [![Unit Tests](https://github.com/meta-llama/llama-stack/actions/workflows/unit-tests.yml/badge.svg?branch=main)](https://github.com/meta-llama/llama-stack/actions/workflows/unit-tests.yml?query=branch%3Amain)
8
+ [![Integration Tests](https://github.com/meta-llama/llama-stack/actions/workflows/integration-tests.yml/badge.svg?branch=main)](https://github.com/meta-llama/llama-stack/actions/workflows/integration-tests.yml?query=branch%3Amain)
9
+
10
+ [**Quick Start**](https://llamastack.github.io/docs/getting_started/quickstart) | [**Documentation**](https://llamastack.github.io/docs) | [**Colab Notebook**](./docs/getting_started.ipynb) | [**Discord**](https://discord.gg/llama-stack)
11
+
12
+
13
+ ### ✨🎉 Llama 4 Support 🎉✨
14
+ We released [Version 0.2.0](https://github.com/meta-llama/llama-stack/releases/tag/v0.2.0) with support for the Llama 4 herd of models released by Meta.
15
+
16
+ <details>
17
+
18
+ <summary>👋 Click here to see how to run Llama 4 models on Llama Stack </summary>
19
+
20
+ \
21
+ *Note you need 8xH100 GPU-host to run these models*
22
+
23
+ ```bash
24
+ pip install -U llama_stack
25
+
26
+ MODEL="Llama-4-Scout-17B-16E-Instruct"
27
+ # get meta url from llama.com
28
+ huggingface-cli download meta-llama/$MODEL --local-dir ~/.llama/$MODEL
29
+
30
+ # install dependencies for the distribution
31
+ llama stack list-deps meta-reference-gpu | xargs -L1 uv pip install
32
+
33
+ # start a llama stack server
34
+ INFERENCE_MODEL=meta-llama/$MODEL llama stack run meta-reference-gpu
35
+
36
+ # install client to interact with the server
37
+ pip install llama-stack-client
38
+ ```
39
+ ### CLI
40
+ ```bash
41
+ # Run a chat completion
42
+ MODEL="Llama-4-Scout-17B-16E-Instruct"
43
+
44
+ llama-stack-client --endpoint http://localhost:8321 \
45
+ inference chat-completion \
46
+ --model-id meta-llama/$MODEL \
47
+ --message "write a haiku for meta's llama 4 models"
48
+
49
+ OpenAIChatCompletion(
50
+ ...
51
+ choices=[
52
+ OpenAIChatCompletionChoice(
53
+ finish_reason='stop',
54
+ index=0,
55
+ message=OpenAIChatCompletionChoiceMessageOpenAIAssistantMessageParam(
56
+ role='assistant',
57
+ content='...**Silent minds awaken,** \n**Whispers of billions of words,** \n**Reasoning breaks the night.** \n\n— \n*This haiku blends the essence of LLaMA 4\'s capabilities with nature-inspired metaphor, evoking its vast training data and transformative potential.*',
58
+ ...
59
+ ),
60
+ ...
61
+ )
62
+ ],
63
+ ...
64
+ )
65
+ ```
66
+ ### Python SDK
67
+ ```python
68
+ from llama_stack_client import LlamaStackClient
69
+
70
+ client = LlamaStackClient(base_url=f"http://localhost:8321")
71
+
72
+ model_id = "meta-llama/Llama-4-Scout-17B-16E-Instruct"
73
+ prompt = "Write a haiku about coding"
74
+
75
+ print(f"User> {prompt}")
76
+ response = client.chat.completions.create(
77
+ model=model_id,
78
+ messages=[
79
+ {"role": "system", "content": "You are a helpful assistant."},
80
+ {"role": "user", "content": prompt},
81
+ ],
82
+ )
83
+ print(f"Assistant> {response.choices[0].message.content}")
84
+ ```
85
+ As more providers start supporting Llama 4, you can use them in Llama Stack as well. We are adding to the list. Stay tuned!
86
+
87
+
88
+ </details>
89
+
90
+ ### 🚀 One-Line Installer 🚀
91
+
92
+ To try Llama Stack locally, run:
93
+
94
+ ```bash
95
+ curl -LsSf https://github.com/llamastack/llama-stack/raw/main/scripts/install.sh | bash
96
+ ```
97
+
98
+ ### Overview
99
+
100
+ Llama Stack standardizes the core building blocks that simplify AI application development. It codifies best practices across the Llama ecosystem. More specifically, it provides
101
+
102
+ - **Unified API layer** for Inference, RAG, Agents, Tools, Safety, Evals, and Telemetry.
103
+ - **Plugin architecture** to support the rich ecosystem of different API implementations in various environments, including local development, on-premises, cloud, and mobile.
104
+ - **Prepackaged verified distributions** which offer a one-stop solution for developers to get started quickly and reliably in any environment.
105
+ - **Multiple developer interfaces** like CLI and SDKs for Python, Typescript, iOS, and Android.
106
+ - **Standalone applications** as examples for how to build production-grade AI applications with Llama Stack.
107
+
108
+ <div style="text-align: center;">
109
+ <img
110
+ src="https://github.com/user-attachments/assets/33d9576d-95ea-468d-95e2-8fa233205a50"
111
+ width="480"
112
+ title="Llama Stack"
113
+ alt="Llama Stack"
114
+ />
115
+ </div>
116
+
117
+ ### Llama Stack Benefits
118
+ - **Flexible Options**: Developers can choose their preferred infrastructure without changing APIs and enjoy flexible deployment choices.
119
+ - **Consistent Experience**: With its unified APIs, Llama Stack makes it easier to build, test, and deploy AI applications with consistent application behavior.
120
+ - **Robust Ecosystem**: Llama Stack is already integrated with distribution partners (cloud providers, hardware vendors, and AI-focused companies) that offer tailored infrastructure, software, and services for deploying Llama models.
121
+
122
+ By reducing friction and complexity, Llama Stack empowers developers to focus on what they do best: building transformative generative AI applications.
123
+
124
+ ### API Providers
125
+ Here is a list of the various API providers and available distributions that can help developers get started easily with Llama Stack.
126
+ Please checkout for [full list](https://llamastack.github.io/docs/providers)
127
+
128
+ | API Provider Builder | Environments | Agents | Inference | VectorIO | Safety | Telemetry | Post Training | Eval | DatasetIO |
129
+ |:--------------------:|:------------:|:------:|:---------:|:--------:|:------:|:---------:|:-------------:|:----:|:--------:|
130
+ | Meta Reference | Single Node | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
131
+ | SambaNova | Hosted | | ✅ | | ✅ | | | | |
132
+ | Cerebras | Hosted | | ✅ | | | | | | |
133
+ | Fireworks | Hosted | ✅ | ✅ | ✅ | | | | | |
134
+ | AWS Bedrock | Hosted | | ✅ | | ✅ | | | | |
135
+ | Together | Hosted | ✅ | ✅ | | ✅ | | | | |
136
+ | Groq | Hosted | | ✅ | | | | | | |
137
+ | Ollama | Single Node | | ✅ | | | | | | |
138
+ | TGI | Hosted/Single Node | | ✅ | | | | | | |
139
+ | NVIDIA NIM | Hosted/Single Node | | ✅ | | ✅ | | | | |
140
+ | ChromaDB | Hosted/Single Node | | | ✅ | | | | | |
141
+ | Milvus | Hosted/Single Node | | | ✅ | | | | | |
142
+ | Qdrant | Hosted/Single Node | | | ✅ | | | | | |
143
+ | Weaviate | Hosted/Single Node | | | ✅ | | | | | |
144
+ | SQLite-vec | Single Node | | | ✅ | | | | | |
145
+ | PG Vector | Single Node | | | ✅ | | | | | |
146
+ | PyTorch ExecuTorch | On-device iOS | ✅ | ✅ | | | | | | |
147
+ | vLLM | Single Node | | ✅ | | | | | | |
148
+ | OpenAI | Hosted | | ✅ | | | | | | |
149
+ | Anthropic | Hosted | | ✅ | | | | | | |
150
+ | Gemini | Hosted | | ✅ | | | | | | |
151
+ | WatsonX | Hosted | | ✅ | | | | | | |
152
+ | HuggingFace | Single Node | | | | | | ✅ | | ✅ |
153
+ | TorchTune | Single Node | | | | | | ✅ | | |
154
+ | NVIDIA NEMO | Hosted | | ✅ | ✅ | | | ✅ | ✅ | ✅ |
155
+ | NVIDIA | Hosted | | | | | | ✅ | ✅ | ✅ |
156
+
157
+ > **Note**: Additional providers are available through external packages. See [External Providers](https://llamastack.github.io/docs/providers/external) documentation.
158
+
159
+ ### Distributions
160
+
161
+ A Llama Stack Distribution (or "distro") is a pre-configured bundle of provider implementations for each API component. Distributions make it easy to get started with a specific deployment scenario - you can begin with a local development setup (eg. ollama) and seamlessly transition to production (eg. Fireworks) without changing your application code.
162
+ Here are some of the distributions we support:
163
+
164
+ | **Distribution** | **Llama Stack Docker** | Start This Distribution |
165
+ |:---------------------------------------------:|:-------------------------------------------------------------------------------------------------------------------------------------------------------------:|:------------------------------------------------------------------------------------------------------------------------:|
166
+ | Starter Distribution | [llamastack/distribution-starter](https://hub.docker.com/repository/docker/llamastack/distribution-starter/general) | [Guide](https://llamastack.github.io/latest/distributions/self_hosted_distro/starter.html) |
167
+ | Meta Reference | [llamastack/distribution-meta-reference-gpu](https://hub.docker.com/repository/docker/llamastack/distribution-meta-reference-gpu/general) | [Guide](https://llamastack.github.io/latest/distributions/self_hosted_distro/meta-reference-gpu.html) |
168
+ | PostgreSQL | [llamastack/distribution-postgres-demo](https://hub.docker.com/repository/docker/llamastack/distribution-postgres-demo/general) | |
169
+
170
+ ### Documentation
171
+
172
+ Please checkout our [Documentation](https://llamastack.github.io/latest/index.html) page for more details.
173
+
174
+ * CLI references
175
+ * [llama (server-side) CLI Reference](https://llamastack.github.io/latest/references/llama_cli_reference/index.html): Guide for using the `llama` CLI to work with Llama models (download, study prompts), and building/starting a Llama Stack distribution.
176
+ * [llama (client-side) CLI Reference](https://llamastack.github.io/latest/references/llama_stack_client_cli_reference.html): Guide for using the `llama-stack-client` CLI, which allows you to query information about the distribution.
177
+ * Getting Started
178
+ * [Quick guide to start a Llama Stack server](https://llamastack.github.io/latest/getting_started/index.html).
179
+ * [Jupyter notebook](./docs/getting_started.ipynb) to walk-through how to use simple text and vision inference llama_stack_client APIs
180
+ * The complete Llama Stack lesson [Colab notebook](https://colab.research.google.com/drive/1dtVmxotBsI4cGZQNsJRYPrLiDeT0Wnwt) of the new [Llama 3.2 course on Deeplearning.ai](https://learn.deeplearning.ai/courses/introducing-multimodal-llama-3-2/lesson/8/llama-stack).
181
+ * A [Zero-to-Hero Guide](https://github.com/meta-llama/llama-stack/tree/main/docs/zero_to_hero_guide) that guide you through all the key components of llama stack with code samples.
182
+ * [Contributing](CONTRIBUTING.md)
183
+ * [Adding a new API Provider](https://llamastack.github.io/latest/contributing/new_api_provider.html) to walk-through how to add a new API provider.
184
+
185
+ ### Llama Stack Client SDKs
186
+
187
+ | **Language** | **Client SDK** | **Package** |
188
+ | :----: | :----: | :----: |
189
+ | Python | [llama-stack-client-python](https://github.com/meta-llama/llama-stack-client-python) | [![PyPI version](https://img.shields.io/pypi/v/llama_stack_client.svg)](https://pypi.org/project/llama_stack_client/)
190
+ | Swift | [llama-stack-client-swift](https://github.com/meta-llama/llama-stack-client-swift) | [![Swift Package Index](https://img.shields.io/endpoint?url=https%3A%2F%2Fswiftpackageindex.com%2Fapi%2Fpackages%2Fmeta-llama%2Fllama-stack-client-swift%2Fbadge%3Ftype%3Dswift-versions)](https://swiftpackageindex.com/meta-llama/llama-stack-client-swift)
191
+ | Typescript | [llama-stack-client-typescript](https://github.com/meta-llama/llama-stack-client-typescript) | [![NPM version](https://img.shields.io/npm/v/llama-stack-client.svg)](https://npmjs.org/package/llama-stack-client)
192
+ | Kotlin | [llama-stack-client-kotlin](https://github.com/meta-llama/llama-stack-client-kotlin) | [![Maven version](https://img.shields.io/maven-central/v/com.llama.llamastack/llama-stack-client-kotlin)](https://central.sonatype.com/artifact/com.llama.llamastack/llama-stack-client-kotlin)
193
+
194
+ Check out our client SDKs for connecting to a Llama Stack server in your preferred language, you can choose from [python](https://github.com/meta-llama/llama-stack-client-python), [typescript](https://github.com/meta-llama/llama-stack-client-typescript), [swift](https://github.com/meta-llama/llama-stack-client-swift), and [kotlin](https://github.com/meta-llama/llama-stack-client-kotlin) programming languages to quickly build your applications.
195
+
196
+ You can find more example scripts with client SDKs to talk with the Llama Stack server in our [llama-stack-apps](https://github.com/meta-llama/llama-stack-apps/tree/main/examples) repo.
197
+
198
+
199
+ ## 🌟 GitHub Star History
200
+ ## Star History
201
+
202
+ [![Star History Chart](https://api.star-history.com/svg?repos=meta-llama/llama-stack&type=Date)](https://www.star-history.com/#meta-llama/llama-stack&Date)
203
+
204
+ ## ✨ Contributors
205
+
206
+ Thanks to all of our amazing contributors!
207
+
208
+ <a href="https://github.com/meta-llama/llama-stack/graphs/contributors">
209
+ <img src="https://contrib.rocks/image?repo=meta-llama/llama-stack" />
210
+ </a>