llama-stack 0.2.23__tar.gz → 0.3.0__tar.gz

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (906) hide show
  1. llama_stack-0.3.0/MANIFEST.in +11 -0
  2. llama_stack-0.3.0/PKG-INFO +260 -0
  3. llama_stack-0.3.0/README.md +210 -0
  4. llama_stack-0.3.0/llama_stack/apis/agents/agents.py +894 -0
  5. llama_stack-0.3.0/llama_stack/apis/agents/openai_responses.py +1311 -0
  6. llama_stack-0.3.0/llama_stack/apis/batches/batches.py +100 -0
  7. llama_stack-0.3.0/llama_stack/apis/common/errors.py +103 -0
  8. llama_stack-0.3.0/llama_stack/apis/conversations/__init__.py +31 -0
  9. llama_stack-0.3.0/llama_stack/apis/conversations/conversations.py +286 -0
  10. llama_stack-0.3.0/llama_stack/apis/datasetio/datasetio.py +59 -0
  11. llama_stack-0.3.0/llama_stack/apis/datasets/datasets.py +251 -0
  12. llama_stack-0.3.0/llama_stack/apis/datatypes.py +160 -0
  13. llama_stack-0.3.0/llama_stack/apis/eval/eval.py +169 -0
  14. llama_stack-0.3.0/llama_stack/apis/files/files.py +199 -0
  15. llama_stack-0.3.0/llama_stack/apis/inference/inference.py +1273 -0
  16. llama_stack-0.3.0/llama_stack/apis/inspect/inspect.py +94 -0
  17. llama_stack-0.3.0/llama_stack/apis/models/models.py +169 -0
  18. llama_stack-0.3.0/llama_stack/apis/prompts/prompts.py +204 -0
  19. llama_stack-0.3.0/llama_stack/apis/providers/providers.py +69 -0
  20. llama_stack-0.3.0/llama_stack/apis/resource.py +37 -0
  21. llama_stack-0.3.0/llama_stack/apis/safety/safety.py +135 -0
  22. llama_stack-0.3.0/llama_stack/apis/telemetry/telemetry.py +423 -0
  23. llama_stack-0.3.0/llama_stack/apis/tools/tools.py +221 -0
  24. llama_stack-0.3.0/llama_stack/apis/vector_io/vector_io.py +960 -0
  25. llama_stack-0.3.0/llama_stack/apis/vector_stores/__init__.py +7 -0
  26. llama_stack-0.3.0/llama_stack/apis/vector_stores/vector_stores.py +51 -0
  27. llama_stack-0.3.0/llama_stack/cli/llama.py +56 -0
  28. llama_stack-0.3.0/llama_stack/cli/stack/_list_deps.py +182 -0
  29. llama_stack-0.3.0/llama_stack/cli/stack/list_deps.py +51 -0
  30. llama_stack-0.3.0/llama_stack/cli/stack/run.py +214 -0
  31. llama_stack-0.3.0/llama_stack/cli/stack/stack.py +48 -0
  32. llama_stack-0.3.0/llama_stack/cli/stack/utils.py +151 -0
  33. llama_stack-0.3.0/llama_stack/core/access_control/datatypes.py +107 -0
  34. llama_stack-0.3.0/llama_stack/core/configure.py +212 -0
  35. llama_stack-0.3.0/llama_stack/core/conversations/conversations.py +309 -0
  36. llama_stack-0.3.0/llama_stack/core/datatypes.py +621 -0
  37. llama_stack-0.3.0/llama_stack/core/distribution.py +276 -0
  38. llama_stack-0.3.0/llama_stack/core/id_generation.py +42 -0
  39. llama_stack-0.3.0/llama_stack/core/library_client.py +539 -0
  40. llama_stack-0.3.0/llama_stack/core/prompts/prompts.py +234 -0
  41. llama_stack-0.3.0/llama_stack/core/resolver.py +503 -0
  42. llama_stack-0.3.0/llama_stack/core/routers/__init__.py +101 -0
  43. llama_stack-0.3.0/llama_stack/core/routers/inference.py +586 -0
  44. llama_stack-0.3.0/llama_stack/core/routers/tool_runtime.py +91 -0
  45. llama_stack-0.3.0/llama_stack/core/routers/vector_io.py +442 -0
  46. llama_stack-0.3.0/llama_stack/core/routing_tables/common.py +254 -0
  47. llama_stack-0.3.0/llama_stack/core/routing_tables/models.py +163 -0
  48. llama_stack-0.3.0/llama_stack/core/routing_tables/toolgroups.py +129 -0
  49. llama_stack-0.3.0/llama_stack/core/routing_tables/vector_stores.py +292 -0
  50. llama_stack-0.3.0/llama_stack/core/server/auth.py +187 -0
  51. llama_stack-0.3.0/llama_stack/core/server/auth_providers.py +494 -0
  52. llama_stack-0.3.0/llama_stack/core/server/quota.py +110 -0
  53. llama_stack-0.3.0/llama_stack/core/server/server.py +542 -0
  54. llama_stack-0.3.0/llama_stack/core/stack.py +546 -0
  55. llama_stack-0.3.0/llama_stack/core/start_stack.sh +117 -0
  56. llama_stack-0.3.0/llama_stack/core/storage/datatypes.py +283 -0
  57. llama_stack-0.3.0/llama_stack/core/store/registry.py +199 -0
  58. llama_stack-0.3.0/llama_stack/core/testing_context.py +49 -0
  59. llama_stack-0.3.0/llama_stack/core/ui/page/distribution/resources.py +48 -0
  60. llama_stack-0.3.0/llama_stack/core/ui/page/playground/tools.py +352 -0
  61. llama_stack-0.3.0/llama_stack/core/utils/config_resolution.py +125 -0
  62. llama_stack-0.3.0/llama_stack/distributions/dell/build.yaml +33 -0
  63. llama_stack-0.3.0/llama_stack/distributions/dell/dell.py +158 -0
  64. llama_stack-0.3.0/llama_stack/distributions/dell/run-with-safety.yaml +141 -0
  65. llama_stack-0.3.0/llama_stack/distributions/dell/run.yaml +132 -0
  66. llama_stack-0.3.0/llama_stack/distributions/meta-reference-gpu/build.yaml +32 -0
  67. llama_stack-0.3.0/llama_stack/distributions/meta-reference-gpu/meta_reference.py +163 -0
  68. llama_stack-0.3.0/llama_stack/distributions/meta-reference-gpu/run-with-safety.yaml +154 -0
  69. llama_stack-0.3.0/llama_stack/distributions/meta-reference-gpu/run.yaml +139 -0
  70. llama_stack-0.3.0/llama_stack/distributions/nvidia/build.yaml +29 -0
  71. llama_stack-0.3.0/llama_stack/distributions/nvidia/nvidia.py +154 -0
  72. llama_stack-0.3.0/llama_stack/distributions/nvidia/run-with-safety.yaml +137 -0
  73. llama_stack-0.3.0/llama_stack/distributions/nvidia/run.yaml +116 -0
  74. llama_stack-0.3.0/llama_stack/distributions/open-benchmark/build.yaml +36 -0
  75. llama_stack-0.3.0/llama_stack/distributions/open-benchmark/open_benchmark.py +303 -0
  76. llama_stack-0.3.0/llama_stack/distributions/open-benchmark/run.yaml +252 -0
  77. llama_stack-0.3.0/llama_stack/distributions/postgres-demo/build.yaml +23 -0
  78. llama_stack-0.3.0/llama_stack/distributions/postgres-demo/postgres_demo.py +125 -0
  79. llama_stack-0.3.0/llama_stack/distributions/postgres-demo/run.yaml +115 -0
  80. llama_stack-0.3.0/llama_stack/distributions/starter/build.yaml +60 -0
  81. llama_stack-0.3.0/llama_stack/distributions/starter/run.yaml +276 -0
  82. llama_stack-0.3.0/llama_stack/distributions/starter/starter.py +327 -0
  83. llama_stack-0.3.0/llama_stack/distributions/starter-gpu/build.yaml +60 -0
  84. llama_stack-0.3.0/llama_stack/distributions/starter-gpu/run.yaml +279 -0
  85. llama_stack-0.3.0/llama_stack/distributions/template.py +456 -0
  86. llama_stack-0.3.0/llama_stack/distributions/watsonx/__init__.py +7 -0
  87. llama_stack-0.3.0/llama_stack/distributions/watsonx/build.yaml +33 -0
  88. llama_stack-0.3.0/llama_stack/distributions/watsonx/run.yaml +133 -0
  89. llama_stack-0.3.0/llama_stack/distributions/watsonx/watsonx.py +95 -0
  90. llama_stack-0.3.0/llama_stack/log.py +314 -0
  91. llama_stack-0.3.0/llama_stack/models/llama/datatypes.py +164 -0
  92. llama_stack-0.3.0/llama_stack/models/llama/llama3/chat_format.py +286 -0
  93. llama_stack-0.3.0/llama_stack/models/llama/llama3/prompt_templates/system_prompts.py +319 -0
  94. llama_stack-0.3.0/llama_stack/models/llama/llama3/tool_utils.py +266 -0
  95. llama_stack-0.3.0/llama_stack/models/llama/llama3_1/prompts.py +258 -0
  96. llama_stack-0.3.0/llama_stack/models/llama/llama3_3/prompts.py +259 -0
  97. llama_stack-0.3.0/llama_stack/models/llama/llama4/chat_format.py +317 -0
  98. llama_stack-0.3.0/llama_stack/models/llama/llama4/prompt_templates/system_prompts.py +136 -0
  99. llama_stack-0.3.0/llama_stack/models/llama/prompt_format.py +191 -0
  100. llama_stack-0.3.0/llama_stack/models/llama/tokenizer_utils.py +40 -0
  101. llama_stack-0.3.0/llama_stack/providers/datatypes.py +217 -0
  102. llama_stack-0.3.0/llama_stack/providers/inline/agents/meta_reference/__init__.py +34 -0
  103. llama_stack-0.3.0/llama_stack/providers/inline/agents/meta_reference/agent_instance.py +1024 -0
  104. llama_stack-0.3.0/llama_stack/providers/inline/agents/meta_reference/agents.py +383 -0
  105. llama_stack-0.3.0/llama_stack/providers/inline/agents/meta_reference/config.py +37 -0
  106. llama_stack-0.3.0/llama_stack/providers/inline/agents/meta_reference/responses/openai_responses.py +423 -0
  107. llama_stack-0.3.0/llama_stack/providers/inline/agents/meta_reference/responses/streaming.py +1226 -0
  108. llama_stack-0.3.0/llama_stack/providers/inline/agents/meta_reference/responses/tool_executor.py +449 -0
  109. llama_stack-0.3.0/llama_stack/providers/inline/agents/meta_reference/responses/types.py +194 -0
  110. llama_stack-0.3.0/llama_stack/providers/inline/agents/meta_reference/responses/utils.py +365 -0
  111. llama_stack-0.3.0/llama_stack/providers/inline/batches/reference/batches.py +679 -0
  112. llama_stack-0.3.0/llama_stack/providers/inline/batches/reference/config.py +40 -0
  113. llama_stack-0.3.0/llama_stack/providers/inline/datasetio/localfs/config.py +23 -0
  114. llama_stack-0.3.0/llama_stack/providers/inline/eval/meta_reference/config.py +23 -0
  115. llama_stack-0.3.0/llama_stack/providers/inline/eval/meta_reference/eval.py +259 -0
  116. llama_stack-0.3.0/llama_stack/providers/inline/files/localfs/config.py +31 -0
  117. llama_stack-0.3.0/llama_stack/providers/inline/files/localfs/files.py +219 -0
  118. llama_stack-0.3.0/llama_stack/providers/inline/inference/meta_reference/common.py +24 -0
  119. llama_stack-0.3.0/llama_stack/providers/inline/inference/meta_reference/inference.py +158 -0
  120. llama_stack-0.3.0/llama_stack/providers/inline/inference/meta_reference/model_parallel.py +96 -0
  121. llama_stack-0.3.0/llama_stack/providers/inline/inference/sentence_transformers/sentence_transformers.py +83 -0
  122. llama_stack-0.3.0/llama_stack/providers/inline/post_training/torchtune/recipes/lora_finetuning_single_device.py +588 -0
  123. llama_stack-0.3.0/llama_stack/providers/inline/safety/code_scanner/code_scanner.py +128 -0
  124. llama_stack-0.3.0/llama_stack/providers/inline/safety/llama_guard/llama_guard.py +489 -0
  125. llama_stack-0.3.0/llama_stack/providers/inline/safety/prompt_guard/prompt_guard.py +131 -0
  126. llama_stack-0.3.0/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/llm_as_judge_scoring_fn.py +81 -0
  127. llama_stack-0.3.0/llama_stack/providers/inline/telemetry/meta_reference/config.py +47 -0
  128. llama_stack-0.3.0/llama_stack/providers/inline/telemetry/meta_reference/telemetry.py +252 -0
  129. llama_stack-0.3.0/llama_stack/providers/inline/tool_runtime/rag/context_retriever.py +77 -0
  130. llama_stack-0.3.0/llama_stack/providers/inline/tool_runtime/rag/memory.py +332 -0
  131. llama_stack-0.3.0/llama_stack/providers/inline/vector_io/chroma/__init__.py +19 -0
  132. llama_stack-0.3.0/llama_stack/providers/inline/vector_io/chroma/config.py +30 -0
  133. llama_stack-0.3.0/llama_stack/providers/inline/vector_io/faiss/__init__.py +21 -0
  134. llama_stack-0.3.0/llama_stack/providers/inline/vector_io/faiss/config.py +26 -0
  135. llama_stack-0.3.0/llama_stack/providers/inline/vector_io/faiss/faiss.py +270 -0
  136. llama_stack-0.3.0/llama_stack/providers/inline/vector_io/milvus/__init__.py +19 -0
  137. llama_stack-0.3.0/llama_stack/providers/inline/vector_io/milvus/config.py +29 -0
  138. llama_stack-0.3.0/llama_stack/providers/inline/vector_io/qdrant/__init__.py +20 -0
  139. llama_stack-0.3.0/llama_stack/providers/inline/vector_io/qdrant/config.py +29 -0
  140. llama_stack-0.3.0/llama_stack/providers/inline/vector_io/sqlite_vec/__init__.py +20 -0
  141. llama_stack-0.3.0/llama_stack/providers/inline/vector_io/sqlite_vec/config.py +26 -0
  142. llama_stack-0.3.0/llama_stack/providers/inline/vector_io/sqlite_vec/sqlite_vec.py +472 -0
  143. llama_stack-0.3.0/llama_stack/providers/registry/agents.py +41 -0
  144. llama_stack-0.3.0/llama_stack/providers/registry/inference.py +297 -0
  145. llama_stack-0.3.0/llama_stack/providers/registry/tool_runtime.py +87 -0
  146. llama_stack-0.3.0/llama_stack/providers/registry/vector_io.py +828 -0
  147. llama_stack-0.3.0/llama_stack/providers/remote/datasetio/huggingface/config.py +23 -0
  148. llama_stack-0.3.0/llama_stack/providers/remote/files/s3/config.py +42 -0
  149. llama_stack-0.3.0/llama_stack/providers/remote/files/s3/files.py +313 -0
  150. llama_stack-0.3.0/llama_stack/providers/remote/inference/anthropic/__init__.py +15 -0
  151. llama_stack-0.3.0/llama_stack/providers/remote/inference/anthropic/anthropic.py +36 -0
  152. llama_stack-0.3.0/llama_stack/providers/remote/inference/anthropic/config.py +28 -0
  153. llama_stack-0.3.0/llama_stack/providers/remote/inference/azure/__init__.py +15 -0
  154. llama_stack-0.3.0/llama_stack/providers/remote/inference/azure/azure.py +25 -0
  155. llama_stack-0.3.0/llama_stack/providers/remote/inference/azure/config.py +61 -0
  156. llama_stack-0.3.0/llama_stack/providers/remote/inference/bedrock/bedrock.py +142 -0
  157. llama_stack-0.3.0/llama_stack/providers/remote/inference/cerebras/__init__.py +19 -0
  158. llama_stack-0.3.0/llama_stack/providers/remote/inference/cerebras/cerebras.py +28 -0
  159. llama_stack-0.3.0/llama_stack/providers/remote/inference/cerebras/config.py +30 -0
  160. llama_stack-0.3.0/llama_stack/providers/remote/inference/databricks/__init__.py +16 -0
  161. llama_stack-0.3.0/llama_stack/providers/remote/inference/databricks/config.py +37 -0
  162. llama_stack-0.3.0/llama_stack/providers/remote/inference/databricks/databricks.py +44 -0
  163. llama_stack-0.3.0/llama_stack/providers/remote/inference/fireworks/__init__.py +22 -0
  164. llama_stack-0.3.0/llama_stack/providers/remote/inference/fireworks/config.py +27 -0
  165. llama_stack-0.3.0/llama_stack/providers/remote/inference/fireworks/fireworks.py +27 -0
  166. llama_stack-0.3.0/llama_stack/providers/remote/inference/gemini/__init__.py +15 -0
  167. llama_stack-0.3.0/llama_stack/providers/remote/inference/gemini/config.py +28 -0
  168. llama_stack-0.3.0/llama_stack/providers/remote/inference/gemini/gemini.py +82 -0
  169. llama_stack-0.3.0/llama_stack/providers/remote/inference/groq/__init__.py +15 -0
  170. llama_stack-0.3.0/llama_stack/providers/remote/inference/groq/config.py +34 -0
  171. llama_stack-0.3.0/llama_stack/providers/remote/inference/groq/groq.py +18 -0
  172. llama_stack-0.3.0/llama_stack/providers/remote/inference/llama_openai_compat/__init__.py +15 -0
  173. llama_stack-0.3.0/llama_stack/providers/remote/inference/llama_openai_compat/config.py +34 -0
  174. llama_stack-0.3.0/llama_stack/providers/remote/inference/llama_openai_compat/llama.py +46 -0
  175. llama_stack-0.3.0/llama_stack/providers/remote/inference/nvidia/__init__.py +23 -0
  176. llama_stack-0.3.0/llama_stack/providers/remote/inference/nvidia/config.py +64 -0
  177. llama_stack-0.3.0/llama_stack/providers/remote/inference/nvidia/nvidia.py +61 -0
  178. llama_stack-0.3.0/llama_stack/providers/remote/inference/nvidia/utils.py +11 -0
  179. llama_stack-0.3.0/llama_stack/providers/remote/inference/ollama/__init__.py +15 -0
  180. llama_stack-0.3.0/llama_stack/providers/remote/inference/ollama/config.py +25 -0
  181. llama_stack-0.3.0/llama_stack/providers/remote/inference/ollama/ollama.py +102 -0
  182. llama_stack-0.3.0/llama_stack/providers/remote/inference/openai/__init__.py +15 -0
  183. llama_stack-0.3.0/llama_stack/providers/remote/inference/openai/config.py +39 -0
  184. llama_stack-0.3.0/llama_stack/providers/remote/inference/openai/openai.py +38 -0
  185. llama_stack-0.3.0/llama_stack/providers/remote/inference/passthrough/config.py +34 -0
  186. llama_stack-0.3.0/llama_stack/providers/remote/inference/passthrough/passthrough.py +122 -0
  187. llama_stack-0.3.0/llama_stack/providers/remote/inference/runpod/__init__.py +16 -0
  188. llama_stack-0.3.0/llama_stack/providers/remote/inference/runpod/config.py +32 -0
  189. llama_stack-0.3.0/llama_stack/providers/remote/inference/runpod/runpod.py +42 -0
  190. llama_stack-0.3.0/llama_stack/providers/remote/inference/sambanova/__init__.py +16 -0
  191. llama_stack-0.3.0/llama_stack/providers/remote/inference/sambanova/config.py +34 -0
  192. llama_stack-0.3.0/llama_stack/providers/remote/inference/sambanova/sambanova.py +28 -0
  193. llama_stack-0.3.0/llama_stack/providers/remote/inference/tgi/config.py +76 -0
  194. llama_stack-0.3.0/llama_stack/providers/remote/inference/tgi/tgi.py +85 -0
  195. llama_stack-0.3.0/llama_stack/providers/remote/inference/together/__init__.py +22 -0
  196. llama_stack-0.3.0/llama_stack/providers/remote/inference/together/config.py +27 -0
  197. llama_stack-0.3.0/llama_stack/providers/remote/inference/together/together.py +102 -0
  198. llama_stack-0.3.0/llama_stack/providers/remote/inference/vertexai/__init__.py +15 -0
  199. llama_stack-0.3.0/llama_stack/providers/remote/inference/vertexai/config.py +48 -0
  200. llama_stack-0.3.0/llama_stack/providers/remote/inference/vertexai/vertexai.py +44 -0
  201. llama_stack-0.3.0/llama_stack/providers/remote/inference/vllm/__init__.py +22 -0
  202. llama_stack-0.3.0/llama_stack/providers/remote/inference/vllm/config.py +59 -0
  203. llama_stack-0.3.0/llama_stack/providers/remote/inference/vllm/vllm.py +111 -0
  204. llama_stack-0.3.0/llama_stack/providers/remote/inference/watsonx/__init__.py +15 -0
  205. llama_stack-0.3.0/llama_stack/providers/remote/inference/watsonx/config.py +45 -0
  206. llama_stack-0.3.0/llama_stack/providers/remote/inference/watsonx/watsonx.py +340 -0
  207. llama_stack-0.3.0/llama_stack/providers/remote/safety/bedrock/bedrock.py +111 -0
  208. llama_stack-0.3.0/llama_stack/providers/remote/safety/nvidia/nvidia.py +161 -0
  209. llama_stack-0.3.0/llama_stack/providers/remote/safety/sambanova/sambanova.py +98 -0
  210. llama_stack-0.3.0/llama_stack/providers/remote/tool_runtime/bing_search/bing_search.py +112 -0
  211. llama_stack-0.3.0/llama_stack/providers/remote/tool_runtime/brave_search/brave_search.py +148 -0
  212. llama_stack-0.3.0/llama_stack/providers/remote/tool_runtime/tavily_search/tavily_search.py +84 -0
  213. llama_stack-0.3.0/llama_stack/providers/remote/tool_runtime/wolfram_alpha/wolfram_alpha.py +140 -0
  214. llama_stack-0.3.0/llama_stack/providers/remote/vector_io/chroma/chroma.py +209 -0
  215. llama_stack-0.3.0/llama_stack/providers/remote/vector_io/chroma/config.py +28 -0
  216. llama_stack-0.3.0/llama_stack/providers/remote/vector_io/milvus/__init__.py +18 -0
  217. llama_stack-0.3.0/llama_stack/providers/remote/vector_io/milvus/config.py +35 -0
  218. llama_stack-0.3.0/llama_stack/providers/remote/vector_io/milvus/milvus.py +372 -0
  219. llama_stack-0.3.0/llama_stack/providers/remote/vector_io/pgvector/__init__.py +17 -0
  220. llama_stack-0.3.0/llama_stack/providers/remote/vector_io/pgvector/config.py +47 -0
  221. llama_stack-0.3.0/llama_stack/providers/remote/vector_io/pgvector/pgvector.py +434 -0
  222. llama_stack-0.3.0/llama_stack/providers/remote/vector_io/qdrant/__init__.py +17 -0
  223. llama_stack-0.3.0/llama_stack/providers/remote/vector_io/qdrant/config.py +37 -0
  224. llama_stack-0.3.0/llama_stack/providers/remote/vector_io/qdrant/qdrant.py +260 -0
  225. llama_stack-0.3.0/llama_stack/providers/remote/vector_io/weaviate/__init__.py +17 -0
  226. llama_stack-0.3.0/llama_stack/providers/remote/vector_io/weaviate/config.py +32 -0
  227. llama_stack-0.3.0/llama_stack/providers/remote/vector_io/weaviate/weaviate.py +390 -0
  228. llama_stack-0.3.0/llama_stack/providers/utils/bedrock/config.py +64 -0
  229. llama_stack-0.3.0/llama_stack/providers/utils/files/form_data.py +69 -0
  230. llama_stack-0.3.0/llama_stack/providers/utils/inference/embedding_mixin.py +102 -0
  231. llama_stack-0.3.0/llama_stack/providers/utils/inference/inference_store.py +244 -0
  232. llama_stack-0.3.0/llama_stack/providers/utils/inference/litellm_openai_mixin.py +336 -0
  233. llama_stack-0.3.0/llama_stack/providers/utils/inference/model_registry.py +191 -0
  234. llama_stack-0.3.0/llama_stack/providers/utils/inference/openai_compat.py +1401 -0
  235. llama_stack-0.3.0/llama_stack/providers/utils/inference/openai_mixin.py +483 -0
  236. llama_stack-0.3.0/llama_stack/providers/utils/inference/prompt_adapter.py +495 -0
  237. llama_stack-0.3.0/llama_stack/providers/utils/kvstore/config.py +39 -0
  238. llama_stack-0.3.0/llama_stack/providers/utils/kvstore/kvstore.py +97 -0
  239. llama_stack-0.3.0/llama_stack/providers/utils/kvstore/sqlite/sqlite.py +174 -0
  240. llama_stack-0.3.0/llama_stack/providers/utils/memory/openai_vector_store_mixin.py +1304 -0
  241. llama_stack-0.3.0/llama_stack/providers/utils/memory/vector_store.py +332 -0
  242. llama_stack-0.3.0/llama_stack/providers/utils/responses/responses_store.py +354 -0
  243. llama_stack-0.3.0/llama_stack/providers/utils/sqlstore/api.py +128 -0
  244. llama_stack-0.3.0/llama_stack/providers/utils/sqlstore/authorized_sqlstore.py +303 -0
  245. llama_stack-0.3.0/llama_stack/providers/utils/sqlstore/sqlalchemy_sqlstore.py +313 -0
  246. llama_stack-0.3.0/llama_stack/providers/utils/sqlstore/sqlstore.py +70 -0
  247. llama_stack-0.3.0/llama_stack/providers/utils/telemetry/trace_protocol.py +142 -0
  248. llama_stack-0.3.0/llama_stack/providers/utils/tools/mcp.py +148 -0
  249. llama_stack-0.3.0/llama_stack/providers/utils/vector_io/__init__.py +5 -0
  250. llama_stack-0.3.0/llama_stack/schema_utils.py +118 -0
  251. llama_stack-0.3.0/llama_stack/strong_typing/inspection.py +1085 -0
  252. llama_stack-0.3.0/llama_stack/strong_typing/schema.py +792 -0
  253. llama_stack-0.3.0/llama_stack/testing/__init__.py +5 -0
  254. llama_stack-0.3.0/llama_stack/testing/api_recorder.py +956 -0
  255. llama_stack-0.3.0/llama_stack.egg-info/PKG-INFO +260 -0
  256. llama_stack-0.3.0/llama_stack.egg-info/SOURCES.txt +628 -0
  257. llama_stack-0.3.0/llama_stack.egg-info/requires.txt +31 -0
  258. llama_stack-0.3.0/pyproject.toml +332 -0
  259. llama_stack-0.3.0/tests/integration/test_cases/inference/chat_completion.json +362 -0
  260. llama_stack-0.3.0/tests/integration/test_cases/inference/completion.json +67 -0
  261. llama_stack-0.2.23/MANIFEST.in +0 -9
  262. llama_stack-0.2.23/PKG-INFO +0 -246
  263. llama_stack-0.2.23/README.md +0 -196
  264. llama_stack-0.2.23/llama_stack/apis/agents/agents.py +0 -781
  265. llama_stack-0.2.23/llama_stack/apis/agents/openai_responses.py +0 -880
  266. llama_stack-0.2.23/llama_stack/apis/batch_inference/__init__.py +0 -7
  267. llama_stack-0.2.23/llama_stack/apis/batch_inference/batch_inference.py +0 -79
  268. llama_stack-0.2.23/llama_stack/apis/batches/batches.py +0 -96
  269. llama_stack-0.2.23/llama_stack/apis/common/errors.py +0 -88
  270. llama_stack-0.2.23/llama_stack/apis/datasetio/datasetio.py +0 -55
  271. llama_stack-0.2.23/llama_stack/apis/datasets/datasets.py +0 -247
  272. llama_stack-0.2.23/llama_stack/apis/datatypes.py +0 -160
  273. llama_stack-0.2.23/llama_stack/apis/eval/eval.py +0 -167
  274. llama_stack-0.2.23/llama_stack/apis/files/files.py +0 -187
  275. llama_stack-0.2.23/llama_stack/apis/inference/inference.py +0 -1340
  276. llama_stack-0.2.23/llama_stack/apis/inspect/inspect.py +0 -83
  277. llama_stack-0.2.23/llama_stack/apis/models/models.py +0 -163
  278. llama_stack-0.2.23/llama_stack/apis/prompts/prompts.py +0 -190
  279. llama_stack-0.2.23/llama_stack/apis/providers/providers.py +0 -64
  280. llama_stack-0.2.23/llama_stack/apis/resource.py +0 -37
  281. llama_stack-0.2.23/llama_stack/apis/safety/safety.py +0 -125
  282. llama_stack-0.2.23/llama_stack/apis/telemetry/telemetry.py +0 -549
  283. llama_stack-0.2.23/llama_stack/apis/tools/tools.py +0 -262
  284. llama_stack-0.2.23/llama_stack/apis/vector_dbs/__init__.py +0 -7
  285. llama_stack-0.2.23/llama_stack/apis/vector_dbs/vector_dbs.py +0 -117
  286. llama_stack-0.2.23/llama_stack/apis/vector_io/vector_io.py +0 -694
  287. llama_stack-0.2.23/llama_stack/cli/download.py +0 -495
  288. llama_stack-0.2.23/llama_stack/cli/llama.py +0 -57
  289. llama_stack-0.2.23/llama_stack/cli/model/__init__.py +0 -7
  290. llama_stack-0.2.23/llama_stack/cli/model/describe.py +0 -70
  291. llama_stack-0.2.23/llama_stack/cli/model/download.py +0 -24
  292. llama_stack-0.2.23/llama_stack/cli/model/list.py +0 -119
  293. llama_stack-0.2.23/llama_stack/cli/model/model.py +0 -43
  294. llama_stack-0.2.23/llama_stack/cli/model/prompt_format.py +0 -133
  295. llama_stack-0.2.23/llama_stack/cli/model/remove.py +0 -68
  296. llama_stack-0.2.23/llama_stack/cli/model/safety_models.py +0 -64
  297. llama_stack-0.2.23/llama_stack/cli/model/verify_download.py +0 -24
  298. llama_stack-0.2.23/llama_stack/cli/stack/_build.py +0 -478
  299. llama_stack-0.2.23/llama_stack/cli/stack/build.py +0 -100
  300. llama_stack-0.2.23/llama_stack/cli/stack/run.py +0 -226
  301. llama_stack-0.2.23/llama_stack/cli/stack/stack.py +0 -48
  302. llama_stack-0.2.23/llama_stack/cli/stack/utils.py +0 -21
  303. llama_stack-0.2.23/llama_stack/cli/verify_download.py +0 -141
  304. llama_stack-0.2.23/llama_stack/core/access_control/datatypes.py +0 -107
  305. llama_stack-0.2.23/llama_stack/core/build_container.sh +0 -410
  306. llama_stack-0.2.23/llama_stack/core/build_venv.sh +0 -220
  307. llama_stack-0.2.23/llama_stack/core/configure.py +0 -181
  308. llama_stack-0.2.23/llama_stack/core/datatypes.py +0 -546
  309. llama_stack-0.2.23/llama_stack/core/distribution.py +0 -264
  310. llama_stack-0.2.23/llama_stack/core/library_client.py +0 -517
  311. llama_stack-0.2.23/llama_stack/core/prompts/prompts.py +0 -233
  312. llama_stack-0.2.23/llama_stack/core/resolver.py +0 -474
  313. llama_stack-0.2.23/llama_stack/core/routers/__init__.py +0 -90
  314. llama_stack-0.2.23/llama_stack/core/routers/inference.py +0 -863
  315. llama_stack-0.2.23/llama_stack/core/routers/tool_runtime.py +0 -91
  316. llama_stack-0.2.23/llama_stack/core/routers/vector_io.py +0 -365
  317. llama_stack-0.2.23/llama_stack/core/routing_tables/common.py +0 -272
  318. llama_stack-0.2.23/llama_stack/core/routing_tables/models.py +0 -158
  319. llama_stack-0.2.23/llama_stack/core/routing_tables/toolgroups.py +0 -141
  320. llama_stack-0.2.23/llama_stack/core/routing_tables/vector_dbs.py +0 -247
  321. llama_stack-0.2.23/llama_stack/core/server/auth.py +0 -175
  322. llama_stack-0.2.23/llama_stack/core/server/auth_providers.py +0 -475
  323. llama_stack-0.2.23/llama_stack/core/server/quota.py +0 -110
  324. llama_stack-0.2.23/llama_stack/core/server/server.py +0 -620
  325. llama_stack-0.2.23/llama_stack/core/stack.py +0 -471
  326. llama_stack-0.2.23/llama_stack/core/start_stack.sh +0 -128
  327. llama_stack-0.2.23/llama_stack/core/store/registry.py +0 -204
  328. llama_stack-0.2.23/llama_stack/core/ui/page/distribution/resources.py +0 -52
  329. llama_stack-0.2.23/llama_stack/core/ui/page/distribution/vector_dbs.py +0 -20
  330. llama_stack-0.2.23/llama_stack/core/ui/page/playground/rag.py +0 -301
  331. llama_stack-0.2.23/llama_stack/core/ui/page/playground/tools.py +0 -352
  332. llama_stack-0.2.23/llama_stack/core/utils/config_resolution.py +0 -125
  333. llama_stack-0.2.23/llama_stack/distributions/ci-tests/__init__.py +0 -7
  334. llama_stack-0.2.23/llama_stack/distributions/ci-tests/build.yaml +0 -59
  335. llama_stack-0.2.23/llama_stack/distributions/ci-tests/ci_tests.py +0 -17
  336. llama_stack-0.2.23/llama_stack/distributions/ci-tests/run.yaml +0 -245
  337. llama_stack-0.2.23/llama_stack/distributions/dell/build.yaml +0 -35
  338. llama_stack-0.2.23/llama_stack/distributions/dell/dell.py +0 -159
  339. llama_stack-0.2.23/llama_stack/distributions/dell/run-with-safety.yaml +0 -130
  340. llama_stack-0.2.23/llama_stack/distributions/dell/run.yaml +0 -121
  341. llama_stack-0.2.23/llama_stack/distributions/meta-reference-gpu/build.yaml +0 -34
  342. llama_stack-0.2.23/llama_stack/distributions/meta-reference-gpu/meta_reference.py +0 -164
  343. llama_stack-0.2.23/llama_stack/distributions/meta-reference-gpu/run-with-safety.yaml +0 -143
  344. llama_stack-0.2.23/llama_stack/distributions/meta-reference-gpu/run.yaml +0 -128
  345. llama_stack-0.2.23/llama_stack/distributions/nvidia/build.yaml +0 -31
  346. llama_stack-0.2.23/llama_stack/distributions/nvidia/nvidia.py +0 -155
  347. llama_stack-0.2.23/llama_stack/distributions/nvidia/run-with-safety.yaml +0 -126
  348. llama_stack-0.2.23/llama_stack/distributions/nvidia/run.yaml +0 -105
  349. llama_stack-0.2.23/llama_stack/distributions/open-benchmark/build.yaml +0 -38
  350. llama_stack-0.2.23/llama_stack/distributions/open-benchmark/open_benchmark.py +0 -304
  351. llama_stack-0.2.23/llama_stack/distributions/open-benchmark/run.yaml +0 -241
  352. llama_stack-0.2.23/llama_stack/distributions/postgres-demo/build.yaml +0 -25
  353. llama_stack-0.2.23/llama_stack/distributions/postgres-demo/postgres_demo.py +0 -144
  354. llama_stack-0.2.23/llama_stack/distributions/postgres-demo/run.yaml +0 -111
  355. llama_stack-0.2.23/llama_stack/distributions/starter/build.yaml +0 -60
  356. llama_stack-0.2.23/llama_stack/distributions/starter/run.yaml +0 -245
  357. llama_stack-0.2.23/llama_stack/distributions/starter/starter.py +0 -299
  358. llama_stack-0.2.23/llama_stack/distributions/starter-gpu/build.yaml +0 -60
  359. llama_stack-0.2.23/llama_stack/distributions/starter-gpu/run.yaml +0 -248
  360. llama_stack-0.2.23/llama_stack/distributions/template.py +0 -410
  361. llama_stack-0.2.23/llama_stack/distributions/watsonx/build.yaml +0 -46
  362. llama_stack-0.2.23/llama_stack/distributions/watsonx/run.yaml +0 -219
  363. llama_stack-0.2.23/llama_stack/distributions/watsonx/watsonx.py +0 -122
  364. llama_stack-0.2.23/llama_stack/log.py +0 -260
  365. llama_stack-0.2.23/llama_stack/models/llama/datatypes.py +0 -177
  366. llama_stack-0.2.23/llama_stack/models/llama/llama3/chat_format.py +0 -287
  367. llama_stack-0.2.23/llama_stack/models/llama/llama3/prompt_templates/system_prompts.py +0 -317
  368. llama_stack-0.2.23/llama_stack/models/llama/llama3/tool_utils.py +0 -266
  369. llama_stack-0.2.23/llama_stack/models/llama/llama3_1/prompts.py +0 -257
  370. llama_stack-0.2.23/llama_stack/models/llama/llama3_3/prompts.py +0 -258
  371. llama_stack-0.2.23/llama_stack/models/llama/llama4/chat_format.py +0 -318
  372. llama_stack-0.2.23/llama_stack/models/llama/llama4/prompt_templates/system_prompts.py +0 -137
  373. llama_stack-0.2.23/llama_stack/models/llama/prompt_format.py +0 -245
  374. llama_stack-0.2.23/llama_stack/models/llama/tokenizer_utils.py +0 -40
  375. llama_stack-0.2.23/llama_stack/providers/datatypes.py +0 -217
  376. llama_stack-0.2.23/llama_stack/providers/inline/agents/meta_reference/__init__.py +0 -27
  377. llama_stack-0.2.23/llama_stack/providers/inline/agents/meta_reference/agent_instance.py +0 -948
  378. llama_stack-0.2.23/llama_stack/providers/inline/agents/meta_reference/agents.py +0 -370
  379. llama_stack-0.2.23/llama_stack/providers/inline/agents/meta_reference/config.py +0 -31
  380. llama_stack-0.2.23/llama_stack/providers/inline/agents/meta_reference/responses/openai_responses.py +0 -271
  381. llama_stack-0.2.23/llama_stack/providers/inline/agents/meta_reference/responses/streaming.py +0 -634
  382. llama_stack-0.2.23/llama_stack/providers/inline/agents/meta_reference/responses/tool_executor.py +0 -379
  383. llama_stack-0.2.23/llama_stack/providers/inline/agents/meta_reference/responses/types.py +0 -60
  384. llama_stack-0.2.23/llama_stack/providers/inline/agents/meta_reference/responses/utils.py +0 -205
  385. llama_stack-0.2.23/llama_stack/providers/inline/batches/reference/batches.py +0 -653
  386. llama_stack-0.2.23/llama_stack/providers/inline/batches/reference/config.py +0 -40
  387. llama_stack-0.2.23/llama_stack/providers/inline/datasetio/localfs/config.py +0 -26
  388. llama_stack-0.2.23/llama_stack/providers/inline/eval/meta_reference/config.py +0 -26
  389. llama_stack-0.2.23/llama_stack/providers/inline/eval/meta_reference/eval.py +0 -241
  390. llama_stack-0.2.23/llama_stack/providers/inline/files/localfs/config.py +0 -31
  391. llama_stack-0.2.23/llama_stack/providers/inline/files/localfs/files.py +0 -215
  392. llama_stack-0.2.23/llama_stack/providers/inline/inference/meta_reference/common.py +0 -24
  393. llama_stack-0.2.23/llama_stack/providers/inline/inference/meta_reference/inference.py +0 -637
  394. llama_stack-0.2.23/llama_stack/providers/inline/inference/meta_reference/model_parallel.py +0 -98
  395. llama_stack-0.2.23/llama_stack/providers/inline/inference/sentence_transformers/sentence_transformers.py +0 -101
  396. llama_stack-0.2.23/llama_stack/providers/inline/post_training/torchtune/recipes/lora_finetuning_single_device.py +0 -587
  397. llama_stack-0.2.23/llama_stack/providers/inline/safety/code_scanner/code_scanner.py +0 -128
  398. llama_stack-0.2.23/llama_stack/providers/inline/safety/llama_guard/llama_guard.py +0 -481
  399. llama_stack-0.2.23/llama_stack/providers/inline/safety/prompt_guard/prompt_guard.py +0 -133
  400. llama_stack-0.2.23/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/llm_as_judge_scoring_fn.py +0 -79
  401. llama_stack-0.2.23/llama_stack/providers/inline/telemetry/meta_reference/config.py +0 -55
  402. llama_stack-0.2.23/llama_stack/providers/inline/telemetry/meta_reference/console_span_processor.py +0 -75
  403. llama_stack-0.2.23/llama_stack/providers/inline/telemetry/meta_reference/sqlite_span_processor.py +0 -190
  404. llama_stack-0.2.23/llama_stack/providers/inline/telemetry/meta_reference/telemetry.py +0 -370
  405. llama_stack-0.2.23/llama_stack/providers/inline/tool_runtime/rag/context_retriever.py +0 -76
  406. llama_stack-0.2.23/llama_stack/providers/inline/tool_runtime/rag/memory.py +0 -333
  407. llama_stack-0.2.23/llama_stack/providers/inline/vector_io/chroma/__init__.py +0 -21
  408. llama_stack-0.2.23/llama_stack/providers/inline/vector_io/chroma/config.py +0 -30
  409. llama_stack-0.2.23/llama_stack/providers/inline/vector_io/faiss/__init__.py +0 -21
  410. llama_stack-0.2.23/llama_stack/providers/inline/vector_io/faiss/config.py +0 -29
  411. llama_stack-0.2.23/llama_stack/providers/inline/vector_io/faiss/faiss.py +0 -309
  412. llama_stack-0.2.23/llama_stack/providers/inline/vector_io/milvus/__init__.py +0 -19
  413. llama_stack-0.2.23/llama_stack/providers/inline/vector_io/milvus/config.py +0 -32
  414. llama_stack-0.2.23/llama_stack/providers/inline/vector_io/qdrant/__init__.py +0 -21
  415. llama_stack-0.2.23/llama_stack/providers/inline/vector_io/qdrant/config.py +0 -31
  416. llama_stack-0.2.23/llama_stack/providers/inline/vector_io/sqlite_vec/__init__.py +0 -20
  417. llama_stack-0.2.23/llama_stack/providers/inline/vector_io/sqlite_vec/config.py +0 -29
  418. llama_stack-0.2.23/llama_stack/providers/inline/vector_io/sqlite_vec/sqlite_vec.py +0 -506
  419. llama_stack-0.2.23/llama_stack/providers/registry/agents.py +0 -41
  420. llama_stack-0.2.23/llama_stack/providers/registry/inference.py +0 -300
  421. llama_stack-0.2.23/llama_stack/providers/registry/telemetry.py +0 -29
  422. llama_stack-0.2.23/llama_stack/providers/registry/tool_runtime.py +0 -87
  423. llama_stack-0.2.23/llama_stack/providers/registry/vector_io.py +0 -825
  424. llama_stack-0.2.23/llama_stack/providers/remote/datasetio/huggingface/config.py +0 -26
  425. llama_stack-0.2.23/llama_stack/providers/remote/files/s3/config.py +0 -42
  426. llama_stack-0.2.23/llama_stack/providers/remote/files/s3/files.py +0 -320
  427. llama_stack-0.2.23/llama_stack/providers/remote/inference/anthropic/__init__.py +0 -15
  428. llama_stack-0.2.23/llama_stack/providers/remote/inference/anthropic/anthropic.py +0 -44
  429. llama_stack-0.2.23/llama_stack/providers/remote/inference/anthropic/config.py +0 -32
  430. llama_stack-0.2.23/llama_stack/providers/remote/inference/azure/__init__.py +0 -15
  431. llama_stack-0.2.23/llama_stack/providers/remote/inference/azure/azure.py +0 -62
  432. llama_stack-0.2.23/llama_stack/providers/remote/inference/azure/config.py +0 -63
  433. llama_stack-0.2.23/llama_stack/providers/remote/inference/bedrock/bedrock.py +0 -259
  434. llama_stack-0.2.23/llama_stack/providers/remote/inference/cerebras/__init__.py +0 -19
  435. llama_stack-0.2.23/llama_stack/providers/remote/inference/cerebras/cerebras.py +0 -208
  436. llama_stack-0.2.23/llama_stack/providers/remote/inference/cerebras/config.py +0 -33
  437. llama_stack-0.2.23/llama_stack/providers/remote/inference/databricks/__init__.py +0 -16
  438. llama_stack-0.2.23/llama_stack/providers/remote/inference/databricks/config.py +0 -35
  439. llama_stack-0.2.23/llama_stack/providers/remote/inference/databricks/databricks.py +0 -158
  440. llama_stack-0.2.23/llama_stack/providers/remote/inference/fireworks/__init__.py +0 -22
  441. llama_stack-0.2.23/llama_stack/providers/remote/inference/fireworks/config.py +0 -31
  442. llama_stack-0.2.23/llama_stack/providers/remote/inference/fireworks/fireworks.py +0 -285
  443. llama_stack-0.2.23/llama_stack/providers/remote/inference/gemini/__init__.py +0 -15
  444. llama_stack-0.2.23/llama_stack/providers/remote/inference/gemini/config.py +0 -32
  445. llama_stack-0.2.23/llama_stack/providers/remote/inference/gemini/gemini.py +0 -36
  446. llama_stack-0.2.23/llama_stack/providers/remote/inference/groq/__init__.py +0 -15
  447. llama_stack-0.2.23/llama_stack/providers/remote/inference/groq/config.py +0 -39
  448. llama_stack-0.2.23/llama_stack/providers/remote/inference/groq/groq.py +0 -35
  449. llama_stack-0.2.23/llama_stack/providers/remote/inference/llama_openai_compat/__init__.py +0 -17
  450. llama_stack-0.2.23/llama_stack/providers/remote/inference/llama_openai_compat/config.py +0 -38
  451. llama_stack-0.2.23/llama_stack/providers/remote/inference/llama_openai_compat/llama.py +0 -53
  452. llama_stack-0.2.23/llama_stack/providers/remote/inference/nvidia/__init__.py +0 -22
  453. llama_stack-0.2.23/llama_stack/providers/remote/inference/nvidia/config.py +0 -67
  454. llama_stack-0.2.23/llama_stack/providers/remote/inference/nvidia/nvidia.py +0 -308
  455. llama_stack-0.2.23/llama_stack/providers/remote/inference/nvidia/openai_utils.py +0 -217
  456. llama_stack-0.2.23/llama_stack/providers/remote/inference/nvidia/utils.py +0 -56
  457. llama_stack-0.2.23/llama_stack/providers/remote/inference/ollama/__init__.py +0 -15
  458. llama_stack-0.2.23/llama_stack/providers/remote/inference/ollama/config.py +0 -25
  459. llama_stack-0.2.23/llama_stack/providers/remote/inference/ollama/ollama.py +0 -494
  460. llama_stack-0.2.23/llama_stack/providers/remote/inference/openai/__init__.py +0 -15
  461. llama_stack-0.2.23/llama_stack/providers/remote/inference/openai/config.py +0 -42
  462. llama_stack-0.2.23/llama_stack/providers/remote/inference/openai/openai.py +0 -78
  463. llama_stack-0.2.23/llama_stack/providers/remote/inference/passthrough/config.py +0 -33
  464. llama_stack-0.2.23/llama_stack/providers/remote/inference/passthrough/passthrough.py +0 -346
  465. llama_stack-0.2.23/llama_stack/providers/remote/inference/runpod/__init__.py +0 -16
  466. llama_stack-0.2.23/llama_stack/providers/remote/inference/runpod/config.py +0 -30
  467. llama_stack-0.2.23/llama_stack/providers/remote/inference/runpod/runpod.py +0 -157
  468. llama_stack-0.2.23/llama_stack/providers/remote/inference/sambanova/__init__.py +0 -16
  469. llama_stack-0.2.23/llama_stack/providers/remote/inference/sambanova/config.py +0 -37
  470. llama_stack-0.2.23/llama_stack/providers/remote/inference/sambanova/sambanova.py +0 -48
  471. llama_stack-0.2.23/llama_stack/providers/remote/inference/tgi/config.py +0 -73
  472. llama_stack-0.2.23/llama_stack/providers/remote/inference/tgi/tgi.py +0 -364
  473. llama_stack-0.2.23/llama_stack/providers/remote/inference/together/__init__.py +0 -22
  474. llama_stack-0.2.23/llama_stack/providers/remote/inference/together/config.py +0 -31
  475. llama_stack-0.2.23/llama_stack/providers/remote/inference/together/together.py +0 -342
  476. llama_stack-0.2.23/llama_stack/providers/remote/inference/vertexai/__init__.py +0 -15
  477. llama_stack-0.2.23/llama_stack/providers/remote/inference/vertexai/config.py +0 -45
  478. llama_stack-0.2.23/llama_stack/providers/remote/inference/vertexai/vertexai.py +0 -75
  479. llama_stack-0.2.23/llama_stack/providers/remote/inference/vllm/__init__.py +0 -22
  480. llama_stack-0.2.23/llama_stack/providers/remote/inference/vllm/config.py +0 -61
  481. llama_stack-0.2.23/llama_stack/providers/remote/inference/vllm/vllm.py +0 -576
  482. llama_stack-0.2.23/llama_stack/providers/remote/inference/watsonx/__init__.py +0 -22
  483. llama_stack-0.2.23/llama_stack/providers/remote/inference/watsonx/config.py +0 -46
  484. llama_stack-0.2.23/llama_stack/providers/remote/inference/watsonx/models.py +0 -47
  485. llama_stack-0.2.23/llama_stack/providers/remote/inference/watsonx/watsonx.py +0 -405
  486. llama_stack-0.2.23/llama_stack/providers/remote/safety/bedrock/bedrock.py +0 -111
  487. llama_stack-0.2.23/llama_stack/providers/remote/safety/nvidia/nvidia.py +0 -163
  488. llama_stack-0.2.23/llama_stack/providers/remote/safety/sambanova/sambanova.py +0 -104
  489. llama_stack-0.2.23/llama_stack/providers/remote/tool_runtime/bing_search/bing_search.py +0 -110
  490. llama_stack-0.2.23/llama_stack/providers/remote/tool_runtime/brave_search/brave_search.py +0 -146
  491. llama_stack-0.2.23/llama_stack/providers/remote/tool_runtime/tavily_search/tavily_search.py +0 -82
  492. llama_stack-0.2.23/llama_stack/providers/remote/tool_runtime/wolfram_alpha/wolfram_alpha.py +0 -138
  493. llama_stack-0.2.23/llama_stack/providers/remote/vector_io/chroma/chroma.py +0 -240
  494. llama_stack-0.2.23/llama_stack/providers/remote/vector_io/chroma/config.py +0 -28
  495. llama_stack-0.2.23/llama_stack/providers/remote/vector_io/milvus/__init__.py +0 -19
  496. llama_stack-0.2.23/llama_stack/providers/remote/vector_io/milvus/config.py +0 -35
  497. llama_stack-0.2.23/llama_stack/providers/remote/vector_io/milvus/milvus.py +0 -424
  498. llama_stack-0.2.23/llama_stack/providers/remote/vector_io/pgvector/__init__.py +0 -17
  499. llama_stack-0.2.23/llama_stack/providers/remote/vector_io/pgvector/config.py +0 -48
  500. llama_stack-0.2.23/llama_stack/providers/remote/vector_io/pgvector/pgvector.py +0 -464
  501. llama_stack-0.2.23/llama_stack/providers/remote/vector_io/qdrant/__init__.py +0 -18
  502. llama_stack-0.2.23/llama_stack/providers/remote/vector_io/qdrant/config.py +0 -40
  503. llama_stack-0.2.23/llama_stack/providers/remote/vector_io/qdrant/qdrant.py +0 -283
  504. llama_stack-0.2.23/llama_stack/providers/remote/vector_io/weaviate/__init__.py +0 -17
  505. llama_stack-0.2.23/llama_stack/providers/remote/vector_io/weaviate/config.py +0 -37
  506. llama_stack-0.2.23/llama_stack/providers/remote/vector_io/weaviate/weaviate.py +0 -319
  507. llama_stack-0.2.23/llama_stack/providers/utils/bedrock/config.py +0 -61
  508. llama_stack-0.2.23/llama_stack/providers/utils/inference/embedding_mixin.py +0 -115
  509. llama_stack-0.2.23/llama_stack/providers/utils/inference/inference_store.py +0 -244
  510. llama_stack-0.2.23/llama_stack/providers/utils/inference/litellm_openai_mixin.py +0 -444
  511. llama_stack-0.2.23/llama_stack/providers/utils/inference/model_registry.py +0 -182
  512. llama_stack-0.2.23/llama_stack/providers/utils/inference/openai_compat.py +0 -1550
  513. llama_stack-0.2.23/llama_stack/providers/utils/inference/openai_mixin.py +0 -357
  514. llama_stack-0.2.23/llama_stack/providers/utils/inference/prompt_adapter.py +0 -497
  515. llama_stack-0.2.23/llama_stack/providers/utils/kvstore/config.py +0 -162
  516. llama_stack-0.2.23/llama_stack/providers/utils/kvstore/kvstore.py +0 -68
  517. llama_stack-0.2.23/llama_stack/providers/utils/kvstore/sqlite/sqlite.py +0 -87
  518. llama_stack-0.2.23/llama_stack/providers/utils/memory/openai_vector_store_mixin.py +0 -807
  519. llama_stack-0.2.23/llama_stack/providers/utils/memory/vector_store.py +0 -344
  520. llama_stack-0.2.23/llama_stack/providers/utils/responses/responses_store.py +0 -175
  521. llama_stack-0.2.23/llama_stack/providers/utils/sqlstore/api.py +0 -128
  522. llama_stack-0.2.23/llama_stack/providers/utils/sqlstore/authorized_sqlstore.py +0 -295
  523. llama_stack-0.2.23/llama_stack/providers/utils/sqlstore/sqlalchemy_sqlstore.py +0 -313
  524. llama_stack-0.2.23/llama_stack/providers/utils/sqlstore/sqlstore.py +0 -116
  525. llama_stack-0.2.23/llama_stack/providers/utils/telemetry/dataset_mixin.py +0 -80
  526. llama_stack-0.2.23/llama_stack/providers/utils/telemetry/sqlite_trace_store.py +0 -383
  527. llama_stack-0.2.23/llama_stack/providers/utils/telemetry/trace_protocol.py +0 -142
  528. llama_stack-0.2.23/llama_stack/providers/utils/tools/mcp.py +0 -157
  529. llama_stack-0.2.23/llama_stack/schema_utils.py +0 -81
  530. llama_stack-0.2.23/llama_stack/strong_typing/inspection.py +0 -1035
  531. llama_stack-0.2.23/llama_stack/strong_typing/schema.py +0 -780
  532. llama_stack-0.2.23/llama_stack/testing/inference_recorder.py +0 -507
  533. llama_stack-0.2.23/llama_stack.egg-info/PKG-INFO +0 -246
  534. llama_stack-0.2.23/llama_stack.egg-info/SOURCES.txt +0 -644
  535. llama_stack-0.2.23/llama_stack.egg-info/requires.txt +0 -31
  536. llama_stack-0.2.23/pyproject.toml +0 -342
  537. {llama_stack-0.2.23 → llama_stack-0.3.0}/LICENSE +0 -0
  538. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/__init__.py +0 -0
  539. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/__init__.py +0 -0
  540. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/agents/__init__.py +0 -0
  541. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/batches/__init__.py +0 -0
  542. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/benchmarks/__init__.py +0 -0
  543. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/benchmarks/benchmarks.py +0 -0
  544. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/common/__init__.py +0 -0
  545. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/common/content_types.py +0 -0
  546. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/common/job_types.py +0 -0
  547. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/common/responses.py +0 -0
  548. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/common/training_types.py +0 -0
  549. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/common/type_system.py +0 -0
  550. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/datasetio/__init__.py +0 -0
  551. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/datasets/__init__.py +0 -0
  552. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/eval/__init__.py +0 -0
  553. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/files/__init__.py +0 -0
  554. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/inference/__init__.py +0 -0
  555. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/inference/event_logger.py +0 -0
  556. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/inspect/__init__.py +0 -0
  557. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/models/__init__.py +0 -0
  558. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/post_training/__init__.py +0 -0
  559. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/post_training/post_training.py +0 -0
  560. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/prompts/__init__.py +0 -0
  561. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/providers/__init__.py +0 -0
  562. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/safety/__init__.py +0 -0
  563. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/scoring/__init__.py +0 -0
  564. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/scoring/scoring.py +0 -0
  565. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/scoring_functions/__init__.py +0 -0
  566. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/scoring_functions/scoring_functions.py +0 -0
  567. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/shields/__init__.py +0 -0
  568. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/shields/shields.py +0 -0
  569. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/synthetic_data_generation/__init__.py +0 -0
  570. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/synthetic_data_generation/synthetic_data_generation.py +0 -0
  571. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/telemetry/__init__.py +0 -0
  572. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/tools/__init__.py +0 -0
  573. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/tools/rag_tool.py +0 -0
  574. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/vector_io/__init__.py +0 -0
  575. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/apis/version.py +0 -0
  576. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/cli/__init__.py +0 -0
  577. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/cli/scripts/__init__.py +0 -0
  578. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/cli/scripts/install-wheel-from-presigned.sh +0 -0
  579. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/cli/scripts/run.py +0 -0
  580. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/cli/stack/__init__.py +0 -0
  581. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/cli/stack/list_apis.py +0 -0
  582. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/cli/stack/list_providers.py +0 -0
  583. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/cli/stack/list_stacks.py +0 -0
  584. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/cli/stack/remove.py +0 -0
  585. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/cli/subcommand.py +0 -0
  586. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/cli/table.py +0 -0
  587. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/cli/utils.py +0 -0
  588. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/__init__.py +0 -0
  589. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/access_control/__init__.py +0 -0
  590. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/access_control/access_control.py +0 -0
  591. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/access_control/conditions.py +0 -0
  592. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/build.py +0 -0
  593. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/client.py +0 -0
  594. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/common.sh +0 -0
  595. {llama_stack-0.2.23/llama_stack/core/prompts → llama_stack-0.3.0/llama_stack/core/conversations}/__init__.py +0 -0
  596. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/external.py +0 -0
  597. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/inspect.py +0 -0
  598. {llama_stack-0.2.23/llama_stack/core/routing_tables → llama_stack-0.3.0/llama_stack/core/prompts}/__init__.py +0 -0
  599. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/providers.py +0 -0
  600. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/request_headers.py +0 -0
  601. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/routers/datasets.py +0 -0
  602. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/routers/eval_scoring.py +0 -0
  603. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/routers/safety.py +0 -0
  604. {llama_stack-0.2.23/llama_stack/core/server → llama_stack-0.3.0/llama_stack/core/routing_tables}/__init__.py +0 -0
  605. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/routing_tables/benchmarks.py +0 -0
  606. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/routing_tables/datasets.py +0 -0
  607. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/routing_tables/scoring_functions.py +0 -0
  608. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/routing_tables/shields.py +0 -0
  609. {llama_stack-0.2.23/llama_stack/core/ui → llama_stack-0.3.0/llama_stack/core/server}/__init__.py +0 -0
  610. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/server/routes.py +0 -0
  611. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/server/tracing.py +0 -0
  612. {llama_stack-0.2.23/llama_stack/core/ui/modules → llama_stack-0.3.0/llama_stack/core/storage}/__init__.py +0 -0
  613. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/store/__init__.py +0 -0
  614. {llama_stack-0.2.23/llama_stack/core/ui/page → llama_stack-0.3.0/llama_stack/core/ui}/__init__.py +0 -0
  615. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/ui/app.py +0 -0
  616. {llama_stack-0.2.23/llama_stack/core/ui/page/distribution → llama_stack-0.3.0/llama_stack/core/ui/modules}/__init__.py +0 -0
  617. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/ui/modules/api.py +0 -0
  618. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/ui/modules/utils.py +0 -0
  619. {llama_stack-0.2.23/llama_stack/core/ui/page/evaluations → llama_stack-0.3.0/llama_stack/core/ui/page}/__init__.py +0 -0
  620. {llama_stack-0.2.23/llama_stack/core/ui/page/playground → llama_stack-0.3.0/llama_stack/core/ui/page/distribution}/__init__.py +0 -0
  621. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/ui/page/distribution/datasets.py +0 -0
  622. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/ui/page/distribution/eval_tasks.py +0 -0
  623. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/ui/page/distribution/models.py +0 -0
  624. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/ui/page/distribution/providers.py +0 -0
  625. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/ui/page/distribution/scoring_functions.py +0 -0
  626. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/ui/page/distribution/shields.py +0 -0
  627. {llama_stack-0.2.23/llama_stack/core/utils → llama_stack-0.3.0/llama_stack/core/ui/page/evaluations}/__init__.py +0 -0
  628. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/ui/page/evaluations/app_eval.py +0 -0
  629. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/ui/page/evaluations/native_eval.py +0 -0
  630. {llama_stack-0.2.23/llama_stack/distributions → llama_stack-0.3.0/llama_stack/core/ui/page/playground}/__init__.py +0 -0
  631. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/ui/page/playground/chat.py +0 -0
  632. {llama_stack-0.2.23/llama_stack/distributions/watsonx → llama_stack-0.3.0/llama_stack/core/utils}/__init__.py +0 -0
  633. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/utils/config.py +0 -0
  634. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/utils/config_dirs.py +0 -0
  635. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/utils/context.py +0 -0
  636. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/utils/dynamic.py +0 -0
  637. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/utils/exec.py +0 -0
  638. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/utils/image_types.py +0 -0
  639. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/utils/model_utils.py +0 -0
  640. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/utils/prompt_for_config.py +0 -0
  641. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/core/utils/serialize.py +0 -0
  642. {llama_stack-0.2.23/llama_stack/models → llama_stack-0.3.0/llama_stack/distributions}/__init__.py +0 -0
  643. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/distributions/dell/__init__.py +0 -0
  644. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/distributions/meta-reference-gpu/__init__.py +0 -0
  645. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/distributions/nvidia/__init__.py +0 -0
  646. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/distributions/open-benchmark/__init__.py +0 -0
  647. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/distributions/postgres-demo/__init__.py +0 -0
  648. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/distributions/starter/__init__.py +0 -0
  649. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/distributions/starter-gpu/__init__.py +0 -0
  650. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/distributions/starter-gpu/starter_gpu.py +0 -0
  651. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/env.py +0 -0
  652. {llama_stack-0.2.23/llama_stack/models/llama → llama_stack-0.3.0/llama_stack/models}/__init__.py +0 -0
  653. {llama_stack-0.2.23/llama_stack/models/llama/llama3 → llama_stack-0.3.0/llama_stack/models/llama}/__init__.py +0 -0
  654. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/checkpoint.py +0 -0
  655. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/hadamard_utils.py +0 -0
  656. {llama_stack-0.2.23/llama_stack/models/llama/llama3/quantization → llama_stack-0.3.0/llama_stack/models/llama/llama3}/__init__.py +0 -0
  657. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama3/args.py +0 -0
  658. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama3/generation.py +0 -0
  659. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama3/interface.py +0 -0
  660. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama3/model.py +0 -0
  661. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama3/multimodal/__init__.py +0 -0
  662. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama3/multimodal/encoder_utils.py +0 -0
  663. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama3/multimodal/image_transform.py +0 -0
  664. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama3/multimodal/model.py +0 -0
  665. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama3/multimodal/utils.py +0 -0
  666. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama3/prompt_templates/__init__.py +0 -0
  667. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama3/prompt_templates/base.py +0 -0
  668. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama3/prompt_templates/tool_response.py +0 -0
  669. {llama_stack-0.2.23/llama_stack/models/llama/llama3_2 → llama_stack-0.3.0/llama_stack/models/llama/llama3/quantization}/__init__.py +0 -0
  670. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama3/quantization/loader.py +0 -0
  671. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama3/template_data.py +0 -0
  672. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama3/tokenizer.model +0 -0
  673. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama3/tokenizer.py +0 -0
  674. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama3_1/__init__.py +0 -0
  675. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama3_1/prompt_format.md +0 -0
  676. {llama_stack-0.2.23/llama_stack/models/llama/llama3_3 → llama_stack-0.3.0/llama_stack/models/llama/llama3_2}/__init__.py +0 -0
  677. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama3_2/prompts_text.py +0 -0
  678. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama3_2/prompts_vision.py +0 -0
  679. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama3_2/text_prompt_format.md +0 -0
  680. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama3_2/vision_prompt_format.md +0 -0
  681. {llama_stack-0.2.23/llama_stack/models/llama/llama4 → llama_stack-0.3.0/llama_stack/models/llama/llama3_3}/__init__.py +0 -0
  682. {llama_stack-0.2.23/llama_stack/models/llama/llama4/prompt_templates → llama_stack-0.3.0/llama_stack/models/llama/llama4}/__init__.py +0 -0
  683. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama4/args.py +0 -0
  684. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama4/datatypes.py +0 -0
  685. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama4/ffn.py +0 -0
  686. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama4/generation.py +0 -0
  687. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama4/model.py +0 -0
  688. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama4/moe.py +0 -0
  689. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama4/preprocess.py +0 -0
  690. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama4/prompt_format.md +0 -0
  691. {llama_stack-0.2.23/llama_stack/models/llama/llama4/quantization → llama_stack-0.3.0/llama_stack/models/llama/llama4/prompt_templates}/__init__.py +0 -0
  692. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama4/prompts.py +0 -0
  693. {llama_stack-0.2.23/llama_stack/models/llama/llama4/vision → llama_stack-0.3.0/llama_stack/models/llama/llama4/quantization}/__init__.py +0 -0
  694. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama4/quantization/loader.py +0 -0
  695. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama4/tokenizer.model +0 -0
  696. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama4/tokenizer.py +0 -0
  697. {llama_stack-0.2.23/llama_stack/providers → llama_stack-0.3.0/llama_stack/models/llama/llama4/vision}/__init__.py +0 -0
  698. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama4/vision/embedding.py +0 -0
  699. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/llama4/vision/encoder.py +0 -0
  700. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/quantize_impls.py +0 -0
  701. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/sku_list.py +0 -0
  702. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/models/llama/sku_types.py +0 -0
  703. {llama_stack-0.2.23/llama_stack/providers/inline → llama_stack-0.3.0/llama_stack/providers}/__init__.py +0 -0
  704. {llama_stack-0.2.23/llama_stack/providers/inline/agents → llama_stack-0.3.0/llama_stack/providers/inline}/__init__.py +0 -0
  705. {llama_stack-0.2.23/llama_stack/providers/inline/agents/meta_reference/responses → llama_stack-0.3.0/llama_stack/providers/inline/agents}/__init__.py +0 -0
  706. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/agents/meta_reference/persistence.py +0 -0
  707. {llama_stack-0.2.23/llama_stack/providers/inline/batches → llama_stack-0.3.0/llama_stack/providers/inline/agents/meta_reference/responses}/__init__.py +0 -0
  708. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/agents/meta_reference/safety.py +0 -0
  709. {llama_stack-0.2.23/llama_stack/providers/inline/datasetio → llama_stack-0.3.0/llama_stack/providers/inline/batches}/__init__.py +0 -0
  710. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/batches/reference/__init__.py +0 -0
  711. {llama_stack-0.2.23/llama_stack/providers/inline/eval → llama_stack-0.3.0/llama_stack/providers/inline/datasetio}/__init__.py +0 -0
  712. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/datasetio/localfs/__init__.py +0 -0
  713. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/datasetio/localfs/datasetio.py +0 -0
  714. {llama_stack-0.2.23/llama_stack/providers/inline/inference → llama_stack-0.3.0/llama_stack/providers/inline/eval}/__init__.py +0 -0
  715. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/eval/meta_reference/__init__.py +0 -0
  716. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/files/localfs/__init__.py +0 -0
  717. {llama_stack-0.2.23/llama_stack/providers/inline/post_training → llama_stack-0.3.0/llama_stack/providers/inline/inference}/__init__.py +0 -0
  718. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/inference/meta_reference/__init__.py +0 -0
  719. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/inference/meta_reference/config.py +0 -0
  720. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/inference/meta_reference/generators.py +0 -0
  721. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/inference/meta_reference/parallel_utils.py +0 -0
  722. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/inference/sentence_transformers/__init__.py +0 -0
  723. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/inference/sentence_transformers/config.py +0 -0
  724. {llama_stack-0.2.23/llama_stack/providers/inline/post_training/common → llama_stack-0.3.0/llama_stack/providers/inline/post_training}/__init__.py +0 -0
  725. {llama_stack-0.2.23/llama_stack/providers/inline/post_training/huggingface/recipes → llama_stack-0.3.0/llama_stack/providers/inline/post_training/common}/__init__.py +0 -0
  726. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/post_training/common/utils.py +0 -0
  727. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/post_training/common/validator.py +0 -0
  728. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/post_training/huggingface/__init__.py +0 -0
  729. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/post_training/huggingface/config.py +0 -0
  730. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/post_training/huggingface/post_training.py +0 -0
  731. {llama_stack-0.2.23/llama_stack/providers/inline/post_training/torchtune/common → llama_stack-0.3.0/llama_stack/providers/inline/post_training/huggingface/recipes}/__init__.py +0 -0
  732. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/post_training/huggingface/recipes/finetune_single_device.py +0 -0
  733. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/post_training/huggingface/recipes/finetune_single_device_dpo.py +0 -0
  734. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/post_training/huggingface/utils.py +0 -0
  735. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/post_training/torchtune/__init__.py +0 -0
  736. {llama_stack-0.2.23/llama_stack/providers/inline/post_training/torchtune/datasets → llama_stack-0.3.0/llama_stack/providers/inline/post_training/torchtune/common}/__init__.py +0 -0
  737. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/post_training/torchtune/common/checkpointer.py +0 -0
  738. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/post_training/torchtune/common/utils.py +0 -0
  739. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/post_training/torchtune/config.py +0 -0
  740. {llama_stack-0.2.23/llama_stack/providers/inline/post_training/torchtune/recipes → llama_stack-0.3.0/llama_stack/providers/inline/post_training/torchtune/datasets}/__init__.py +0 -0
  741. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/post_training/torchtune/datasets/format_adapter.py +0 -0
  742. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/post_training/torchtune/datasets/sft.py +0 -0
  743. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/post_training/torchtune/post_training.py +0 -0
  744. {llama_stack-0.2.23/llama_stack/providers/inline/safety → llama_stack-0.3.0/llama_stack/providers/inline/post_training/torchtune/recipes}/__init__.py +0 -0
  745. {llama_stack-0.2.23/llama_stack/providers/inline/scoring → llama_stack-0.3.0/llama_stack/providers/inline/safety}/__init__.py +0 -0
  746. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/safety/code_scanner/__init__.py +0 -0
  747. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/safety/code_scanner/config.py +0 -0
  748. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/safety/llama_guard/__init__.py +0 -0
  749. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/safety/llama_guard/config.py +0 -0
  750. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/safety/prompt_guard/__init__.py +0 -0
  751. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/safety/prompt_guard/config.py +0 -0
  752. {llama_stack-0.2.23/llama_stack/providers/inline/scoring/basic/scoring_fn → llama_stack-0.3.0/llama_stack/providers/inline/scoring}/__init__.py +0 -0
  753. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/__init__.py +0 -0
  754. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/config.py +0 -0
  755. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/scoring.py +0 -0
  756. {llama_stack-0.2.23/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs → llama_stack-0.3.0/llama_stack/providers/inline/scoring/basic/scoring_fn}/__init__.py +0 -0
  757. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/scoring_fn/docvqa_scoring_fn.py +0 -0
  758. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/scoring_fn/equality_scoring_fn.py +0 -0
  759. {llama_stack-0.2.23/llama_stack/providers/inline/scoring/basic/utils → llama_stack-0.3.0/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs}/__init__.py +0 -0
  760. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/docvqa.py +0 -0
  761. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/equality.py +0 -0
  762. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/ifeval.py +0 -0
  763. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/regex_parser_math_response.py +0 -0
  764. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/regex_parser_multiple_choice_answer.py +0 -0
  765. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/subset_of.py +0 -0
  766. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/scoring_fn/ifeval_scoring_fn.py +0 -0
  767. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/scoring_fn/regex_parser_math_response_scoring_fn.py +0 -0
  768. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/scoring_fn/regex_parser_scoring_fn.py +0 -0
  769. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/scoring_fn/subset_of_scoring_fn.py +0 -0
  770. {llama_stack-0.2.23/llama_stack/providers/inline/scoring/braintrust/scoring_fn → llama_stack-0.3.0/llama_stack/providers/inline/scoring/basic/utils}/__init__.py +0 -0
  771. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/utils/ifeval_utils.py +0 -0
  772. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/utils/math_utils.py +0 -0
  773. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/braintrust/__init__.py +0 -0
  774. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/braintrust/braintrust.py +0 -0
  775. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/braintrust/config.py +0 -0
  776. {llama_stack-0.2.23/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs → llama_stack-0.3.0/llama_stack/providers/inline/scoring/braintrust/scoring_fn}/__init__.py +0 -0
  777. {llama_stack-0.2.23/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn → llama_stack-0.3.0/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs}/__init__.py +0 -0
  778. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/answer_correctness.py +0 -0
  779. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/answer_relevancy.py +0 -0
  780. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/answer_similarity.py +0 -0
  781. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_entity_recall.py +0 -0
  782. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_precision.py +0 -0
  783. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_recall.py +0 -0
  784. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_relevancy.py +0 -0
  785. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/factuality.py +0 -0
  786. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/faithfulness.py +0 -0
  787. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/llm_as_judge/__init__.py +0 -0
  788. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/llm_as_judge/config.py +0 -0
  789. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/llm_as_judge/scoring.py +0 -0
  790. {llama_stack-0.2.23/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs → llama_stack-0.3.0/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn}/__init__.py +0 -0
  791. {llama_stack-0.2.23/llama_stack/providers/inline/telemetry → llama_stack-0.3.0/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs}/__init__.py +0 -0
  792. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs/llm_as_judge_405b_simpleqa.py +0 -0
  793. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs/llm_as_judge_base.py +0 -0
  794. {llama_stack-0.2.23/llama_stack/providers/inline/tool_runtime → llama_stack-0.3.0/llama_stack/providers/inline/telemetry}/__init__.py +0 -0
  795. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/telemetry/meta_reference/__init__.py +0 -0
  796. {llama_stack-0.2.23/llama_stack/providers/inline/vector_io → llama_stack-0.3.0/llama_stack/providers/inline/tool_runtime}/__init__.py +0 -0
  797. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/tool_runtime/rag/__init__.py +0 -0
  798. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/inline/tool_runtime/rag/config.py +0 -0
  799. {llama_stack-0.2.23/llama_stack/providers/registry → llama_stack-0.3.0/llama_stack/providers/inline/vector_io}/__init__.py +0 -0
  800. {llama_stack-0.2.23/llama_stack/providers/remote → llama_stack-0.3.0/llama_stack/providers/registry}/__init__.py +0 -0
  801. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/registry/batches.py +0 -0
  802. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/registry/datasetio.py +0 -0
  803. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/registry/eval.py +0 -0
  804. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/registry/files.py +0 -0
  805. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/registry/post_training.py +0 -0
  806. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/registry/safety.py +0 -0
  807. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/registry/scoring.py +0 -0
  808. {llama_stack-0.2.23/llama_stack/providers/remote/agents → llama_stack-0.3.0/llama_stack/providers/remote}/__init__.py +0 -0
  809. {llama_stack-0.2.23/llama_stack/providers/remote/datasetio → llama_stack-0.3.0/llama_stack/providers/remote/agents}/__init__.py +0 -0
  810. {llama_stack-0.2.23/llama_stack/providers/remote/eval → llama_stack-0.3.0/llama_stack/providers/remote/datasetio}/__init__.py +0 -0
  811. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/datasetio/huggingface/__init__.py +0 -0
  812. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/datasetio/huggingface/huggingface.py +0 -0
  813. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/datasetio/nvidia/__init__.py +0 -0
  814. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/datasetio/nvidia/config.py +0 -0
  815. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/datasetio/nvidia/datasetio.py +0 -0
  816. {llama_stack-0.2.23/llama_stack/providers/remote/inference → llama_stack-0.3.0/llama_stack/providers/remote/eval}/__init__.py +0 -0
  817. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/eval/nvidia/__init__.py +0 -0
  818. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/eval/nvidia/config.py +0 -0
  819. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/eval/nvidia/eval.py +0 -0
  820. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/files/s3/__init__.py +0 -0
  821. {llama_stack-0.2.23/llama_stack/providers/remote/post_training → llama_stack-0.3.0/llama_stack/providers/remote/inference}/__init__.py +0 -0
  822. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/inference/bedrock/__init__.py +0 -0
  823. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/inference/bedrock/config.py +0 -0
  824. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/inference/bedrock/models.py +0 -0
  825. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/inference/passthrough/__init__.py +0 -0
  826. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/inference/tgi/__init__.py +0 -0
  827. {llama_stack-0.2.23/llama_stack/providers/remote/safety → llama_stack-0.3.0/llama_stack/providers/remote/post_training}/__init__.py +0 -0
  828. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/post_training/nvidia/__init__.py +0 -0
  829. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/post_training/nvidia/config.py +0 -0
  830. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/post_training/nvidia/models.py +0 -0
  831. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/post_training/nvidia/post_training.py +0 -0
  832. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/post_training/nvidia/utils.py +0 -0
  833. {llama_stack-0.2.23/llama_stack/providers/remote/tool_runtime → llama_stack-0.3.0/llama_stack/providers/remote/safety}/__init__.py +0 -0
  834. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/safety/bedrock/__init__.py +0 -0
  835. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/safety/bedrock/config.py +0 -0
  836. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/safety/nvidia/__init__.py +0 -0
  837. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/safety/nvidia/config.py +0 -0
  838. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/safety/sambanova/__init__.py +0 -0
  839. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/safety/sambanova/config.py +0 -0
  840. {llama_stack-0.2.23/llama_stack/providers/remote/vector_io → llama_stack-0.3.0/llama_stack/providers/remote/tool_runtime}/__init__.py +0 -0
  841. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/tool_runtime/bing_search/__init__.py +0 -0
  842. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/tool_runtime/bing_search/config.py +0 -0
  843. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/tool_runtime/brave_search/__init__.py +0 -0
  844. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/tool_runtime/brave_search/config.py +0 -0
  845. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/tool_runtime/model_context_protocol/__init__.py +0 -0
  846. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/tool_runtime/model_context_protocol/config.py +0 -0
  847. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/tool_runtime/model_context_protocol/model_context_protocol.py +0 -0
  848. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/tool_runtime/tavily_search/__init__.py +0 -0
  849. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/tool_runtime/tavily_search/config.py +0 -0
  850. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/tool_runtime/wolfram_alpha/__init__.py +0 -0
  851. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/tool_runtime/wolfram_alpha/config.py +0 -0
  852. {llama_stack-0.2.23/llama_stack/providers/utils → llama_stack-0.3.0/llama_stack/providers/remote/vector_io}/__init__.py +0 -0
  853. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/remote/vector_io/chroma/__init__.py +0 -0
  854. {llama_stack-0.2.23/llama_stack/providers/utils/bedrock → llama_stack-0.3.0/llama_stack/providers/utils}/__init__.py +0 -0
  855. {llama_stack-0.2.23/llama_stack/providers/utils/common → llama_stack-0.3.0/llama_stack/providers/utils/bedrock}/__init__.py +0 -0
  856. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/utils/bedrock/client.py +0 -0
  857. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/utils/bedrock/refreshable_boto_session.py +0 -0
  858. {llama_stack-0.2.23/llama_stack/providers/utils/datasetio → llama_stack-0.3.0/llama_stack/providers/utils/common}/__init__.py +0 -0
  859. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/utils/common/data_schema_validator.py +0 -0
  860. {llama_stack-0.2.23/llama_stack/providers/utils/memory → llama_stack-0.3.0/llama_stack/providers/utils/datasetio}/__init__.py +0 -0
  861. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/utils/datasetio/url_utils.py +0 -0
  862. {llama_stack-0.2.23/llama_stack/providers/utils/responses → llama_stack-0.3.0/llama_stack/providers/utils/files}/__init__.py +0 -0
  863. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/utils/inference/__init__.py +0 -0
  864. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/utils/kvstore/__init__.py +0 -0
  865. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/utils/kvstore/api.py +0 -0
  866. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/utils/kvstore/mongodb/__init__.py +0 -0
  867. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/utils/kvstore/mongodb/mongodb.py +0 -0
  868. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/utils/kvstore/postgres/__init__.py +0 -0
  869. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/utils/kvstore/postgres/postgres.py +0 -0
  870. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/utils/kvstore/redis/__init__.py +0 -0
  871. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/utils/kvstore/redis/redis.py +0 -0
  872. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/utils/kvstore/sqlite/__init__.py +0 -0
  873. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/utils/kvstore/sqlite/config.py +0 -0
  874. {llama_stack-0.2.23/llama_stack/providers/utils/scoring → llama_stack-0.3.0/llama_stack/providers/utils/memory}/__init__.py +0 -0
  875. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/utils/memory/file_utils.py +0 -0
  876. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/utils/pagination.py +0 -0
  877. {llama_stack-0.2.23/llama_stack/providers/utils/sqlstore → llama_stack-0.3.0/llama_stack/providers/utils/responses}/__init__.py +0 -0
  878. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/utils/scheduler.py +0 -0
  879. {llama_stack-0.2.23/llama_stack/providers/utils/telemetry → llama_stack-0.3.0/llama_stack/providers/utils/scoring}/__init__.py +0 -0
  880. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/utils/scoring/aggregation_utils.py +0 -0
  881. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/utils/scoring/base_scoring_fn.py +0 -0
  882. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/utils/scoring/basic_scoring_utils.py +0 -0
  883. {llama_stack-0.2.23/llama_stack/providers/utils/tools → llama_stack-0.3.0/llama_stack/providers/utils/sqlstore}/__init__.py +0 -0
  884. {llama_stack-0.2.23/llama_stack/providers/utils/vector_io → llama_stack-0.3.0/llama_stack/providers/utils/telemetry}/__init__.py +0 -0
  885. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/utils/telemetry/tracing.py +0 -0
  886. {llama_stack-0.2.23/llama_stack/testing → llama_stack-0.3.0/llama_stack/providers/utils/tools}/__init__.py +0 -0
  887. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/utils/tools/ttl_dict.py +0 -0
  888. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/providers/utils/vector_io/vector_utils.py +0 -0
  889. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/strong_typing/__init__.py +0 -0
  890. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/strong_typing/auxiliary.py +0 -0
  891. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/strong_typing/classdef.py +0 -0
  892. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/strong_typing/core.py +0 -0
  893. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/strong_typing/deserializer.py +0 -0
  894. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/strong_typing/docstring.py +0 -0
  895. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/strong_typing/exception.py +0 -0
  896. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/strong_typing/mapping.py +0 -0
  897. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/strong_typing/name.py +0 -0
  898. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/strong_typing/py.typed +0 -0
  899. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/strong_typing/serialization.py +0 -0
  900. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/strong_typing/serializer.py +0 -0
  901. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/strong_typing/slots.py +0 -0
  902. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack/strong_typing/topological.py +0 -0
  903. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack.egg-info/dependency_links.txt +0 -0
  904. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack.egg-info/entry_points.txt +0 -0
  905. {llama_stack-0.2.23 → llama_stack-0.3.0}/llama_stack.egg-info/top_level.txt +0 -0
  906. {llama_stack-0.2.23 → llama_stack-0.3.0}/setup.cfg +0 -0
@@ -0,0 +1,11 @@
1
+ include pyproject.toml
2
+ include llama_stack/models/llama/llama3/tokenizer.model
3
+ include llama_stack/models/llama/llama4/tokenizer.model
4
+ include llama_stack/core/*.sh
5
+ include llama_stack/cli/scripts/*.sh
6
+ include llama_stack/distributions/*/*.yaml
7
+ exclude llama_stack/distributions/ci-tests
8
+ include tests/integration/test_cases/inference/*.json
9
+ include llama_stack/models/llama/*/*.md
10
+ include llama_stack/tests/integration/*.jpg
11
+ prune llama_stack/distributions/ci-tests
@@ -0,0 +1,260 @@
1
+ Metadata-Version: 2.4
2
+ Name: llama_stack
3
+ Version: 0.3.0
4
+ Summary: Llama Stack
5
+ Author-email: Meta Llama <llama-oss@meta.com>
6
+ License: MIT
7
+ Project-URL: Homepage, https://github.com/llamastack/llama-stack
8
+ Classifier: License :: OSI Approved :: MIT License
9
+ Classifier: Programming Language :: Python :: 3
10
+ Classifier: Operating System :: OS Independent
11
+ Classifier: Intended Audience :: Developers
12
+ Classifier: Intended Audience :: Information Technology
13
+ Classifier: Intended Audience :: Science/Research
14
+ Classifier: Topic :: Scientific/Engineering :: Artificial Intelligence
15
+ Classifier: Topic :: Scientific/Engineering :: Information Analysis
16
+ Requires-Python: >=3.12
17
+ Description-Content-Type: text/markdown
18
+ License-File: LICENSE
19
+ Requires-Dist: aiohttp
20
+ Requires-Dist: fastapi<1.0,>=0.115.0
21
+ Requires-Dist: fire
22
+ Requires-Dist: httpx
23
+ Requires-Dist: jinja2>=3.1.6
24
+ Requires-Dist: jsonschema
25
+ Requires-Dist: llama-stack-client>=0.3.0
26
+ Requires-Dist: openai>=1.107
27
+ Requires-Dist: prompt-toolkit
28
+ Requires-Dist: python-dotenv
29
+ Requires-Dist: pyjwt[crypto]>=2.10.0
30
+ Requires-Dist: pydantic>=2.11.9
31
+ Requires-Dist: rich
32
+ Requires-Dist: starlette
33
+ Requires-Dist: termcolor
34
+ Requires-Dist: tiktoken
35
+ Requires-Dist: pillow
36
+ Requires-Dist: h11>=0.16.0
37
+ Requires-Dist: python-multipart>=0.0.20
38
+ Requires-Dist: uvicorn>=0.34.0
39
+ Requires-Dist: opentelemetry-sdk>=1.30.0
40
+ Requires-Dist: opentelemetry-exporter-otlp-proto-http>=1.30.0
41
+ Requires-Dist: aiosqlite>=0.21.0
42
+ Requires-Dist: asyncpg
43
+ Requires-Dist: sqlalchemy[asyncio]>=2.0.41
44
+ Provides-Extra: ui
45
+ Requires-Dist: streamlit; extra == "ui"
46
+ Requires-Dist: pandas; extra == "ui"
47
+ Requires-Dist: llama-stack-client>=0.3.0; extra == "ui"
48
+ Requires-Dist: streamlit-option-menu; extra == "ui"
49
+ Dynamic: license-file
50
+
51
+ # Llama Stack
52
+
53
+ [![PyPI version](https://img.shields.io/pypi/v/llama_stack.svg)](https://pypi.org/project/llama_stack/)
54
+ [![PyPI - Downloads](https://img.shields.io/pypi/dm/llama-stack)](https://pypi.org/project/llama-stack/)
55
+ [![License](https://img.shields.io/pypi/l/llama_stack.svg)](https://github.com/meta-llama/llama-stack/blob/main/LICENSE)
56
+ [![Discord](https://img.shields.io/discord/1257833999603335178?color=6A7EC2&logo=discord&logoColor=ffffff)](https://discord.gg/llama-stack)
57
+ [![Unit Tests](https://github.com/meta-llama/llama-stack/actions/workflows/unit-tests.yml/badge.svg?branch=main)](https://github.com/meta-llama/llama-stack/actions/workflows/unit-tests.yml?query=branch%3Amain)
58
+ [![Integration Tests](https://github.com/meta-llama/llama-stack/actions/workflows/integration-tests.yml/badge.svg?branch=main)](https://github.com/meta-llama/llama-stack/actions/workflows/integration-tests.yml?query=branch%3Amain)
59
+
60
+ [**Quick Start**](https://llamastack.github.io/docs/getting_started/quickstart) | [**Documentation**](https://llamastack.github.io/docs) | [**Colab Notebook**](./docs/getting_started.ipynb) | [**Discord**](https://discord.gg/llama-stack)
61
+
62
+
63
+ ### ✨🎉 Llama 4 Support 🎉✨
64
+ We released [Version 0.2.0](https://github.com/meta-llama/llama-stack/releases/tag/v0.2.0) with support for the Llama 4 herd of models released by Meta.
65
+
66
+ <details>
67
+
68
+ <summary>👋 Click here to see how to run Llama 4 models on Llama Stack </summary>
69
+
70
+ \
71
+ *Note you need 8xH100 GPU-host to run these models*
72
+
73
+ ```bash
74
+ pip install -U llama_stack
75
+
76
+ MODEL="Llama-4-Scout-17B-16E-Instruct"
77
+ # get meta url from llama.com
78
+ huggingface-cli download meta-llama/$MODEL --local-dir ~/.llama/$MODEL
79
+
80
+ # install dependencies for the distribution
81
+ llama stack list-deps meta-reference-gpu | xargs -L1 uv pip install
82
+
83
+ # start a llama stack server
84
+ INFERENCE_MODEL=meta-llama/$MODEL llama stack run meta-reference-gpu
85
+
86
+ # install client to interact with the server
87
+ pip install llama-stack-client
88
+ ```
89
+ ### CLI
90
+ ```bash
91
+ # Run a chat completion
92
+ MODEL="Llama-4-Scout-17B-16E-Instruct"
93
+
94
+ llama-stack-client --endpoint http://localhost:8321 \
95
+ inference chat-completion \
96
+ --model-id meta-llama/$MODEL \
97
+ --message "write a haiku for meta's llama 4 models"
98
+
99
+ OpenAIChatCompletion(
100
+ ...
101
+ choices=[
102
+ OpenAIChatCompletionChoice(
103
+ finish_reason='stop',
104
+ index=0,
105
+ message=OpenAIChatCompletionChoiceMessageOpenAIAssistantMessageParam(
106
+ role='assistant',
107
+ content='...**Silent minds awaken,** \n**Whispers of billions of words,** \n**Reasoning breaks the night.** \n\n— \n*This haiku blends the essence of LLaMA 4\'s capabilities with nature-inspired metaphor, evoking its vast training data and transformative potential.*',
108
+ ...
109
+ ),
110
+ ...
111
+ )
112
+ ],
113
+ ...
114
+ )
115
+ ```
116
+ ### Python SDK
117
+ ```python
118
+ from llama_stack_client import LlamaStackClient
119
+
120
+ client = LlamaStackClient(base_url=f"http://localhost:8321")
121
+
122
+ model_id = "meta-llama/Llama-4-Scout-17B-16E-Instruct"
123
+ prompt = "Write a haiku about coding"
124
+
125
+ print(f"User> {prompt}")
126
+ response = client.chat.completions.create(
127
+ model=model_id,
128
+ messages=[
129
+ {"role": "system", "content": "You are a helpful assistant."},
130
+ {"role": "user", "content": prompt},
131
+ ],
132
+ )
133
+ print(f"Assistant> {response.choices[0].message.content}")
134
+ ```
135
+ As more providers start supporting Llama 4, you can use them in Llama Stack as well. We are adding to the list. Stay tuned!
136
+
137
+
138
+ </details>
139
+
140
+ ### 🚀 One-Line Installer 🚀
141
+
142
+ To try Llama Stack locally, run:
143
+
144
+ ```bash
145
+ curl -LsSf https://github.com/llamastack/llama-stack/raw/main/scripts/install.sh | bash
146
+ ```
147
+
148
+ ### Overview
149
+
150
+ Llama Stack standardizes the core building blocks that simplify AI application development. It codifies best practices across the Llama ecosystem. More specifically, it provides
151
+
152
+ - **Unified API layer** for Inference, RAG, Agents, Tools, Safety, Evals, and Telemetry.
153
+ - **Plugin architecture** to support the rich ecosystem of different API implementations in various environments, including local development, on-premises, cloud, and mobile.
154
+ - **Prepackaged verified distributions** which offer a one-stop solution for developers to get started quickly and reliably in any environment.
155
+ - **Multiple developer interfaces** like CLI and SDKs for Python, Typescript, iOS, and Android.
156
+ - **Standalone applications** as examples for how to build production-grade AI applications with Llama Stack.
157
+
158
+ <div style="text-align: center;">
159
+ <img
160
+ src="https://github.com/user-attachments/assets/33d9576d-95ea-468d-95e2-8fa233205a50"
161
+ width="480"
162
+ title="Llama Stack"
163
+ alt="Llama Stack"
164
+ />
165
+ </div>
166
+
167
+ ### Llama Stack Benefits
168
+ - **Flexible Options**: Developers can choose their preferred infrastructure without changing APIs and enjoy flexible deployment choices.
169
+ - **Consistent Experience**: With its unified APIs, Llama Stack makes it easier to build, test, and deploy AI applications with consistent application behavior.
170
+ - **Robust Ecosystem**: Llama Stack is already integrated with distribution partners (cloud providers, hardware vendors, and AI-focused companies) that offer tailored infrastructure, software, and services for deploying Llama models.
171
+
172
+ By reducing friction and complexity, Llama Stack empowers developers to focus on what they do best: building transformative generative AI applications.
173
+
174
+ ### API Providers
175
+ Here is a list of the various API providers and available distributions that can help developers get started easily with Llama Stack.
176
+ Please checkout for [full list](https://llamastack.github.io/docs/providers)
177
+
178
+ | API Provider Builder | Environments | Agents | Inference | VectorIO | Safety | Telemetry | Post Training | Eval | DatasetIO |
179
+ |:--------------------:|:------------:|:------:|:---------:|:--------:|:------:|:---------:|:-------------:|:----:|:--------:|
180
+ | Meta Reference | Single Node | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
181
+ | SambaNova | Hosted | | ✅ | | ✅ | | | | |
182
+ | Cerebras | Hosted | | ✅ | | | | | | |
183
+ | Fireworks | Hosted | ✅ | ✅ | ✅ | | | | | |
184
+ | AWS Bedrock | Hosted | | ✅ | | ✅ | | | | |
185
+ | Together | Hosted | ✅ | ✅ | | ✅ | | | | |
186
+ | Groq | Hosted | | ✅ | | | | | | |
187
+ | Ollama | Single Node | | ✅ | | | | | | |
188
+ | TGI | Hosted/Single Node | | ✅ | | | | | | |
189
+ | NVIDIA NIM | Hosted/Single Node | | ✅ | | ✅ | | | | |
190
+ | ChromaDB | Hosted/Single Node | | | ✅ | | | | | |
191
+ | Milvus | Hosted/Single Node | | | ✅ | | | | | |
192
+ | Qdrant | Hosted/Single Node | | | ✅ | | | | | |
193
+ | Weaviate | Hosted/Single Node | | | ✅ | | | | | |
194
+ | SQLite-vec | Single Node | | | ✅ | | | | | |
195
+ | PG Vector | Single Node | | | ✅ | | | | | |
196
+ | PyTorch ExecuTorch | On-device iOS | ✅ | ✅ | | | | | | |
197
+ | vLLM | Single Node | | ✅ | | | | | | |
198
+ | OpenAI | Hosted | | ✅ | | | | | | |
199
+ | Anthropic | Hosted | | ✅ | | | | | | |
200
+ | Gemini | Hosted | | ✅ | | | | | | |
201
+ | WatsonX | Hosted | | ✅ | | | | | | |
202
+ | HuggingFace | Single Node | | | | | | ✅ | | ✅ |
203
+ | TorchTune | Single Node | | | | | | ✅ | | |
204
+ | NVIDIA NEMO | Hosted | | ✅ | ✅ | | | ✅ | ✅ | ✅ |
205
+ | NVIDIA | Hosted | | | | | | ✅ | ✅ | ✅ |
206
+
207
+ > **Note**: Additional providers are available through external packages. See [External Providers](https://llamastack.github.io/docs/providers/external) documentation.
208
+
209
+ ### Distributions
210
+
211
+ A Llama Stack Distribution (or "distro") is a pre-configured bundle of provider implementations for each API component. Distributions make it easy to get started with a specific deployment scenario - you can begin with a local development setup (eg. ollama) and seamlessly transition to production (eg. Fireworks) without changing your application code.
212
+ Here are some of the distributions we support:
213
+
214
+ | **Distribution** | **Llama Stack Docker** | Start This Distribution |
215
+ |:---------------------------------------------:|:-------------------------------------------------------------------------------------------------------------------------------------------------------------:|:------------------------------------------------------------------------------------------------------------------------:|
216
+ | Starter Distribution | [llamastack/distribution-starter](https://hub.docker.com/repository/docker/llamastack/distribution-starter/general) | [Guide](https://llamastack.github.io/latest/distributions/self_hosted_distro/starter.html) |
217
+ | Meta Reference | [llamastack/distribution-meta-reference-gpu](https://hub.docker.com/repository/docker/llamastack/distribution-meta-reference-gpu/general) | [Guide](https://llamastack.github.io/latest/distributions/self_hosted_distro/meta-reference-gpu.html) |
218
+ | PostgreSQL | [llamastack/distribution-postgres-demo](https://hub.docker.com/repository/docker/llamastack/distribution-postgres-demo/general) | |
219
+
220
+ ### Documentation
221
+
222
+ Please checkout our [Documentation](https://llamastack.github.io/latest/index.html) page for more details.
223
+
224
+ * CLI references
225
+ * [llama (server-side) CLI Reference](https://llamastack.github.io/latest/references/llama_cli_reference/index.html): Guide for using the `llama` CLI to work with Llama models (download, study prompts), and building/starting a Llama Stack distribution.
226
+ * [llama (client-side) CLI Reference](https://llamastack.github.io/latest/references/llama_stack_client_cli_reference.html): Guide for using the `llama-stack-client` CLI, which allows you to query information about the distribution.
227
+ * Getting Started
228
+ * [Quick guide to start a Llama Stack server](https://llamastack.github.io/latest/getting_started/index.html).
229
+ * [Jupyter notebook](./docs/getting_started.ipynb) to walk-through how to use simple text and vision inference llama_stack_client APIs
230
+ * The complete Llama Stack lesson [Colab notebook](https://colab.research.google.com/drive/1dtVmxotBsI4cGZQNsJRYPrLiDeT0Wnwt) of the new [Llama 3.2 course on Deeplearning.ai](https://learn.deeplearning.ai/courses/introducing-multimodal-llama-3-2/lesson/8/llama-stack).
231
+ * A [Zero-to-Hero Guide](https://github.com/meta-llama/llama-stack/tree/main/docs/zero_to_hero_guide) that guide you through all the key components of llama stack with code samples.
232
+ * [Contributing](CONTRIBUTING.md)
233
+ * [Adding a new API Provider](https://llamastack.github.io/latest/contributing/new_api_provider.html) to walk-through how to add a new API provider.
234
+
235
+ ### Llama Stack Client SDKs
236
+
237
+ | **Language** | **Client SDK** | **Package** |
238
+ | :----: | :----: | :----: |
239
+ | Python | [llama-stack-client-python](https://github.com/meta-llama/llama-stack-client-python) | [![PyPI version](https://img.shields.io/pypi/v/llama_stack_client.svg)](https://pypi.org/project/llama_stack_client/)
240
+ | Swift | [llama-stack-client-swift](https://github.com/meta-llama/llama-stack-client-swift) | [![Swift Package Index](https://img.shields.io/endpoint?url=https%3A%2F%2Fswiftpackageindex.com%2Fapi%2Fpackages%2Fmeta-llama%2Fllama-stack-client-swift%2Fbadge%3Ftype%3Dswift-versions)](https://swiftpackageindex.com/meta-llama/llama-stack-client-swift)
241
+ | Typescript | [llama-stack-client-typescript](https://github.com/meta-llama/llama-stack-client-typescript) | [![NPM version](https://img.shields.io/npm/v/llama-stack-client.svg)](https://npmjs.org/package/llama-stack-client)
242
+ | Kotlin | [llama-stack-client-kotlin](https://github.com/meta-llama/llama-stack-client-kotlin) | [![Maven version](https://img.shields.io/maven-central/v/com.llama.llamastack/llama-stack-client-kotlin)](https://central.sonatype.com/artifact/com.llama.llamastack/llama-stack-client-kotlin)
243
+
244
+ Check out our client SDKs for connecting to a Llama Stack server in your preferred language, you can choose from [python](https://github.com/meta-llama/llama-stack-client-python), [typescript](https://github.com/meta-llama/llama-stack-client-typescript), [swift](https://github.com/meta-llama/llama-stack-client-swift), and [kotlin](https://github.com/meta-llama/llama-stack-client-kotlin) programming languages to quickly build your applications.
245
+
246
+ You can find more example scripts with client SDKs to talk with the Llama Stack server in our [llama-stack-apps](https://github.com/meta-llama/llama-stack-apps/tree/main/examples) repo.
247
+
248
+
249
+ ## 🌟 GitHub Star History
250
+ ## Star History
251
+
252
+ [![Star History Chart](https://api.star-history.com/svg?repos=meta-llama/llama-stack&type=Date)](https://www.star-history.com/#meta-llama/llama-stack&Date)
253
+
254
+ ## ✨ Contributors
255
+
256
+ Thanks to all of our amazing contributors!
257
+
258
+ <a href="https://github.com/meta-llama/llama-stack/graphs/contributors">
259
+ <img src="https://contrib.rocks/image?repo=meta-llama/llama-stack" />
260
+ </a>
@@ -0,0 +1,210 @@
1
+ # Llama Stack
2
+
3
+ [![PyPI version](https://img.shields.io/pypi/v/llama_stack.svg)](https://pypi.org/project/llama_stack/)
4
+ [![PyPI - Downloads](https://img.shields.io/pypi/dm/llama-stack)](https://pypi.org/project/llama-stack/)
5
+ [![License](https://img.shields.io/pypi/l/llama_stack.svg)](https://github.com/meta-llama/llama-stack/blob/main/LICENSE)
6
+ [![Discord](https://img.shields.io/discord/1257833999603335178?color=6A7EC2&logo=discord&logoColor=ffffff)](https://discord.gg/llama-stack)
7
+ [![Unit Tests](https://github.com/meta-llama/llama-stack/actions/workflows/unit-tests.yml/badge.svg?branch=main)](https://github.com/meta-llama/llama-stack/actions/workflows/unit-tests.yml?query=branch%3Amain)
8
+ [![Integration Tests](https://github.com/meta-llama/llama-stack/actions/workflows/integration-tests.yml/badge.svg?branch=main)](https://github.com/meta-llama/llama-stack/actions/workflows/integration-tests.yml?query=branch%3Amain)
9
+
10
+ [**Quick Start**](https://llamastack.github.io/docs/getting_started/quickstart) | [**Documentation**](https://llamastack.github.io/docs) | [**Colab Notebook**](./docs/getting_started.ipynb) | [**Discord**](https://discord.gg/llama-stack)
11
+
12
+
13
+ ### ✨🎉 Llama 4 Support 🎉✨
14
+ We released [Version 0.2.0](https://github.com/meta-llama/llama-stack/releases/tag/v0.2.0) with support for the Llama 4 herd of models released by Meta.
15
+
16
+ <details>
17
+
18
+ <summary>👋 Click here to see how to run Llama 4 models on Llama Stack </summary>
19
+
20
+ \
21
+ *Note you need 8xH100 GPU-host to run these models*
22
+
23
+ ```bash
24
+ pip install -U llama_stack
25
+
26
+ MODEL="Llama-4-Scout-17B-16E-Instruct"
27
+ # get meta url from llama.com
28
+ huggingface-cli download meta-llama/$MODEL --local-dir ~/.llama/$MODEL
29
+
30
+ # install dependencies for the distribution
31
+ llama stack list-deps meta-reference-gpu | xargs -L1 uv pip install
32
+
33
+ # start a llama stack server
34
+ INFERENCE_MODEL=meta-llama/$MODEL llama stack run meta-reference-gpu
35
+
36
+ # install client to interact with the server
37
+ pip install llama-stack-client
38
+ ```
39
+ ### CLI
40
+ ```bash
41
+ # Run a chat completion
42
+ MODEL="Llama-4-Scout-17B-16E-Instruct"
43
+
44
+ llama-stack-client --endpoint http://localhost:8321 \
45
+ inference chat-completion \
46
+ --model-id meta-llama/$MODEL \
47
+ --message "write a haiku for meta's llama 4 models"
48
+
49
+ OpenAIChatCompletion(
50
+ ...
51
+ choices=[
52
+ OpenAIChatCompletionChoice(
53
+ finish_reason='stop',
54
+ index=0,
55
+ message=OpenAIChatCompletionChoiceMessageOpenAIAssistantMessageParam(
56
+ role='assistant',
57
+ content='...**Silent minds awaken,** \n**Whispers of billions of words,** \n**Reasoning breaks the night.** \n\n— \n*This haiku blends the essence of LLaMA 4\'s capabilities with nature-inspired metaphor, evoking its vast training data and transformative potential.*',
58
+ ...
59
+ ),
60
+ ...
61
+ )
62
+ ],
63
+ ...
64
+ )
65
+ ```
66
+ ### Python SDK
67
+ ```python
68
+ from llama_stack_client import LlamaStackClient
69
+
70
+ client = LlamaStackClient(base_url=f"http://localhost:8321")
71
+
72
+ model_id = "meta-llama/Llama-4-Scout-17B-16E-Instruct"
73
+ prompt = "Write a haiku about coding"
74
+
75
+ print(f"User> {prompt}")
76
+ response = client.chat.completions.create(
77
+ model=model_id,
78
+ messages=[
79
+ {"role": "system", "content": "You are a helpful assistant."},
80
+ {"role": "user", "content": prompt},
81
+ ],
82
+ )
83
+ print(f"Assistant> {response.choices[0].message.content}")
84
+ ```
85
+ As more providers start supporting Llama 4, you can use them in Llama Stack as well. We are adding to the list. Stay tuned!
86
+
87
+
88
+ </details>
89
+
90
+ ### 🚀 One-Line Installer 🚀
91
+
92
+ To try Llama Stack locally, run:
93
+
94
+ ```bash
95
+ curl -LsSf https://github.com/llamastack/llama-stack/raw/main/scripts/install.sh | bash
96
+ ```
97
+
98
+ ### Overview
99
+
100
+ Llama Stack standardizes the core building blocks that simplify AI application development. It codifies best practices across the Llama ecosystem. More specifically, it provides
101
+
102
+ - **Unified API layer** for Inference, RAG, Agents, Tools, Safety, Evals, and Telemetry.
103
+ - **Plugin architecture** to support the rich ecosystem of different API implementations in various environments, including local development, on-premises, cloud, and mobile.
104
+ - **Prepackaged verified distributions** which offer a one-stop solution for developers to get started quickly and reliably in any environment.
105
+ - **Multiple developer interfaces** like CLI and SDKs for Python, Typescript, iOS, and Android.
106
+ - **Standalone applications** as examples for how to build production-grade AI applications with Llama Stack.
107
+
108
+ <div style="text-align: center;">
109
+ <img
110
+ src="https://github.com/user-attachments/assets/33d9576d-95ea-468d-95e2-8fa233205a50"
111
+ width="480"
112
+ title="Llama Stack"
113
+ alt="Llama Stack"
114
+ />
115
+ </div>
116
+
117
+ ### Llama Stack Benefits
118
+ - **Flexible Options**: Developers can choose their preferred infrastructure without changing APIs and enjoy flexible deployment choices.
119
+ - **Consistent Experience**: With its unified APIs, Llama Stack makes it easier to build, test, and deploy AI applications with consistent application behavior.
120
+ - **Robust Ecosystem**: Llama Stack is already integrated with distribution partners (cloud providers, hardware vendors, and AI-focused companies) that offer tailored infrastructure, software, and services for deploying Llama models.
121
+
122
+ By reducing friction and complexity, Llama Stack empowers developers to focus on what they do best: building transformative generative AI applications.
123
+
124
+ ### API Providers
125
+ Here is a list of the various API providers and available distributions that can help developers get started easily with Llama Stack.
126
+ Please checkout for [full list](https://llamastack.github.io/docs/providers)
127
+
128
+ | API Provider Builder | Environments | Agents | Inference | VectorIO | Safety | Telemetry | Post Training | Eval | DatasetIO |
129
+ |:--------------------:|:------------:|:------:|:---------:|:--------:|:------:|:---------:|:-------------:|:----:|:--------:|
130
+ | Meta Reference | Single Node | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
131
+ | SambaNova | Hosted | | ✅ | | ✅ | | | | |
132
+ | Cerebras | Hosted | | ✅ | | | | | | |
133
+ | Fireworks | Hosted | ✅ | ✅ | ✅ | | | | | |
134
+ | AWS Bedrock | Hosted | | ✅ | | ✅ | | | | |
135
+ | Together | Hosted | ✅ | ✅ | | ✅ | | | | |
136
+ | Groq | Hosted | | ✅ | | | | | | |
137
+ | Ollama | Single Node | | ✅ | | | | | | |
138
+ | TGI | Hosted/Single Node | | ✅ | | | | | | |
139
+ | NVIDIA NIM | Hosted/Single Node | | ✅ | | ✅ | | | | |
140
+ | ChromaDB | Hosted/Single Node | | | ✅ | | | | | |
141
+ | Milvus | Hosted/Single Node | | | ✅ | | | | | |
142
+ | Qdrant | Hosted/Single Node | | | ✅ | | | | | |
143
+ | Weaviate | Hosted/Single Node | | | ✅ | | | | | |
144
+ | SQLite-vec | Single Node | | | ✅ | | | | | |
145
+ | PG Vector | Single Node | | | ✅ | | | | | |
146
+ | PyTorch ExecuTorch | On-device iOS | ✅ | ✅ | | | | | | |
147
+ | vLLM | Single Node | | ✅ | | | | | | |
148
+ | OpenAI | Hosted | | ✅ | | | | | | |
149
+ | Anthropic | Hosted | | ✅ | | | | | | |
150
+ | Gemini | Hosted | | ✅ | | | | | | |
151
+ | WatsonX | Hosted | | ✅ | | | | | | |
152
+ | HuggingFace | Single Node | | | | | | ✅ | | ✅ |
153
+ | TorchTune | Single Node | | | | | | ✅ | | |
154
+ | NVIDIA NEMO | Hosted | | ✅ | ✅ | | | ✅ | ✅ | ✅ |
155
+ | NVIDIA | Hosted | | | | | | ✅ | ✅ | ✅ |
156
+
157
+ > **Note**: Additional providers are available through external packages. See [External Providers](https://llamastack.github.io/docs/providers/external) documentation.
158
+
159
+ ### Distributions
160
+
161
+ A Llama Stack Distribution (or "distro") is a pre-configured bundle of provider implementations for each API component. Distributions make it easy to get started with a specific deployment scenario - you can begin with a local development setup (eg. ollama) and seamlessly transition to production (eg. Fireworks) without changing your application code.
162
+ Here are some of the distributions we support:
163
+
164
+ | **Distribution** | **Llama Stack Docker** | Start This Distribution |
165
+ |:---------------------------------------------:|:-------------------------------------------------------------------------------------------------------------------------------------------------------------:|:------------------------------------------------------------------------------------------------------------------------:|
166
+ | Starter Distribution | [llamastack/distribution-starter](https://hub.docker.com/repository/docker/llamastack/distribution-starter/general) | [Guide](https://llamastack.github.io/latest/distributions/self_hosted_distro/starter.html) |
167
+ | Meta Reference | [llamastack/distribution-meta-reference-gpu](https://hub.docker.com/repository/docker/llamastack/distribution-meta-reference-gpu/general) | [Guide](https://llamastack.github.io/latest/distributions/self_hosted_distro/meta-reference-gpu.html) |
168
+ | PostgreSQL | [llamastack/distribution-postgres-demo](https://hub.docker.com/repository/docker/llamastack/distribution-postgres-demo/general) | |
169
+
170
+ ### Documentation
171
+
172
+ Please checkout our [Documentation](https://llamastack.github.io/latest/index.html) page for more details.
173
+
174
+ * CLI references
175
+ * [llama (server-side) CLI Reference](https://llamastack.github.io/latest/references/llama_cli_reference/index.html): Guide for using the `llama` CLI to work with Llama models (download, study prompts), and building/starting a Llama Stack distribution.
176
+ * [llama (client-side) CLI Reference](https://llamastack.github.io/latest/references/llama_stack_client_cli_reference.html): Guide for using the `llama-stack-client` CLI, which allows you to query information about the distribution.
177
+ * Getting Started
178
+ * [Quick guide to start a Llama Stack server](https://llamastack.github.io/latest/getting_started/index.html).
179
+ * [Jupyter notebook](./docs/getting_started.ipynb) to walk-through how to use simple text and vision inference llama_stack_client APIs
180
+ * The complete Llama Stack lesson [Colab notebook](https://colab.research.google.com/drive/1dtVmxotBsI4cGZQNsJRYPrLiDeT0Wnwt) of the new [Llama 3.2 course on Deeplearning.ai](https://learn.deeplearning.ai/courses/introducing-multimodal-llama-3-2/lesson/8/llama-stack).
181
+ * A [Zero-to-Hero Guide](https://github.com/meta-llama/llama-stack/tree/main/docs/zero_to_hero_guide) that guide you through all the key components of llama stack with code samples.
182
+ * [Contributing](CONTRIBUTING.md)
183
+ * [Adding a new API Provider](https://llamastack.github.io/latest/contributing/new_api_provider.html) to walk-through how to add a new API provider.
184
+
185
+ ### Llama Stack Client SDKs
186
+
187
+ | **Language** | **Client SDK** | **Package** |
188
+ | :----: | :----: | :----: |
189
+ | Python | [llama-stack-client-python](https://github.com/meta-llama/llama-stack-client-python) | [![PyPI version](https://img.shields.io/pypi/v/llama_stack_client.svg)](https://pypi.org/project/llama_stack_client/)
190
+ | Swift | [llama-stack-client-swift](https://github.com/meta-llama/llama-stack-client-swift) | [![Swift Package Index](https://img.shields.io/endpoint?url=https%3A%2F%2Fswiftpackageindex.com%2Fapi%2Fpackages%2Fmeta-llama%2Fllama-stack-client-swift%2Fbadge%3Ftype%3Dswift-versions)](https://swiftpackageindex.com/meta-llama/llama-stack-client-swift)
191
+ | Typescript | [llama-stack-client-typescript](https://github.com/meta-llama/llama-stack-client-typescript) | [![NPM version](https://img.shields.io/npm/v/llama-stack-client.svg)](https://npmjs.org/package/llama-stack-client)
192
+ | Kotlin | [llama-stack-client-kotlin](https://github.com/meta-llama/llama-stack-client-kotlin) | [![Maven version](https://img.shields.io/maven-central/v/com.llama.llamastack/llama-stack-client-kotlin)](https://central.sonatype.com/artifact/com.llama.llamastack/llama-stack-client-kotlin)
193
+
194
+ Check out our client SDKs for connecting to a Llama Stack server in your preferred language, you can choose from [python](https://github.com/meta-llama/llama-stack-client-python), [typescript](https://github.com/meta-llama/llama-stack-client-typescript), [swift](https://github.com/meta-llama/llama-stack-client-swift), and [kotlin](https://github.com/meta-llama/llama-stack-client-kotlin) programming languages to quickly build your applications.
195
+
196
+ You can find more example scripts with client SDKs to talk with the Llama Stack server in our [llama-stack-apps](https://github.com/meta-llama/llama-stack-apps/tree/main/examples) repo.
197
+
198
+
199
+ ## 🌟 GitHub Star History
200
+ ## Star History
201
+
202
+ [![Star History Chart](https://api.star-history.com/svg?repos=meta-llama/llama-stack&type=Date)](https://www.star-history.com/#meta-llama/llama-stack&Date)
203
+
204
+ ## ✨ Contributors
205
+
206
+ Thanks to all of our amazing contributors!
207
+
208
+ <a href="https://github.com/meta-llama/llama-stack/graphs/contributors">
209
+ <img src="https://contrib.rocks/image?repo=meta-llama/llama-stack" />
210
+ </a>