llama-stack 0.2.22__tar.gz → 0.3.0__tar.gz

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (937) hide show
  1. llama_stack-0.3.0/MANIFEST.in +11 -0
  2. llama_stack-0.3.0/PKG-INFO +260 -0
  3. llama_stack-0.3.0/README.md +210 -0
  4. llama_stack-0.3.0/llama_stack/apis/agents/agents.py +894 -0
  5. llama_stack-0.3.0/llama_stack/apis/agents/openai_responses.py +1311 -0
  6. llama_stack-0.3.0/llama_stack/apis/batches/batches.py +100 -0
  7. llama_stack-0.3.0/llama_stack/apis/benchmarks/benchmarks.py +108 -0
  8. llama_stack-0.3.0/llama_stack/apis/common/errors.py +103 -0
  9. llama_stack-0.3.0/llama_stack/apis/conversations/__init__.py +31 -0
  10. llama_stack-0.3.0/llama_stack/apis/conversations/conversations.py +286 -0
  11. llama_stack-0.3.0/llama_stack/apis/datasetio/datasetio.py +59 -0
  12. llama_stack-0.3.0/llama_stack/apis/datasets/datasets.py +251 -0
  13. llama_stack-0.3.0/llama_stack/apis/datatypes.py +160 -0
  14. llama_stack-0.3.0/llama_stack/apis/eval/eval.py +169 -0
  15. llama_stack-0.3.0/llama_stack/apis/files/files.py +199 -0
  16. llama_stack-0.3.0/llama_stack/apis/inference/inference.py +1273 -0
  17. llama_stack-0.3.0/llama_stack/apis/inspect/inspect.py +94 -0
  18. llama_stack-0.3.0/llama_stack/apis/models/models.py +169 -0
  19. llama_stack-0.3.0/llama_stack/apis/post_training/post_training.py +374 -0
  20. llama_stack-0.3.0/llama_stack/apis/prompts/prompts.py +204 -0
  21. llama_stack-0.3.0/llama_stack/apis/providers/providers.py +69 -0
  22. llama_stack-0.3.0/llama_stack/apis/resource.py +37 -0
  23. llama_stack-0.3.0/llama_stack/apis/safety/safety.py +135 -0
  24. llama_stack-0.3.0/llama_stack/apis/scoring/scoring.py +93 -0
  25. llama_stack-0.3.0/llama_stack/apis/scoring_functions/scoring_functions.py +208 -0
  26. llama_stack-0.3.0/llama_stack/apis/shields/shields.py +94 -0
  27. llama_stack-0.3.0/llama_stack/apis/synthetic_data_generation/synthetic_data_generation.py +77 -0
  28. llama_stack-0.3.0/llama_stack/apis/telemetry/telemetry.py +423 -0
  29. llama_stack-0.3.0/llama_stack/apis/tools/rag_tool.py +218 -0
  30. llama_stack-0.3.0/llama_stack/apis/tools/tools.py +221 -0
  31. llama_stack-0.3.0/llama_stack/apis/vector_io/vector_io.py +960 -0
  32. llama_stack-0.3.0/llama_stack/apis/vector_stores/__init__.py +7 -0
  33. llama_stack-0.3.0/llama_stack/apis/vector_stores/vector_stores.py +51 -0
  34. llama_stack-0.3.0/llama_stack/apis/version.py +9 -0
  35. llama_stack-0.3.0/llama_stack/cli/llama.py +56 -0
  36. llama_stack-0.3.0/llama_stack/cli/stack/_list_deps.py +182 -0
  37. llama_stack-0.3.0/llama_stack/cli/stack/list_deps.py +51 -0
  38. llama_stack-0.3.0/llama_stack/cli/stack/run.py +214 -0
  39. llama_stack-0.3.0/llama_stack/cli/stack/stack.py +48 -0
  40. llama_stack-0.3.0/llama_stack/cli/stack/utils.py +151 -0
  41. llama_stack-0.3.0/llama_stack/core/access_control/datatypes.py +107 -0
  42. llama_stack-0.3.0/llama_stack/core/client.py +205 -0
  43. llama_stack-0.3.0/llama_stack/core/configure.py +212 -0
  44. llama_stack-0.3.0/llama_stack/core/conversations/conversations.py +309 -0
  45. llama_stack-0.3.0/llama_stack/core/datatypes.py +621 -0
  46. llama_stack-0.3.0/llama_stack/core/distribution.py +276 -0
  47. llama_stack-0.3.0/llama_stack/core/id_generation.py +42 -0
  48. llama_stack-0.3.0/llama_stack/core/library_client.py +539 -0
  49. llama_stack-0.3.0/llama_stack/core/prompts/prompts.py +234 -0
  50. llama_stack-0.3.0/llama_stack/core/resolver.py +503 -0
  51. llama_stack-0.3.0/llama_stack/core/routers/__init__.py +101 -0
  52. llama_stack-0.3.0/llama_stack/core/routers/inference.py +586 -0
  53. llama_stack-0.3.0/llama_stack/core/routers/tool_runtime.py +91 -0
  54. llama_stack-0.3.0/llama_stack/core/routers/vector_io.py +442 -0
  55. llama_stack-0.3.0/llama_stack/core/routing_tables/common.py +254 -0
  56. llama_stack-0.3.0/llama_stack/core/routing_tables/models.py +163 -0
  57. llama_stack-0.3.0/llama_stack/core/routing_tables/toolgroups.py +129 -0
  58. llama_stack-0.3.0/llama_stack/core/routing_tables/vector_stores.py +292 -0
  59. llama_stack-0.3.0/llama_stack/core/server/auth.py +187 -0
  60. llama_stack-0.3.0/llama_stack/core/server/auth_providers.py +494 -0
  61. llama_stack-0.3.0/llama_stack/core/server/quota.py +110 -0
  62. llama_stack-0.3.0/llama_stack/core/server/routes.py +141 -0
  63. llama_stack-0.3.0/llama_stack/core/server/server.py +542 -0
  64. llama_stack-0.3.0/llama_stack/core/server/tracing.py +80 -0
  65. llama_stack-0.3.0/llama_stack/core/stack.py +546 -0
  66. llama_stack-0.3.0/llama_stack/core/start_stack.sh +117 -0
  67. llama_stack-0.3.0/llama_stack/core/storage/datatypes.py +283 -0
  68. llama_stack-0.3.0/llama_stack/core/store/registry.py +199 -0
  69. llama_stack-0.3.0/llama_stack/core/testing_context.py +49 -0
  70. llama_stack-0.3.0/llama_stack/core/ui/page/distribution/resources.py +48 -0
  71. llama_stack-0.3.0/llama_stack/core/ui/page/playground/tools.py +352 -0
  72. llama_stack-0.3.0/llama_stack/core/utils/config_resolution.py +125 -0
  73. llama_stack-0.3.0/llama_stack/distributions/dell/build.yaml +33 -0
  74. llama_stack-0.3.0/llama_stack/distributions/dell/dell.py +158 -0
  75. llama_stack-0.3.0/llama_stack/distributions/dell/run-with-safety.yaml +141 -0
  76. llama_stack-0.3.0/llama_stack/distributions/dell/run.yaml +132 -0
  77. llama_stack-0.3.0/llama_stack/distributions/meta-reference-gpu/build.yaml +32 -0
  78. llama_stack-0.3.0/llama_stack/distributions/meta-reference-gpu/meta_reference.py +163 -0
  79. llama_stack-0.3.0/llama_stack/distributions/meta-reference-gpu/run-with-safety.yaml +154 -0
  80. llama_stack-0.3.0/llama_stack/distributions/meta-reference-gpu/run.yaml +139 -0
  81. llama_stack-0.3.0/llama_stack/distributions/nvidia/build.yaml +29 -0
  82. llama_stack-0.3.0/llama_stack/distributions/nvidia/nvidia.py +154 -0
  83. llama_stack-0.3.0/llama_stack/distributions/nvidia/run-with-safety.yaml +137 -0
  84. llama_stack-0.3.0/llama_stack/distributions/nvidia/run.yaml +116 -0
  85. llama_stack-0.3.0/llama_stack/distributions/open-benchmark/build.yaml +36 -0
  86. llama_stack-0.3.0/llama_stack/distributions/open-benchmark/open_benchmark.py +303 -0
  87. llama_stack-0.3.0/llama_stack/distributions/open-benchmark/run.yaml +252 -0
  88. llama_stack-0.3.0/llama_stack/distributions/postgres-demo/build.yaml +23 -0
  89. llama_stack-0.3.0/llama_stack/distributions/postgres-demo/postgres_demo.py +125 -0
  90. llama_stack-0.3.0/llama_stack/distributions/postgres-demo/run.yaml +115 -0
  91. llama_stack-0.3.0/llama_stack/distributions/starter/build.yaml +60 -0
  92. llama_stack-0.3.0/llama_stack/distributions/starter/run.yaml +276 -0
  93. llama_stack-0.3.0/llama_stack/distributions/starter/starter.py +327 -0
  94. llama_stack-0.3.0/llama_stack/distributions/starter-gpu/build.yaml +60 -0
  95. llama_stack-0.3.0/llama_stack/distributions/starter-gpu/run.yaml +279 -0
  96. llama_stack-0.3.0/llama_stack/distributions/template.py +456 -0
  97. llama_stack-0.3.0/llama_stack/distributions/watsonx/__init__.py +7 -0
  98. llama_stack-0.3.0/llama_stack/distributions/watsonx/build.yaml +33 -0
  99. llama_stack-0.3.0/llama_stack/distributions/watsonx/run.yaml +133 -0
  100. llama_stack-0.3.0/llama_stack/distributions/watsonx/watsonx.py +95 -0
  101. llama_stack-0.3.0/llama_stack/log.py +314 -0
  102. llama_stack-0.3.0/llama_stack/models/llama/datatypes.py +164 -0
  103. llama_stack-0.3.0/llama_stack/models/llama/llama3/chat_format.py +286 -0
  104. llama_stack-0.3.0/llama_stack/models/llama/llama3/prompt_templates/system_prompts.py +319 -0
  105. llama_stack-0.3.0/llama_stack/models/llama/llama3/tool_utils.py +266 -0
  106. llama_stack-0.3.0/llama_stack/models/llama/llama3_1/prompts.py +258 -0
  107. llama_stack-0.3.0/llama_stack/models/llama/llama3_3/prompts.py +259 -0
  108. llama_stack-0.3.0/llama_stack/models/llama/llama4/chat_format.py +317 -0
  109. llama_stack-0.3.0/llama_stack/models/llama/llama4/prompt_templates/system_prompts.py +136 -0
  110. llama_stack-0.3.0/llama_stack/models/llama/prompt_format.py +191 -0
  111. llama_stack-0.3.0/llama_stack/models/llama/tokenizer_utils.py +40 -0
  112. llama_stack-0.3.0/llama_stack/providers/datatypes.py +217 -0
  113. llama_stack-0.3.0/llama_stack/providers/inline/agents/meta_reference/__init__.py +34 -0
  114. llama_stack-0.3.0/llama_stack/providers/inline/agents/meta_reference/agent_instance.py +1024 -0
  115. llama_stack-0.3.0/llama_stack/providers/inline/agents/meta_reference/agents.py +383 -0
  116. llama_stack-0.3.0/llama_stack/providers/inline/agents/meta_reference/config.py +37 -0
  117. llama_stack-0.3.0/llama_stack/providers/inline/agents/meta_reference/responses/openai_responses.py +423 -0
  118. llama_stack-0.3.0/llama_stack/providers/inline/agents/meta_reference/responses/streaming.py +1226 -0
  119. llama_stack-0.3.0/llama_stack/providers/inline/agents/meta_reference/responses/tool_executor.py +449 -0
  120. llama_stack-0.3.0/llama_stack/providers/inline/agents/meta_reference/responses/types.py +194 -0
  121. llama_stack-0.3.0/llama_stack/providers/inline/agents/meta_reference/responses/utils.py +365 -0
  122. llama_stack-0.3.0/llama_stack/providers/inline/batches/reference/batches.py +679 -0
  123. llama_stack-0.3.0/llama_stack/providers/inline/batches/reference/config.py +40 -0
  124. llama_stack-0.3.0/llama_stack/providers/inline/datasetio/localfs/config.py +23 -0
  125. llama_stack-0.3.0/llama_stack/providers/inline/eval/meta_reference/config.py +23 -0
  126. llama_stack-0.3.0/llama_stack/providers/inline/eval/meta_reference/eval.py +259 -0
  127. llama_stack-0.3.0/llama_stack/providers/inline/files/localfs/config.py +31 -0
  128. llama_stack-0.3.0/llama_stack/providers/inline/files/localfs/files.py +219 -0
  129. llama_stack-0.3.0/llama_stack/providers/inline/inference/meta_reference/common.py +24 -0
  130. llama_stack-0.3.0/llama_stack/providers/inline/inference/meta_reference/inference.py +158 -0
  131. llama_stack-0.3.0/llama_stack/providers/inline/inference/meta_reference/model_parallel.py +96 -0
  132. llama_stack-0.3.0/llama_stack/providers/inline/inference/sentence_transformers/sentence_transformers.py +83 -0
  133. llama_stack-0.3.0/llama_stack/providers/inline/post_training/torchtune/recipes/lora_finetuning_single_device.py +588 -0
  134. llama_stack-0.3.0/llama_stack/providers/inline/safety/code_scanner/code_scanner.py +128 -0
  135. llama_stack-0.3.0/llama_stack/providers/inline/safety/llama_guard/llama_guard.py +489 -0
  136. llama_stack-0.3.0/llama_stack/providers/inline/safety/prompt_guard/prompt_guard.py +131 -0
  137. llama_stack-0.3.0/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/llm_as_judge_scoring_fn.py +81 -0
  138. llama_stack-0.3.0/llama_stack/providers/inline/telemetry/meta_reference/config.py +47 -0
  139. llama_stack-0.3.0/llama_stack/providers/inline/telemetry/meta_reference/telemetry.py +252 -0
  140. llama_stack-0.3.0/llama_stack/providers/inline/tool_runtime/rag/context_retriever.py +77 -0
  141. llama_stack-0.3.0/llama_stack/providers/inline/tool_runtime/rag/memory.py +332 -0
  142. llama_stack-0.3.0/llama_stack/providers/inline/vector_io/chroma/__init__.py +19 -0
  143. llama_stack-0.3.0/llama_stack/providers/inline/vector_io/chroma/config.py +30 -0
  144. llama_stack-0.3.0/llama_stack/providers/inline/vector_io/faiss/__init__.py +21 -0
  145. llama_stack-0.3.0/llama_stack/providers/inline/vector_io/faiss/config.py +26 -0
  146. llama_stack-0.3.0/llama_stack/providers/inline/vector_io/faiss/faiss.py +270 -0
  147. llama_stack-0.3.0/llama_stack/providers/inline/vector_io/milvus/__init__.py +19 -0
  148. llama_stack-0.3.0/llama_stack/providers/inline/vector_io/milvus/config.py +29 -0
  149. llama_stack-0.3.0/llama_stack/providers/inline/vector_io/qdrant/__init__.py +20 -0
  150. llama_stack-0.3.0/llama_stack/providers/inline/vector_io/qdrant/config.py +29 -0
  151. llama_stack-0.3.0/llama_stack/providers/inline/vector_io/sqlite_vec/__init__.py +20 -0
  152. llama_stack-0.3.0/llama_stack/providers/inline/vector_io/sqlite_vec/config.py +26 -0
  153. llama_stack-0.3.0/llama_stack/providers/inline/vector_io/sqlite_vec/sqlite_vec.py +472 -0
  154. llama_stack-0.3.0/llama_stack/providers/registry/agents.py +41 -0
  155. llama_stack-0.3.0/llama_stack/providers/registry/datasetio.py +49 -0
  156. llama_stack-0.3.0/llama_stack/providers/registry/eval.py +46 -0
  157. llama_stack-0.3.0/llama_stack/providers/registry/files.py +31 -0
  158. llama_stack-0.3.0/llama_stack/providers/registry/inference.py +297 -0
  159. llama_stack-0.3.0/llama_stack/providers/registry/post_training.py +69 -0
  160. llama_stack-0.3.0/llama_stack/providers/registry/safety.py +78 -0
  161. llama_stack-0.3.0/llama_stack/providers/registry/tool_runtime.py +87 -0
  162. llama_stack-0.3.0/llama_stack/providers/registry/vector_io.py +828 -0
  163. llama_stack-0.3.0/llama_stack/providers/remote/datasetio/huggingface/config.py +23 -0
  164. llama_stack-0.3.0/llama_stack/providers/remote/eval/nvidia/eval.py +162 -0
  165. llama_stack-0.3.0/llama_stack/providers/remote/files/s3/config.py +42 -0
  166. llama_stack-0.3.0/llama_stack/providers/remote/files/s3/files.py +313 -0
  167. llama_stack-0.3.0/llama_stack/providers/remote/inference/anthropic/__init__.py +15 -0
  168. llama_stack-0.3.0/llama_stack/providers/remote/inference/anthropic/anthropic.py +36 -0
  169. llama_stack-0.3.0/llama_stack/providers/remote/inference/anthropic/config.py +28 -0
  170. llama_stack-0.3.0/llama_stack/providers/remote/inference/azure/__init__.py +15 -0
  171. llama_stack-0.3.0/llama_stack/providers/remote/inference/azure/azure.py +25 -0
  172. llama_stack-0.3.0/llama_stack/providers/remote/inference/azure/config.py +61 -0
  173. llama_stack-0.3.0/llama_stack/providers/remote/inference/bedrock/bedrock.py +142 -0
  174. llama_stack-0.3.0/llama_stack/providers/remote/inference/cerebras/__init__.py +19 -0
  175. llama_stack-0.3.0/llama_stack/providers/remote/inference/cerebras/cerebras.py +28 -0
  176. llama_stack-0.3.0/llama_stack/providers/remote/inference/cerebras/config.py +30 -0
  177. llama_stack-0.3.0/llama_stack/providers/remote/inference/databricks/__init__.py +16 -0
  178. llama_stack-0.3.0/llama_stack/providers/remote/inference/databricks/config.py +37 -0
  179. llama_stack-0.3.0/llama_stack/providers/remote/inference/databricks/databricks.py +44 -0
  180. llama_stack-0.3.0/llama_stack/providers/remote/inference/fireworks/__init__.py +22 -0
  181. llama_stack-0.3.0/llama_stack/providers/remote/inference/fireworks/config.py +27 -0
  182. llama_stack-0.3.0/llama_stack/providers/remote/inference/fireworks/fireworks.py +27 -0
  183. llama_stack-0.3.0/llama_stack/providers/remote/inference/gemini/__init__.py +15 -0
  184. llama_stack-0.3.0/llama_stack/providers/remote/inference/gemini/config.py +28 -0
  185. llama_stack-0.3.0/llama_stack/providers/remote/inference/gemini/gemini.py +82 -0
  186. llama_stack-0.3.0/llama_stack/providers/remote/inference/groq/__init__.py +15 -0
  187. llama_stack-0.3.0/llama_stack/providers/remote/inference/groq/config.py +34 -0
  188. llama_stack-0.3.0/llama_stack/providers/remote/inference/groq/groq.py +18 -0
  189. llama_stack-0.3.0/llama_stack/providers/remote/inference/llama_openai_compat/__init__.py +15 -0
  190. llama_stack-0.3.0/llama_stack/providers/remote/inference/llama_openai_compat/config.py +34 -0
  191. llama_stack-0.3.0/llama_stack/providers/remote/inference/llama_openai_compat/llama.py +46 -0
  192. llama_stack-0.3.0/llama_stack/providers/remote/inference/nvidia/__init__.py +23 -0
  193. llama_stack-0.3.0/llama_stack/providers/remote/inference/nvidia/config.py +64 -0
  194. llama_stack-0.3.0/llama_stack/providers/remote/inference/nvidia/nvidia.py +61 -0
  195. llama_stack-0.3.0/llama_stack/providers/remote/inference/nvidia/utils.py +11 -0
  196. llama_stack-0.3.0/llama_stack/providers/remote/inference/ollama/__init__.py +15 -0
  197. llama_stack-0.3.0/llama_stack/providers/remote/inference/ollama/config.py +25 -0
  198. llama_stack-0.3.0/llama_stack/providers/remote/inference/ollama/ollama.py +102 -0
  199. llama_stack-0.3.0/llama_stack/providers/remote/inference/openai/__init__.py +15 -0
  200. llama_stack-0.3.0/llama_stack/providers/remote/inference/openai/config.py +39 -0
  201. llama_stack-0.3.0/llama_stack/providers/remote/inference/openai/openai.py +38 -0
  202. llama_stack-0.3.0/llama_stack/providers/remote/inference/passthrough/config.py +34 -0
  203. llama_stack-0.3.0/llama_stack/providers/remote/inference/passthrough/passthrough.py +122 -0
  204. llama_stack-0.3.0/llama_stack/providers/remote/inference/runpod/__init__.py +16 -0
  205. llama_stack-0.3.0/llama_stack/providers/remote/inference/runpod/config.py +32 -0
  206. llama_stack-0.3.0/llama_stack/providers/remote/inference/runpod/runpod.py +42 -0
  207. llama_stack-0.3.0/llama_stack/providers/remote/inference/sambanova/__init__.py +16 -0
  208. llama_stack-0.3.0/llama_stack/providers/remote/inference/sambanova/config.py +34 -0
  209. llama_stack-0.3.0/llama_stack/providers/remote/inference/sambanova/sambanova.py +28 -0
  210. llama_stack-0.3.0/llama_stack/providers/remote/inference/tgi/config.py +76 -0
  211. llama_stack-0.3.0/llama_stack/providers/remote/inference/tgi/tgi.py +85 -0
  212. llama_stack-0.3.0/llama_stack/providers/remote/inference/together/__init__.py +22 -0
  213. llama_stack-0.3.0/llama_stack/providers/remote/inference/together/config.py +27 -0
  214. llama_stack-0.3.0/llama_stack/providers/remote/inference/together/together.py +102 -0
  215. llama_stack-0.3.0/llama_stack/providers/remote/inference/vertexai/__init__.py +15 -0
  216. llama_stack-0.3.0/llama_stack/providers/remote/inference/vertexai/config.py +48 -0
  217. llama_stack-0.3.0/llama_stack/providers/remote/inference/vertexai/vertexai.py +44 -0
  218. llama_stack-0.3.0/llama_stack/providers/remote/inference/vllm/__init__.py +22 -0
  219. llama_stack-0.3.0/llama_stack/providers/remote/inference/vllm/config.py +59 -0
  220. llama_stack-0.3.0/llama_stack/providers/remote/inference/vllm/vllm.py +111 -0
  221. llama_stack-0.3.0/llama_stack/providers/remote/inference/watsonx/__init__.py +15 -0
  222. llama_stack-0.3.0/llama_stack/providers/remote/inference/watsonx/config.py +45 -0
  223. llama_stack-0.3.0/llama_stack/providers/remote/inference/watsonx/watsonx.py +340 -0
  224. llama_stack-0.3.0/llama_stack/providers/remote/safety/bedrock/bedrock.py +111 -0
  225. llama_stack-0.3.0/llama_stack/providers/remote/safety/nvidia/nvidia.py +161 -0
  226. llama_stack-0.3.0/llama_stack/providers/remote/safety/sambanova/sambanova.py +98 -0
  227. llama_stack-0.3.0/llama_stack/providers/remote/tool_runtime/bing_search/bing_search.py +112 -0
  228. llama_stack-0.3.0/llama_stack/providers/remote/tool_runtime/brave_search/brave_search.py +148 -0
  229. llama_stack-0.3.0/llama_stack/providers/remote/tool_runtime/tavily_search/tavily_search.py +84 -0
  230. llama_stack-0.3.0/llama_stack/providers/remote/tool_runtime/wolfram_alpha/wolfram_alpha.py +140 -0
  231. llama_stack-0.3.0/llama_stack/providers/remote/vector_io/chroma/chroma.py +209 -0
  232. llama_stack-0.3.0/llama_stack/providers/remote/vector_io/chroma/config.py +28 -0
  233. llama_stack-0.3.0/llama_stack/providers/remote/vector_io/milvus/__init__.py +18 -0
  234. llama_stack-0.3.0/llama_stack/providers/remote/vector_io/milvus/config.py +35 -0
  235. llama_stack-0.3.0/llama_stack/providers/remote/vector_io/milvus/milvus.py +372 -0
  236. llama_stack-0.3.0/llama_stack/providers/remote/vector_io/pgvector/__init__.py +17 -0
  237. llama_stack-0.3.0/llama_stack/providers/remote/vector_io/pgvector/config.py +47 -0
  238. llama_stack-0.3.0/llama_stack/providers/remote/vector_io/pgvector/pgvector.py +434 -0
  239. llama_stack-0.3.0/llama_stack/providers/remote/vector_io/qdrant/__init__.py +17 -0
  240. llama_stack-0.3.0/llama_stack/providers/remote/vector_io/qdrant/config.py +37 -0
  241. llama_stack-0.3.0/llama_stack/providers/remote/vector_io/qdrant/qdrant.py +260 -0
  242. llama_stack-0.3.0/llama_stack/providers/remote/vector_io/weaviate/__init__.py +17 -0
  243. llama_stack-0.3.0/llama_stack/providers/remote/vector_io/weaviate/config.py +32 -0
  244. llama_stack-0.3.0/llama_stack/providers/remote/vector_io/weaviate/weaviate.py +390 -0
  245. llama_stack-0.3.0/llama_stack/providers/utils/bedrock/config.py +64 -0
  246. llama_stack-0.3.0/llama_stack/providers/utils/files/form_data.py +69 -0
  247. llama_stack-0.3.0/llama_stack/providers/utils/inference/embedding_mixin.py +102 -0
  248. llama_stack-0.3.0/llama_stack/providers/utils/inference/inference_store.py +244 -0
  249. llama_stack-0.3.0/llama_stack/providers/utils/inference/litellm_openai_mixin.py +336 -0
  250. llama_stack-0.3.0/llama_stack/providers/utils/inference/model_registry.py +191 -0
  251. llama_stack-0.3.0/llama_stack/providers/utils/inference/openai_compat.py +1401 -0
  252. llama_stack-0.3.0/llama_stack/providers/utils/inference/openai_mixin.py +483 -0
  253. llama_stack-0.3.0/llama_stack/providers/utils/inference/prompt_adapter.py +495 -0
  254. llama_stack-0.3.0/llama_stack/providers/utils/kvstore/config.py +39 -0
  255. llama_stack-0.3.0/llama_stack/providers/utils/kvstore/kvstore.py +97 -0
  256. llama_stack-0.3.0/llama_stack/providers/utils/kvstore/mongodb/mongodb.py +82 -0
  257. llama_stack-0.3.0/llama_stack/providers/utils/kvstore/sqlite/sqlite.py +174 -0
  258. llama_stack-0.3.0/llama_stack/providers/utils/memory/openai_vector_store_mixin.py +1304 -0
  259. llama_stack-0.3.0/llama_stack/providers/utils/memory/vector_store.py +332 -0
  260. llama_stack-0.3.0/llama_stack/providers/utils/responses/responses_store.py +354 -0
  261. llama_stack-0.3.0/llama_stack/providers/utils/sqlstore/api.py +128 -0
  262. llama_stack-0.3.0/llama_stack/providers/utils/sqlstore/authorized_sqlstore.py +303 -0
  263. llama_stack-0.3.0/llama_stack/providers/utils/sqlstore/sqlalchemy_sqlstore.py +313 -0
  264. llama_stack-0.3.0/llama_stack/providers/utils/sqlstore/sqlstore.py +70 -0
  265. llama_stack-0.3.0/llama_stack/providers/utils/telemetry/trace_protocol.py +142 -0
  266. llama_stack-0.3.0/llama_stack/providers/utils/telemetry/tracing.py +384 -0
  267. llama_stack-0.3.0/llama_stack/providers/utils/tools/mcp.py +148 -0
  268. llama_stack-0.3.0/llama_stack/providers/utils/vector_io/__init__.py +5 -0
  269. llama_stack-0.3.0/llama_stack/schema_utils.py +118 -0
  270. llama_stack-0.3.0/llama_stack/strong_typing/inspection.py +1085 -0
  271. llama_stack-0.3.0/llama_stack/strong_typing/schema.py +792 -0
  272. llama_stack-0.3.0/llama_stack/testing/__init__.py +5 -0
  273. llama_stack-0.3.0/llama_stack/testing/api_recorder.py +956 -0
  274. llama_stack-0.3.0/llama_stack.egg-info/PKG-INFO +260 -0
  275. llama_stack-0.3.0/llama_stack.egg-info/SOURCES.txt +628 -0
  276. llama_stack-0.3.0/llama_stack.egg-info/requires.txt +31 -0
  277. llama_stack-0.3.0/pyproject.toml +332 -0
  278. llama_stack-0.3.0/tests/integration/test_cases/inference/chat_completion.json +362 -0
  279. llama_stack-0.3.0/tests/integration/test_cases/inference/completion.json +67 -0
  280. llama_stack-0.2.22/MANIFEST.in +0 -9
  281. llama_stack-0.2.22/PKG-INFO +0 -246
  282. llama_stack-0.2.22/README.md +0 -196
  283. llama_stack-0.2.22/llama_stack/apis/agents/agents.py +0 -769
  284. llama_stack-0.2.22/llama_stack/apis/agents/openai_responses.py +0 -880
  285. llama_stack-0.2.22/llama_stack/apis/batch_inference/__init__.py +0 -7
  286. llama_stack-0.2.22/llama_stack/apis/batch_inference/batch_inference.py +0 -78
  287. llama_stack-0.2.22/llama_stack/apis/batches/batches.py +0 -95
  288. llama_stack-0.2.22/llama_stack/apis/benchmarks/benchmarks.py +0 -103
  289. llama_stack-0.2.22/llama_stack/apis/common/errors.py +0 -88
  290. llama_stack-0.2.22/llama_stack/apis/datasetio/datasetio.py +0 -54
  291. llama_stack-0.2.22/llama_stack/apis/datasets/datasets.py +0 -246
  292. llama_stack-0.2.22/llama_stack/apis/datatypes.py +0 -160
  293. llama_stack-0.2.22/llama_stack/apis/eval/eval.py +0 -145
  294. llama_stack-0.2.22/llama_stack/apis/files/files.py +0 -186
  295. llama_stack-0.2.22/llama_stack/apis/inference/inference.py +0 -1338
  296. llama_stack-0.2.22/llama_stack/apis/inspect/inspect.py +0 -82
  297. llama_stack-0.2.22/llama_stack/apis/models/models.py +0 -162
  298. llama_stack-0.2.22/llama_stack/apis/post_training/post_training.py +0 -367
  299. llama_stack-0.2.22/llama_stack/apis/prompts/prompts.py +0 -189
  300. llama_stack-0.2.22/llama_stack/apis/providers/providers.py +0 -63
  301. llama_stack-0.2.22/llama_stack/apis/resource.py +0 -37
  302. llama_stack-0.2.22/llama_stack/apis/safety/safety.py +0 -124
  303. llama_stack-0.2.22/llama_stack/apis/scoring/scoring.py +0 -92
  304. llama_stack-0.2.22/llama_stack/apis/scoring_functions/scoring_functions.py +0 -207
  305. llama_stack-0.2.22/llama_stack/apis/shields/shields.py +0 -93
  306. llama_stack-0.2.22/llama_stack/apis/synthetic_data_generation/synthetic_data_generation.py +0 -76
  307. llama_stack-0.2.22/llama_stack/apis/telemetry/telemetry.py +0 -536
  308. llama_stack-0.2.22/llama_stack/apis/tools/rag_tool.py +0 -217
  309. llama_stack-0.2.22/llama_stack/apis/tools/tools.py +0 -261
  310. llama_stack-0.2.22/llama_stack/apis/vector_dbs/__init__.py +0 -7
  311. llama_stack-0.2.22/llama_stack/apis/vector_dbs/vector_dbs.py +0 -116
  312. llama_stack-0.2.22/llama_stack/apis/vector_io/vector_io.py +0 -683
  313. llama_stack-0.2.22/llama_stack/apis/version.py +0 -7
  314. llama_stack-0.2.22/llama_stack/cli/download.py +0 -495
  315. llama_stack-0.2.22/llama_stack/cli/llama.py +0 -57
  316. llama_stack-0.2.22/llama_stack/cli/model/__init__.py +0 -7
  317. llama_stack-0.2.22/llama_stack/cli/model/describe.py +0 -70
  318. llama_stack-0.2.22/llama_stack/cli/model/download.py +0 -24
  319. llama_stack-0.2.22/llama_stack/cli/model/list.py +0 -119
  320. llama_stack-0.2.22/llama_stack/cli/model/model.py +0 -43
  321. llama_stack-0.2.22/llama_stack/cli/model/prompt_format.py +0 -133
  322. llama_stack-0.2.22/llama_stack/cli/model/remove.py +0 -68
  323. llama_stack-0.2.22/llama_stack/cli/model/safety_models.py +0 -64
  324. llama_stack-0.2.22/llama_stack/cli/model/verify_download.py +0 -24
  325. llama_stack-0.2.22/llama_stack/cli/stack/_build.py +0 -478
  326. llama_stack-0.2.22/llama_stack/cli/stack/build.py +0 -100
  327. llama_stack-0.2.22/llama_stack/cli/stack/run.py +0 -226
  328. llama_stack-0.2.22/llama_stack/cli/stack/stack.py +0 -48
  329. llama_stack-0.2.22/llama_stack/cli/stack/utils.py +0 -21
  330. llama_stack-0.2.22/llama_stack/cli/verify_download.py +0 -141
  331. llama_stack-0.2.22/llama_stack/core/access_control/datatypes.py +0 -107
  332. llama_stack-0.2.22/llama_stack/core/build_container.sh +0 -410
  333. llama_stack-0.2.22/llama_stack/core/build_venv.sh +0 -220
  334. llama_stack-0.2.22/llama_stack/core/client.py +0 -189
  335. llama_stack-0.2.22/llama_stack/core/configure.py +0 -181
  336. llama_stack-0.2.22/llama_stack/core/datatypes.py +0 -550
  337. llama_stack-0.2.22/llama_stack/core/distribution.py +0 -277
  338. llama_stack-0.2.22/llama_stack/core/library_client.py +0 -513
  339. llama_stack-0.2.22/llama_stack/core/prompts/prompts.py +0 -233
  340. llama_stack-0.2.22/llama_stack/core/resolver.py +0 -474
  341. llama_stack-0.2.22/llama_stack/core/routers/__init__.py +0 -90
  342. llama_stack-0.2.22/llama_stack/core/routers/inference.py +0 -863
  343. llama_stack-0.2.22/llama_stack/core/routers/tool_runtime.py +0 -91
  344. llama_stack-0.2.22/llama_stack/core/routers/vector_io.py +0 -365
  345. llama_stack-0.2.22/llama_stack/core/routing_tables/common.py +0 -272
  346. llama_stack-0.2.22/llama_stack/core/routing_tables/models.py +0 -158
  347. llama_stack-0.2.22/llama_stack/core/routing_tables/toolgroups.py +0 -130
  348. llama_stack-0.2.22/llama_stack/core/routing_tables/vector_dbs.py +0 -247
  349. llama_stack-0.2.22/llama_stack/core/server/auth.py +0 -175
  350. llama_stack-0.2.22/llama_stack/core/server/auth_providers.py +0 -475
  351. llama_stack-0.2.22/llama_stack/core/server/quota.py +0 -110
  352. llama_stack-0.2.22/llama_stack/core/server/routes.py +0 -141
  353. llama_stack-0.2.22/llama_stack/core/server/server.py +0 -645
  354. llama_stack-0.2.22/llama_stack/core/stack.py +0 -465
  355. llama_stack-0.2.22/llama_stack/core/start_stack.sh +0 -128
  356. llama_stack-0.2.22/llama_stack/core/store/registry.py +0 -204
  357. llama_stack-0.2.22/llama_stack/core/ui/page/distribution/resources.py +0 -52
  358. llama_stack-0.2.22/llama_stack/core/ui/page/distribution/vector_dbs.py +0 -20
  359. llama_stack-0.2.22/llama_stack/core/ui/page/playground/rag.py +0 -301
  360. llama_stack-0.2.22/llama_stack/core/ui/page/playground/tools.py +0 -352
  361. llama_stack-0.2.22/llama_stack/core/utils/config_resolution.py +0 -125
  362. llama_stack-0.2.22/llama_stack/distributions/ci-tests/__init__.py +0 -7
  363. llama_stack-0.2.22/llama_stack/distributions/ci-tests/build.yaml +0 -59
  364. llama_stack-0.2.22/llama_stack/distributions/ci-tests/ci_tests.py +0 -17
  365. llama_stack-0.2.22/llama_stack/distributions/ci-tests/run.yaml +0 -245
  366. llama_stack-0.2.22/llama_stack/distributions/dell/build.yaml +0 -35
  367. llama_stack-0.2.22/llama_stack/distributions/dell/dell.py +0 -159
  368. llama_stack-0.2.22/llama_stack/distributions/dell/run-with-safety.yaml +0 -130
  369. llama_stack-0.2.22/llama_stack/distributions/dell/run.yaml +0 -121
  370. llama_stack-0.2.22/llama_stack/distributions/meta-reference-gpu/build.yaml +0 -34
  371. llama_stack-0.2.22/llama_stack/distributions/meta-reference-gpu/meta_reference.py +0 -164
  372. llama_stack-0.2.22/llama_stack/distributions/meta-reference-gpu/run-with-safety.yaml +0 -143
  373. llama_stack-0.2.22/llama_stack/distributions/meta-reference-gpu/run.yaml +0 -128
  374. llama_stack-0.2.22/llama_stack/distributions/nvidia/build.yaml +0 -29
  375. llama_stack-0.2.22/llama_stack/distributions/nvidia/nvidia.py +0 -153
  376. llama_stack-0.2.22/llama_stack/distributions/nvidia/run-with-safety.yaml +0 -117
  377. llama_stack-0.2.22/llama_stack/distributions/nvidia/run.yaml +0 -179
  378. llama_stack-0.2.22/llama_stack/distributions/open-benchmark/build.yaml +0 -38
  379. llama_stack-0.2.22/llama_stack/distributions/open-benchmark/open_benchmark.py +0 -304
  380. llama_stack-0.2.22/llama_stack/distributions/open-benchmark/run.yaml +0 -241
  381. llama_stack-0.2.22/llama_stack/distributions/postgres-demo/build.yaml +0 -25
  382. llama_stack-0.2.22/llama_stack/distributions/postgres-demo/postgres_demo.py +0 -144
  383. llama_stack-0.2.22/llama_stack/distributions/postgres-demo/run.yaml +0 -111
  384. llama_stack-0.2.22/llama_stack/distributions/starter/build.yaml +0 -60
  385. llama_stack-0.2.22/llama_stack/distributions/starter/run.yaml +0 -245
  386. llama_stack-0.2.22/llama_stack/distributions/starter/starter.py +0 -299
  387. llama_stack-0.2.22/llama_stack/distributions/starter-gpu/build.yaml +0 -60
  388. llama_stack-0.2.22/llama_stack/distributions/starter-gpu/run.yaml +0 -248
  389. llama_stack-0.2.22/llama_stack/distributions/template.py +0 -410
  390. llama_stack-0.2.22/llama_stack/distributions/watsonx/build.yaml +0 -46
  391. llama_stack-0.2.22/llama_stack/distributions/watsonx/run.yaml +0 -219
  392. llama_stack-0.2.22/llama_stack/distributions/watsonx/watsonx.py +0 -122
  393. llama_stack-0.2.22/llama_stack/log.py +0 -260
  394. llama_stack-0.2.22/llama_stack/models/llama/datatypes.py +0 -177
  395. llama_stack-0.2.22/llama_stack/models/llama/llama3/chat_format.py +0 -287
  396. llama_stack-0.2.22/llama_stack/models/llama/llama3/prompt_templates/system_prompts.py +0 -317
  397. llama_stack-0.2.22/llama_stack/models/llama/llama3/tool_utils.py +0 -266
  398. llama_stack-0.2.22/llama_stack/models/llama/llama3_1/prompts.py +0 -257
  399. llama_stack-0.2.22/llama_stack/models/llama/llama3_3/prompts.py +0 -258
  400. llama_stack-0.2.22/llama_stack/models/llama/llama4/chat_format.py +0 -318
  401. llama_stack-0.2.22/llama_stack/models/llama/llama4/prompt_templates/system_prompts.py +0 -137
  402. llama_stack-0.2.22/llama_stack/models/llama/prompt_format.py +0 -245
  403. llama_stack-0.2.22/llama_stack/models/llama/tokenizer_utils.py +0 -40
  404. llama_stack-0.2.22/llama_stack/providers/datatypes.py +0 -271
  405. llama_stack-0.2.22/llama_stack/providers/inline/agents/meta_reference/__init__.py +0 -27
  406. llama_stack-0.2.22/llama_stack/providers/inline/agents/meta_reference/agent_instance.py +0 -948
  407. llama_stack-0.2.22/llama_stack/providers/inline/agents/meta_reference/agents.py +0 -370
  408. llama_stack-0.2.22/llama_stack/providers/inline/agents/meta_reference/config.py +0 -31
  409. llama_stack-0.2.22/llama_stack/providers/inline/agents/meta_reference/responses/openai_responses.py +0 -271
  410. llama_stack-0.2.22/llama_stack/providers/inline/agents/meta_reference/responses/streaming.py +0 -634
  411. llama_stack-0.2.22/llama_stack/providers/inline/agents/meta_reference/responses/tool_executor.py +0 -379
  412. llama_stack-0.2.22/llama_stack/providers/inline/agents/meta_reference/responses/types.py +0 -60
  413. llama_stack-0.2.22/llama_stack/providers/inline/agents/meta_reference/responses/utils.py +0 -205
  414. llama_stack-0.2.22/llama_stack/providers/inline/batches/reference/batches.py +0 -653
  415. llama_stack-0.2.22/llama_stack/providers/inline/batches/reference/config.py +0 -40
  416. llama_stack-0.2.22/llama_stack/providers/inline/datasetio/localfs/config.py +0 -26
  417. llama_stack-0.2.22/llama_stack/providers/inline/eval/meta_reference/config.py +0 -26
  418. llama_stack-0.2.22/llama_stack/providers/inline/eval/meta_reference/eval.py +0 -241
  419. llama_stack-0.2.22/llama_stack/providers/inline/files/localfs/config.py +0 -31
  420. llama_stack-0.2.22/llama_stack/providers/inline/files/localfs/files.py +0 -216
  421. llama_stack-0.2.22/llama_stack/providers/inline/inference/meta_reference/common.py +0 -24
  422. llama_stack-0.2.22/llama_stack/providers/inline/inference/meta_reference/inference.py +0 -637
  423. llama_stack-0.2.22/llama_stack/providers/inline/inference/meta_reference/model_parallel.py +0 -98
  424. llama_stack-0.2.22/llama_stack/providers/inline/inference/sentence_transformers/sentence_transformers.py +0 -101
  425. llama_stack-0.2.22/llama_stack/providers/inline/post_training/torchtune/recipes/lora_finetuning_single_device.py +0 -587
  426. llama_stack-0.2.22/llama_stack/providers/inline/safety/code_scanner/code_scanner.py +0 -128
  427. llama_stack-0.2.22/llama_stack/providers/inline/safety/llama_guard/llama_guard.py +0 -481
  428. llama_stack-0.2.22/llama_stack/providers/inline/safety/prompt_guard/prompt_guard.py +0 -133
  429. llama_stack-0.2.22/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/llm_as_judge_scoring_fn.py +0 -79
  430. llama_stack-0.2.22/llama_stack/providers/inline/telemetry/meta_reference/config.py +0 -55
  431. llama_stack-0.2.22/llama_stack/providers/inline/telemetry/meta_reference/console_span_processor.py +0 -75
  432. llama_stack-0.2.22/llama_stack/providers/inline/telemetry/meta_reference/sqlite_span_processor.py +0 -190
  433. llama_stack-0.2.22/llama_stack/providers/inline/telemetry/meta_reference/telemetry.py +0 -370
  434. llama_stack-0.2.22/llama_stack/providers/inline/tool_runtime/rag/context_retriever.py +0 -76
  435. llama_stack-0.2.22/llama_stack/providers/inline/tool_runtime/rag/memory.py +0 -333
  436. llama_stack-0.2.22/llama_stack/providers/inline/vector_io/chroma/__init__.py +0 -21
  437. llama_stack-0.2.22/llama_stack/providers/inline/vector_io/chroma/config.py +0 -30
  438. llama_stack-0.2.22/llama_stack/providers/inline/vector_io/faiss/__init__.py +0 -21
  439. llama_stack-0.2.22/llama_stack/providers/inline/vector_io/faiss/config.py +0 -29
  440. llama_stack-0.2.22/llama_stack/providers/inline/vector_io/faiss/faiss.py +0 -309
  441. llama_stack-0.2.22/llama_stack/providers/inline/vector_io/milvus/__init__.py +0 -19
  442. llama_stack-0.2.22/llama_stack/providers/inline/vector_io/milvus/config.py +0 -32
  443. llama_stack-0.2.22/llama_stack/providers/inline/vector_io/qdrant/__init__.py +0 -21
  444. llama_stack-0.2.22/llama_stack/providers/inline/vector_io/qdrant/config.py +0 -31
  445. llama_stack-0.2.22/llama_stack/providers/inline/vector_io/sqlite_vec/__init__.py +0 -20
  446. llama_stack-0.2.22/llama_stack/providers/inline/vector_io/sqlite_vec/config.py +0 -29
  447. llama_stack-0.2.22/llama_stack/providers/inline/vector_io/sqlite_vec/sqlite_vec.py +0 -506
  448. llama_stack-0.2.22/llama_stack/providers/registry/agents.py +0 -41
  449. llama_stack-0.2.22/llama_stack/providers/registry/datasetio.py +0 -52
  450. llama_stack-0.2.22/llama_stack/providers/registry/eval.py +0 -47
  451. llama_stack-0.2.22/llama_stack/providers/registry/files.py +0 -38
  452. llama_stack-0.2.22/llama_stack/providers/registry/inference.py +0 -313
  453. llama_stack-0.2.22/llama_stack/providers/registry/post_training.py +0 -70
  454. llama_stack-0.2.22/llama_stack/providers/registry/safety.py +0 -82
  455. llama_stack-0.2.22/llama_stack/providers/registry/telemetry.py +0 -29
  456. llama_stack-0.2.22/llama_stack/providers/registry/tool_runtime.py +0 -93
  457. llama_stack-0.2.22/llama_stack/providers/registry/vector_io.py +0 -825
  458. llama_stack-0.2.22/llama_stack/providers/remote/datasetio/huggingface/config.py +0 -26
  459. llama_stack-0.2.22/llama_stack/providers/remote/eval/nvidia/eval.py +0 -163
  460. llama_stack-0.2.22/llama_stack/providers/remote/files/s3/config.py +0 -42
  461. llama_stack-0.2.22/llama_stack/providers/remote/files/s3/files.py +0 -321
  462. llama_stack-0.2.22/llama_stack/providers/remote/inference/anthropic/__init__.py +0 -21
  463. llama_stack-0.2.22/llama_stack/providers/remote/inference/anthropic/anthropic.py +0 -34
  464. llama_stack-0.2.22/llama_stack/providers/remote/inference/anthropic/config.py +0 -32
  465. llama_stack-0.2.22/llama_stack/providers/remote/inference/anthropic/models.py +0 -40
  466. llama_stack-0.2.22/llama_stack/providers/remote/inference/azure/__init__.py +0 -15
  467. llama_stack-0.2.22/llama_stack/providers/remote/inference/azure/azure.py +0 -64
  468. llama_stack-0.2.22/llama_stack/providers/remote/inference/azure/config.py +0 -63
  469. llama_stack-0.2.22/llama_stack/providers/remote/inference/azure/models.py +0 -28
  470. llama_stack-0.2.22/llama_stack/providers/remote/inference/bedrock/bedrock.py +0 -259
  471. llama_stack-0.2.22/llama_stack/providers/remote/inference/cerebras/__init__.py +0 -19
  472. llama_stack-0.2.22/llama_stack/providers/remote/inference/cerebras/cerebras.py +0 -208
  473. llama_stack-0.2.22/llama_stack/providers/remote/inference/cerebras/config.py +0 -33
  474. llama_stack-0.2.22/llama_stack/providers/remote/inference/cerebras/models.py +0 -28
  475. llama_stack-0.2.22/llama_stack/providers/remote/inference/databricks/__init__.py +0 -15
  476. llama_stack-0.2.22/llama_stack/providers/remote/inference/databricks/config.py +0 -35
  477. llama_stack-0.2.22/llama_stack/providers/remote/inference/databricks/databricks.py +0 -168
  478. llama_stack-0.2.22/llama_stack/providers/remote/inference/fireworks/__init__.py +0 -22
  479. llama_stack-0.2.22/llama_stack/providers/remote/inference/fireworks/config.py +0 -31
  480. llama_stack-0.2.22/llama_stack/providers/remote/inference/fireworks/fireworks.py +0 -437
  481. llama_stack-0.2.22/llama_stack/providers/remote/inference/fireworks/models.py +0 -70
  482. llama_stack-0.2.22/llama_stack/providers/remote/inference/gemini/__init__.py +0 -21
  483. llama_stack-0.2.22/llama_stack/providers/remote/inference/gemini/config.py +0 -32
  484. llama_stack-0.2.22/llama_stack/providers/remote/inference/gemini/gemini.py +0 -34
  485. llama_stack-0.2.22/llama_stack/providers/remote/inference/gemini/models.py +0 -34
  486. llama_stack-0.2.22/llama_stack/providers/remote/inference/groq/__init__.py +0 -17
  487. llama_stack-0.2.22/llama_stack/providers/remote/inference/groq/config.py +0 -39
  488. llama_stack-0.2.22/llama_stack/providers/remote/inference/groq/groq.py +0 -38
  489. llama_stack-0.2.22/llama_stack/providers/remote/inference/groq/models.py +0 -48
  490. llama_stack-0.2.22/llama_stack/providers/remote/inference/llama_openai_compat/__init__.py +0 -17
  491. llama_stack-0.2.22/llama_stack/providers/remote/inference/llama_openai_compat/config.py +0 -38
  492. llama_stack-0.2.22/llama_stack/providers/remote/inference/llama_openai_compat/llama.py +0 -56
  493. llama_stack-0.2.22/llama_stack/providers/remote/inference/llama_openai_compat/models.py +0 -25
  494. llama_stack-0.2.22/llama_stack/providers/remote/inference/nvidia/__init__.py +0 -22
  495. llama_stack-0.2.22/llama_stack/providers/remote/inference/nvidia/config.py +0 -67
  496. llama_stack-0.2.22/llama_stack/providers/remote/inference/nvidia/models.py +0 -109
  497. llama_stack-0.2.22/llama_stack/providers/remote/inference/nvidia/nvidia.py +0 -307
  498. llama_stack-0.2.22/llama_stack/providers/remote/inference/nvidia/openai_utils.py +0 -217
  499. llama_stack-0.2.22/llama_stack/providers/remote/inference/nvidia/utils.py +0 -56
  500. llama_stack-0.2.22/llama_stack/providers/remote/inference/ollama/__init__.py +0 -15
  501. llama_stack-0.2.22/llama_stack/providers/remote/inference/ollama/config.py +0 -25
  502. llama_stack-0.2.22/llama_stack/providers/remote/inference/ollama/models.py +0 -106
  503. llama_stack-0.2.22/llama_stack/providers/remote/inference/ollama/ollama.py +0 -641
  504. llama_stack-0.2.22/llama_stack/providers/remote/inference/openai/__init__.py +0 -21
  505. llama_stack-0.2.22/llama_stack/providers/remote/inference/openai/config.py +0 -42
  506. llama_stack-0.2.22/llama_stack/providers/remote/inference/openai/models.py +0 -60
  507. llama_stack-0.2.22/llama_stack/providers/remote/inference/openai/openai.py +0 -75
  508. llama_stack-0.2.22/llama_stack/providers/remote/inference/passthrough/config.py +0 -33
  509. llama_stack-0.2.22/llama_stack/providers/remote/inference/passthrough/passthrough.py +0 -346
  510. llama_stack-0.2.22/llama_stack/providers/remote/inference/runpod/__init__.py +0 -16
  511. llama_stack-0.2.22/llama_stack/providers/remote/inference/runpod/config.py +0 -30
  512. llama_stack-0.2.22/llama_stack/providers/remote/inference/runpod/runpod.py +0 -157
  513. llama_stack-0.2.22/llama_stack/providers/remote/inference/sambanova/__init__.py +0 -18
  514. llama_stack-0.2.22/llama_stack/providers/remote/inference/sambanova/config.py +0 -37
  515. llama_stack-0.2.22/llama_stack/providers/remote/inference/sambanova/models.py +0 -28
  516. llama_stack-0.2.22/llama_stack/providers/remote/inference/sambanova/sambanova.py +0 -50
  517. llama_stack-0.2.22/llama_stack/providers/remote/inference/tgi/config.py +0 -73
  518. llama_stack-0.2.22/llama_stack/providers/remote/inference/tgi/tgi.py +0 -364
  519. llama_stack-0.2.22/llama_stack/providers/remote/inference/together/__init__.py +0 -22
  520. llama_stack-0.2.22/llama_stack/providers/remote/inference/together/config.py +0 -31
  521. llama_stack-0.2.22/llama_stack/providers/remote/inference/together/models.py +0 -103
  522. llama_stack-0.2.22/llama_stack/providers/remote/inference/together/together.py +0 -336
  523. llama_stack-0.2.22/llama_stack/providers/remote/inference/vertexai/__init__.py +0 -15
  524. llama_stack-0.2.22/llama_stack/providers/remote/inference/vertexai/config.py +0 -45
  525. llama_stack-0.2.22/llama_stack/providers/remote/inference/vertexai/models.py +0 -20
  526. llama_stack-0.2.22/llama_stack/providers/remote/inference/vertexai/vertexai.py +0 -77
  527. llama_stack-0.2.22/llama_stack/providers/remote/inference/vllm/__init__.py +0 -16
  528. llama_stack-0.2.22/llama_stack/providers/remote/inference/vllm/config.py +0 -61
  529. llama_stack-0.2.22/llama_stack/providers/remote/inference/vllm/vllm.py +0 -538
  530. llama_stack-0.2.22/llama_stack/providers/remote/inference/watsonx/__init__.py +0 -22
  531. llama_stack-0.2.22/llama_stack/providers/remote/inference/watsonx/config.py +0 -46
  532. llama_stack-0.2.22/llama_stack/providers/remote/inference/watsonx/models.py +0 -47
  533. llama_stack-0.2.22/llama_stack/providers/remote/inference/watsonx/watsonx.py +0 -405
  534. llama_stack-0.2.22/llama_stack/providers/remote/safety/bedrock/bedrock.py +0 -111
  535. llama_stack-0.2.22/llama_stack/providers/remote/safety/nvidia/nvidia.py +0 -163
  536. llama_stack-0.2.22/llama_stack/providers/remote/safety/sambanova/sambanova.py +0 -104
  537. llama_stack-0.2.22/llama_stack/providers/remote/tool_runtime/bing_search/bing_search.py +0 -110
  538. llama_stack-0.2.22/llama_stack/providers/remote/tool_runtime/brave_search/brave_search.py +0 -146
  539. llama_stack-0.2.22/llama_stack/providers/remote/tool_runtime/tavily_search/tavily_search.py +0 -82
  540. llama_stack-0.2.22/llama_stack/providers/remote/tool_runtime/wolfram_alpha/wolfram_alpha.py +0 -138
  541. llama_stack-0.2.22/llama_stack/providers/remote/vector_io/chroma/chroma.py +0 -240
  542. llama_stack-0.2.22/llama_stack/providers/remote/vector_io/chroma/config.py +0 -28
  543. llama_stack-0.2.22/llama_stack/providers/remote/vector_io/milvus/__init__.py +0 -19
  544. llama_stack-0.2.22/llama_stack/providers/remote/vector_io/milvus/config.py +0 -35
  545. llama_stack-0.2.22/llama_stack/providers/remote/vector_io/milvus/milvus.py +0 -424
  546. llama_stack-0.2.22/llama_stack/providers/remote/vector_io/pgvector/__init__.py +0 -17
  547. llama_stack-0.2.22/llama_stack/providers/remote/vector_io/pgvector/config.py +0 -48
  548. llama_stack-0.2.22/llama_stack/providers/remote/vector_io/pgvector/pgvector.py +0 -464
  549. llama_stack-0.2.22/llama_stack/providers/remote/vector_io/qdrant/__init__.py +0 -18
  550. llama_stack-0.2.22/llama_stack/providers/remote/vector_io/qdrant/config.py +0 -40
  551. llama_stack-0.2.22/llama_stack/providers/remote/vector_io/qdrant/qdrant.py +0 -279
  552. llama_stack-0.2.22/llama_stack/providers/remote/vector_io/weaviate/__init__.py +0 -17
  553. llama_stack-0.2.22/llama_stack/providers/remote/vector_io/weaviate/config.py +0 -37
  554. llama_stack-0.2.22/llama_stack/providers/remote/vector_io/weaviate/weaviate.py +0 -319
  555. llama_stack-0.2.22/llama_stack/providers/utils/bedrock/config.py +0 -61
  556. llama_stack-0.2.22/llama_stack/providers/utils/inference/embedding_mixin.py +0 -115
  557. llama_stack-0.2.22/llama_stack/providers/utils/inference/inference_store.py +0 -246
  558. llama_stack-0.2.22/llama_stack/providers/utils/inference/litellm_openai_mixin.py +0 -444
  559. llama_stack-0.2.22/llama_stack/providers/utils/inference/model_registry.py +0 -195
  560. llama_stack-0.2.22/llama_stack/providers/utils/inference/openai_compat.py +0 -1550
  561. llama_stack-0.2.22/llama_stack/providers/utils/inference/openai_mixin.py +0 -317
  562. llama_stack-0.2.22/llama_stack/providers/utils/inference/prompt_adapter.py +0 -497
  563. llama_stack-0.2.22/llama_stack/providers/utils/kvstore/config.py +0 -162
  564. llama_stack-0.2.22/llama_stack/providers/utils/kvstore/kvstore.py +0 -68
  565. llama_stack-0.2.22/llama_stack/providers/utils/kvstore/mongodb/mongodb.py +0 -77
  566. llama_stack-0.2.22/llama_stack/providers/utils/kvstore/sqlite/sqlite.py +0 -80
  567. llama_stack-0.2.22/llama_stack/providers/utils/memory/openai_vector_store_mixin.py +0 -807
  568. llama_stack-0.2.22/llama_stack/providers/utils/memory/vector_store.py +0 -344
  569. llama_stack-0.2.22/llama_stack/providers/utils/responses/responses_store.py +0 -178
  570. llama_stack-0.2.22/llama_stack/providers/utils/sqlstore/api.py +0 -128
  571. llama_stack-0.2.22/llama_stack/providers/utils/sqlstore/authorized_sqlstore.py +0 -296
  572. llama_stack-0.2.22/llama_stack/providers/utils/sqlstore/sqlalchemy_sqlstore.py +0 -313
  573. llama_stack-0.2.22/llama_stack/providers/utils/sqlstore/sqlstore.py +0 -116
  574. llama_stack-0.2.22/llama_stack/providers/utils/telemetry/dataset_mixin.py +0 -80
  575. llama_stack-0.2.22/llama_stack/providers/utils/telemetry/sqlite_trace_store.py +0 -383
  576. llama_stack-0.2.22/llama_stack/providers/utils/telemetry/trace_protocol.py +0 -142
  577. llama_stack-0.2.22/llama_stack/providers/utils/telemetry/tracing.py +0 -384
  578. llama_stack-0.2.22/llama_stack/providers/utils/tools/mcp.py +0 -157
  579. llama_stack-0.2.22/llama_stack/schema_utils.py +0 -67
  580. llama_stack-0.2.22/llama_stack/strong_typing/inspection.py +0 -1035
  581. llama_stack-0.2.22/llama_stack/strong_typing/schema.py +0 -780
  582. llama_stack-0.2.22/llama_stack/testing/inference_recorder.py +0 -498
  583. llama_stack-0.2.22/llama_stack.egg-info/PKG-INFO +0 -246
  584. llama_stack-0.2.22/llama_stack.egg-info/SOURCES.txt +0 -656
  585. llama_stack-0.2.22/llama_stack.egg-info/requires.txt +0 -31
  586. llama_stack-0.2.22/pyproject.toml +0 -361
  587. {llama_stack-0.2.22 → llama_stack-0.3.0}/LICENSE +0 -0
  588. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/__init__.py +0 -0
  589. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/apis/__init__.py +0 -0
  590. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/apis/agents/__init__.py +0 -0
  591. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/apis/batches/__init__.py +0 -0
  592. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/apis/benchmarks/__init__.py +0 -0
  593. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/apis/common/__init__.py +0 -0
  594. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/apis/common/content_types.py +0 -0
  595. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/apis/common/job_types.py +0 -0
  596. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/apis/common/responses.py +0 -0
  597. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/apis/common/training_types.py +0 -0
  598. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/apis/common/type_system.py +0 -0
  599. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/apis/datasetio/__init__.py +0 -0
  600. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/apis/datasets/__init__.py +0 -0
  601. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/apis/eval/__init__.py +0 -0
  602. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/apis/files/__init__.py +0 -0
  603. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/apis/inference/__init__.py +0 -0
  604. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/apis/inference/event_logger.py +0 -0
  605. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/apis/inspect/__init__.py +0 -0
  606. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/apis/models/__init__.py +0 -0
  607. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/apis/post_training/__init__.py +0 -0
  608. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/apis/prompts/__init__.py +0 -0
  609. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/apis/providers/__init__.py +0 -0
  610. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/apis/safety/__init__.py +0 -0
  611. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/apis/scoring/__init__.py +0 -0
  612. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/apis/scoring_functions/__init__.py +0 -0
  613. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/apis/shields/__init__.py +0 -0
  614. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/apis/synthetic_data_generation/__init__.py +0 -0
  615. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/apis/telemetry/__init__.py +0 -0
  616. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/apis/tools/__init__.py +0 -0
  617. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/apis/vector_io/__init__.py +0 -0
  618. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/cli/__init__.py +0 -0
  619. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/cli/scripts/__init__.py +0 -0
  620. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/cli/scripts/install-wheel-from-presigned.sh +0 -0
  621. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/cli/scripts/run.py +0 -0
  622. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/cli/stack/__init__.py +0 -0
  623. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/cli/stack/list_apis.py +0 -0
  624. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/cli/stack/list_providers.py +0 -0
  625. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/cli/stack/list_stacks.py +0 -0
  626. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/cli/stack/remove.py +0 -0
  627. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/cli/subcommand.py +0 -0
  628. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/cli/table.py +0 -0
  629. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/cli/utils.py +0 -0
  630. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/__init__.py +0 -0
  631. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/access_control/__init__.py +0 -0
  632. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/access_control/access_control.py +0 -0
  633. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/access_control/conditions.py +0 -0
  634. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/build.py +0 -0
  635. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/common.sh +0 -0
  636. {llama_stack-0.2.22/llama_stack/core/prompts → llama_stack-0.3.0/llama_stack/core/conversations}/__init__.py +0 -0
  637. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/external.py +0 -0
  638. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/inspect.py +0 -0
  639. {llama_stack-0.2.22/llama_stack/core/routing_tables → llama_stack-0.3.0/llama_stack/core/prompts}/__init__.py +0 -0
  640. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/providers.py +0 -0
  641. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/request_headers.py +0 -0
  642. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/routers/datasets.py +0 -0
  643. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/routers/eval_scoring.py +0 -0
  644. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/routers/safety.py +0 -0
  645. {llama_stack-0.2.22/llama_stack/core/server → llama_stack-0.3.0/llama_stack/core/routing_tables}/__init__.py +0 -0
  646. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/routing_tables/benchmarks.py +0 -0
  647. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/routing_tables/datasets.py +0 -0
  648. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/routing_tables/scoring_functions.py +0 -0
  649. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/routing_tables/shields.py +0 -0
  650. {llama_stack-0.2.22/llama_stack/core/ui → llama_stack-0.3.0/llama_stack/core/server}/__init__.py +0 -0
  651. {llama_stack-0.2.22/llama_stack/core/ui/modules → llama_stack-0.3.0/llama_stack/core/storage}/__init__.py +0 -0
  652. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/store/__init__.py +0 -0
  653. {llama_stack-0.2.22/llama_stack/core/ui/page → llama_stack-0.3.0/llama_stack/core/ui}/__init__.py +0 -0
  654. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/ui/app.py +0 -0
  655. {llama_stack-0.2.22/llama_stack/core/ui/page/distribution → llama_stack-0.3.0/llama_stack/core/ui/modules}/__init__.py +0 -0
  656. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/ui/modules/api.py +0 -0
  657. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/ui/modules/utils.py +0 -0
  658. {llama_stack-0.2.22/llama_stack/core/ui/page/evaluations → llama_stack-0.3.0/llama_stack/core/ui/page}/__init__.py +0 -0
  659. {llama_stack-0.2.22/llama_stack/core/ui/page/playground → llama_stack-0.3.0/llama_stack/core/ui/page/distribution}/__init__.py +0 -0
  660. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/ui/page/distribution/datasets.py +0 -0
  661. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/ui/page/distribution/eval_tasks.py +0 -0
  662. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/ui/page/distribution/models.py +0 -0
  663. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/ui/page/distribution/providers.py +0 -0
  664. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/ui/page/distribution/scoring_functions.py +0 -0
  665. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/ui/page/distribution/shields.py +0 -0
  666. {llama_stack-0.2.22/llama_stack/core/utils → llama_stack-0.3.0/llama_stack/core/ui/page/evaluations}/__init__.py +0 -0
  667. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/ui/page/evaluations/app_eval.py +0 -0
  668. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/ui/page/evaluations/native_eval.py +0 -0
  669. {llama_stack-0.2.22/llama_stack/distributions → llama_stack-0.3.0/llama_stack/core/ui/page/playground}/__init__.py +0 -0
  670. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/ui/page/playground/chat.py +0 -0
  671. {llama_stack-0.2.22/llama_stack/distributions/watsonx → llama_stack-0.3.0/llama_stack/core/utils}/__init__.py +0 -0
  672. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/utils/config.py +0 -0
  673. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/utils/config_dirs.py +0 -0
  674. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/utils/context.py +0 -0
  675. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/utils/dynamic.py +0 -0
  676. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/utils/exec.py +0 -0
  677. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/utils/image_types.py +0 -0
  678. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/utils/model_utils.py +0 -0
  679. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/utils/prompt_for_config.py +0 -0
  680. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/core/utils/serialize.py +0 -0
  681. {llama_stack-0.2.22/llama_stack/models → llama_stack-0.3.0/llama_stack/distributions}/__init__.py +0 -0
  682. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/distributions/dell/__init__.py +0 -0
  683. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/distributions/meta-reference-gpu/__init__.py +0 -0
  684. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/distributions/nvidia/__init__.py +0 -0
  685. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/distributions/open-benchmark/__init__.py +0 -0
  686. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/distributions/postgres-demo/__init__.py +0 -0
  687. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/distributions/starter/__init__.py +0 -0
  688. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/distributions/starter-gpu/__init__.py +0 -0
  689. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/distributions/starter-gpu/starter_gpu.py +0 -0
  690. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/env.py +0 -0
  691. {llama_stack-0.2.22/llama_stack/models/llama → llama_stack-0.3.0/llama_stack/models}/__init__.py +0 -0
  692. {llama_stack-0.2.22/llama_stack/models/llama/llama3 → llama_stack-0.3.0/llama_stack/models/llama}/__init__.py +0 -0
  693. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/checkpoint.py +0 -0
  694. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/hadamard_utils.py +0 -0
  695. {llama_stack-0.2.22/llama_stack/models/llama/llama3/quantization → llama_stack-0.3.0/llama_stack/models/llama/llama3}/__init__.py +0 -0
  696. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama3/args.py +0 -0
  697. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama3/generation.py +0 -0
  698. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama3/interface.py +0 -0
  699. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama3/model.py +0 -0
  700. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama3/multimodal/__init__.py +0 -0
  701. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama3/multimodal/encoder_utils.py +0 -0
  702. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama3/multimodal/image_transform.py +0 -0
  703. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama3/multimodal/model.py +0 -0
  704. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama3/multimodal/utils.py +0 -0
  705. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama3/prompt_templates/__init__.py +0 -0
  706. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama3/prompt_templates/base.py +0 -0
  707. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama3/prompt_templates/tool_response.py +0 -0
  708. {llama_stack-0.2.22/llama_stack/models/llama/llama3_2 → llama_stack-0.3.0/llama_stack/models/llama/llama3/quantization}/__init__.py +0 -0
  709. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama3/quantization/loader.py +0 -0
  710. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama3/template_data.py +0 -0
  711. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama3/tokenizer.model +0 -0
  712. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama3/tokenizer.py +0 -0
  713. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama3_1/__init__.py +0 -0
  714. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama3_1/prompt_format.md +0 -0
  715. {llama_stack-0.2.22/llama_stack/models/llama/llama3_3 → llama_stack-0.3.0/llama_stack/models/llama/llama3_2}/__init__.py +0 -0
  716. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama3_2/prompts_text.py +0 -0
  717. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama3_2/prompts_vision.py +0 -0
  718. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama3_2/text_prompt_format.md +0 -0
  719. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama3_2/vision_prompt_format.md +0 -0
  720. {llama_stack-0.2.22/llama_stack/models/llama/llama4 → llama_stack-0.3.0/llama_stack/models/llama/llama3_3}/__init__.py +0 -0
  721. {llama_stack-0.2.22/llama_stack/models/llama/llama4/prompt_templates → llama_stack-0.3.0/llama_stack/models/llama/llama4}/__init__.py +0 -0
  722. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama4/args.py +0 -0
  723. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama4/datatypes.py +0 -0
  724. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama4/ffn.py +0 -0
  725. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama4/generation.py +0 -0
  726. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama4/model.py +0 -0
  727. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama4/moe.py +0 -0
  728. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama4/preprocess.py +0 -0
  729. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama4/prompt_format.md +0 -0
  730. {llama_stack-0.2.22/llama_stack/models/llama/llama4/quantization → llama_stack-0.3.0/llama_stack/models/llama/llama4/prompt_templates}/__init__.py +0 -0
  731. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama4/prompts.py +0 -0
  732. {llama_stack-0.2.22/llama_stack/models/llama/llama4/vision → llama_stack-0.3.0/llama_stack/models/llama/llama4/quantization}/__init__.py +0 -0
  733. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama4/quantization/loader.py +0 -0
  734. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama4/tokenizer.model +0 -0
  735. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama4/tokenizer.py +0 -0
  736. {llama_stack-0.2.22/llama_stack/providers → llama_stack-0.3.0/llama_stack/models/llama/llama4/vision}/__init__.py +0 -0
  737. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama4/vision/embedding.py +0 -0
  738. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/llama4/vision/encoder.py +0 -0
  739. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/quantize_impls.py +0 -0
  740. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/sku_list.py +0 -0
  741. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/models/llama/sku_types.py +0 -0
  742. {llama_stack-0.2.22/llama_stack/providers/inline → llama_stack-0.3.0/llama_stack/providers}/__init__.py +0 -0
  743. {llama_stack-0.2.22/llama_stack/providers/inline/agents → llama_stack-0.3.0/llama_stack/providers/inline}/__init__.py +0 -0
  744. {llama_stack-0.2.22/llama_stack/providers/inline/agents/meta_reference/responses → llama_stack-0.3.0/llama_stack/providers/inline/agents}/__init__.py +0 -0
  745. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/agents/meta_reference/persistence.py +0 -0
  746. {llama_stack-0.2.22/llama_stack/providers/inline/batches → llama_stack-0.3.0/llama_stack/providers/inline/agents/meta_reference/responses}/__init__.py +0 -0
  747. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/agents/meta_reference/safety.py +0 -0
  748. {llama_stack-0.2.22/llama_stack/providers/inline/datasetio → llama_stack-0.3.0/llama_stack/providers/inline/batches}/__init__.py +0 -0
  749. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/batches/reference/__init__.py +0 -0
  750. {llama_stack-0.2.22/llama_stack/providers/inline/eval → llama_stack-0.3.0/llama_stack/providers/inline/datasetio}/__init__.py +0 -0
  751. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/datasetio/localfs/__init__.py +0 -0
  752. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/datasetio/localfs/datasetio.py +0 -0
  753. {llama_stack-0.2.22/llama_stack/providers/inline/inference → llama_stack-0.3.0/llama_stack/providers/inline/eval}/__init__.py +0 -0
  754. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/eval/meta_reference/__init__.py +0 -0
  755. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/files/localfs/__init__.py +0 -0
  756. {llama_stack-0.2.22/llama_stack/providers/inline/post_training → llama_stack-0.3.0/llama_stack/providers/inline/inference}/__init__.py +0 -0
  757. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/inference/meta_reference/__init__.py +0 -0
  758. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/inference/meta_reference/config.py +0 -0
  759. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/inference/meta_reference/generators.py +0 -0
  760. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/inference/meta_reference/parallel_utils.py +0 -0
  761. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/inference/sentence_transformers/__init__.py +0 -0
  762. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/inference/sentence_transformers/config.py +0 -0
  763. {llama_stack-0.2.22/llama_stack/providers/inline/post_training/common → llama_stack-0.3.0/llama_stack/providers/inline/post_training}/__init__.py +0 -0
  764. {llama_stack-0.2.22/llama_stack/providers/inline/post_training/huggingface/recipes → llama_stack-0.3.0/llama_stack/providers/inline/post_training/common}/__init__.py +0 -0
  765. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/post_training/common/utils.py +0 -0
  766. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/post_training/common/validator.py +0 -0
  767. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/post_training/huggingface/__init__.py +0 -0
  768. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/post_training/huggingface/config.py +0 -0
  769. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/post_training/huggingface/post_training.py +0 -0
  770. {llama_stack-0.2.22/llama_stack/providers/inline/post_training/torchtune/common → llama_stack-0.3.0/llama_stack/providers/inline/post_training/huggingface/recipes}/__init__.py +0 -0
  771. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/post_training/huggingface/recipes/finetune_single_device.py +0 -0
  772. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/post_training/huggingface/recipes/finetune_single_device_dpo.py +0 -0
  773. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/post_training/huggingface/utils.py +0 -0
  774. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/post_training/torchtune/__init__.py +0 -0
  775. {llama_stack-0.2.22/llama_stack/providers/inline/post_training/torchtune/datasets → llama_stack-0.3.0/llama_stack/providers/inline/post_training/torchtune/common}/__init__.py +0 -0
  776. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/post_training/torchtune/common/checkpointer.py +0 -0
  777. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/post_training/torchtune/common/utils.py +0 -0
  778. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/post_training/torchtune/config.py +0 -0
  779. {llama_stack-0.2.22/llama_stack/providers/inline/post_training/torchtune/recipes → llama_stack-0.3.0/llama_stack/providers/inline/post_training/torchtune/datasets}/__init__.py +0 -0
  780. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/post_training/torchtune/datasets/format_adapter.py +0 -0
  781. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/post_training/torchtune/datasets/sft.py +0 -0
  782. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/post_training/torchtune/post_training.py +0 -0
  783. {llama_stack-0.2.22/llama_stack/providers/inline/safety → llama_stack-0.3.0/llama_stack/providers/inline/post_training/torchtune/recipes}/__init__.py +0 -0
  784. {llama_stack-0.2.22/llama_stack/providers/inline/scoring → llama_stack-0.3.0/llama_stack/providers/inline/safety}/__init__.py +0 -0
  785. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/safety/code_scanner/__init__.py +0 -0
  786. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/safety/code_scanner/config.py +0 -0
  787. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/safety/llama_guard/__init__.py +0 -0
  788. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/safety/llama_guard/config.py +0 -0
  789. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/safety/prompt_guard/__init__.py +0 -0
  790. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/safety/prompt_guard/config.py +0 -0
  791. {llama_stack-0.2.22/llama_stack/providers/inline/scoring/basic/scoring_fn → llama_stack-0.3.0/llama_stack/providers/inline/scoring}/__init__.py +0 -0
  792. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/__init__.py +0 -0
  793. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/config.py +0 -0
  794. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/scoring.py +0 -0
  795. {llama_stack-0.2.22/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs → llama_stack-0.3.0/llama_stack/providers/inline/scoring/basic/scoring_fn}/__init__.py +0 -0
  796. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/scoring_fn/docvqa_scoring_fn.py +0 -0
  797. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/scoring_fn/equality_scoring_fn.py +0 -0
  798. {llama_stack-0.2.22/llama_stack/providers/inline/scoring/basic/utils → llama_stack-0.3.0/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs}/__init__.py +0 -0
  799. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/docvqa.py +0 -0
  800. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/equality.py +0 -0
  801. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/ifeval.py +0 -0
  802. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/regex_parser_math_response.py +0 -0
  803. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/regex_parser_multiple_choice_answer.py +0 -0
  804. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/subset_of.py +0 -0
  805. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/scoring_fn/ifeval_scoring_fn.py +0 -0
  806. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/scoring_fn/regex_parser_math_response_scoring_fn.py +0 -0
  807. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/scoring_fn/regex_parser_scoring_fn.py +0 -0
  808. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/scoring_fn/subset_of_scoring_fn.py +0 -0
  809. {llama_stack-0.2.22/llama_stack/providers/inline/scoring/braintrust/scoring_fn → llama_stack-0.3.0/llama_stack/providers/inline/scoring/basic/utils}/__init__.py +0 -0
  810. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/utils/ifeval_utils.py +0 -0
  811. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/basic/utils/math_utils.py +0 -0
  812. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/braintrust/__init__.py +0 -0
  813. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/braintrust/braintrust.py +0 -0
  814. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/braintrust/config.py +0 -0
  815. {llama_stack-0.2.22/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs → llama_stack-0.3.0/llama_stack/providers/inline/scoring/braintrust/scoring_fn}/__init__.py +0 -0
  816. {llama_stack-0.2.22/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn → llama_stack-0.3.0/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs}/__init__.py +0 -0
  817. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/answer_correctness.py +0 -0
  818. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/answer_relevancy.py +0 -0
  819. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/answer_similarity.py +0 -0
  820. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_entity_recall.py +0 -0
  821. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_precision.py +0 -0
  822. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_recall.py +0 -0
  823. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_relevancy.py +0 -0
  824. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/factuality.py +0 -0
  825. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/faithfulness.py +0 -0
  826. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/llm_as_judge/__init__.py +0 -0
  827. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/llm_as_judge/config.py +0 -0
  828. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/llm_as_judge/scoring.py +0 -0
  829. {llama_stack-0.2.22/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs → llama_stack-0.3.0/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn}/__init__.py +0 -0
  830. {llama_stack-0.2.22/llama_stack/providers/inline/telemetry → llama_stack-0.3.0/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs}/__init__.py +0 -0
  831. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs/llm_as_judge_405b_simpleqa.py +0 -0
  832. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs/llm_as_judge_base.py +0 -0
  833. {llama_stack-0.2.22/llama_stack/providers/inline/tool_runtime → llama_stack-0.3.0/llama_stack/providers/inline/telemetry}/__init__.py +0 -0
  834. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/telemetry/meta_reference/__init__.py +0 -0
  835. {llama_stack-0.2.22/llama_stack/providers/inline/vector_io → llama_stack-0.3.0/llama_stack/providers/inline/tool_runtime}/__init__.py +0 -0
  836. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/tool_runtime/rag/__init__.py +0 -0
  837. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/inline/tool_runtime/rag/config.py +0 -0
  838. {llama_stack-0.2.22/llama_stack/providers/registry → llama_stack-0.3.0/llama_stack/providers/inline/vector_io}/__init__.py +0 -0
  839. {llama_stack-0.2.22/llama_stack/providers/remote → llama_stack-0.3.0/llama_stack/providers/registry}/__init__.py +0 -0
  840. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/registry/batches.py +0 -0
  841. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/registry/scoring.py +0 -0
  842. {llama_stack-0.2.22/llama_stack/providers/remote/agents → llama_stack-0.3.0/llama_stack/providers/remote}/__init__.py +0 -0
  843. {llama_stack-0.2.22/llama_stack/providers/remote/datasetio → llama_stack-0.3.0/llama_stack/providers/remote/agents}/__init__.py +0 -0
  844. {llama_stack-0.2.22/llama_stack/providers/remote/eval → llama_stack-0.3.0/llama_stack/providers/remote/datasetio}/__init__.py +0 -0
  845. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/datasetio/huggingface/__init__.py +0 -0
  846. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/datasetio/huggingface/huggingface.py +0 -0
  847. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/datasetio/nvidia/__init__.py +0 -0
  848. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/datasetio/nvidia/config.py +0 -0
  849. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/datasetio/nvidia/datasetio.py +0 -0
  850. {llama_stack-0.2.22/llama_stack/providers/remote/inference → llama_stack-0.3.0/llama_stack/providers/remote/eval}/__init__.py +0 -0
  851. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/eval/nvidia/__init__.py +0 -0
  852. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/eval/nvidia/config.py +0 -0
  853. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/files/s3/__init__.py +0 -0
  854. {llama_stack-0.2.22/llama_stack/providers/remote/post_training → llama_stack-0.3.0/llama_stack/providers/remote/inference}/__init__.py +0 -0
  855. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/inference/bedrock/__init__.py +0 -0
  856. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/inference/bedrock/config.py +0 -0
  857. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/inference/bedrock/models.py +0 -0
  858. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/inference/passthrough/__init__.py +0 -0
  859. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/inference/tgi/__init__.py +0 -0
  860. {llama_stack-0.2.22/llama_stack/providers/remote/safety → llama_stack-0.3.0/llama_stack/providers/remote/post_training}/__init__.py +0 -0
  861. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/post_training/nvidia/__init__.py +0 -0
  862. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/post_training/nvidia/config.py +0 -0
  863. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/post_training/nvidia/models.py +0 -0
  864. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/post_training/nvidia/post_training.py +0 -0
  865. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/post_training/nvidia/utils.py +0 -0
  866. {llama_stack-0.2.22/llama_stack/providers/remote/tool_runtime → llama_stack-0.3.0/llama_stack/providers/remote/safety}/__init__.py +0 -0
  867. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/safety/bedrock/__init__.py +0 -0
  868. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/safety/bedrock/config.py +0 -0
  869. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/safety/nvidia/__init__.py +0 -0
  870. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/safety/nvidia/config.py +0 -0
  871. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/safety/sambanova/__init__.py +0 -0
  872. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/safety/sambanova/config.py +0 -0
  873. {llama_stack-0.2.22/llama_stack/providers/remote/vector_io → llama_stack-0.3.0/llama_stack/providers/remote/tool_runtime}/__init__.py +0 -0
  874. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/tool_runtime/bing_search/__init__.py +0 -0
  875. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/tool_runtime/bing_search/config.py +0 -0
  876. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/tool_runtime/brave_search/__init__.py +0 -0
  877. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/tool_runtime/brave_search/config.py +0 -0
  878. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/tool_runtime/model_context_protocol/__init__.py +0 -0
  879. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/tool_runtime/model_context_protocol/config.py +0 -0
  880. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/tool_runtime/model_context_protocol/model_context_protocol.py +0 -0
  881. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/tool_runtime/tavily_search/__init__.py +0 -0
  882. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/tool_runtime/tavily_search/config.py +0 -0
  883. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/tool_runtime/wolfram_alpha/__init__.py +0 -0
  884. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/tool_runtime/wolfram_alpha/config.py +0 -0
  885. {llama_stack-0.2.22/llama_stack/providers/utils → llama_stack-0.3.0/llama_stack/providers/remote/vector_io}/__init__.py +0 -0
  886. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/remote/vector_io/chroma/__init__.py +0 -0
  887. {llama_stack-0.2.22/llama_stack/providers/utils/bedrock → llama_stack-0.3.0/llama_stack/providers/utils}/__init__.py +0 -0
  888. {llama_stack-0.2.22/llama_stack/providers/utils/common → llama_stack-0.3.0/llama_stack/providers/utils/bedrock}/__init__.py +0 -0
  889. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/utils/bedrock/client.py +0 -0
  890. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/utils/bedrock/refreshable_boto_session.py +0 -0
  891. {llama_stack-0.2.22/llama_stack/providers/utils/datasetio → llama_stack-0.3.0/llama_stack/providers/utils/common}/__init__.py +0 -0
  892. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/utils/common/data_schema_validator.py +0 -0
  893. {llama_stack-0.2.22/llama_stack/providers/utils/memory → llama_stack-0.3.0/llama_stack/providers/utils/datasetio}/__init__.py +0 -0
  894. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/utils/datasetio/url_utils.py +0 -0
  895. {llama_stack-0.2.22/llama_stack/providers/utils/responses → llama_stack-0.3.0/llama_stack/providers/utils/files}/__init__.py +0 -0
  896. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/utils/inference/__init__.py +0 -0
  897. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/utils/kvstore/__init__.py +0 -0
  898. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/utils/kvstore/api.py +0 -0
  899. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/utils/kvstore/mongodb/__init__.py +0 -0
  900. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/utils/kvstore/postgres/__init__.py +0 -0
  901. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/utils/kvstore/postgres/postgres.py +0 -0
  902. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/utils/kvstore/redis/__init__.py +0 -0
  903. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/utils/kvstore/redis/redis.py +0 -0
  904. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/utils/kvstore/sqlite/__init__.py +0 -0
  905. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/utils/kvstore/sqlite/config.py +0 -0
  906. {llama_stack-0.2.22/llama_stack/providers/utils/scoring → llama_stack-0.3.0/llama_stack/providers/utils/memory}/__init__.py +0 -0
  907. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/utils/memory/file_utils.py +0 -0
  908. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/utils/pagination.py +0 -0
  909. {llama_stack-0.2.22/llama_stack/providers/utils/sqlstore → llama_stack-0.3.0/llama_stack/providers/utils/responses}/__init__.py +0 -0
  910. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/utils/scheduler.py +0 -0
  911. {llama_stack-0.2.22/llama_stack/providers/utils/telemetry → llama_stack-0.3.0/llama_stack/providers/utils/scoring}/__init__.py +0 -0
  912. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/utils/scoring/aggregation_utils.py +0 -0
  913. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/utils/scoring/base_scoring_fn.py +0 -0
  914. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/utils/scoring/basic_scoring_utils.py +0 -0
  915. {llama_stack-0.2.22/llama_stack/providers/utils/tools → llama_stack-0.3.0/llama_stack/providers/utils/sqlstore}/__init__.py +0 -0
  916. {llama_stack-0.2.22/llama_stack/providers/utils/vector_io → llama_stack-0.3.0/llama_stack/providers/utils/telemetry}/__init__.py +0 -0
  917. {llama_stack-0.2.22/llama_stack/testing → llama_stack-0.3.0/llama_stack/providers/utils/tools}/__init__.py +0 -0
  918. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/utils/tools/ttl_dict.py +0 -0
  919. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/providers/utils/vector_io/vector_utils.py +0 -0
  920. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/strong_typing/__init__.py +0 -0
  921. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/strong_typing/auxiliary.py +0 -0
  922. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/strong_typing/classdef.py +0 -0
  923. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/strong_typing/core.py +0 -0
  924. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/strong_typing/deserializer.py +0 -0
  925. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/strong_typing/docstring.py +0 -0
  926. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/strong_typing/exception.py +0 -0
  927. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/strong_typing/mapping.py +0 -0
  928. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/strong_typing/name.py +0 -0
  929. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/strong_typing/py.typed +0 -0
  930. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/strong_typing/serialization.py +0 -0
  931. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/strong_typing/serializer.py +0 -0
  932. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/strong_typing/slots.py +0 -0
  933. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack/strong_typing/topological.py +0 -0
  934. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack.egg-info/dependency_links.txt +0 -0
  935. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack.egg-info/entry_points.txt +0 -0
  936. {llama_stack-0.2.22 → llama_stack-0.3.0}/llama_stack.egg-info/top_level.txt +0 -0
  937. {llama_stack-0.2.22 → llama_stack-0.3.0}/setup.cfg +0 -0
@@ -0,0 +1,11 @@
1
+ include pyproject.toml
2
+ include llama_stack/models/llama/llama3/tokenizer.model
3
+ include llama_stack/models/llama/llama4/tokenizer.model
4
+ include llama_stack/core/*.sh
5
+ include llama_stack/cli/scripts/*.sh
6
+ include llama_stack/distributions/*/*.yaml
7
+ exclude llama_stack/distributions/ci-tests
8
+ include tests/integration/test_cases/inference/*.json
9
+ include llama_stack/models/llama/*/*.md
10
+ include llama_stack/tests/integration/*.jpg
11
+ prune llama_stack/distributions/ci-tests
@@ -0,0 +1,260 @@
1
+ Metadata-Version: 2.4
2
+ Name: llama_stack
3
+ Version: 0.3.0
4
+ Summary: Llama Stack
5
+ Author-email: Meta Llama <llama-oss@meta.com>
6
+ License: MIT
7
+ Project-URL: Homepage, https://github.com/llamastack/llama-stack
8
+ Classifier: License :: OSI Approved :: MIT License
9
+ Classifier: Programming Language :: Python :: 3
10
+ Classifier: Operating System :: OS Independent
11
+ Classifier: Intended Audience :: Developers
12
+ Classifier: Intended Audience :: Information Technology
13
+ Classifier: Intended Audience :: Science/Research
14
+ Classifier: Topic :: Scientific/Engineering :: Artificial Intelligence
15
+ Classifier: Topic :: Scientific/Engineering :: Information Analysis
16
+ Requires-Python: >=3.12
17
+ Description-Content-Type: text/markdown
18
+ License-File: LICENSE
19
+ Requires-Dist: aiohttp
20
+ Requires-Dist: fastapi<1.0,>=0.115.0
21
+ Requires-Dist: fire
22
+ Requires-Dist: httpx
23
+ Requires-Dist: jinja2>=3.1.6
24
+ Requires-Dist: jsonschema
25
+ Requires-Dist: llama-stack-client>=0.3.0
26
+ Requires-Dist: openai>=1.107
27
+ Requires-Dist: prompt-toolkit
28
+ Requires-Dist: python-dotenv
29
+ Requires-Dist: pyjwt[crypto]>=2.10.0
30
+ Requires-Dist: pydantic>=2.11.9
31
+ Requires-Dist: rich
32
+ Requires-Dist: starlette
33
+ Requires-Dist: termcolor
34
+ Requires-Dist: tiktoken
35
+ Requires-Dist: pillow
36
+ Requires-Dist: h11>=0.16.0
37
+ Requires-Dist: python-multipart>=0.0.20
38
+ Requires-Dist: uvicorn>=0.34.0
39
+ Requires-Dist: opentelemetry-sdk>=1.30.0
40
+ Requires-Dist: opentelemetry-exporter-otlp-proto-http>=1.30.0
41
+ Requires-Dist: aiosqlite>=0.21.0
42
+ Requires-Dist: asyncpg
43
+ Requires-Dist: sqlalchemy[asyncio]>=2.0.41
44
+ Provides-Extra: ui
45
+ Requires-Dist: streamlit; extra == "ui"
46
+ Requires-Dist: pandas; extra == "ui"
47
+ Requires-Dist: llama-stack-client>=0.3.0; extra == "ui"
48
+ Requires-Dist: streamlit-option-menu; extra == "ui"
49
+ Dynamic: license-file
50
+
51
+ # Llama Stack
52
+
53
+ [![PyPI version](https://img.shields.io/pypi/v/llama_stack.svg)](https://pypi.org/project/llama_stack/)
54
+ [![PyPI - Downloads](https://img.shields.io/pypi/dm/llama-stack)](https://pypi.org/project/llama-stack/)
55
+ [![License](https://img.shields.io/pypi/l/llama_stack.svg)](https://github.com/meta-llama/llama-stack/blob/main/LICENSE)
56
+ [![Discord](https://img.shields.io/discord/1257833999603335178?color=6A7EC2&logo=discord&logoColor=ffffff)](https://discord.gg/llama-stack)
57
+ [![Unit Tests](https://github.com/meta-llama/llama-stack/actions/workflows/unit-tests.yml/badge.svg?branch=main)](https://github.com/meta-llama/llama-stack/actions/workflows/unit-tests.yml?query=branch%3Amain)
58
+ [![Integration Tests](https://github.com/meta-llama/llama-stack/actions/workflows/integration-tests.yml/badge.svg?branch=main)](https://github.com/meta-llama/llama-stack/actions/workflows/integration-tests.yml?query=branch%3Amain)
59
+
60
+ [**Quick Start**](https://llamastack.github.io/docs/getting_started/quickstart) | [**Documentation**](https://llamastack.github.io/docs) | [**Colab Notebook**](./docs/getting_started.ipynb) | [**Discord**](https://discord.gg/llama-stack)
61
+
62
+
63
+ ### ✨🎉 Llama 4 Support 🎉✨
64
+ We released [Version 0.2.0](https://github.com/meta-llama/llama-stack/releases/tag/v0.2.0) with support for the Llama 4 herd of models released by Meta.
65
+
66
+ <details>
67
+
68
+ <summary>👋 Click here to see how to run Llama 4 models on Llama Stack </summary>
69
+
70
+ \
71
+ *Note you need 8xH100 GPU-host to run these models*
72
+
73
+ ```bash
74
+ pip install -U llama_stack
75
+
76
+ MODEL="Llama-4-Scout-17B-16E-Instruct"
77
+ # get meta url from llama.com
78
+ huggingface-cli download meta-llama/$MODEL --local-dir ~/.llama/$MODEL
79
+
80
+ # install dependencies for the distribution
81
+ llama stack list-deps meta-reference-gpu | xargs -L1 uv pip install
82
+
83
+ # start a llama stack server
84
+ INFERENCE_MODEL=meta-llama/$MODEL llama stack run meta-reference-gpu
85
+
86
+ # install client to interact with the server
87
+ pip install llama-stack-client
88
+ ```
89
+ ### CLI
90
+ ```bash
91
+ # Run a chat completion
92
+ MODEL="Llama-4-Scout-17B-16E-Instruct"
93
+
94
+ llama-stack-client --endpoint http://localhost:8321 \
95
+ inference chat-completion \
96
+ --model-id meta-llama/$MODEL \
97
+ --message "write a haiku for meta's llama 4 models"
98
+
99
+ OpenAIChatCompletion(
100
+ ...
101
+ choices=[
102
+ OpenAIChatCompletionChoice(
103
+ finish_reason='stop',
104
+ index=0,
105
+ message=OpenAIChatCompletionChoiceMessageOpenAIAssistantMessageParam(
106
+ role='assistant',
107
+ content='...**Silent minds awaken,** \n**Whispers of billions of words,** \n**Reasoning breaks the night.** \n\n— \n*This haiku blends the essence of LLaMA 4\'s capabilities with nature-inspired metaphor, evoking its vast training data and transformative potential.*',
108
+ ...
109
+ ),
110
+ ...
111
+ )
112
+ ],
113
+ ...
114
+ )
115
+ ```
116
+ ### Python SDK
117
+ ```python
118
+ from llama_stack_client import LlamaStackClient
119
+
120
+ client = LlamaStackClient(base_url=f"http://localhost:8321")
121
+
122
+ model_id = "meta-llama/Llama-4-Scout-17B-16E-Instruct"
123
+ prompt = "Write a haiku about coding"
124
+
125
+ print(f"User> {prompt}")
126
+ response = client.chat.completions.create(
127
+ model=model_id,
128
+ messages=[
129
+ {"role": "system", "content": "You are a helpful assistant."},
130
+ {"role": "user", "content": prompt},
131
+ ],
132
+ )
133
+ print(f"Assistant> {response.choices[0].message.content}")
134
+ ```
135
+ As more providers start supporting Llama 4, you can use them in Llama Stack as well. We are adding to the list. Stay tuned!
136
+
137
+
138
+ </details>
139
+
140
+ ### 🚀 One-Line Installer 🚀
141
+
142
+ To try Llama Stack locally, run:
143
+
144
+ ```bash
145
+ curl -LsSf https://github.com/llamastack/llama-stack/raw/main/scripts/install.sh | bash
146
+ ```
147
+
148
+ ### Overview
149
+
150
+ Llama Stack standardizes the core building blocks that simplify AI application development. It codifies best practices across the Llama ecosystem. More specifically, it provides
151
+
152
+ - **Unified API layer** for Inference, RAG, Agents, Tools, Safety, Evals, and Telemetry.
153
+ - **Plugin architecture** to support the rich ecosystem of different API implementations in various environments, including local development, on-premises, cloud, and mobile.
154
+ - **Prepackaged verified distributions** which offer a one-stop solution for developers to get started quickly and reliably in any environment.
155
+ - **Multiple developer interfaces** like CLI and SDKs for Python, Typescript, iOS, and Android.
156
+ - **Standalone applications** as examples for how to build production-grade AI applications with Llama Stack.
157
+
158
+ <div style="text-align: center;">
159
+ <img
160
+ src="https://github.com/user-attachments/assets/33d9576d-95ea-468d-95e2-8fa233205a50"
161
+ width="480"
162
+ title="Llama Stack"
163
+ alt="Llama Stack"
164
+ />
165
+ </div>
166
+
167
+ ### Llama Stack Benefits
168
+ - **Flexible Options**: Developers can choose their preferred infrastructure without changing APIs and enjoy flexible deployment choices.
169
+ - **Consistent Experience**: With its unified APIs, Llama Stack makes it easier to build, test, and deploy AI applications with consistent application behavior.
170
+ - **Robust Ecosystem**: Llama Stack is already integrated with distribution partners (cloud providers, hardware vendors, and AI-focused companies) that offer tailored infrastructure, software, and services for deploying Llama models.
171
+
172
+ By reducing friction and complexity, Llama Stack empowers developers to focus on what they do best: building transformative generative AI applications.
173
+
174
+ ### API Providers
175
+ Here is a list of the various API providers and available distributions that can help developers get started easily with Llama Stack.
176
+ Please checkout for [full list](https://llamastack.github.io/docs/providers)
177
+
178
+ | API Provider Builder | Environments | Agents | Inference | VectorIO | Safety | Telemetry | Post Training | Eval | DatasetIO |
179
+ |:--------------------:|:------------:|:------:|:---------:|:--------:|:------:|:---------:|:-------------:|:----:|:--------:|
180
+ | Meta Reference | Single Node | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
181
+ | SambaNova | Hosted | | ✅ | | ✅ | | | | |
182
+ | Cerebras | Hosted | | ✅ | | | | | | |
183
+ | Fireworks | Hosted | ✅ | ✅ | ✅ | | | | | |
184
+ | AWS Bedrock | Hosted | | ✅ | | ✅ | | | | |
185
+ | Together | Hosted | ✅ | ✅ | | ✅ | | | | |
186
+ | Groq | Hosted | | ✅ | | | | | | |
187
+ | Ollama | Single Node | | ✅ | | | | | | |
188
+ | TGI | Hosted/Single Node | | ✅ | | | | | | |
189
+ | NVIDIA NIM | Hosted/Single Node | | ✅ | | ✅ | | | | |
190
+ | ChromaDB | Hosted/Single Node | | | ✅ | | | | | |
191
+ | Milvus | Hosted/Single Node | | | ✅ | | | | | |
192
+ | Qdrant | Hosted/Single Node | | | ✅ | | | | | |
193
+ | Weaviate | Hosted/Single Node | | | ✅ | | | | | |
194
+ | SQLite-vec | Single Node | | | ✅ | | | | | |
195
+ | PG Vector | Single Node | | | ✅ | | | | | |
196
+ | PyTorch ExecuTorch | On-device iOS | ✅ | ✅ | | | | | | |
197
+ | vLLM | Single Node | | ✅ | | | | | | |
198
+ | OpenAI | Hosted | | ✅ | | | | | | |
199
+ | Anthropic | Hosted | | ✅ | | | | | | |
200
+ | Gemini | Hosted | | ✅ | | | | | | |
201
+ | WatsonX | Hosted | | ✅ | | | | | | |
202
+ | HuggingFace | Single Node | | | | | | ✅ | | ✅ |
203
+ | TorchTune | Single Node | | | | | | ✅ | | |
204
+ | NVIDIA NEMO | Hosted | | ✅ | ✅ | | | ✅ | ✅ | ✅ |
205
+ | NVIDIA | Hosted | | | | | | ✅ | ✅ | ✅ |
206
+
207
+ > **Note**: Additional providers are available through external packages. See [External Providers](https://llamastack.github.io/docs/providers/external) documentation.
208
+
209
+ ### Distributions
210
+
211
+ A Llama Stack Distribution (or "distro") is a pre-configured bundle of provider implementations for each API component. Distributions make it easy to get started with a specific deployment scenario - you can begin with a local development setup (eg. ollama) and seamlessly transition to production (eg. Fireworks) without changing your application code.
212
+ Here are some of the distributions we support:
213
+
214
+ | **Distribution** | **Llama Stack Docker** | Start This Distribution |
215
+ |:---------------------------------------------:|:-------------------------------------------------------------------------------------------------------------------------------------------------------------:|:------------------------------------------------------------------------------------------------------------------------:|
216
+ | Starter Distribution | [llamastack/distribution-starter](https://hub.docker.com/repository/docker/llamastack/distribution-starter/general) | [Guide](https://llamastack.github.io/latest/distributions/self_hosted_distro/starter.html) |
217
+ | Meta Reference | [llamastack/distribution-meta-reference-gpu](https://hub.docker.com/repository/docker/llamastack/distribution-meta-reference-gpu/general) | [Guide](https://llamastack.github.io/latest/distributions/self_hosted_distro/meta-reference-gpu.html) |
218
+ | PostgreSQL | [llamastack/distribution-postgres-demo](https://hub.docker.com/repository/docker/llamastack/distribution-postgres-demo/general) | |
219
+
220
+ ### Documentation
221
+
222
+ Please checkout our [Documentation](https://llamastack.github.io/latest/index.html) page for more details.
223
+
224
+ * CLI references
225
+ * [llama (server-side) CLI Reference](https://llamastack.github.io/latest/references/llama_cli_reference/index.html): Guide for using the `llama` CLI to work with Llama models (download, study prompts), and building/starting a Llama Stack distribution.
226
+ * [llama (client-side) CLI Reference](https://llamastack.github.io/latest/references/llama_stack_client_cli_reference.html): Guide for using the `llama-stack-client` CLI, which allows you to query information about the distribution.
227
+ * Getting Started
228
+ * [Quick guide to start a Llama Stack server](https://llamastack.github.io/latest/getting_started/index.html).
229
+ * [Jupyter notebook](./docs/getting_started.ipynb) to walk-through how to use simple text and vision inference llama_stack_client APIs
230
+ * The complete Llama Stack lesson [Colab notebook](https://colab.research.google.com/drive/1dtVmxotBsI4cGZQNsJRYPrLiDeT0Wnwt) of the new [Llama 3.2 course on Deeplearning.ai](https://learn.deeplearning.ai/courses/introducing-multimodal-llama-3-2/lesson/8/llama-stack).
231
+ * A [Zero-to-Hero Guide](https://github.com/meta-llama/llama-stack/tree/main/docs/zero_to_hero_guide) that guide you through all the key components of llama stack with code samples.
232
+ * [Contributing](CONTRIBUTING.md)
233
+ * [Adding a new API Provider](https://llamastack.github.io/latest/contributing/new_api_provider.html) to walk-through how to add a new API provider.
234
+
235
+ ### Llama Stack Client SDKs
236
+
237
+ | **Language** | **Client SDK** | **Package** |
238
+ | :----: | :----: | :----: |
239
+ | Python | [llama-stack-client-python](https://github.com/meta-llama/llama-stack-client-python) | [![PyPI version](https://img.shields.io/pypi/v/llama_stack_client.svg)](https://pypi.org/project/llama_stack_client/)
240
+ | Swift | [llama-stack-client-swift](https://github.com/meta-llama/llama-stack-client-swift) | [![Swift Package Index](https://img.shields.io/endpoint?url=https%3A%2F%2Fswiftpackageindex.com%2Fapi%2Fpackages%2Fmeta-llama%2Fllama-stack-client-swift%2Fbadge%3Ftype%3Dswift-versions)](https://swiftpackageindex.com/meta-llama/llama-stack-client-swift)
241
+ | Typescript | [llama-stack-client-typescript](https://github.com/meta-llama/llama-stack-client-typescript) | [![NPM version](https://img.shields.io/npm/v/llama-stack-client.svg)](https://npmjs.org/package/llama-stack-client)
242
+ | Kotlin | [llama-stack-client-kotlin](https://github.com/meta-llama/llama-stack-client-kotlin) | [![Maven version](https://img.shields.io/maven-central/v/com.llama.llamastack/llama-stack-client-kotlin)](https://central.sonatype.com/artifact/com.llama.llamastack/llama-stack-client-kotlin)
243
+
244
+ Check out our client SDKs for connecting to a Llama Stack server in your preferred language, you can choose from [python](https://github.com/meta-llama/llama-stack-client-python), [typescript](https://github.com/meta-llama/llama-stack-client-typescript), [swift](https://github.com/meta-llama/llama-stack-client-swift), and [kotlin](https://github.com/meta-llama/llama-stack-client-kotlin) programming languages to quickly build your applications.
245
+
246
+ You can find more example scripts with client SDKs to talk with the Llama Stack server in our [llama-stack-apps](https://github.com/meta-llama/llama-stack-apps/tree/main/examples) repo.
247
+
248
+
249
+ ## 🌟 GitHub Star History
250
+ ## Star History
251
+
252
+ [![Star History Chart](https://api.star-history.com/svg?repos=meta-llama/llama-stack&type=Date)](https://www.star-history.com/#meta-llama/llama-stack&Date)
253
+
254
+ ## ✨ Contributors
255
+
256
+ Thanks to all of our amazing contributors!
257
+
258
+ <a href="https://github.com/meta-llama/llama-stack/graphs/contributors">
259
+ <img src="https://contrib.rocks/image?repo=meta-llama/llama-stack" />
260
+ </a>
@@ -0,0 +1,210 @@
1
+ # Llama Stack
2
+
3
+ [![PyPI version](https://img.shields.io/pypi/v/llama_stack.svg)](https://pypi.org/project/llama_stack/)
4
+ [![PyPI - Downloads](https://img.shields.io/pypi/dm/llama-stack)](https://pypi.org/project/llama-stack/)
5
+ [![License](https://img.shields.io/pypi/l/llama_stack.svg)](https://github.com/meta-llama/llama-stack/blob/main/LICENSE)
6
+ [![Discord](https://img.shields.io/discord/1257833999603335178?color=6A7EC2&logo=discord&logoColor=ffffff)](https://discord.gg/llama-stack)
7
+ [![Unit Tests](https://github.com/meta-llama/llama-stack/actions/workflows/unit-tests.yml/badge.svg?branch=main)](https://github.com/meta-llama/llama-stack/actions/workflows/unit-tests.yml?query=branch%3Amain)
8
+ [![Integration Tests](https://github.com/meta-llama/llama-stack/actions/workflows/integration-tests.yml/badge.svg?branch=main)](https://github.com/meta-llama/llama-stack/actions/workflows/integration-tests.yml?query=branch%3Amain)
9
+
10
+ [**Quick Start**](https://llamastack.github.io/docs/getting_started/quickstart) | [**Documentation**](https://llamastack.github.io/docs) | [**Colab Notebook**](./docs/getting_started.ipynb) | [**Discord**](https://discord.gg/llama-stack)
11
+
12
+
13
+ ### ✨🎉 Llama 4 Support 🎉✨
14
+ We released [Version 0.2.0](https://github.com/meta-llama/llama-stack/releases/tag/v0.2.0) with support for the Llama 4 herd of models released by Meta.
15
+
16
+ <details>
17
+
18
+ <summary>👋 Click here to see how to run Llama 4 models on Llama Stack </summary>
19
+
20
+ \
21
+ *Note you need 8xH100 GPU-host to run these models*
22
+
23
+ ```bash
24
+ pip install -U llama_stack
25
+
26
+ MODEL="Llama-4-Scout-17B-16E-Instruct"
27
+ # get meta url from llama.com
28
+ huggingface-cli download meta-llama/$MODEL --local-dir ~/.llama/$MODEL
29
+
30
+ # install dependencies for the distribution
31
+ llama stack list-deps meta-reference-gpu | xargs -L1 uv pip install
32
+
33
+ # start a llama stack server
34
+ INFERENCE_MODEL=meta-llama/$MODEL llama stack run meta-reference-gpu
35
+
36
+ # install client to interact with the server
37
+ pip install llama-stack-client
38
+ ```
39
+ ### CLI
40
+ ```bash
41
+ # Run a chat completion
42
+ MODEL="Llama-4-Scout-17B-16E-Instruct"
43
+
44
+ llama-stack-client --endpoint http://localhost:8321 \
45
+ inference chat-completion \
46
+ --model-id meta-llama/$MODEL \
47
+ --message "write a haiku for meta's llama 4 models"
48
+
49
+ OpenAIChatCompletion(
50
+ ...
51
+ choices=[
52
+ OpenAIChatCompletionChoice(
53
+ finish_reason='stop',
54
+ index=0,
55
+ message=OpenAIChatCompletionChoiceMessageOpenAIAssistantMessageParam(
56
+ role='assistant',
57
+ content='...**Silent minds awaken,** \n**Whispers of billions of words,** \n**Reasoning breaks the night.** \n\n— \n*This haiku blends the essence of LLaMA 4\'s capabilities with nature-inspired metaphor, evoking its vast training data and transformative potential.*',
58
+ ...
59
+ ),
60
+ ...
61
+ )
62
+ ],
63
+ ...
64
+ )
65
+ ```
66
+ ### Python SDK
67
+ ```python
68
+ from llama_stack_client import LlamaStackClient
69
+
70
+ client = LlamaStackClient(base_url=f"http://localhost:8321")
71
+
72
+ model_id = "meta-llama/Llama-4-Scout-17B-16E-Instruct"
73
+ prompt = "Write a haiku about coding"
74
+
75
+ print(f"User> {prompt}")
76
+ response = client.chat.completions.create(
77
+ model=model_id,
78
+ messages=[
79
+ {"role": "system", "content": "You are a helpful assistant."},
80
+ {"role": "user", "content": prompt},
81
+ ],
82
+ )
83
+ print(f"Assistant> {response.choices[0].message.content}")
84
+ ```
85
+ As more providers start supporting Llama 4, you can use them in Llama Stack as well. We are adding to the list. Stay tuned!
86
+
87
+
88
+ </details>
89
+
90
+ ### 🚀 One-Line Installer 🚀
91
+
92
+ To try Llama Stack locally, run:
93
+
94
+ ```bash
95
+ curl -LsSf https://github.com/llamastack/llama-stack/raw/main/scripts/install.sh | bash
96
+ ```
97
+
98
+ ### Overview
99
+
100
+ Llama Stack standardizes the core building blocks that simplify AI application development. It codifies best practices across the Llama ecosystem. More specifically, it provides
101
+
102
+ - **Unified API layer** for Inference, RAG, Agents, Tools, Safety, Evals, and Telemetry.
103
+ - **Plugin architecture** to support the rich ecosystem of different API implementations in various environments, including local development, on-premises, cloud, and mobile.
104
+ - **Prepackaged verified distributions** which offer a one-stop solution for developers to get started quickly and reliably in any environment.
105
+ - **Multiple developer interfaces** like CLI and SDKs for Python, Typescript, iOS, and Android.
106
+ - **Standalone applications** as examples for how to build production-grade AI applications with Llama Stack.
107
+
108
+ <div style="text-align: center;">
109
+ <img
110
+ src="https://github.com/user-attachments/assets/33d9576d-95ea-468d-95e2-8fa233205a50"
111
+ width="480"
112
+ title="Llama Stack"
113
+ alt="Llama Stack"
114
+ />
115
+ </div>
116
+
117
+ ### Llama Stack Benefits
118
+ - **Flexible Options**: Developers can choose their preferred infrastructure without changing APIs and enjoy flexible deployment choices.
119
+ - **Consistent Experience**: With its unified APIs, Llama Stack makes it easier to build, test, and deploy AI applications with consistent application behavior.
120
+ - **Robust Ecosystem**: Llama Stack is already integrated with distribution partners (cloud providers, hardware vendors, and AI-focused companies) that offer tailored infrastructure, software, and services for deploying Llama models.
121
+
122
+ By reducing friction and complexity, Llama Stack empowers developers to focus on what they do best: building transformative generative AI applications.
123
+
124
+ ### API Providers
125
+ Here is a list of the various API providers and available distributions that can help developers get started easily with Llama Stack.
126
+ Please checkout for [full list](https://llamastack.github.io/docs/providers)
127
+
128
+ | API Provider Builder | Environments | Agents | Inference | VectorIO | Safety | Telemetry | Post Training | Eval | DatasetIO |
129
+ |:--------------------:|:------------:|:------:|:---------:|:--------:|:------:|:---------:|:-------------:|:----:|:--------:|
130
+ | Meta Reference | Single Node | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
131
+ | SambaNova | Hosted | | ✅ | | ✅ | | | | |
132
+ | Cerebras | Hosted | | ✅ | | | | | | |
133
+ | Fireworks | Hosted | ✅ | ✅ | ✅ | | | | | |
134
+ | AWS Bedrock | Hosted | | ✅ | | ✅ | | | | |
135
+ | Together | Hosted | ✅ | ✅ | | ✅ | | | | |
136
+ | Groq | Hosted | | ✅ | | | | | | |
137
+ | Ollama | Single Node | | ✅ | | | | | | |
138
+ | TGI | Hosted/Single Node | | ✅ | | | | | | |
139
+ | NVIDIA NIM | Hosted/Single Node | | ✅ | | ✅ | | | | |
140
+ | ChromaDB | Hosted/Single Node | | | ✅ | | | | | |
141
+ | Milvus | Hosted/Single Node | | | ✅ | | | | | |
142
+ | Qdrant | Hosted/Single Node | | | ✅ | | | | | |
143
+ | Weaviate | Hosted/Single Node | | | ✅ | | | | | |
144
+ | SQLite-vec | Single Node | | | ✅ | | | | | |
145
+ | PG Vector | Single Node | | | ✅ | | | | | |
146
+ | PyTorch ExecuTorch | On-device iOS | ✅ | ✅ | | | | | | |
147
+ | vLLM | Single Node | | ✅ | | | | | | |
148
+ | OpenAI | Hosted | | ✅ | | | | | | |
149
+ | Anthropic | Hosted | | ✅ | | | | | | |
150
+ | Gemini | Hosted | | ✅ | | | | | | |
151
+ | WatsonX | Hosted | | ✅ | | | | | | |
152
+ | HuggingFace | Single Node | | | | | | ✅ | | ✅ |
153
+ | TorchTune | Single Node | | | | | | ✅ | | |
154
+ | NVIDIA NEMO | Hosted | | ✅ | ✅ | | | ✅ | ✅ | ✅ |
155
+ | NVIDIA | Hosted | | | | | | ✅ | ✅ | ✅ |
156
+
157
+ > **Note**: Additional providers are available through external packages. See [External Providers](https://llamastack.github.io/docs/providers/external) documentation.
158
+
159
+ ### Distributions
160
+
161
+ A Llama Stack Distribution (or "distro") is a pre-configured bundle of provider implementations for each API component. Distributions make it easy to get started with a specific deployment scenario - you can begin with a local development setup (eg. ollama) and seamlessly transition to production (eg. Fireworks) without changing your application code.
162
+ Here are some of the distributions we support:
163
+
164
+ | **Distribution** | **Llama Stack Docker** | Start This Distribution |
165
+ |:---------------------------------------------:|:-------------------------------------------------------------------------------------------------------------------------------------------------------------:|:------------------------------------------------------------------------------------------------------------------------:|
166
+ | Starter Distribution | [llamastack/distribution-starter](https://hub.docker.com/repository/docker/llamastack/distribution-starter/general) | [Guide](https://llamastack.github.io/latest/distributions/self_hosted_distro/starter.html) |
167
+ | Meta Reference | [llamastack/distribution-meta-reference-gpu](https://hub.docker.com/repository/docker/llamastack/distribution-meta-reference-gpu/general) | [Guide](https://llamastack.github.io/latest/distributions/self_hosted_distro/meta-reference-gpu.html) |
168
+ | PostgreSQL | [llamastack/distribution-postgres-demo](https://hub.docker.com/repository/docker/llamastack/distribution-postgres-demo/general) | |
169
+
170
+ ### Documentation
171
+
172
+ Please checkout our [Documentation](https://llamastack.github.io/latest/index.html) page for more details.
173
+
174
+ * CLI references
175
+ * [llama (server-side) CLI Reference](https://llamastack.github.io/latest/references/llama_cli_reference/index.html): Guide for using the `llama` CLI to work with Llama models (download, study prompts), and building/starting a Llama Stack distribution.
176
+ * [llama (client-side) CLI Reference](https://llamastack.github.io/latest/references/llama_stack_client_cli_reference.html): Guide for using the `llama-stack-client` CLI, which allows you to query information about the distribution.
177
+ * Getting Started
178
+ * [Quick guide to start a Llama Stack server](https://llamastack.github.io/latest/getting_started/index.html).
179
+ * [Jupyter notebook](./docs/getting_started.ipynb) to walk-through how to use simple text and vision inference llama_stack_client APIs
180
+ * The complete Llama Stack lesson [Colab notebook](https://colab.research.google.com/drive/1dtVmxotBsI4cGZQNsJRYPrLiDeT0Wnwt) of the new [Llama 3.2 course on Deeplearning.ai](https://learn.deeplearning.ai/courses/introducing-multimodal-llama-3-2/lesson/8/llama-stack).
181
+ * A [Zero-to-Hero Guide](https://github.com/meta-llama/llama-stack/tree/main/docs/zero_to_hero_guide) that guide you through all the key components of llama stack with code samples.
182
+ * [Contributing](CONTRIBUTING.md)
183
+ * [Adding a new API Provider](https://llamastack.github.io/latest/contributing/new_api_provider.html) to walk-through how to add a new API provider.
184
+
185
+ ### Llama Stack Client SDKs
186
+
187
+ | **Language** | **Client SDK** | **Package** |
188
+ | :----: | :----: | :----: |
189
+ | Python | [llama-stack-client-python](https://github.com/meta-llama/llama-stack-client-python) | [![PyPI version](https://img.shields.io/pypi/v/llama_stack_client.svg)](https://pypi.org/project/llama_stack_client/)
190
+ | Swift | [llama-stack-client-swift](https://github.com/meta-llama/llama-stack-client-swift) | [![Swift Package Index](https://img.shields.io/endpoint?url=https%3A%2F%2Fswiftpackageindex.com%2Fapi%2Fpackages%2Fmeta-llama%2Fllama-stack-client-swift%2Fbadge%3Ftype%3Dswift-versions)](https://swiftpackageindex.com/meta-llama/llama-stack-client-swift)
191
+ | Typescript | [llama-stack-client-typescript](https://github.com/meta-llama/llama-stack-client-typescript) | [![NPM version](https://img.shields.io/npm/v/llama-stack-client.svg)](https://npmjs.org/package/llama-stack-client)
192
+ | Kotlin | [llama-stack-client-kotlin](https://github.com/meta-llama/llama-stack-client-kotlin) | [![Maven version](https://img.shields.io/maven-central/v/com.llama.llamastack/llama-stack-client-kotlin)](https://central.sonatype.com/artifact/com.llama.llamastack/llama-stack-client-kotlin)
193
+
194
+ Check out our client SDKs for connecting to a Llama Stack server in your preferred language, you can choose from [python](https://github.com/meta-llama/llama-stack-client-python), [typescript](https://github.com/meta-llama/llama-stack-client-typescript), [swift](https://github.com/meta-llama/llama-stack-client-swift), and [kotlin](https://github.com/meta-llama/llama-stack-client-kotlin) programming languages to quickly build your applications.
195
+
196
+ You can find more example scripts with client SDKs to talk with the Llama Stack server in our [llama-stack-apps](https://github.com/meta-llama/llama-stack-apps/tree/main/examples) repo.
197
+
198
+
199
+ ## 🌟 GitHub Star History
200
+ ## Star History
201
+
202
+ [![Star History Chart](https://api.star-history.com/svg?repos=meta-llama/llama-stack&type=Date)](https://www.star-history.com/#meta-llama/llama-stack&Date)
203
+
204
+ ## ✨ Contributors
205
+
206
+ Thanks to all of our amazing contributors!
207
+
208
+ <a href="https://github.com/meta-llama/llama-stack/graphs/contributors">
209
+ <img src="https://contrib.rocks/image?repo=meta-llama/llama-stack" />
210
+ </a>