llama-stack 0.3.2__tar.gz → 0.3.3__tar.gz

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (633) hide show
  1. {llama_stack-0.3.2/llama_stack.egg-info → llama_stack-0.3.3}/PKG-INFO +3 -3
  2. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/vector_io/faiss/faiss.py +25 -2
  3. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/vector_io/sqlite_vec/sqlite_vec.py +15 -4
  4. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/vertexai/vertexai.py +10 -0
  5. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/vector_io/chroma/chroma.py +9 -3
  6. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/vector_io/milvus/milvus.py +7 -4
  7. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/vector_io/pgvector/pgvector.py +32 -6
  8. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/vector_io/qdrant/qdrant.py +11 -6
  9. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/vector_io/weaviate/weaviate.py +7 -4
  10. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/inference/inference_store.py +16 -8
  11. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/inference/model_registry.py +1 -1
  12. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/inference/openai_mixin.py +29 -9
  13. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/responses/responses_store.py +18 -2
  14. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/sqlstore/sqlalchemy_sqlstore.py +31 -1
  15. {llama_stack-0.3.2 → llama_stack-0.3.3/llama_stack.egg-info}/PKG-INFO +3 -3
  16. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack.egg-info/requires.txt +2 -2
  17. {llama_stack-0.3.2 → llama_stack-0.3.3}/pyproject.toml +3 -3
  18. {llama_stack-0.3.2 → llama_stack-0.3.3}/LICENSE +0 -0
  19. {llama_stack-0.3.2 → llama_stack-0.3.3}/MANIFEST.in +0 -0
  20. {llama_stack-0.3.2 → llama_stack-0.3.3}/README.md +0 -0
  21. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/__init__.py +0 -0
  22. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/__init__.py +0 -0
  23. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/agents/__init__.py +0 -0
  24. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/agents/agents.py +0 -0
  25. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/agents/openai_responses.py +0 -0
  26. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/batches/__init__.py +0 -0
  27. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/batches/batches.py +0 -0
  28. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/benchmarks/__init__.py +0 -0
  29. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/benchmarks/benchmarks.py +0 -0
  30. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/common/__init__.py +0 -0
  31. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/common/content_types.py +0 -0
  32. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/common/errors.py +0 -0
  33. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/common/job_types.py +0 -0
  34. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/common/responses.py +0 -0
  35. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/common/training_types.py +0 -0
  36. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/common/type_system.py +0 -0
  37. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/conversations/__init__.py +0 -0
  38. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/conversations/conversations.py +0 -0
  39. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/datasetio/__init__.py +0 -0
  40. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/datasetio/datasetio.py +0 -0
  41. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/datasets/__init__.py +0 -0
  42. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/datasets/datasets.py +0 -0
  43. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/datatypes.py +0 -0
  44. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/eval/__init__.py +0 -0
  45. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/eval/eval.py +0 -0
  46. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/files/__init__.py +0 -0
  47. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/files/files.py +0 -0
  48. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/inference/__init__.py +0 -0
  49. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/inference/event_logger.py +0 -0
  50. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/inference/inference.py +0 -0
  51. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/inspect/__init__.py +0 -0
  52. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/inspect/inspect.py +0 -0
  53. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/models/__init__.py +0 -0
  54. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/models/models.py +0 -0
  55. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/post_training/__init__.py +0 -0
  56. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/post_training/post_training.py +0 -0
  57. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/prompts/__init__.py +0 -0
  58. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/prompts/prompts.py +0 -0
  59. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/providers/__init__.py +0 -0
  60. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/providers/providers.py +0 -0
  61. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/resource.py +0 -0
  62. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/safety/__init__.py +0 -0
  63. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/safety/safety.py +0 -0
  64. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/scoring/__init__.py +0 -0
  65. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/scoring/scoring.py +0 -0
  66. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/scoring_functions/__init__.py +0 -0
  67. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/scoring_functions/scoring_functions.py +0 -0
  68. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/shields/__init__.py +0 -0
  69. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/shields/shields.py +0 -0
  70. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/synthetic_data_generation/__init__.py +0 -0
  71. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/synthetic_data_generation/synthetic_data_generation.py +0 -0
  72. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/telemetry/__init__.py +0 -0
  73. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/telemetry/telemetry.py +0 -0
  74. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/tools/__init__.py +0 -0
  75. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/tools/rag_tool.py +0 -0
  76. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/tools/tools.py +0 -0
  77. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/vector_io/__init__.py +0 -0
  78. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/vector_io/vector_io.py +0 -0
  79. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/vector_stores/__init__.py +0 -0
  80. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/vector_stores/vector_stores.py +0 -0
  81. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/apis/version.py +0 -0
  82. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/cli/__init__.py +0 -0
  83. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/cli/llama.py +0 -0
  84. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/cli/scripts/__init__.py +0 -0
  85. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/cli/scripts/install-wheel-from-presigned.sh +0 -0
  86. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/cli/scripts/run.py +0 -0
  87. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/cli/stack/__init__.py +0 -0
  88. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/cli/stack/_list_deps.py +0 -0
  89. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/cli/stack/list_apis.py +0 -0
  90. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/cli/stack/list_deps.py +0 -0
  91. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/cli/stack/list_providers.py +0 -0
  92. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/cli/stack/list_stacks.py +0 -0
  93. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/cli/stack/remove.py +0 -0
  94. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/cli/stack/run.py +0 -0
  95. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/cli/stack/stack.py +0 -0
  96. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/cli/stack/utils.py +0 -0
  97. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/cli/subcommand.py +0 -0
  98. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/cli/table.py +0 -0
  99. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/cli/utils.py +0 -0
  100. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/__init__.py +0 -0
  101. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/access_control/__init__.py +0 -0
  102. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/access_control/access_control.py +0 -0
  103. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/access_control/conditions.py +0 -0
  104. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/access_control/datatypes.py +0 -0
  105. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/build.py +0 -0
  106. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/client.py +0 -0
  107. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/common.sh +0 -0
  108. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/configure.py +0 -0
  109. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/conversations/__init__.py +0 -0
  110. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/conversations/conversations.py +0 -0
  111. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/datatypes.py +0 -0
  112. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/distribution.py +0 -0
  113. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/external.py +0 -0
  114. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/id_generation.py +0 -0
  115. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/inspect.py +0 -0
  116. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/library_client.py +0 -0
  117. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/prompts/__init__.py +0 -0
  118. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/prompts/prompts.py +0 -0
  119. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/providers.py +0 -0
  120. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/request_headers.py +0 -0
  121. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/resolver.py +0 -0
  122. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/routers/__init__.py +0 -0
  123. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/routers/datasets.py +0 -0
  124. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/routers/eval_scoring.py +0 -0
  125. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/routers/inference.py +0 -0
  126. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/routers/safety.py +0 -0
  127. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/routers/tool_runtime.py +0 -0
  128. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/routers/vector_io.py +0 -0
  129. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/routing_tables/__init__.py +0 -0
  130. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/routing_tables/benchmarks.py +0 -0
  131. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/routing_tables/common.py +0 -0
  132. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/routing_tables/datasets.py +0 -0
  133. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/routing_tables/models.py +0 -0
  134. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/routing_tables/scoring_functions.py +0 -0
  135. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/routing_tables/shields.py +0 -0
  136. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/routing_tables/toolgroups.py +0 -0
  137. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/routing_tables/vector_stores.py +0 -0
  138. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/server/__init__.py +0 -0
  139. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/server/auth.py +0 -0
  140. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/server/auth_providers.py +0 -0
  141. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/server/quota.py +0 -0
  142. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/server/routes.py +0 -0
  143. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/server/server.py +0 -0
  144. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/server/tracing.py +0 -0
  145. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/stack.py +0 -0
  146. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/start_stack.sh +0 -0
  147. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/storage/__init__.py +0 -0
  148. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/storage/datatypes.py +0 -0
  149. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/store/__init__.py +0 -0
  150. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/store/registry.py +0 -0
  151. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/testing_context.py +0 -0
  152. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/ui/__init__.py +0 -0
  153. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/ui/app.py +0 -0
  154. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/ui/modules/__init__.py +0 -0
  155. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/ui/modules/api.py +0 -0
  156. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/ui/modules/utils.py +0 -0
  157. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/ui/page/__init__.py +0 -0
  158. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/ui/page/distribution/__init__.py +0 -0
  159. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/ui/page/distribution/datasets.py +0 -0
  160. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/ui/page/distribution/eval_tasks.py +0 -0
  161. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/ui/page/distribution/models.py +0 -0
  162. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/ui/page/distribution/providers.py +0 -0
  163. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/ui/page/distribution/resources.py +0 -0
  164. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/ui/page/distribution/scoring_functions.py +0 -0
  165. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/ui/page/distribution/shields.py +0 -0
  166. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/ui/page/evaluations/__init__.py +0 -0
  167. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/ui/page/evaluations/app_eval.py +0 -0
  168. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/ui/page/evaluations/native_eval.py +0 -0
  169. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/ui/page/playground/__init__.py +0 -0
  170. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/ui/page/playground/chat.py +0 -0
  171. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/ui/page/playground/tools.py +0 -0
  172. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/utils/__init__.py +0 -0
  173. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/utils/config.py +0 -0
  174. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/utils/config_dirs.py +0 -0
  175. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/utils/config_resolution.py +0 -0
  176. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/utils/context.py +0 -0
  177. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/utils/dynamic.py +0 -0
  178. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/utils/exec.py +0 -0
  179. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/utils/image_types.py +0 -0
  180. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/utils/model_utils.py +0 -0
  181. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/utils/prompt_for_config.py +0 -0
  182. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/core/utils/serialize.py +0 -0
  183. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/__init__.py +0 -0
  184. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/dell/__init__.py +0 -0
  185. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/dell/build.yaml +0 -0
  186. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/dell/dell.py +0 -0
  187. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/dell/run-with-safety.yaml +0 -0
  188. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/dell/run.yaml +0 -0
  189. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/meta-reference-gpu/__init__.py +0 -0
  190. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/meta-reference-gpu/build.yaml +0 -0
  191. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/meta-reference-gpu/meta_reference.py +0 -0
  192. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/meta-reference-gpu/run-with-safety.yaml +0 -0
  193. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/meta-reference-gpu/run.yaml +0 -0
  194. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/nvidia/__init__.py +0 -0
  195. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/nvidia/build.yaml +0 -0
  196. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/nvidia/nvidia.py +0 -0
  197. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/nvidia/run-with-safety.yaml +0 -0
  198. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/nvidia/run.yaml +0 -0
  199. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/open-benchmark/__init__.py +0 -0
  200. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/open-benchmark/build.yaml +0 -0
  201. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/open-benchmark/open_benchmark.py +0 -0
  202. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/open-benchmark/run.yaml +0 -0
  203. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/postgres-demo/__init__.py +0 -0
  204. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/postgres-demo/build.yaml +0 -0
  205. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/postgres-demo/postgres_demo.py +0 -0
  206. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/postgres-demo/run.yaml +0 -0
  207. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/starter/__init__.py +0 -0
  208. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/starter/build.yaml +0 -0
  209. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/starter/run-with-postgres-store.yaml +0 -0
  210. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/starter/run.yaml +0 -0
  211. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/starter/starter.py +0 -0
  212. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/starter-gpu/__init__.py +0 -0
  213. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/starter-gpu/build.yaml +0 -0
  214. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/starter-gpu/run-with-postgres-store.yaml +0 -0
  215. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/starter-gpu/run.yaml +0 -0
  216. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/starter-gpu/starter_gpu.py +0 -0
  217. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/template.py +0 -0
  218. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/watsonx/__init__.py +0 -0
  219. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/watsonx/build.yaml +0 -0
  220. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/watsonx/run.yaml +0 -0
  221. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/distributions/watsonx/watsonx.py +0 -0
  222. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/env.py +0 -0
  223. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/log.py +0 -0
  224. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/__init__.py +0 -0
  225. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/__init__.py +0 -0
  226. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/checkpoint.py +0 -0
  227. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/datatypes.py +0 -0
  228. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/hadamard_utils.py +0 -0
  229. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama3/__init__.py +0 -0
  230. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama3/args.py +0 -0
  231. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama3/chat_format.py +0 -0
  232. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama3/generation.py +0 -0
  233. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama3/interface.py +0 -0
  234. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama3/model.py +0 -0
  235. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama3/multimodal/__init__.py +0 -0
  236. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama3/multimodal/encoder_utils.py +0 -0
  237. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama3/multimodal/image_transform.py +0 -0
  238. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama3/multimodal/model.py +0 -0
  239. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama3/multimodal/utils.py +0 -0
  240. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama3/prompt_templates/__init__.py +0 -0
  241. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama3/prompt_templates/base.py +0 -0
  242. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama3/prompt_templates/system_prompts.py +0 -0
  243. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama3/prompt_templates/tool_response.py +0 -0
  244. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama3/quantization/__init__.py +0 -0
  245. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama3/quantization/loader.py +0 -0
  246. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama3/template_data.py +0 -0
  247. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama3/tokenizer.model +0 -0
  248. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama3/tokenizer.py +0 -0
  249. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama3/tool_utils.py +0 -0
  250. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama3_1/__init__.py +0 -0
  251. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama3_1/prompt_format.md +0 -0
  252. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama3_1/prompts.py +0 -0
  253. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama3_2/__init__.py +0 -0
  254. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama3_2/prompts_text.py +0 -0
  255. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama3_2/prompts_vision.py +0 -0
  256. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama3_2/text_prompt_format.md +0 -0
  257. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama3_2/vision_prompt_format.md +0 -0
  258. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama3_3/__init__.py +0 -0
  259. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama3_3/prompts.py +0 -0
  260. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama4/__init__.py +0 -0
  261. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama4/args.py +0 -0
  262. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama4/chat_format.py +0 -0
  263. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama4/datatypes.py +0 -0
  264. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama4/ffn.py +0 -0
  265. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama4/generation.py +0 -0
  266. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama4/model.py +0 -0
  267. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama4/moe.py +0 -0
  268. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama4/preprocess.py +0 -0
  269. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama4/prompt_format.md +0 -0
  270. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama4/prompt_templates/__init__.py +0 -0
  271. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama4/prompt_templates/system_prompts.py +0 -0
  272. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama4/prompts.py +0 -0
  273. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama4/quantization/__init__.py +0 -0
  274. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama4/quantization/loader.py +0 -0
  275. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama4/tokenizer.model +0 -0
  276. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama4/tokenizer.py +0 -0
  277. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama4/vision/__init__.py +0 -0
  278. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama4/vision/embedding.py +0 -0
  279. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/llama4/vision/encoder.py +0 -0
  280. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/prompt_format.py +0 -0
  281. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/quantize_impls.py +0 -0
  282. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/sku_list.py +0 -0
  283. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/sku_types.py +0 -0
  284. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/models/llama/tokenizer_utils.py +0 -0
  285. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/__init__.py +0 -0
  286. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/datatypes.py +0 -0
  287. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/__init__.py +0 -0
  288. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/agents/__init__.py +0 -0
  289. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/agents/meta_reference/__init__.py +0 -0
  290. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/agents/meta_reference/agent_instance.py +0 -0
  291. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/agents/meta_reference/agents.py +0 -0
  292. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/agents/meta_reference/config.py +0 -0
  293. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/agents/meta_reference/persistence.py +0 -0
  294. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/agents/meta_reference/responses/__init__.py +0 -0
  295. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/agents/meta_reference/responses/openai_responses.py +0 -0
  296. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/agents/meta_reference/responses/streaming.py +0 -0
  297. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/agents/meta_reference/responses/tool_executor.py +0 -0
  298. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/agents/meta_reference/responses/types.py +0 -0
  299. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/agents/meta_reference/responses/utils.py +0 -0
  300. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/agents/meta_reference/safety.py +0 -0
  301. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/batches/__init__.py +0 -0
  302. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/batches/reference/__init__.py +0 -0
  303. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/batches/reference/batches.py +0 -0
  304. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/batches/reference/config.py +0 -0
  305. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/datasetio/__init__.py +0 -0
  306. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/datasetio/localfs/__init__.py +0 -0
  307. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/datasetio/localfs/config.py +0 -0
  308. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/datasetio/localfs/datasetio.py +0 -0
  309. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/eval/__init__.py +0 -0
  310. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/eval/meta_reference/__init__.py +0 -0
  311. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/eval/meta_reference/config.py +0 -0
  312. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/eval/meta_reference/eval.py +0 -0
  313. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/files/localfs/__init__.py +0 -0
  314. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/files/localfs/config.py +0 -0
  315. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/files/localfs/files.py +0 -0
  316. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/inference/__init__.py +0 -0
  317. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/inference/meta_reference/__init__.py +0 -0
  318. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/inference/meta_reference/common.py +0 -0
  319. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/inference/meta_reference/config.py +0 -0
  320. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/inference/meta_reference/generators.py +0 -0
  321. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/inference/meta_reference/inference.py +0 -0
  322. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/inference/meta_reference/model_parallel.py +0 -0
  323. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/inference/meta_reference/parallel_utils.py +0 -0
  324. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/inference/sentence_transformers/__init__.py +0 -0
  325. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/inference/sentence_transformers/config.py +0 -0
  326. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/inference/sentence_transformers/sentence_transformers.py +0 -0
  327. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/post_training/__init__.py +0 -0
  328. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/post_training/common/__init__.py +0 -0
  329. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/post_training/common/utils.py +0 -0
  330. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/post_training/common/validator.py +0 -0
  331. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/post_training/huggingface/__init__.py +0 -0
  332. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/post_training/huggingface/config.py +0 -0
  333. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/post_training/huggingface/post_training.py +0 -0
  334. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/post_training/huggingface/recipes/__init__.py +0 -0
  335. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/post_training/huggingface/recipes/finetune_single_device.py +0 -0
  336. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/post_training/huggingface/recipes/finetune_single_device_dpo.py +0 -0
  337. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/post_training/huggingface/utils.py +0 -0
  338. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/post_training/torchtune/__init__.py +0 -0
  339. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/post_training/torchtune/common/__init__.py +0 -0
  340. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/post_training/torchtune/common/checkpointer.py +0 -0
  341. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/post_training/torchtune/common/utils.py +0 -0
  342. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/post_training/torchtune/config.py +0 -0
  343. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/post_training/torchtune/datasets/__init__.py +0 -0
  344. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/post_training/torchtune/datasets/format_adapter.py +0 -0
  345. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/post_training/torchtune/datasets/sft.py +0 -0
  346. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/post_training/torchtune/post_training.py +0 -0
  347. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/post_training/torchtune/recipes/__init__.py +0 -0
  348. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/post_training/torchtune/recipes/lora_finetuning_single_device.py +0 -0
  349. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/safety/__init__.py +0 -0
  350. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/safety/code_scanner/__init__.py +0 -0
  351. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/safety/code_scanner/code_scanner.py +0 -0
  352. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/safety/code_scanner/config.py +0 -0
  353. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/safety/llama_guard/__init__.py +0 -0
  354. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/safety/llama_guard/config.py +0 -0
  355. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/safety/llama_guard/llama_guard.py +0 -0
  356. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/safety/prompt_guard/__init__.py +0 -0
  357. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/safety/prompt_guard/config.py +0 -0
  358. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/safety/prompt_guard/prompt_guard.py +0 -0
  359. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/__init__.py +0 -0
  360. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/basic/__init__.py +0 -0
  361. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/basic/config.py +0 -0
  362. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/basic/scoring.py +0 -0
  363. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/basic/scoring_fn/__init__.py +0 -0
  364. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/basic/scoring_fn/docvqa_scoring_fn.py +0 -0
  365. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/basic/scoring_fn/equality_scoring_fn.py +0 -0
  366. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/__init__.py +0 -0
  367. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/docvqa.py +0 -0
  368. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/equality.py +0 -0
  369. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/ifeval.py +0 -0
  370. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/regex_parser_math_response.py +0 -0
  371. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/regex_parser_multiple_choice_answer.py +0 -0
  372. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/subset_of.py +0 -0
  373. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/basic/scoring_fn/ifeval_scoring_fn.py +0 -0
  374. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/basic/scoring_fn/regex_parser_math_response_scoring_fn.py +0 -0
  375. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/basic/scoring_fn/regex_parser_scoring_fn.py +0 -0
  376. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/basic/scoring_fn/subset_of_scoring_fn.py +0 -0
  377. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/basic/utils/__init__.py +0 -0
  378. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/basic/utils/ifeval_utils.py +0 -0
  379. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/basic/utils/math_utils.py +0 -0
  380. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/braintrust/__init__.py +0 -0
  381. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/braintrust/braintrust.py +0 -0
  382. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/braintrust/config.py +0 -0
  383. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/__init__.py +0 -0
  384. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/__init__.py +0 -0
  385. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/answer_correctness.py +0 -0
  386. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/answer_relevancy.py +0 -0
  387. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/answer_similarity.py +0 -0
  388. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_entity_recall.py +0 -0
  389. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_precision.py +0 -0
  390. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_recall.py +0 -0
  391. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_relevancy.py +0 -0
  392. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/factuality.py +0 -0
  393. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/faithfulness.py +0 -0
  394. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/llm_as_judge/__init__.py +0 -0
  395. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/llm_as_judge/config.py +0 -0
  396. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/llm_as_judge/scoring.py +0 -0
  397. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/__init__.py +0 -0
  398. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs/__init__.py +0 -0
  399. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs/llm_as_judge_405b_simpleqa.py +0 -0
  400. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs/llm_as_judge_base.py +0 -0
  401. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/llm_as_judge_scoring_fn.py +0 -0
  402. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/telemetry/__init__.py +0 -0
  403. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/telemetry/meta_reference/__init__.py +0 -0
  404. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/telemetry/meta_reference/config.py +0 -0
  405. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/telemetry/meta_reference/telemetry.py +0 -0
  406. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/tool_runtime/__init__.py +0 -0
  407. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/tool_runtime/rag/__init__.py +0 -0
  408. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/tool_runtime/rag/config.py +0 -0
  409. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/tool_runtime/rag/context_retriever.py +0 -0
  410. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/tool_runtime/rag/memory.py +0 -0
  411. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/vector_io/__init__.py +0 -0
  412. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/vector_io/chroma/__init__.py +0 -0
  413. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/vector_io/chroma/config.py +0 -0
  414. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/vector_io/faiss/__init__.py +0 -0
  415. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/vector_io/faiss/config.py +0 -0
  416. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/vector_io/milvus/__init__.py +0 -0
  417. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/vector_io/milvus/config.py +0 -0
  418. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/vector_io/qdrant/__init__.py +0 -0
  419. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/vector_io/qdrant/config.py +0 -0
  420. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/vector_io/sqlite_vec/__init__.py +0 -0
  421. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/inline/vector_io/sqlite_vec/config.py +0 -0
  422. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/registry/__init__.py +0 -0
  423. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/registry/agents.py +0 -0
  424. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/registry/batches.py +0 -0
  425. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/registry/datasetio.py +0 -0
  426. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/registry/eval.py +0 -0
  427. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/registry/files.py +0 -0
  428. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/registry/inference.py +0 -0
  429. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/registry/post_training.py +0 -0
  430. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/registry/safety.py +0 -0
  431. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/registry/scoring.py +0 -0
  432. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/registry/tool_runtime.py +0 -0
  433. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/registry/vector_io.py +0 -0
  434. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/__init__.py +0 -0
  435. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/agents/__init__.py +0 -0
  436. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/datasetio/__init__.py +0 -0
  437. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/datasetio/huggingface/__init__.py +0 -0
  438. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/datasetio/huggingface/config.py +0 -0
  439. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/datasetio/huggingface/huggingface.py +0 -0
  440. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/datasetio/nvidia/__init__.py +0 -0
  441. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/datasetio/nvidia/config.py +0 -0
  442. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/datasetio/nvidia/datasetio.py +0 -0
  443. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/eval/__init__.py +0 -0
  444. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/eval/nvidia/__init__.py +0 -0
  445. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/eval/nvidia/config.py +0 -0
  446. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/eval/nvidia/eval.py +0 -0
  447. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/files/s3/__init__.py +0 -0
  448. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/files/s3/config.py +0 -0
  449. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/files/s3/files.py +0 -0
  450. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/__init__.py +0 -0
  451. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/anthropic/__init__.py +0 -0
  452. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/anthropic/anthropic.py +0 -0
  453. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/anthropic/config.py +0 -0
  454. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/azure/__init__.py +0 -0
  455. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/azure/azure.py +0 -0
  456. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/azure/config.py +0 -0
  457. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/bedrock/__init__.py +0 -0
  458. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/bedrock/bedrock.py +0 -0
  459. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/bedrock/config.py +0 -0
  460. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/bedrock/models.py +0 -0
  461. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/cerebras/__init__.py +0 -0
  462. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/cerebras/cerebras.py +0 -0
  463. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/cerebras/config.py +0 -0
  464. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/databricks/__init__.py +0 -0
  465. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/databricks/config.py +0 -0
  466. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/databricks/databricks.py +0 -0
  467. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/fireworks/__init__.py +0 -0
  468. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/fireworks/config.py +0 -0
  469. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/fireworks/fireworks.py +0 -0
  470. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/gemini/__init__.py +0 -0
  471. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/gemini/config.py +0 -0
  472. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/gemini/gemini.py +0 -0
  473. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/groq/__init__.py +0 -0
  474. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/groq/config.py +0 -0
  475. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/groq/groq.py +0 -0
  476. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/llama_openai_compat/__init__.py +0 -0
  477. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/llama_openai_compat/config.py +0 -0
  478. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/llama_openai_compat/llama.py +0 -0
  479. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/nvidia/__init__.py +0 -0
  480. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/nvidia/config.py +0 -0
  481. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/nvidia/nvidia.py +0 -0
  482. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/nvidia/utils.py +0 -0
  483. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/ollama/__init__.py +0 -0
  484. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/ollama/config.py +0 -0
  485. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/ollama/ollama.py +0 -0
  486. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/openai/__init__.py +0 -0
  487. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/openai/config.py +0 -0
  488. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/openai/openai.py +0 -0
  489. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/passthrough/__init__.py +0 -0
  490. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/passthrough/config.py +0 -0
  491. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/passthrough/passthrough.py +0 -0
  492. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/runpod/__init__.py +0 -0
  493. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/runpod/config.py +0 -0
  494. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/runpod/runpod.py +0 -0
  495. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/sambanova/__init__.py +0 -0
  496. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/sambanova/config.py +0 -0
  497. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/sambanova/sambanova.py +0 -0
  498. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/tgi/__init__.py +0 -0
  499. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/tgi/config.py +0 -0
  500. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/tgi/tgi.py +0 -0
  501. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/together/__init__.py +0 -0
  502. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/together/config.py +0 -0
  503. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/together/together.py +0 -0
  504. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/vertexai/__init__.py +0 -0
  505. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/vertexai/config.py +0 -0
  506. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/vllm/__init__.py +0 -0
  507. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/vllm/config.py +0 -0
  508. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/vllm/vllm.py +0 -0
  509. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/watsonx/__init__.py +0 -0
  510. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/watsonx/config.py +0 -0
  511. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/inference/watsonx/watsonx.py +0 -0
  512. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/post_training/__init__.py +0 -0
  513. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/post_training/nvidia/__init__.py +0 -0
  514. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/post_training/nvidia/config.py +0 -0
  515. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/post_training/nvidia/models.py +0 -0
  516. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/post_training/nvidia/post_training.py +0 -0
  517. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/post_training/nvidia/utils.py +0 -0
  518. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/safety/__init__.py +0 -0
  519. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/safety/bedrock/__init__.py +0 -0
  520. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/safety/bedrock/bedrock.py +0 -0
  521. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/safety/bedrock/config.py +0 -0
  522. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/safety/nvidia/__init__.py +0 -0
  523. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/safety/nvidia/config.py +0 -0
  524. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/safety/nvidia/nvidia.py +0 -0
  525. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/safety/sambanova/__init__.py +0 -0
  526. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/safety/sambanova/config.py +0 -0
  527. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/safety/sambanova/sambanova.py +0 -0
  528. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/tool_runtime/__init__.py +0 -0
  529. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/tool_runtime/bing_search/__init__.py +0 -0
  530. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/tool_runtime/bing_search/bing_search.py +0 -0
  531. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/tool_runtime/bing_search/config.py +0 -0
  532. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/tool_runtime/brave_search/__init__.py +0 -0
  533. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/tool_runtime/brave_search/brave_search.py +0 -0
  534. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/tool_runtime/brave_search/config.py +0 -0
  535. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/tool_runtime/model_context_protocol/__init__.py +0 -0
  536. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/tool_runtime/model_context_protocol/config.py +0 -0
  537. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/tool_runtime/model_context_protocol/model_context_protocol.py +0 -0
  538. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/tool_runtime/tavily_search/__init__.py +0 -0
  539. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/tool_runtime/tavily_search/config.py +0 -0
  540. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/tool_runtime/tavily_search/tavily_search.py +0 -0
  541. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/tool_runtime/wolfram_alpha/__init__.py +0 -0
  542. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/tool_runtime/wolfram_alpha/config.py +0 -0
  543. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/tool_runtime/wolfram_alpha/wolfram_alpha.py +0 -0
  544. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/vector_io/__init__.py +0 -0
  545. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/vector_io/chroma/__init__.py +0 -0
  546. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/vector_io/chroma/config.py +0 -0
  547. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/vector_io/milvus/__init__.py +0 -0
  548. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/vector_io/milvus/config.py +0 -0
  549. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/vector_io/pgvector/__init__.py +0 -0
  550. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/vector_io/pgvector/config.py +0 -0
  551. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/vector_io/qdrant/__init__.py +0 -0
  552. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/vector_io/qdrant/config.py +0 -0
  553. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/vector_io/weaviate/__init__.py +0 -0
  554. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/remote/vector_io/weaviate/config.py +0 -0
  555. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/__init__.py +0 -0
  556. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/bedrock/__init__.py +0 -0
  557. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/bedrock/client.py +0 -0
  558. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/bedrock/config.py +0 -0
  559. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/bedrock/refreshable_boto_session.py +0 -0
  560. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/common/__init__.py +0 -0
  561. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/common/data_schema_validator.py +0 -0
  562. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/datasetio/__init__.py +0 -0
  563. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/datasetio/url_utils.py +0 -0
  564. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/files/__init__.py +0 -0
  565. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/files/form_data.py +0 -0
  566. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/inference/__init__.py +0 -0
  567. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/inference/embedding_mixin.py +0 -0
  568. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/inference/litellm_openai_mixin.py +0 -0
  569. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/inference/openai_compat.py +0 -0
  570. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/inference/prompt_adapter.py +0 -0
  571. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/kvstore/__init__.py +0 -0
  572. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/kvstore/api.py +0 -0
  573. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/kvstore/config.py +0 -0
  574. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/kvstore/kvstore.py +0 -0
  575. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/kvstore/mongodb/__init__.py +0 -0
  576. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/kvstore/mongodb/mongodb.py +0 -0
  577. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/kvstore/postgres/__init__.py +0 -0
  578. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/kvstore/postgres/postgres.py +0 -0
  579. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/kvstore/redis/__init__.py +0 -0
  580. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/kvstore/redis/redis.py +0 -0
  581. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/kvstore/sqlite/__init__.py +0 -0
  582. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/kvstore/sqlite/config.py +0 -0
  583. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/kvstore/sqlite/sqlite.py +0 -0
  584. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/memory/__init__.py +0 -0
  585. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/memory/file_utils.py +0 -0
  586. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/memory/openai_vector_store_mixin.py +0 -0
  587. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/memory/vector_store.py +0 -0
  588. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/pagination.py +0 -0
  589. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/responses/__init__.py +0 -0
  590. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/scheduler.py +0 -0
  591. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/scoring/__init__.py +0 -0
  592. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/scoring/aggregation_utils.py +0 -0
  593. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/scoring/base_scoring_fn.py +0 -0
  594. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/scoring/basic_scoring_utils.py +0 -0
  595. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/sqlstore/__init__.py +0 -0
  596. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/sqlstore/api.py +0 -0
  597. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/sqlstore/authorized_sqlstore.py +0 -0
  598. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/sqlstore/sqlstore.py +0 -0
  599. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/telemetry/__init__.py +0 -0
  600. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/telemetry/trace_protocol.py +0 -0
  601. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/telemetry/tracing.py +0 -0
  602. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/tools/__init__.py +0 -0
  603. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/tools/mcp.py +0 -0
  604. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/tools/ttl_dict.py +0 -0
  605. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/vector_io/__init__.py +0 -0
  606. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/providers/utils/vector_io/vector_utils.py +0 -0
  607. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/schema_utils.py +0 -0
  608. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/strong_typing/__init__.py +0 -0
  609. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/strong_typing/auxiliary.py +0 -0
  610. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/strong_typing/classdef.py +0 -0
  611. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/strong_typing/core.py +0 -0
  612. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/strong_typing/deserializer.py +0 -0
  613. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/strong_typing/docstring.py +0 -0
  614. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/strong_typing/exception.py +0 -0
  615. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/strong_typing/inspection.py +0 -0
  616. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/strong_typing/mapping.py +0 -0
  617. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/strong_typing/name.py +0 -0
  618. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/strong_typing/py.typed +0 -0
  619. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/strong_typing/schema.py +0 -0
  620. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/strong_typing/serialization.py +0 -0
  621. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/strong_typing/serializer.py +0 -0
  622. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/strong_typing/slots.py +0 -0
  623. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/strong_typing/topological.py +0 -0
  624. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/testing/__init__.py +0 -0
  625. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/testing/api_recorder.py +0 -0
  626. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack/ui/node_modules/flatted/python/flatted.py +0 -0
  627. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack.egg-info/SOURCES.txt +0 -0
  628. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack.egg-info/dependency_links.txt +0 -0
  629. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack.egg-info/entry_points.txt +0 -0
  630. {llama_stack-0.3.2 → llama_stack-0.3.3}/llama_stack.egg-info/top_level.txt +0 -0
  631. {llama_stack-0.3.2 → llama_stack-0.3.3}/setup.cfg +0 -0
  632. {llama_stack-0.3.2 → llama_stack-0.3.3}/tests/integration/test_cases/inference/chat_completion.json +0 -0
  633. {llama_stack-0.3.2 → llama_stack-0.3.3}/tests/integration/test_cases/inference/completion.json +0 -0
@@ -1,6 +1,6 @@
1
1
  Metadata-Version: 2.4
2
2
  Name: llama_stack
3
- Version: 0.3.2
3
+ Version: 0.3.3
4
4
  Summary: Llama Stack
5
5
  Author-email: Meta Llama <llama-oss@meta.com>
6
6
  License: MIT
@@ -22,7 +22,7 @@ Requires-Dist: fire
22
22
  Requires-Dist: httpx
23
23
  Requires-Dist: jinja2>=3.1.6
24
24
  Requires-Dist: jsonschema
25
- Requires-Dist: llama-stack-client>=0.3.2
25
+ Requires-Dist: llama-stack-client>=0.3.3
26
26
  Requires-Dist: openai>=1.107
27
27
  Requires-Dist: prompt-toolkit
28
28
  Requires-Dist: python-dotenv
@@ -44,7 +44,7 @@ Requires-Dist: sqlalchemy[asyncio]>=2.0.41
44
44
  Provides-Extra: ui
45
45
  Requires-Dist: streamlit; extra == "ui"
46
46
  Requires-Dist: pandas; extra == "ui"
47
- Requires-Dist: llama-stack-client>=0.3.2; extra == "ui"
47
+ Requires-Dist: llama-stack-client>=0.3.3; extra == "ui"
48
48
  Requires-Dist: streamlit-option-menu; extra == "ui"
49
49
  Dynamic: license-file
50
50
 
@@ -223,7 +223,8 @@ class FaissVectorIOAdapter(OpenAIVectorStoreMixin, VectorIO, VectorStoresProtoco
223
223
  return HealthResponse(status=HealthStatus.ERROR, message=f"Health check failed: {str(e)}")
224
224
 
225
225
  async def register_vector_store(self, vector_store: VectorStore) -> None:
226
- assert self.kvstore is not None
226
+ if self.kvstore is None:
227
+ raise RuntimeError("KVStore not initialized. Call initialize() before registering vector stores.")
227
228
 
228
229
  key = f"{VECTOR_DBS_PREFIX}{vector_store.identifier}"
229
230
  await self.kvstore.set(key=key, value=vector_store.model_dump_json())
@@ -239,7 +240,8 @@ class FaissVectorIOAdapter(OpenAIVectorStoreMixin, VectorIO, VectorStoresProtoco
239
240
  return [i.vector_store for i in self.cache.values()]
240
241
 
241
242
  async def unregister_vector_store(self, vector_store_id: str) -> None:
242
- assert self.kvstore is not None
243
+ if self.kvstore is None:
244
+ raise RuntimeError("KVStore not initialized. Call initialize() before unregistering vector stores.")
243
245
 
244
246
  if vector_store_id not in self.cache:
245
247
  return
@@ -248,6 +250,27 @@ class FaissVectorIOAdapter(OpenAIVectorStoreMixin, VectorIO, VectorStoresProtoco
248
250
  del self.cache[vector_store_id]
249
251
  await self.kvstore.delete(f"{VECTOR_DBS_PREFIX}{vector_store_id}")
250
252
 
253
+ async def _get_and_cache_vector_store_index(self, vector_store_id: str) -> VectorStoreWithIndex | None:
254
+ if vector_store_id in self.cache:
255
+ return self.cache[vector_store_id]
256
+
257
+ if self.kvstore is None:
258
+ raise RuntimeError("KVStore not initialized. Call initialize() before using vector stores.")
259
+
260
+ key = f"{VECTOR_DBS_PREFIX}{vector_store_id}"
261
+ vector_store_data = await self.kvstore.get(key)
262
+ if not vector_store_data:
263
+ raise VectorStoreNotFoundError(vector_store_id)
264
+
265
+ vector_store = VectorStore.model_validate_json(vector_store_data)
266
+ index = VectorStoreWithIndex(
267
+ vector_store=vector_store,
268
+ index=await FaissIndex.create(vector_store.embedding_dimension, self.kvstore, vector_store.identifier),
269
+ inference_api=self.inference_api,
270
+ )
271
+ self.cache[vector_store_id] = index
272
+ return index
273
+
251
274
  async def insert_chunks(self, vector_db_id: str, chunks: list[Chunk], ttl_seconds: int | None = None) -> None:
252
275
  index = self.cache.get(vector_db_id)
253
276
  if index is None:
@@ -412,6 +412,14 @@ class SQLiteVecVectorIOAdapter(OpenAIVectorStoreMixin, VectorIO, VectorStoresPro
412
412
  return [v.vector_store for v in self.cache.values()]
413
413
 
414
414
  async def register_vector_store(self, vector_store: VectorStore) -> None:
415
+ if self.kvstore is None:
416
+ raise RuntimeError("KVStore not initialized. Call initialize() before registering vector stores.")
417
+
418
+ # Save to kvstore for persistence
419
+ key = f"{VECTOR_DBS_PREFIX}{vector_store.identifier}"
420
+ await self.kvstore.set(key=key, value=vector_store.model_dump_json())
421
+
422
+ # Create and cache the index
415
423
  index = await SQLiteVecIndex.create(
416
424
  vector_store.embedding_dimension, self.config.db_path, vector_store.identifier
417
425
  )
@@ -421,13 +429,16 @@ class SQLiteVecVectorIOAdapter(OpenAIVectorStoreMixin, VectorIO, VectorStoresPro
421
429
  if vector_store_id in self.cache:
422
430
  return self.cache[vector_store_id]
423
431
 
424
- if self.vector_store_table is None:
425
- raise VectorStoreNotFoundError(vector_store_id)
432
+ # Try to load from kvstore
433
+ if self.kvstore is None:
434
+ raise RuntimeError("KVStore not initialized. Call initialize() before using vector stores.")
426
435
 
427
- vector_store = self.vector_store_table.get_vector_store(vector_store_id)
428
- if not vector_store:
436
+ key = f"{VECTOR_DBS_PREFIX}{vector_store_id}"
437
+ vector_store_data = await self.kvstore.get(key)
438
+ if not vector_store_data:
429
439
  raise VectorStoreNotFoundError(vector_store_id)
430
440
 
441
+ vector_store = VectorStore.model_validate_json(vector_store_data)
431
442
  index = VectorStoreWithIndex(
432
443
  vector_store=vector_store,
433
444
  index=SQLiteVecIndex(
@@ -4,6 +4,7 @@
4
4
  # This source code is licensed under the terms described in the LICENSE file in
5
5
  # the root directory of this source tree.
6
6
 
7
+ from collections.abc import Iterable
7
8
 
8
9
  import google.auth.transport.requests
9
10
  from google.auth import default
@@ -42,3 +43,12 @@ class VertexAIInferenceAdapter(OpenAIMixin):
42
43
  Source: https://cloud.google.com/vertex-ai/generative-ai/docs/start/openai
43
44
  """
44
45
  return f"https://{self.config.location}-aiplatform.googleapis.com/v1/projects/{self.config.project}/locations/{self.config.location}/endpoints/openapi"
46
+
47
+ async def list_provider_model_ids(self) -> Iterable[str]:
48
+ """
49
+ VertexAI doesn't currently offer a way to query a list of available models from Google's Model Garden
50
+ For now we return a hardcoded version of the available models
51
+
52
+ :return: An iterable of model IDs
53
+ """
54
+ return ["google/gemini-2.0-flash", "google/gemini-2.5-flash", "google/gemini-2.5-pro"]
@@ -131,7 +131,6 @@ class ChromaVectorIOAdapter(OpenAIVectorStoreMixin, VectorIO, VectorStoresProtoc
131
131
 
132
132
  async def initialize(self) -> None:
133
133
  self.kvstore = await kvstore_impl(self.config.persistence)
134
- self.vector_store_table = self.kvstore
135
134
 
136
135
  if isinstance(self.config, RemoteChromaVectorIOConfig):
137
136
  log.info(f"Connecting to Chroma server at: {self.config.url}")
@@ -190,9 +189,16 @@ class ChromaVectorIOAdapter(OpenAIVectorStoreMixin, VectorIO, VectorStoresProtoc
190
189
  if vector_store_id in self.cache:
191
190
  return self.cache[vector_store_id]
192
191
 
193
- vector_store = await self.vector_store_table.get_vector_store(vector_store_id)
194
- if not vector_store:
192
+ # Try to load from kvstore
193
+ if self.kvstore is None:
194
+ raise RuntimeError("KVStore not initialized. Call initialize() before using vector stores.")
195
+
196
+ key = f"{VECTOR_DBS_PREFIX}{vector_store_id}"
197
+ vector_store_data = await self.kvstore.get(key)
198
+ if not vector_store_data:
195
199
  raise ValueError(f"Vector DB {vector_store_id} not found in Llama Stack")
200
+
201
+ vector_store = VectorStore.model_validate_json(vector_store_data)
196
202
  collection = await maybe_await(self.client.get_collection(vector_store_id))
197
203
  if not collection:
198
204
  raise ValueError(f"Vector DB {vector_store_id} not found in Chroma")
@@ -328,13 +328,16 @@ class MilvusVectorIOAdapter(OpenAIVectorStoreMixin, VectorIO, VectorStoresProtoc
328
328
  if vector_store_id in self.cache:
329
329
  return self.cache[vector_store_id]
330
330
 
331
- if self.vector_store_table is None:
332
- raise VectorStoreNotFoundError(vector_store_id)
331
+ # Try to load from kvstore
332
+ if self.kvstore is None:
333
+ raise RuntimeError("KVStore not initialized. Call initialize() before using vector stores.")
333
334
 
334
- vector_store = await self.vector_store_table.get_vector_store(vector_store_id)
335
- if not vector_store:
335
+ key = f"{VECTOR_DBS_PREFIX}{vector_store_id}"
336
+ vector_store_data = await self.kvstore.get(key)
337
+ if not vector_store_data:
336
338
  raise VectorStoreNotFoundError(vector_store_id)
337
339
 
340
+ vector_store = VectorStore.model_validate_json(vector_store_data)
338
341
  index = VectorStoreWithIndex(
339
342
  vector_store=vector_store,
340
343
  index=MilvusIndex(client=self.client, collection_name=vector_store.identifier, kvstore=self.kvstore),
@@ -368,6 +368,22 @@ class PGVectorVectorIOAdapter(OpenAIVectorStoreMixin, VectorIO, VectorStoresProt
368
368
  log.exception("Could not connect to PGVector database server")
369
369
  raise RuntimeError("Could not connect to PGVector database server") from e
370
370
 
371
+ # Load existing vector stores from KV store into cache
372
+ start_key = VECTOR_DBS_PREFIX
373
+ end_key = f"{VECTOR_DBS_PREFIX}\xff"
374
+ stored_vector_stores = await self.kvstore.values_in_range(start_key, end_key)
375
+ for vector_store_data in stored_vector_stores:
376
+ vector_store = VectorStore.model_validate_json(vector_store_data)
377
+ pgvector_index = PGVectorIndex(
378
+ vector_store=vector_store,
379
+ dimension=vector_store.embedding_dimension,
380
+ conn=self.conn,
381
+ kvstore=self.kvstore,
382
+ )
383
+ await pgvector_index.initialize()
384
+ index = VectorStoreWithIndex(vector_store, index=pgvector_index, inference_api=self.inference_api)
385
+ self.cache[vector_store.identifier] = index
386
+
371
387
  async def shutdown(self) -> None:
372
388
  if self.conn is not None:
373
389
  self.conn.close()
@@ -377,7 +393,13 @@ class PGVectorVectorIOAdapter(OpenAIVectorStoreMixin, VectorIO, VectorStoresProt
377
393
 
378
394
  async def register_vector_store(self, vector_store: VectorStore) -> None:
379
395
  # Persist vector DB metadata in the KV store
380
- assert self.kvstore is not None
396
+ if self.kvstore is None:
397
+ raise RuntimeError("KVStore not initialized. Call initialize() before registering vector stores.")
398
+
399
+ # Save to kvstore for persistence
400
+ key = f"{VECTOR_DBS_PREFIX}{vector_store.identifier}"
401
+ await self.kvstore.set(key=key, value=vector_store.model_dump_json())
402
+
381
403
  # Upsert model metadata in Postgres
382
404
  upsert_models(self.conn, [(vector_store.identifier, vector_store)])
383
405
 
@@ -396,7 +418,8 @@ class PGVectorVectorIOAdapter(OpenAIVectorStoreMixin, VectorIO, VectorStoresProt
396
418
  del self.cache[vector_store_id]
397
419
 
398
420
  # Delete vector DB metadata from KV store
399
- assert self.kvstore is not None
421
+ if self.kvstore is None:
422
+ raise RuntimeError("KVStore not initialized. Call initialize() before unregistering vector stores.")
400
423
  await self.kvstore.delete(key=f"{VECTOR_DBS_PREFIX}{vector_store_id}")
401
424
 
402
425
  async def insert_chunks(self, vector_db_id: str, chunks: list[Chunk], ttl_seconds: int | None = None) -> None:
@@ -413,13 +436,16 @@ class PGVectorVectorIOAdapter(OpenAIVectorStoreMixin, VectorIO, VectorStoresProt
413
436
  if vector_store_id in self.cache:
414
437
  return self.cache[vector_store_id]
415
438
 
416
- if self.vector_store_table is None:
417
- raise VectorStoreNotFoundError(vector_store_id)
439
+ # Try to load from kvstore
440
+ if self.kvstore is None:
441
+ raise RuntimeError("KVStore not initialized. Call initialize() before using vector stores.")
418
442
 
419
- vector_store = await self.vector_store_table.get_vector_store(vector_store_id)
420
- if not vector_store:
443
+ key = f"{VECTOR_DBS_PREFIX}{vector_store_id}"
444
+ vector_store_data = await self.kvstore.get(key)
445
+ if not vector_store_data:
421
446
  raise VectorStoreNotFoundError(vector_store_id)
422
447
 
448
+ vector_store = VectorStore.model_validate_json(vector_store_data)
423
449
  index = PGVectorIndex(vector_store, vector_store.embedding_dimension, self.conn)
424
450
  await index.initialize()
425
451
  self.cache[vector_store_id] = VectorStoreWithIndex(vector_store, index, self.inference_api)
@@ -183,7 +183,8 @@ class QdrantVectorIOAdapter(OpenAIVectorStoreMixin, VectorIO, VectorStoresProtoc
183
183
  await super().shutdown()
184
184
 
185
185
  async def register_vector_store(self, vector_store: VectorStore) -> None:
186
- assert self.kvstore is not None
186
+ if self.kvstore is None:
187
+ raise RuntimeError("KVStore not initialized. Call initialize() before registering vector stores.")
187
188
  key = f"{VECTOR_DBS_PREFIX}{vector_store.identifier}"
188
189
  await self.kvstore.set(key=key, value=vector_store.model_dump_json())
189
190
 
@@ -200,20 +201,24 @@ class QdrantVectorIOAdapter(OpenAIVectorStoreMixin, VectorIO, VectorStoresProtoc
200
201
  await self.cache[vector_store_id].index.delete()
201
202
  del self.cache[vector_store_id]
202
203
 
203
- assert self.kvstore is not None
204
+ if self.kvstore is None:
205
+ raise RuntimeError("KVStore not initialized. Call initialize() before using vector stores.")
204
206
  await self.kvstore.delete(f"{VECTOR_DBS_PREFIX}{vector_store_id}")
205
207
 
206
208
  async def _get_and_cache_vector_store_index(self, vector_store_id: str) -> VectorStoreWithIndex | None:
207
209
  if vector_store_id in self.cache:
208
210
  return self.cache[vector_store_id]
209
211
 
210
- if self.vector_store_table is None:
211
- raise ValueError(f"Vector DB not found {vector_store_id}")
212
+ # Try to load from kvstore
213
+ if self.kvstore is None:
214
+ raise RuntimeError("KVStore not initialized. Call initialize() before using vector stores.")
212
215
 
213
- vector_store = await self.vector_store_table.get_vector_store(vector_store_id)
214
- if not vector_store:
216
+ key = f"{VECTOR_DBS_PREFIX}{vector_store_id}"
217
+ vector_store_data = await self.kvstore.get(key)
218
+ if not vector_store_data:
215
219
  raise VectorStoreNotFoundError(vector_store_id)
216
220
 
221
+ vector_store = VectorStore.model_validate_json(vector_store_data)
217
222
  index = VectorStoreWithIndex(
218
223
  vector_store=vector_store,
219
224
  index=QdrantIndex(client=self.client, collection_name=vector_store.identifier),
@@ -346,13 +346,16 @@ class WeaviateVectorIOAdapter(OpenAIVectorStoreMixin, VectorIO, NeedsRequestProv
346
346
  if vector_store_id in self.cache:
347
347
  return self.cache[vector_store_id]
348
348
 
349
- if self.vector_store_table is None:
350
- raise VectorStoreNotFoundError(vector_store_id)
349
+ # Try to load from kvstore
350
+ if self.kvstore is None:
351
+ raise RuntimeError("KVStore not initialized. Call initialize() before using vector stores.")
351
352
 
352
- vector_store = await self.vector_store_table.get_vector_store(vector_store_id)
353
- if not vector_store:
353
+ key = f"{VECTOR_DBS_PREFIX}{vector_store_id}"
354
+ vector_store_data = await self.kvstore.get(key)
355
+ if not vector_store_data:
354
356
  raise VectorStoreNotFoundError(vector_store_id)
355
357
 
358
+ vector_store = VectorStore.model_validate_json(vector_store_data)
356
359
  client = self._get_client()
357
360
  sanitized_collection_name = sanitize_collection_name(vector_store.identifier, weaviate_format=True)
358
361
  if not client.collections.exists(sanitized_collection_name):
@@ -35,6 +35,7 @@ class InferenceStore:
35
35
  self.reference = reference
36
36
  self.sql_store = None
37
37
  self.policy = policy
38
+ self.enable_write_queue = True
38
39
 
39
40
  # Async write queue and worker control
40
41
  self._queue: asyncio.Queue[tuple[OpenAIChatCompletion, list[OpenAIMessageParam]]] | None = None
@@ -47,14 +48,13 @@ class InferenceStore:
47
48
  base_store = sqlstore_impl(self.reference)
48
49
  self.sql_store = AuthorizedSqlStore(base_store, self.policy)
49
50
 
50
- # Disable write queue for SQLite to avoid concurrency issues
51
- backend_name = self.reference.backend
52
- backend_config = _SQLSTORE_BACKENDS.get(backend_name)
53
- if backend_config is None:
54
- raise ValueError(
55
- f"Unregistered SQL backend '{backend_name}'. Registered backends: {sorted(_SQLSTORE_BACKENDS)}"
56
- )
57
- self.enable_write_queue = backend_config.type != StorageBackendType.SQL_SQLITE
51
+ # Disable write queue for SQLite since WAL mode handles concurrency
52
+ # Keep it enabled for other backends (like Postgres) for performance
53
+ backend_config = _SQLSTORE_BACKENDS.get(self.reference.backend)
54
+ if backend_config and backend_config.type == StorageBackendType.SQL_SQLITE:
55
+ self.enable_write_queue = False
56
+ logger.debug("Write queue disabled for SQLite (WAL mode handles concurrency)")
57
+
58
58
  await self.sql_store.create_table(
59
59
  "chat_completions",
60
60
  {
@@ -66,6 +66,14 @@ class InferenceStore:
66
66
  },
67
67
  )
68
68
 
69
+ if self.enable_write_queue:
70
+ self._queue = asyncio.Queue(maxsize=self._max_write_queue_size)
71
+ for _ in range(self._num_writers):
72
+ self._worker_tasks.append(asyncio.create_task(self._worker_loop()))
73
+ logger.debug(
74
+ f"Inference store write queue enabled with {self._num_writers} writers, max queue size {self._max_write_queue_size}"
75
+ )
76
+
69
77
  async def shutdown(self) -> None:
70
78
  if not self._worker_tasks:
71
79
  return
@@ -20,7 +20,7 @@ logger = get_logger(name=__name__, category="providers::utils")
20
20
 
21
21
 
22
22
  class RemoteInferenceProviderConfig(BaseModel):
23
- allowed_models: list[str] | None = Field( # TODO: make this non-optional and give a list() default
23
+ allowed_models: list[str] | None = Field(
24
24
  default=None,
25
25
  description="List of models that should be registered with the model registry. If None, all models are allowed.",
26
26
  )
@@ -82,9 +82,6 @@ class OpenAIMixin(NeedsRequestProviderData, ABC, BaseModel):
82
82
  # This is set in list_models() and used in check_model_availability()
83
83
  _model_cache: dict[str, Model] = {}
84
84
 
85
- # List of allowed models for this provider, if empty all models allowed
86
- allowed_models: list[str] = []
87
-
88
85
  # Optional field name in provider data to look for API key, which takes precedence
89
86
  provider_data_api_key_field: str | None = None
90
87
 
@@ -191,6 +188,19 @@ class OpenAIMixin(NeedsRequestProviderData, ABC, BaseModel):
191
188
 
192
189
  return api_key
193
190
 
191
+ def _validate_model_allowed(self, provider_model_id: str) -> None:
192
+ """
193
+ Validate that the model is in the allowed_models list if configured.
194
+
195
+ :param provider_model_id: The provider-specific model ID to validate
196
+ :raises ValueError: If the model is not in the allowed_models list
197
+ """
198
+ if self.config.allowed_models is not None and provider_model_id not in self.config.allowed_models:
199
+ raise ValueError(
200
+ f"Model '{provider_model_id}' is not in the allowed models list. "
201
+ f"Allowed models: {self.config.allowed_models}"
202
+ )
203
+
194
204
  async def _get_provider_model_id(self, model: str) -> str:
195
205
  """
196
206
  Get the provider-specific model ID from the model store.
@@ -237,8 +247,11 @@ class OpenAIMixin(NeedsRequestProviderData, ABC, BaseModel):
237
247
  Direct OpenAI completion API call.
238
248
  """
239
249
  # TODO: fix openai_completion to return type compatible with OpenAI's API response
250
+ provider_model_id = await self._get_provider_model_id(params.model)
251
+ self._validate_model_allowed(provider_model_id)
252
+
240
253
  completion_kwargs = await prepare_openai_completion_params(
241
- model=await self._get_provider_model_id(params.model),
254
+ model=provider_model_id,
242
255
  prompt=params.prompt,
243
256
  best_of=params.best_of,
244
257
  echo=params.echo,
@@ -270,6 +283,9 @@ class OpenAIMixin(NeedsRequestProviderData, ABC, BaseModel):
270
283
  """
271
284
  Direct OpenAI chat completion API call.
272
285
  """
286
+ provider_model_id = await self._get_provider_model_id(params.model)
287
+ self._validate_model_allowed(provider_model_id)
288
+
273
289
  messages = params.messages
274
290
 
275
291
  if self.download_images:
@@ -291,7 +307,7 @@ class OpenAIMixin(NeedsRequestProviderData, ABC, BaseModel):
291
307
  messages = [await _localize_image_url(m) for m in messages]
292
308
 
293
309
  request_params = await prepare_openai_completion_params(
294
- model=await self._get_provider_model_id(params.model),
310
+ model=provider_model_id,
295
311
  messages=messages,
296
312
  frequency_penalty=params.frequency_penalty,
297
313
  function_call=params.function_call,
@@ -329,9 +345,13 @@ class OpenAIMixin(NeedsRequestProviderData, ABC, BaseModel):
329
345
  """
330
346
  Direct OpenAI embeddings API call.
331
347
  """
332
- # Prepare request parameters
333
- request_params = {
334
- "model": await self._get_provider_model_id(params.model),
348
+ provider_model_id = await self._get_provider_model_id(params.model)
349
+ self._validate_model_allowed(provider_model_id)
350
+
351
+ # Build request params conditionally to avoid NotGiven/Omit type mismatch
352
+ # The OpenAI SDK uses Omit in signatures but NOT_GIVEN has type NotGiven
353
+ request_params: dict[str, Any] = {
354
+ "model": provider_model_id,
335
355
  "input": params.input,
336
356
  "encoding_format": params.encoding_format if params.encoding_format is not None else NOT_GIVEN,
337
357
  "dimensions": params.dimensions if params.dimensions is not None else NOT_GIVEN,
@@ -416,7 +436,7 @@ class OpenAIMixin(NeedsRequestProviderData, ABC, BaseModel):
416
436
  for provider_model_id in provider_models_ids:
417
437
  if not isinstance(provider_model_id, str):
418
438
  raise ValueError(f"Model ID {provider_model_id} from list_provider_model_ids() is not a string")
419
- if self.allowed_models and provider_model_id not in self.allowed_models:
439
+ if self.config.allowed_models is not None and provider_model_id not in self.config.allowed_models:
420
440
  logger.info(f"Skipping model {provider_model_id} as it is not in the allowed models list")
421
441
  continue
422
442
  if metadata := self.embedding_model_metadata.get(provider_model_id):
@@ -3,6 +3,7 @@
3
3
  #
4
4
  # This source code is licensed under the terms described in the LICENSE file in
5
5
  # the root directory of this source tree.
6
+ import asyncio
6
7
 
7
8
  from llama_stack.apis.agents import (
8
9
  Order,
@@ -17,12 +18,12 @@ from llama_stack.apis.agents.openai_responses import (
17
18
  )
18
19
  from llama_stack.apis.inference import OpenAIMessageParam
19
20
  from llama_stack.core.datatypes import AccessRule
20
- from llama_stack.core.storage.datatypes import ResponsesStoreReference, SqlStoreReference
21
+ from llama_stack.core.storage.datatypes import ResponsesStoreReference, SqlStoreReference, StorageBackendType
21
22
  from llama_stack.log import get_logger
22
23
 
23
24
  from ..sqlstore.api import ColumnDefinition, ColumnType
24
25
  from ..sqlstore.authorized_sqlstore import AuthorizedSqlStore
25
- from ..sqlstore.sqlstore import sqlstore_impl
26
+ from ..sqlstore.sqlstore import _SQLSTORE_BACKENDS, sqlstore_impl
26
27
 
27
28
  logger = get_logger(name=__name__, category="openai_responses")
28
29
 
@@ -59,6 +60,13 @@ class ResponsesStore:
59
60
  base_store = sqlstore_impl(self.reference)
60
61
  self.sql_store = AuthorizedSqlStore(base_store, self.policy)
61
62
 
63
+ # Disable write queue for SQLite since WAL mode handles concurrency
64
+ # Keep it enabled for other backends (like Postgres) for performance
65
+ backend_config = _SQLSTORE_BACKENDS.get(self.reference.backend)
66
+ if backend_config and backend_config.type == StorageBackendType.SQL_SQLITE:
67
+ self.enable_write_queue = False
68
+ logger.debug("Write queue disabled for SQLite (WAL mode handles concurrency)")
69
+
62
70
  await self.sql_store.create_table(
63
71
  "openai_responses",
64
72
  {
@@ -77,6 +85,14 @@ class ResponsesStore:
77
85
  },
78
86
  )
79
87
 
88
+ if self.enable_write_queue:
89
+ self._queue = asyncio.Queue(maxsize=self._max_write_queue_size)
90
+ for _ in range(self._num_writers):
91
+ self._worker_tasks.append(asyncio.create_task(self._worker_loop()))
92
+ logger.debug(
93
+ f"Responses store write queue enabled with {self._num_writers} writers, max queue size {self._max_write_queue_size}"
94
+ )
95
+
80
96
  async def shutdown(self) -> None:
81
97
  return
82
98
 
@@ -17,6 +17,7 @@ from sqlalchemy import (
17
17
  String,
18
18
  Table,
19
19
  Text,
20
+ event,
20
21
  inspect,
21
22
  select,
22
23
  text,
@@ -75,7 +76,36 @@ class SqlAlchemySqlStoreImpl(SqlStore):
75
76
  self.metadata = MetaData()
76
77
 
77
78
  def create_engine(self) -> AsyncEngine:
78
- return create_async_engine(self.config.engine_str, pool_pre_ping=True)
79
+ # Configure connection args for better concurrency support
80
+ connect_args = {}
81
+ if "sqlite" in self.config.engine_str:
82
+ # SQLite-specific optimizations for concurrent access
83
+ # With WAL mode, most locks resolve in milliseconds, but allow up to 5s for edge cases
84
+ connect_args["timeout"] = 5.0
85
+ connect_args["check_same_thread"] = False # Allow usage across asyncio tasks
86
+
87
+ engine = create_async_engine(
88
+ self.config.engine_str,
89
+ pool_pre_ping=True,
90
+ connect_args=connect_args,
91
+ )
92
+
93
+ # Enable WAL mode for SQLite to support concurrent readers and writers
94
+ if "sqlite" in self.config.engine_str:
95
+
96
+ @event.listens_for(engine.sync_engine, "connect")
97
+ def set_sqlite_pragma(dbapi_conn, connection_record):
98
+ cursor = dbapi_conn.cursor()
99
+ # Enable Write-Ahead Logging for better concurrency
100
+ cursor.execute("PRAGMA journal_mode=WAL")
101
+ # Set busy timeout to 5 seconds (retry instead of immediate failure)
102
+ # With WAL mode, locks should be brief; if we hit 5s there's a bigger issue
103
+ cursor.execute("PRAGMA busy_timeout=5000")
104
+ # Use NORMAL synchronous mode for better performance (still safe with WAL)
105
+ cursor.execute("PRAGMA synchronous=NORMAL")
106
+ cursor.close()
107
+
108
+ return engine
79
109
 
80
110
  async def create_table(
81
111
  self,
@@ -1,6 +1,6 @@
1
1
  Metadata-Version: 2.4
2
2
  Name: llama_stack
3
- Version: 0.3.2
3
+ Version: 0.3.3
4
4
  Summary: Llama Stack
5
5
  Author-email: Meta Llama <llama-oss@meta.com>
6
6
  License: MIT
@@ -22,7 +22,7 @@ Requires-Dist: fire
22
22
  Requires-Dist: httpx
23
23
  Requires-Dist: jinja2>=3.1.6
24
24
  Requires-Dist: jsonschema
25
- Requires-Dist: llama-stack-client>=0.3.2
25
+ Requires-Dist: llama-stack-client>=0.3.3
26
26
  Requires-Dist: openai>=1.107
27
27
  Requires-Dist: prompt-toolkit
28
28
  Requires-Dist: python-dotenv
@@ -44,7 +44,7 @@ Requires-Dist: sqlalchemy[asyncio]>=2.0.41
44
44
  Provides-Extra: ui
45
45
  Requires-Dist: streamlit; extra == "ui"
46
46
  Requires-Dist: pandas; extra == "ui"
47
- Requires-Dist: llama-stack-client>=0.3.2; extra == "ui"
47
+ Requires-Dist: llama-stack-client>=0.3.3; extra == "ui"
48
48
  Requires-Dist: streamlit-option-menu; extra == "ui"
49
49
  Dynamic: license-file
50
50
 
@@ -4,7 +4,7 @@ fire
4
4
  httpx
5
5
  jinja2>=3.1.6
6
6
  jsonschema
7
- llama-stack-client>=0.3.2
7
+ llama-stack-client>=0.3.3
8
8
  openai>=1.107
9
9
  prompt-toolkit
10
10
  python-dotenv
@@ -27,5 +27,5 @@ sqlalchemy[asyncio]>=2.0.41
27
27
  [ui]
28
28
  streamlit
29
29
  pandas
30
- llama-stack-client>=0.3.2
30
+ llama-stack-client>=0.3.3
31
31
  streamlit-option-menu
@@ -7,7 +7,7 @@ required-version = ">=0.7.0"
7
7
 
8
8
  [project]
9
9
  name = "llama_stack"
10
- version = "0.3.2"
10
+ version = "0.3.3"
11
11
  authors = [{ name = "Meta Llama", email = "llama-oss@meta.com" }]
12
12
  description = "Llama Stack"
13
13
  readme = "README.md"
@@ -30,7 +30,7 @@ dependencies = [
30
30
  "httpx",
31
31
  "jinja2>=3.1.6",
32
32
  "jsonschema",
33
- "llama-stack-client>=0.3.2",
33
+ "llama-stack-client>=0.3.3",
34
34
  "openai>=1.107", # for expires_after support
35
35
  "prompt-toolkit",
36
36
  "python-dotenv",
@@ -55,7 +55,7 @@ dependencies = [
55
55
  ui = [
56
56
  "streamlit",
57
57
  "pandas",
58
- "llama-stack-client>=0.3.2",
58
+ "llama-stack-client>=0.3.3",
59
59
  "streamlit-option-menu",
60
60
  ]
61
61
 
File without changes
File without changes
File without changes