llama-stack 0.4.0__tar.gz → 0.4.2__tar.gz

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (663) hide show
  1. {llama_stack-0.4.0/src/llama_stack.egg-info → llama_stack-0.4.2}/PKG-INFO +4 -4
  2. {llama_stack-0.4.0 → llama_stack-0.4.2}/pyproject.toml +5 -5
  3. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/cli/stack/run.py +3 -0
  4. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/stack.py +56 -14
  5. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/tool_runtime/rag/memory.py +8 -3
  6. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/vector_io/faiss/faiss.py +6 -3
  7. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/vector_io/sqlite_vec/sqlite_vec.py +6 -2
  8. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/registry/agents.py +1 -0
  9. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/vector_io/chroma/chroma.py +9 -6
  10. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/vector_io/milvus/milvus.py +15 -12
  11. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/vector_io/pgvector/pgvector.py +14 -10
  12. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/vector_io/qdrant/qdrant.py +10 -10
  13. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/vector_io/weaviate/weaviate.py +9 -9
  14. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/memory/vector_store.py +9 -4
  15. llama_stack-0.4.2/src/llama_stack/providers/utils/vector_io/__init__.py +21 -0
  16. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/vector_io/vector_utils.py +36 -0
  17. {llama_stack-0.4.0 → llama_stack-0.4.2/src/llama_stack.egg-info}/PKG-INFO +4 -4
  18. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack.egg-info/SOURCES.txt +67 -0
  19. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack.egg-info/requires.txt +3 -3
  20. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/__init__.py +945 -0
  21. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/admin/__init__.py +45 -0
  22. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/admin/api.py +72 -0
  23. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/admin/fastapi_routes.py +117 -0
  24. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/admin/models.py +113 -0
  25. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/agents.py +173 -0
  26. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/batches/__init__.py +40 -0
  27. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/batches/api.py +53 -0
  28. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/batches/fastapi_routes.py +113 -0
  29. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/batches/models.py +78 -0
  30. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/benchmarks/__init__.py +43 -0
  31. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/benchmarks/api.py +39 -0
  32. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/benchmarks/fastapi_routes.py +109 -0
  33. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/benchmarks/models.py +109 -0
  34. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/common/content_types.py +101 -0
  35. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/common/errors.py +95 -0
  36. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/common/job_types.py +38 -0
  37. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/common/responses.py +77 -0
  38. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/common/training_types.py +47 -0
  39. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/common/type_system.py +146 -0
  40. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/connectors.py +146 -0
  41. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/conversations.py +270 -0
  42. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/datasetio.py +55 -0
  43. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/datasets/__init__.py +61 -0
  44. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/datasets/api.py +35 -0
  45. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/datasets/fastapi_routes.py +104 -0
  46. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/datasets/models.py +152 -0
  47. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/datatypes.py +373 -0
  48. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/eval.py +137 -0
  49. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/file_processors/__init__.py +27 -0
  50. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/file_processors/api.py +64 -0
  51. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/file_processors/fastapi_routes.py +78 -0
  52. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/file_processors/models.py +42 -0
  53. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/files/__init__.py +35 -0
  54. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/files/api.py +51 -0
  55. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/files/fastapi_routes.py +124 -0
  56. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/files/models.py +107 -0
  57. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/inference.py +1169 -0
  58. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/inspect_api/__init__.py +37 -0
  59. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/inspect_api/api.py +25 -0
  60. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/inspect_api/fastapi_routes.py +76 -0
  61. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/inspect_api/models.py +28 -0
  62. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/internal/__init__.py +9 -0
  63. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/internal/kvstore.py +26 -0
  64. llama_stack-0.4.2/src/llama_stack_api/llama_stack_api/internal/sqlstore.py +79 -0
  65. llama_stack-0.4.2/src/llama_stack_api/models.py +171 -0
  66. llama_stack-0.4.2/src/llama_stack_api/openai_responses.py +1468 -0
  67. llama_stack-0.4.2/src/llama_stack_api/post_training.py +370 -0
  68. llama_stack-0.4.2/src/llama_stack_api/prompts.py +203 -0
  69. llama_stack-0.4.2/src/llama_stack_api/providers/__init__.py +33 -0
  70. llama_stack-0.4.2/src/llama_stack_api/providers/api.py +16 -0
  71. llama_stack-0.4.2/src/llama_stack_api/providers/fastapi_routes.py +57 -0
  72. llama_stack-0.4.2/src/llama_stack_api/providers/models.py +24 -0
  73. llama_stack-0.4.2/src/llama_stack_api/py.typed +0 -0
  74. llama_stack-0.4.2/src/llama_stack_api/rag_tool.py +168 -0
  75. llama_stack-0.4.2/src/llama_stack_api/resource.py +37 -0
  76. llama_stack-0.4.2/src/llama_stack_api/router_utils.py +160 -0
  77. llama_stack-0.4.2/src/llama_stack_api/safety.py +132 -0
  78. llama_stack-0.4.2/src/llama_stack_api/schema_utils.py +208 -0
  79. llama_stack-0.4.2/src/llama_stack_api/scoring.py +93 -0
  80. llama_stack-0.4.2/src/llama_stack_api/scoring_functions.py +211 -0
  81. llama_stack-0.4.2/src/llama_stack_api/shields.py +93 -0
  82. llama_stack-0.4.2/src/llama_stack_api/tools.py +226 -0
  83. llama_stack-0.4.2/src/llama_stack_api/vector_io.py +941 -0
  84. llama_stack-0.4.2/src/llama_stack_api/vector_stores.py +51 -0
  85. llama_stack-0.4.2/src/llama_stack_api/version.py +9 -0
  86. {llama_stack-0.4.0 → llama_stack-0.4.2}/LICENSE +0 -0
  87. {llama_stack-0.4.0 → llama_stack-0.4.2}/MANIFEST.in +0 -0
  88. {llama_stack-0.4.0 → llama_stack-0.4.2}/README.md +0 -0
  89. {llama_stack-0.4.0 → llama_stack-0.4.2}/setup.cfg +0 -0
  90. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/__init__.py +0 -0
  91. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/cli/__init__.py +0 -0
  92. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/cli/llama.py +0 -0
  93. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/cli/scripts/__init__.py +0 -0
  94. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/cli/scripts/install-wheel-from-presigned.sh +0 -0
  95. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/cli/scripts/run.py +0 -0
  96. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/cli/stack/__init__.py +0 -0
  97. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/cli/stack/_list_deps.py +0 -0
  98. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/cli/stack/list_apis.py +0 -0
  99. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/cli/stack/list_deps.py +0 -0
  100. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/cli/stack/list_providers.py +0 -0
  101. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/cli/stack/list_stacks.py +0 -0
  102. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/cli/stack/remove.py +0 -0
  103. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/cli/stack/stack.py +0 -0
  104. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/cli/stack/utils.py +0 -0
  105. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/cli/subcommand.py +0 -0
  106. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/cli/table.py +0 -0
  107. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/cli/utils.py +0 -0
  108. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/__init__.py +0 -0
  109. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/access_control/__init__.py +0 -0
  110. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/access_control/access_control.py +0 -0
  111. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/access_control/conditions.py +0 -0
  112. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/access_control/datatypes.py +0 -0
  113. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/admin.py +0 -0
  114. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/build.py +0 -0
  115. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/client.py +0 -0
  116. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/common.sh +0 -0
  117. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/configure.py +0 -0
  118. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/conversations/__init__.py +0 -0
  119. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/conversations/conversations.py +0 -0
  120. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/datatypes.py +0 -0
  121. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/distribution.py +0 -0
  122. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/external.py +0 -0
  123. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/id_generation.py +0 -0
  124. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/inspect.py +0 -0
  125. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/library_client.py +0 -0
  126. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/prompts/__init__.py +0 -0
  127. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/prompts/prompts.py +0 -0
  128. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/providers.py +0 -0
  129. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/request_headers.py +0 -0
  130. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/resolver.py +0 -0
  131. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/routers/__init__.py +0 -0
  132. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/routers/datasets.py +0 -0
  133. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/routers/eval_scoring.py +0 -0
  134. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/routers/inference.py +0 -0
  135. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/routers/safety.py +0 -0
  136. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/routers/tool_runtime.py +0 -0
  137. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/routers/vector_io.py +0 -0
  138. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/routing_tables/__init__.py +0 -0
  139. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/routing_tables/benchmarks.py +0 -0
  140. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/routing_tables/common.py +0 -0
  141. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/routing_tables/datasets.py +0 -0
  142. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/routing_tables/models.py +0 -0
  143. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/routing_tables/scoring_functions.py +0 -0
  144. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/routing_tables/shields.py +0 -0
  145. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/routing_tables/toolgroups.py +0 -0
  146. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/routing_tables/vector_stores.py +0 -0
  147. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/server/__init__.py +0 -0
  148. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/server/auth.py +0 -0
  149. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/server/auth_providers.py +0 -0
  150. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/server/fastapi_router_registry.py +0 -0
  151. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/server/quota.py +0 -0
  152. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/server/routes.py +0 -0
  153. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/server/server.py +0 -0
  154. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/start_stack.sh +0 -0
  155. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/storage/__init__.py +0 -0
  156. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/storage/datatypes.py +0 -0
  157. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/storage/kvstore/__init__.py +0 -0
  158. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/storage/kvstore/config.py +0 -0
  159. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/storage/kvstore/kvstore.py +0 -0
  160. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/storage/kvstore/mongodb/__init__.py +0 -0
  161. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/storage/kvstore/mongodb/mongodb.py +0 -0
  162. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/storage/kvstore/postgres/__init__.py +0 -0
  163. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/storage/kvstore/postgres/postgres.py +0 -0
  164. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/storage/kvstore/redis/__init__.py +0 -0
  165. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/storage/kvstore/redis/redis.py +0 -0
  166. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/storage/kvstore/sqlite/__init__.py +0 -0
  167. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/storage/kvstore/sqlite/sqlite.py +0 -0
  168. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/storage/sqlstore/__init__.py +0 -0
  169. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/storage/sqlstore/authorized_sqlstore.py +0 -0
  170. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/storage/sqlstore/sqlalchemy_sqlstore.py +0 -0
  171. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/storage/sqlstore/sqlstore.py +0 -0
  172. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/store/__init__.py +0 -0
  173. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/store/registry.py +0 -0
  174. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/testing_context.py +0 -0
  175. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/utils/__init__.py +0 -0
  176. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/utils/config.py +0 -0
  177. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/utils/config_dirs.py +0 -0
  178. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/utils/config_resolution.py +0 -0
  179. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/utils/context.py +0 -0
  180. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/utils/dynamic.py +0 -0
  181. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/utils/exec.py +0 -0
  182. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/utils/image_types.py +0 -0
  183. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/utils/model_utils.py +0 -0
  184. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/utils/prompt_for_config.py +0 -0
  185. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/utils/serialize.py +0 -0
  186. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/core/utils/type_inspection.py +0 -0
  187. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/distributions/__init__.py +0 -0
  188. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/distributions/dell/__init__.py +0 -0
  189. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/distributions/dell/config.yaml +0 -0
  190. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/distributions/dell/dell.py +0 -0
  191. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/distributions/dell/run-with-safety.yaml +0 -0
  192. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/distributions/meta-reference-gpu/__init__.py +0 -0
  193. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/distributions/meta-reference-gpu/config.yaml +0 -0
  194. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/distributions/meta-reference-gpu/meta_reference.py +0 -0
  195. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/distributions/meta-reference-gpu/run-with-safety.yaml +0 -0
  196. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/distributions/nvidia/__init__.py +0 -0
  197. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/distributions/nvidia/config.yaml +0 -0
  198. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/distributions/nvidia/nvidia.py +0 -0
  199. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/distributions/nvidia/run-with-safety.yaml +0 -0
  200. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/distributions/oci/__init__.py +0 -0
  201. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/distributions/oci/config.yaml +0 -0
  202. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/distributions/oci/oci.py +0 -0
  203. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/distributions/open-benchmark/__init__.py +0 -0
  204. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/distributions/open-benchmark/config.yaml +0 -0
  205. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/distributions/open-benchmark/open_benchmark.py +0 -0
  206. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/distributions/postgres-demo/config.yaml +0 -0
  207. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/distributions/starter/__init__.py +0 -0
  208. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/distributions/starter/config.yaml +0 -0
  209. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/distributions/starter/run-with-postgres-store.yaml +0 -0
  210. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/distributions/starter/starter.py +0 -0
  211. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/distributions/starter-gpu/__init__.py +0 -0
  212. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/distributions/starter-gpu/config.yaml +0 -0
  213. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/distributions/starter-gpu/run-with-postgres-store.yaml +0 -0
  214. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/distributions/starter-gpu/starter_gpu.py +0 -0
  215. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/distributions/template.py +0 -0
  216. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/distributions/watsonx/__init__.py +0 -0
  217. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/distributions/watsonx/config.yaml +0 -0
  218. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/distributions/watsonx/watsonx.py +0 -0
  219. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/env.py +0 -0
  220. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/log.py +0 -0
  221. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/__init__.py +0 -0
  222. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/__init__.py +0 -0
  223. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/checkpoint.py +0 -0
  224. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/datatypes.py +0 -0
  225. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/hadamard_utils.py +0 -0
  226. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama3/__init__.py +0 -0
  227. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama3/args.py +0 -0
  228. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama3/chat_format.py +0 -0
  229. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama3/generation.py +0 -0
  230. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama3/interface.py +0 -0
  231. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama3/model.py +0 -0
  232. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama3/multimodal/__init__.py +0 -0
  233. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama3/multimodal/encoder_utils.py +0 -0
  234. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama3/multimodal/image_transform.py +0 -0
  235. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama3/multimodal/model.py +0 -0
  236. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama3/multimodal/utils.py +0 -0
  237. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama3/prompt_templates/__init__.py +0 -0
  238. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama3/prompt_templates/base.py +0 -0
  239. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama3/prompt_templates/system_prompts.py +0 -0
  240. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama3/prompt_templates/tool_response.py +0 -0
  241. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama3/quantization/__init__.py +0 -0
  242. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama3/quantization/loader.py +0 -0
  243. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama3/template_data.py +0 -0
  244. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama3/tokenizer.model +0 -0
  245. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama3/tokenizer.py +0 -0
  246. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama3/tool_utils.py +0 -0
  247. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama3_1/__init__.py +0 -0
  248. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama3_1/prompt_format.md +0 -0
  249. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama3_1/prompts.py +0 -0
  250. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama3_2/__init__.py +0 -0
  251. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama3_2/prompts_text.py +0 -0
  252. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama3_2/prompts_vision.py +0 -0
  253. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama3_2/text_prompt_format.md +0 -0
  254. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama3_2/vision_prompt_format.md +0 -0
  255. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama3_3/__init__.py +0 -0
  256. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama3_3/prompts.py +0 -0
  257. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama4/__init__.py +0 -0
  258. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama4/args.py +0 -0
  259. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama4/chat_format.py +0 -0
  260. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama4/datatypes.py +0 -0
  261. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama4/ffn.py +0 -0
  262. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama4/generation.py +0 -0
  263. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama4/model.py +0 -0
  264. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama4/moe.py +0 -0
  265. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama4/preprocess.py +0 -0
  266. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama4/prompt_format.md +0 -0
  267. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama4/prompt_templates/__init__.py +0 -0
  268. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama4/prompt_templates/system_prompts.py +0 -0
  269. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama4/prompts.py +0 -0
  270. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama4/quantization/__init__.py +0 -0
  271. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama4/quantization/loader.py +0 -0
  272. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama4/tokenizer.model +0 -0
  273. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama4/tokenizer.py +0 -0
  274. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama4/vision/__init__.py +0 -0
  275. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama4/vision/embedding.py +0 -0
  276. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/llama4/vision/encoder.py +0 -0
  277. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/prompt_format.py +0 -0
  278. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/quantize_impls.py +0 -0
  279. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/sku_list.py +0 -0
  280. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/sku_types.py +0 -0
  281. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/models/llama/tokenizer_utils.py +0 -0
  282. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/__init__.py +0 -0
  283. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/__init__.py +0 -0
  284. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/agents/__init__.py +0 -0
  285. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/agents/meta_reference/__init__.py +0 -0
  286. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/agents/meta_reference/agents.py +0 -0
  287. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/agents/meta_reference/config.py +0 -0
  288. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/agents/meta_reference/responses/__init__.py +0 -0
  289. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/agents/meta_reference/responses/openai_responses.py +0 -0
  290. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/agents/meta_reference/responses/streaming.py +0 -0
  291. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/agents/meta_reference/responses/tool_executor.py +0 -0
  292. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/agents/meta_reference/responses/types.py +0 -0
  293. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/agents/meta_reference/responses/utils.py +0 -0
  294. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/agents/meta_reference/safety.py +0 -0
  295. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/batches/__init__.py +0 -0
  296. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/batches/reference/__init__.py +0 -0
  297. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/batches/reference/batches.py +0 -0
  298. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/batches/reference/config.py +0 -0
  299. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/datasetio/__init__.py +0 -0
  300. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/datasetio/localfs/__init__.py +0 -0
  301. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/datasetio/localfs/config.py +0 -0
  302. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/datasetio/localfs/datasetio.py +0 -0
  303. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/eval/__init__.py +0 -0
  304. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/eval/meta_reference/__init__.py +0 -0
  305. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/eval/meta_reference/config.py +0 -0
  306. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/eval/meta_reference/eval.py +0 -0
  307. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/file_processor/__init__.py +0 -0
  308. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/files/localfs/__init__.py +0 -0
  309. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/files/localfs/config.py +0 -0
  310. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/files/localfs/files.py +0 -0
  311. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/inference/__init__.py +0 -0
  312. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/inference/meta_reference/__init__.py +0 -0
  313. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/inference/meta_reference/common.py +0 -0
  314. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/inference/meta_reference/config.py +0 -0
  315. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/inference/meta_reference/generators.py +0 -0
  316. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/inference/meta_reference/inference.py +0 -0
  317. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/inference/meta_reference/model_parallel.py +0 -0
  318. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/inference/meta_reference/parallel_utils.py +0 -0
  319. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/inference/sentence_transformers/__init__.py +0 -0
  320. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/inference/sentence_transformers/config.py +0 -0
  321. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/inference/sentence_transformers/sentence_transformers.py +0 -0
  322. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/post_training/__init__.py +0 -0
  323. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/post_training/common/__init__.py +0 -0
  324. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/post_training/common/utils.py +0 -0
  325. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/post_training/common/validator.py +0 -0
  326. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/post_training/huggingface/__init__.py +0 -0
  327. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/post_training/huggingface/config.py +0 -0
  328. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/post_training/huggingface/post_training.py +0 -0
  329. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/post_training/huggingface/recipes/__init__.py +0 -0
  330. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/post_training/huggingface/recipes/finetune_single_device.py +0 -0
  331. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/post_training/huggingface/recipes/finetune_single_device_dpo.py +0 -0
  332. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/post_training/huggingface/utils.py +0 -0
  333. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/post_training/torchtune/__init__.py +0 -0
  334. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/post_training/torchtune/common/__init__.py +0 -0
  335. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/post_training/torchtune/common/checkpointer.py +0 -0
  336. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/post_training/torchtune/common/utils.py +0 -0
  337. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/post_training/torchtune/config.py +0 -0
  338. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/post_training/torchtune/datasets/__init__.py +0 -0
  339. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/post_training/torchtune/datasets/format_adapter.py +0 -0
  340. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/post_training/torchtune/datasets/sft.py +0 -0
  341. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/post_training/torchtune/post_training.py +0 -0
  342. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/post_training/torchtune/recipes/__init__.py +0 -0
  343. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/post_training/torchtune/recipes/lora_finetuning_single_device.py +0 -0
  344. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/safety/__init__.py +0 -0
  345. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/safety/code_scanner/__init__.py +0 -0
  346. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/safety/code_scanner/code_scanner.py +0 -0
  347. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/safety/code_scanner/config.py +0 -0
  348. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/safety/llama_guard/__init__.py +0 -0
  349. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/safety/llama_guard/config.py +0 -0
  350. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/safety/llama_guard/llama_guard.py +0 -0
  351. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/safety/prompt_guard/__init__.py +0 -0
  352. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/safety/prompt_guard/config.py +0 -0
  353. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/safety/prompt_guard/prompt_guard.py +0 -0
  354. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/__init__.py +0 -0
  355. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/basic/__init__.py +0 -0
  356. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/basic/config.py +0 -0
  357. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/basic/scoring.py +0 -0
  358. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/basic/scoring_fn/__init__.py +0 -0
  359. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/basic/scoring_fn/docvqa_scoring_fn.py +0 -0
  360. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/basic/scoring_fn/equality_scoring_fn.py +0 -0
  361. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/__init__.py +0 -0
  362. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/docvqa.py +0 -0
  363. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/equality.py +0 -0
  364. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/ifeval.py +0 -0
  365. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/regex_parser_math_response.py +0 -0
  366. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/regex_parser_multiple_choice_answer.py +0 -0
  367. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/basic/scoring_fn/fn_defs/subset_of.py +0 -0
  368. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/basic/scoring_fn/ifeval_scoring_fn.py +0 -0
  369. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/basic/scoring_fn/regex_parser_math_response_scoring_fn.py +0 -0
  370. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/basic/scoring_fn/regex_parser_scoring_fn.py +0 -0
  371. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/basic/scoring_fn/subset_of_scoring_fn.py +0 -0
  372. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/basic/utils/__init__.py +0 -0
  373. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/basic/utils/ifeval_utils.py +0 -0
  374. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/basic/utils/math_utils.py +0 -0
  375. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/braintrust/__init__.py +0 -0
  376. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/braintrust/braintrust.py +0 -0
  377. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/braintrust/config.py +0 -0
  378. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/braintrust/scoring_fn/__init__.py +0 -0
  379. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/__init__.py +0 -0
  380. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/answer_correctness.py +0 -0
  381. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/answer_relevancy.py +0 -0
  382. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/answer_similarity.py +0 -0
  383. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_entity_recall.py +0 -0
  384. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_precision.py +0 -0
  385. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_recall.py +0 -0
  386. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/context_relevancy.py +0 -0
  387. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/factuality.py +0 -0
  388. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/braintrust/scoring_fn/fn_defs/faithfulness.py +0 -0
  389. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/llm_as_judge/__init__.py +0 -0
  390. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/llm_as_judge/config.py +0 -0
  391. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/llm_as_judge/scoring.py +0 -0
  392. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/__init__.py +0 -0
  393. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs/__init__.py +0 -0
  394. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs/llm_as_judge_405b_simpleqa.py +0 -0
  395. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/fn_defs/llm_as_judge_base.py +0 -0
  396. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/scoring/llm_as_judge/scoring_fn/llm_as_judge_scoring_fn.py +0 -0
  397. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/tool_runtime/__init__.py +0 -0
  398. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/tool_runtime/rag/__init__.py +0 -0
  399. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/tool_runtime/rag/config.py +0 -0
  400. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/tool_runtime/rag/context_retriever.py +0 -0
  401. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/vector_io/__init__.py +0 -0
  402. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/vector_io/chroma/__init__.py +0 -0
  403. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/vector_io/chroma/config.py +0 -0
  404. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/vector_io/faiss/__init__.py +0 -0
  405. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/vector_io/faiss/config.py +0 -0
  406. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/vector_io/milvus/__init__.py +0 -0
  407. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/vector_io/milvus/config.py +0 -0
  408. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/vector_io/qdrant/__init__.py +0 -0
  409. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/vector_io/qdrant/config.py +0 -0
  410. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/vector_io/sqlite_vec/__init__.py +0 -0
  411. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/inline/vector_io/sqlite_vec/config.py +0 -0
  412. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/registry/__init__.py +0 -0
  413. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/registry/batches.py +0 -0
  414. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/registry/datasetio.py +0 -0
  415. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/registry/eval.py +0 -0
  416. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/registry/file_processors.py +0 -0
  417. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/registry/files.py +0 -0
  418. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/registry/inference.py +0 -0
  419. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/registry/post_training.py +0 -0
  420. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/registry/safety.py +0 -0
  421. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/registry/scoring.py +0 -0
  422. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/registry/tool_runtime.py +0 -0
  423. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/registry/vector_io.py +0 -0
  424. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/__init__.py +0 -0
  425. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/agents/__init__.py +0 -0
  426. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/datasetio/__init__.py +0 -0
  427. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/datasetio/huggingface/__init__.py +0 -0
  428. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/datasetio/huggingface/config.py +0 -0
  429. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/datasetio/huggingface/huggingface.py +0 -0
  430. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/datasetio/nvidia/__init__.py +0 -0
  431. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/datasetio/nvidia/config.py +0 -0
  432. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/datasetio/nvidia/datasetio.py +0 -0
  433. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/eval/__init__.py +0 -0
  434. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/eval/nvidia/__init__.py +0 -0
  435. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/eval/nvidia/config.py +0 -0
  436. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/eval/nvidia/eval.py +0 -0
  437. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/files/openai/__init__.py +0 -0
  438. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/files/openai/config.py +0 -0
  439. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/files/openai/files.py +0 -0
  440. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/files/s3/__init__.py +0 -0
  441. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/files/s3/config.py +0 -0
  442. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/files/s3/files.py +0 -0
  443. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/__init__.py +0 -0
  444. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/anthropic/__init__.py +0 -0
  445. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/anthropic/anthropic.py +0 -0
  446. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/anthropic/config.py +0 -0
  447. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/azure/__init__.py +0 -0
  448. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/azure/azure.py +0 -0
  449. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/azure/config.py +0 -0
  450. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/bedrock/__init__.py +0 -0
  451. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/bedrock/bedrock.py +0 -0
  452. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/bedrock/config.py +0 -0
  453. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/cerebras/__init__.py +0 -0
  454. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/cerebras/cerebras.py +0 -0
  455. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/cerebras/config.py +0 -0
  456. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/databricks/__init__.py +0 -0
  457. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/databricks/config.py +0 -0
  458. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/databricks/databricks.py +0 -0
  459. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/fireworks/__init__.py +0 -0
  460. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/fireworks/config.py +0 -0
  461. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/fireworks/fireworks.py +0 -0
  462. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/gemini/__init__.py +0 -0
  463. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/gemini/config.py +0 -0
  464. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/gemini/gemini.py +0 -0
  465. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/groq/__init__.py +0 -0
  466. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/groq/config.py +0 -0
  467. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/groq/groq.py +0 -0
  468. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/llama_openai_compat/__init__.py +0 -0
  469. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/llama_openai_compat/config.py +0 -0
  470. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/llama_openai_compat/llama.py +0 -0
  471. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/nvidia/__init__.py +0 -0
  472. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/nvidia/config.py +0 -0
  473. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/nvidia/nvidia.py +0 -0
  474. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/nvidia/utils.py +0 -0
  475. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/oci/__init__.py +0 -0
  476. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/oci/auth.py +0 -0
  477. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/oci/config.py +0 -0
  478. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/oci/oci.py +0 -0
  479. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/ollama/__init__.py +0 -0
  480. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/ollama/config.py +0 -0
  481. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/ollama/ollama.py +0 -0
  482. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/openai/__init__.py +0 -0
  483. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/openai/config.py +0 -0
  484. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/openai/openai.py +0 -0
  485. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/passthrough/__init__.py +0 -0
  486. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/passthrough/config.py +0 -0
  487. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/passthrough/passthrough.py +0 -0
  488. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/runpod/__init__.py +0 -0
  489. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/runpod/config.py +0 -0
  490. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/runpod/runpod.py +0 -0
  491. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/sambanova/__init__.py +0 -0
  492. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/sambanova/config.py +0 -0
  493. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/sambanova/sambanova.py +0 -0
  494. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/tgi/__init__.py +0 -0
  495. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/tgi/config.py +0 -0
  496. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/tgi/tgi.py +0 -0
  497. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/together/__init__.py +0 -0
  498. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/together/config.py +0 -0
  499. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/together/together.py +0 -0
  500. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/vertexai/__init__.py +0 -0
  501. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/vertexai/config.py +0 -0
  502. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/vertexai/vertexai.py +0 -0
  503. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/vllm/__init__.py +0 -0
  504. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/vllm/config.py +0 -0
  505. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/vllm/vllm.py +0 -0
  506. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/watsonx/__init__.py +0 -0
  507. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/watsonx/config.py +0 -0
  508. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/inference/watsonx/watsonx.py +0 -0
  509. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/post_training/__init__.py +0 -0
  510. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/post_training/nvidia/__init__.py +0 -0
  511. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/post_training/nvidia/config.py +0 -0
  512. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/post_training/nvidia/models.py +0 -0
  513. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/post_training/nvidia/post_training.py +0 -0
  514. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/post_training/nvidia/utils.py +0 -0
  515. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/safety/__init__.py +0 -0
  516. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/safety/bedrock/__init__.py +0 -0
  517. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/safety/bedrock/bedrock.py +0 -0
  518. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/safety/bedrock/config.py +0 -0
  519. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/safety/nvidia/__init__.py +0 -0
  520. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/safety/nvidia/config.py +0 -0
  521. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/safety/nvidia/nvidia.py +0 -0
  522. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/safety/sambanova/__init__.py +0 -0
  523. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/safety/sambanova/config.py +0 -0
  524. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/safety/sambanova/sambanova.py +0 -0
  525. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/tool_runtime/__init__.py +0 -0
  526. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/tool_runtime/bing_search/__init__.py +0 -0
  527. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/tool_runtime/bing_search/bing_search.py +0 -0
  528. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/tool_runtime/bing_search/config.py +0 -0
  529. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/tool_runtime/brave_search/__init__.py +0 -0
  530. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/tool_runtime/brave_search/brave_search.py +0 -0
  531. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/tool_runtime/brave_search/config.py +0 -0
  532. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/tool_runtime/model_context_protocol/__init__.py +0 -0
  533. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/tool_runtime/model_context_protocol/config.py +0 -0
  534. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/tool_runtime/model_context_protocol/model_context_protocol.py +0 -0
  535. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/tool_runtime/tavily_search/__init__.py +0 -0
  536. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/tool_runtime/tavily_search/config.py +0 -0
  537. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/tool_runtime/tavily_search/tavily_search.py +0 -0
  538. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/tool_runtime/wolfram_alpha/__init__.py +0 -0
  539. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/tool_runtime/wolfram_alpha/config.py +0 -0
  540. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/tool_runtime/wolfram_alpha/wolfram_alpha.py +0 -0
  541. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/vector_io/__init__.py +0 -0
  542. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/vector_io/chroma/__init__.py +0 -0
  543. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/vector_io/chroma/config.py +0 -0
  544. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/vector_io/milvus/__init__.py +0 -0
  545. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/vector_io/milvus/config.py +0 -0
  546. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/vector_io/pgvector/__init__.py +0 -0
  547. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/vector_io/pgvector/config.py +0 -0
  548. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/vector_io/qdrant/__init__.py +0 -0
  549. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/vector_io/qdrant/config.py +0 -0
  550. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/vector_io/weaviate/__init__.py +0 -0
  551. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/remote/vector_io/weaviate/config.py +0 -0
  552. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/__init__.py +0 -0
  553. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/bedrock/__init__.py +0 -0
  554. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/bedrock/client.py +0 -0
  555. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/bedrock/config.py +0 -0
  556. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/bedrock/refreshable_boto_session.py +0 -0
  557. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/common/__init__.py +0 -0
  558. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/common/data_schema_validator.py +0 -0
  559. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/datasetio/__init__.py +0 -0
  560. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/datasetio/url_utils.py +0 -0
  561. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/files/__init__.py +0 -0
  562. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/files/form_data.py +0 -0
  563. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/inference/__init__.py +0 -0
  564. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/inference/embedding_mixin.py +0 -0
  565. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/inference/inference_store.py +0 -0
  566. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/inference/litellm_openai_mixin.py +0 -0
  567. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/inference/model_registry.py +0 -0
  568. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/inference/openai_compat.py +0 -0
  569. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/inference/openai_mixin.py +0 -0
  570. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/inference/prompt_adapter.py +0 -0
  571. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/inference/stream_utils.py +0 -0
  572. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/memory/__init__.py +0 -0
  573. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/memory/file_utils.py +0 -0
  574. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/memory/openai_vector_store_mixin.py +0 -0
  575. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/pagination.py +0 -0
  576. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/responses/__init__.py +0 -0
  577. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/responses/responses_store.py +0 -0
  578. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/scheduler.py +0 -0
  579. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/scoring/__init__.py +0 -0
  580. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/scoring/aggregation_utils.py +0 -0
  581. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/scoring/base_scoring_fn.py +0 -0
  582. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/scoring/basic_scoring_utils.py +0 -0
  583. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/tools/__init__.py +0 -0
  584. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/tools/mcp.py +0 -0
  585. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/providers/utils/tools/ttl_dict.py +0 -0
  586. {llama_stack-0.4.0/src/llama_stack/providers/utils/vector_io → llama_stack-0.4.2/src/llama_stack/telemetry}/__init__.py +0 -0
  587. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/telemetry/constants.py +0 -0
  588. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/telemetry/helpers.py +0 -0
  589. {llama_stack-0.4.0/src/llama_stack/telemetry → llama_stack-0.4.2/src/llama_stack/testing}/__init__.py +0 -0
  590. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack/testing/api_recorder.py +0 -0
  591. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack.egg-info/dependency_links.txt +0 -0
  592. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack.egg-info/entry_points.txt +0 -0
  593. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack.egg-info/top_level.txt +0 -0
  594. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/__init__.py +0 -0
  595. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/admin/__init__.py +0 -0
  596. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/admin/api.py +0 -0
  597. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/admin/fastapi_routes.py +0 -0
  598. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/admin/models.py +0 -0
  599. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/agents.py +0 -0
  600. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/batches/__init__.py +0 -0
  601. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/batches/api.py +0 -0
  602. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/batches/fastapi_routes.py +0 -0
  603. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/batches/models.py +0 -0
  604. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/benchmarks/__init__.py +0 -0
  605. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/benchmarks/api.py +0 -0
  606. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/benchmarks/fastapi_routes.py +0 -0
  607. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/benchmarks/models.py +0 -0
  608. {llama_stack-0.4.0/src/llama_stack/testing → llama_stack-0.4.2/src/llama_stack_api/common}/__init__.py +0 -0
  609. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/common/content_types.py +0 -0
  610. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/common/errors.py +0 -0
  611. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/common/job_types.py +0 -0
  612. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/common/responses.py +0 -0
  613. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/common/training_types.py +0 -0
  614. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/common/type_system.py +0 -0
  615. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/connectors.py +0 -0
  616. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/conversations.py +0 -0
  617. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/datasetio.py +0 -0
  618. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/datasets/__init__.py +0 -0
  619. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/datasets/api.py +0 -0
  620. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/datasets/fastapi_routes.py +0 -0
  621. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/datasets/models.py +0 -0
  622. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/datatypes.py +0 -0
  623. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/eval.py +0 -0
  624. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/file_processors/__init__.py +0 -0
  625. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/file_processors/api.py +0 -0
  626. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/file_processors/fastapi_routes.py +0 -0
  627. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/file_processors/models.py +0 -0
  628. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/files/__init__.py +0 -0
  629. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/files/api.py +0 -0
  630. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/files/fastapi_routes.py +0 -0
  631. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/files/models.py +0 -0
  632. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/inference.py +0 -0
  633. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/inspect_api/__init__.py +0 -0
  634. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/inspect_api/api.py +0 -0
  635. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/inspect_api/fastapi_routes.py +0 -0
  636. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/inspect_api/models.py +0 -0
  637. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/internal/__init__.py +0 -0
  638. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/internal/kvstore.py +0 -0
  639. {llama_stack-0.4.0 → llama_stack-0.4.2}/src/llama_stack_api/internal/sqlstore.py +0 -0
  640. {llama_stack-0.4.0/src → llama_stack-0.4.2/src/llama_stack_api}/llama_stack_api/common/__init__.py +0 -0
  641. {llama_stack-0.4.0/src → llama_stack-0.4.2/src/llama_stack_api}/llama_stack_api/models.py +0 -0
  642. {llama_stack-0.4.0/src → llama_stack-0.4.2/src/llama_stack_api}/llama_stack_api/openai_responses.py +0 -0
  643. {llama_stack-0.4.0/src → llama_stack-0.4.2/src/llama_stack_api}/llama_stack_api/post_training.py +0 -0
  644. {llama_stack-0.4.0/src → llama_stack-0.4.2/src/llama_stack_api}/llama_stack_api/prompts.py +0 -0
  645. {llama_stack-0.4.0/src → llama_stack-0.4.2/src/llama_stack_api}/llama_stack_api/providers/__init__.py +0 -0
  646. {llama_stack-0.4.0/src → llama_stack-0.4.2/src/llama_stack_api}/llama_stack_api/providers/api.py +0 -0
  647. {llama_stack-0.4.0/src → llama_stack-0.4.2/src/llama_stack_api}/llama_stack_api/providers/fastapi_routes.py +0 -0
  648. {llama_stack-0.4.0/src → llama_stack-0.4.2/src/llama_stack_api}/llama_stack_api/providers/models.py +0 -0
  649. {llama_stack-0.4.0/src → llama_stack-0.4.2/src/llama_stack_api}/llama_stack_api/py.typed +0 -0
  650. {llama_stack-0.4.0/src → llama_stack-0.4.2/src/llama_stack_api}/llama_stack_api/rag_tool.py +0 -0
  651. {llama_stack-0.4.0/src → llama_stack-0.4.2/src/llama_stack_api}/llama_stack_api/resource.py +0 -0
  652. {llama_stack-0.4.0/src → llama_stack-0.4.2/src/llama_stack_api}/llama_stack_api/router_utils.py +0 -0
  653. {llama_stack-0.4.0/src → llama_stack-0.4.2/src/llama_stack_api}/llama_stack_api/safety.py +0 -0
  654. {llama_stack-0.4.0/src → llama_stack-0.4.2/src/llama_stack_api}/llama_stack_api/schema_utils.py +0 -0
  655. {llama_stack-0.4.0/src → llama_stack-0.4.2/src/llama_stack_api}/llama_stack_api/scoring.py +0 -0
  656. {llama_stack-0.4.0/src → llama_stack-0.4.2/src/llama_stack_api}/llama_stack_api/scoring_functions.py +0 -0
  657. {llama_stack-0.4.0/src → llama_stack-0.4.2/src/llama_stack_api}/llama_stack_api/shields.py +0 -0
  658. {llama_stack-0.4.0/src → llama_stack-0.4.2/src/llama_stack_api}/llama_stack_api/tools.py +0 -0
  659. {llama_stack-0.4.0/src → llama_stack-0.4.2/src/llama_stack_api}/llama_stack_api/vector_io.py +0 -0
  660. {llama_stack-0.4.0/src → llama_stack-0.4.2/src/llama_stack_api}/llama_stack_api/vector_stores.py +0 -0
  661. {llama_stack-0.4.0/src → llama_stack-0.4.2/src/llama_stack_api}/llama_stack_api/version.py +0 -0
  662. {llama_stack-0.4.0 → llama_stack-0.4.2}/tests/integration/test_cases/inference/chat_completion.json +0 -0
  663. {llama_stack-0.4.0 → llama_stack-0.4.2}/tests/integration/test_cases/inference/completion.json +0 -0
@@ -1,6 +1,6 @@
1
1
  Metadata-Version: 2.4
2
2
  Name: llama_stack
3
- Version: 0.4.0
3
+ Version: 0.4.2
4
4
  Summary: Llama Stack
5
5
  Author-email: Meta Llama <llama-oss@meta.com>
6
6
  License: MIT
@@ -17,7 +17,7 @@ Requires-Python: >=3.12
17
17
  Description-Content-Type: text/markdown
18
18
  License-File: LICENSE
19
19
  Requires-Dist: PyYAML>=6.0
20
- Requires-Dist: aiohttp
20
+ Requires-Dist: aiohttp>=3.13.3
21
21
  Requires-Dist: fastapi<1.0,>=0.115.0
22
22
  Requires-Dist: fire
23
23
  Requires-Dist: httpx
@@ -44,9 +44,9 @@ Requires-Dist: sqlalchemy[asyncio]>=2.0.41
44
44
  Requires-Dist: starlette>=0.49.1
45
45
  Requires-Dist: psycopg2-binary
46
46
  Requires-Dist: tornado>=6.5.3
47
- Requires-Dist: urllib3>=2.6.0
47
+ Requires-Dist: urllib3>=2.6.3
48
48
  Provides-Extra: client
49
- Requires-Dist: llama-stack-client==0.4.0; extra == "client"
49
+ Requires-Dist: llama-stack-client==0.4.2; extra == "client"
50
50
  Dynamic: license-file
51
51
 
52
52
  # Llama Stack
@@ -7,7 +7,7 @@ required-version = ">=0.7.0"
7
7
 
8
8
  [project]
9
9
  name = "llama_stack"
10
- version = "0.4.0"
10
+ version = "0.4.2"
11
11
  authors = [{ name = "Meta Llama", email = "llama-oss@meta.com" }]
12
12
  description = "Llama Stack"
13
13
  readme = "README.md"
@@ -25,7 +25,7 @@ classifiers = [
25
25
  ]
26
26
  dependencies = [
27
27
  "PyYAML>=6.0",
28
- "aiohttp",
28
+ "aiohttp>=3.13.3",
29
29
  "fastapi>=0.115.0,<1.0", # server
30
30
  "fire", # for MCP in LLS client
31
31
  "httpx",
@@ -52,12 +52,12 @@ dependencies = [
52
52
  "starlette>=0.49.1",
53
53
  "psycopg2-binary",
54
54
  "tornado>=6.5.3",
55
- "urllib3>=2.6.0",
55
+ "urllib3>=2.6.3",
56
56
  ]
57
57
 
58
58
  [project.optional-dependencies]
59
59
  client = [
60
- "llama-stack-client==0.4.0",
60
+ "llama-stack-client==0.4.2",
61
61
  ]
62
62
 
63
63
  [dependency-groups]
@@ -106,7 +106,7 @@ type_checking = [
106
106
  "lm-format-enforcer",
107
107
  "mcp",
108
108
  "ollama",
109
- "llama-stack-client==0.4.0",
109
+ "llama-stack-client==0.4.2",
110
110
  ]
111
111
  # These are the dependencies required for running unit tests.
112
112
  unit = [
@@ -202,6 +202,9 @@ class StackRun(Subcommand):
202
202
  # Set the config file in environment so create_app can find it
203
203
  os.environ["LLAMA_STACK_CONFIG"] = str(config_file)
204
204
 
205
+ # disable together banner that spams llama stack run every time
206
+ os.environ["TOGETHER_NO_BANNER"] = "1"
207
+
205
208
  uvicorn_config = {
206
209
  "factory": True,
207
210
  "host": host,
@@ -53,6 +53,7 @@ from llama_stack_api import (
53
53
  PostTraining,
54
54
  Prompts,
55
55
  Providers,
56
+ RegisterBenchmarkRequest,
56
57
  Safety,
57
58
  Scoring,
58
59
  ScoringFunctions,
@@ -61,6 +62,7 @@ from llama_stack_api import (
61
62
  ToolRuntime,
62
63
  VectorIO,
63
64
  )
65
+ from llama_stack_api.datasets import RegisterDatasetRequest
64
66
 
65
67
  logger = get_logger(name=__name__, category="core")
66
68
 
@@ -91,18 +93,21 @@ class LlamaStack(
91
93
  pass
92
94
 
93
95
 
96
+ # Resources to register based on configuration.
97
+ # If a request class is specified, the configuration object will be converted to this class before invoking the registration method.
94
98
  RESOURCES = [
95
- ("models", Api.models, "register_model", "list_models"),
96
- ("shields", Api.shields, "register_shield", "list_shields"),
97
- ("datasets", Api.datasets, "register_dataset", "list_datasets"),
99
+ ("models", Api.models, "register_model", "list_models", None),
100
+ ("shields", Api.shields, "register_shield", "list_shields", None),
101
+ ("datasets", Api.datasets, "register_dataset", "list_datasets", RegisterDatasetRequest),
98
102
  (
99
103
  "scoring_fns",
100
104
  Api.scoring_functions,
101
105
  "register_scoring_function",
102
106
  "list_scoring_functions",
107
+ None,
103
108
  ),
104
- ("benchmarks", Api.benchmarks, "register_benchmark", "list_benchmarks"),
105
- ("tool_groups", Api.tool_groups, "register_tool_group", "list_tool_groups"),
109
+ ("benchmarks", Api.benchmarks, "register_benchmark", "list_benchmarks", RegisterBenchmarkRequest),
110
+ ("tool_groups", Api.tool_groups, "register_tool_group", "list_tool_groups", None),
106
111
  ]
107
112
 
108
113
 
@@ -110,6 +115,18 @@ REGISTRY_REFRESH_INTERVAL_SECONDS = 300
110
115
  REGISTRY_REFRESH_TASK = None
111
116
  TEST_RECORDING_CONTEXT = None
112
117
 
118
+ # ID fields for registered resources that should trigger skipping
119
+ # when they resolve to empty/None (from conditional env vars like :+)
120
+ RESOURCE_ID_FIELDS = [
121
+ "vector_store_id",
122
+ "model_id",
123
+ "shield_id",
124
+ "dataset_id",
125
+ "scoring_fn_id",
126
+ "benchmark_id",
127
+ "toolgroup_id",
128
+ ]
129
+
113
130
 
114
131
  def is_request_model(t: Any) -> bool:
115
132
  """Check if a type is a request model (Pydantic BaseModel).
@@ -187,7 +204,7 @@ async def invoke_with_optional_request(method: Any) -> Any:
187
204
 
188
205
 
189
206
  async def register_resources(run_config: StackConfig, impls: dict[Api, Any]):
190
- for rsrc, api, register_method, list_method in RESOURCES:
207
+ for rsrc, api, register_method, list_method, request_class in RESOURCES:
191
208
  objects = getattr(run_config.registered_resources, rsrc)
192
209
  if api not in impls:
193
210
  continue
@@ -201,10 +218,17 @@ async def register_resources(run_config: StackConfig, impls: dict[Api, Any]):
201
218
  continue
202
219
  logger.debug(f"registering {rsrc.capitalize()} {obj} for provider {obj.provider_id}")
203
220
 
204
- # we want to maintain the type information in arguments to method.
205
- # instead of method(**obj.model_dump()), which may convert a typed attr to a dict,
206
- # we use model_dump() to find all the attrs and then getattr to get the still typed value.
207
- await method(**{k: getattr(obj, k) for k in obj.model_dump().keys()})
221
+ # TODO: Once all register methods are migrated to accept request objects,
222
+ # remove this conditional and always use the request_class pattern.
223
+ if request_class is not None:
224
+ request = request_class(**obj.model_dump())
225
+ await method(request)
226
+ else:
227
+ # we want to maintain the type information in arguments to method.
228
+ # instead of method(**obj.model_dump()), which may convert a typed attr to a dict,
229
+ # we use model_dump() to find all the attrs and then getattr to get the still typed
230
+ # value.
231
+ await method(**{k: getattr(obj, k) for k in obj.model_dump().keys()})
208
232
 
209
233
  method = getattr(impls[api], list_method)
210
234
  response = await invoke_with_optional_request(method)
@@ -346,15 +370,33 @@ def replace_env_vars(config: Any, path: str = "") -> Any:
346
370
  logger.debug(
347
371
  f"Skipping config env variable expansion for disabled provider: {v.get('provider_id', '')}"
348
372
  )
349
- # Create a copy with resolved provider_id but original config
350
- disabled_provider = v.copy()
351
- disabled_provider["provider_id"] = resolved_provider_id
352
373
  continue
353
374
  except EnvVarError:
354
375
  # If we can't resolve the provider_id, continue with normal processing
355
376
  pass
356
377
 
357
- # Normal processing for non-disabled providers
378
+ # Special handling for registered resources: check if ID field resolves to empty/None
379
+ # from conditional env vars (e.g., ${env.VAR:+value}) and skip the entry if so
380
+ if isinstance(v, dict):
381
+ should_skip = False
382
+ for id_field in RESOURCE_ID_FIELDS:
383
+ if id_field in v:
384
+ try:
385
+ resolved_id = replace_env_vars(v[id_field], f"{path}[{i}].{id_field}")
386
+ if resolved_id is None or resolved_id == "":
387
+ logger.debug(
388
+ f"Skipping {path}[{i}] with empty {id_field} (conditional env var not set)"
389
+ )
390
+ should_skip = True
391
+ break
392
+ except EnvVarError as e:
393
+ logger.warning(
394
+ f"Could not resolve {id_field} in {path}[{i}], env var '{e.var_name}': {e}"
395
+ )
396
+ if should_skip:
397
+ continue
398
+
399
+ # Normal processing
358
400
  result.append(replace_env_vars(v, f"{path}[{i}]"))
359
401
  except EnvVarError as e:
360
402
  raise EnvVarError(e.var_name, e.path) from None
@@ -50,8 +50,11 @@ log = get_logger(name=__name__, category="tool_runtime")
50
50
  async def raw_data_from_doc(doc: RAGDocument) -> tuple[bytes, str]:
51
51
  """Get raw binary data and mime type from a RAGDocument for file upload."""
52
52
  if isinstance(doc.content, URL):
53
- if doc.content.uri.startswith("data:"):
54
- parts = parse_data_url(doc.content.uri)
53
+ uri = doc.content.uri
54
+ if uri.startswith("file://"):
55
+ raise ValueError("file:// URIs are not supported. Please use the Files API (/v1/files) to upload files.")
56
+ if uri.startswith("data:"):
57
+ parts = parse_data_url(uri)
55
58
  mime_type = parts["mimetype"]
56
59
  data = parts["data"]
57
60
 
@@ -63,7 +66,7 @@ async def raw_data_from_doc(doc: RAGDocument) -> tuple[bytes, str]:
63
66
  return file_data, mime_type
64
67
  else:
65
68
  async with httpx.AsyncClient() as client:
66
- r = await client.get(doc.content.uri)
69
+ r = await client.get(uri)
67
70
  r.raise_for_status()
68
71
  mime_type = r.headers.get("content-type", "application/octet-stream")
69
72
  return r.content, mime_type
@@ -73,6 +76,8 @@ async def raw_data_from_doc(doc: RAGDocument) -> tuple[bytes, str]:
73
76
  else:
74
77
  content_str = interleaved_content_as_str(doc.content)
75
78
 
79
+ if content_str.startswith("file://"):
80
+ raise ValueError("file:// URIs are not supported. Please use the Files API (/v1/files) to upload files.")
76
81
  if content_str.startswith("data:"):
77
82
  parts = parse_data_url(content_str)
78
83
  mime_type = parts["mimetype"]
@@ -18,6 +18,7 @@ from llama_stack.core.storage.kvstore import kvstore_impl
18
18
  from llama_stack.log import get_logger
19
19
  from llama_stack.providers.utils.memory.openai_vector_store_mixin import OpenAIVectorStoreMixin
20
20
  from llama_stack.providers.utils.memory.vector_store import ChunkForDeletion, EmbeddingIndex, VectorStoreWithIndex
21
+ from llama_stack.providers.utils.vector_io import load_embedded_chunk_with_backward_compat
21
22
  from llama_stack_api import (
22
23
  EmbeddedChunk,
23
24
  Files,
@@ -72,9 +73,11 @@ class FaissIndex(EmbeddingIndex):
72
73
 
73
74
  if stored_data:
74
75
  data = json.loads(stored_data)
75
- self.chunk_by_index = {
76
- int(k): EmbeddedChunk.model_validate_json(v) for k, v in data["chunk_by_index"].items()
77
- }
76
+ self.chunk_by_index = {}
77
+ for k, v in data["chunk_by_index"].items():
78
+ chunk_data = json.loads(v)
79
+ # Use generic backward compatibility utility
80
+ self.chunk_by_index[int(k)] = load_embedded_chunk_with_backward_compat(chunk_data)
78
81
 
79
82
  buffer = io.BytesIO(base64.b64decode(data["faiss_index"]))
80
83
  try:
@@ -5,6 +5,7 @@
5
5
  # the root directory of this source tree.
6
6
 
7
7
  import asyncio
8
+ import json
8
9
  import re
9
10
  import sqlite3
10
11
  import struct
@@ -23,6 +24,7 @@ from llama_stack.providers.utils.memory.vector_store import (
23
24
  EmbeddingIndex,
24
25
  VectorStoreWithIndex,
25
26
  )
27
+ from llama_stack.providers.utils.vector_io import load_embedded_chunk_with_backward_compat
26
28
  from llama_stack.providers.utils.vector_io.vector_utils import WeightedInMemoryAggregator
27
29
  from llama_stack_api import (
28
30
  EmbeddedChunk,
@@ -235,7 +237,8 @@ class SQLiteVecIndex(EmbeddingIndex):
235
237
  if score < score_threshold:
236
238
  continue
237
239
  try:
238
- embedded_chunk = EmbeddedChunk.model_validate_json(chunk_json)
240
+ chunk_data = json.loads(chunk_json)
241
+ embedded_chunk = load_embedded_chunk_with_backward_compat(chunk_data)
239
242
  except Exception as e:
240
243
  logger.error(f"Error parsing chunk JSON for id {_id}: {e}")
241
244
  continue
@@ -276,7 +279,8 @@ class SQLiteVecIndex(EmbeddingIndex):
276
279
  if score > -score_threshold:
277
280
  continue
278
281
  try:
279
- embedded_chunk = EmbeddedChunk.model_validate_json(chunk_json)
282
+ chunk_data = json.loads(chunk_json)
283
+ embedded_chunk = load_embedded_chunk_with_backward_compat(chunk_data)
280
284
  except Exception as e:
281
285
  logger.error(f"Error parsing chunk JSON for id {_id}: {e}")
282
286
  continue
@@ -20,6 +20,7 @@ def available_providers() -> list[ProviderSpec]:
20
20
  provider_type="inline::meta-reference",
21
21
  pip_packages=[
22
22
  "matplotlib",
23
+ "fonttools>=4.60.2",
23
24
  "pillow",
24
25
  "pandas",
25
26
  "scikit-learn",
@@ -17,6 +17,7 @@ from llama_stack.log import get_logger
17
17
  from llama_stack.providers.inline.vector_io.chroma import ChromaVectorIOConfig as InlineChromaVectorIOConfig
18
18
  from llama_stack.providers.utils.memory.openai_vector_store_mixin import OpenAIVectorStoreMixin
19
19
  from llama_stack.providers.utils.memory.vector_store import ChunkForDeletion, EmbeddingIndex, VectorStoreWithIndex
20
+ from llama_stack.providers.utils.vector_io import load_embedded_chunk_with_backward_compat
20
21
  from llama_stack.providers.utils.vector_io.vector_utils import WeightedInMemoryAggregator
21
22
  from llama_stack_api import (
22
23
  EmbeddedChunk,
@@ -60,10 +61,12 @@ class ChromaIndex(EmbeddingIndex):
60
61
  async def initialize(self):
61
62
  pass
62
63
 
63
- async def add_chunks(self, chunks: list[EmbeddedChunk], embeddings: NDArray):
64
- assert len(chunks) == len(embeddings), (
65
- f"Chunk length {len(chunks)} does not match embedding length {len(embeddings)}"
66
- )
64
+ async def add_chunks(self, chunks: list[EmbeddedChunk]):
65
+ if not chunks:
66
+ return
67
+
68
+ # Extract embeddings directly from chunks (already list[float])
69
+ embeddings = [chunk.embedding for chunk in chunks]
67
70
 
68
71
  ids = [f"{c.metadata.get('document_id', '')}:{c.chunk_id}" for c in chunks]
69
72
  await maybe_await(
@@ -84,7 +87,7 @@ class ChromaIndex(EmbeddingIndex):
84
87
  for dist, doc in zip(distances, documents, strict=False):
85
88
  try:
86
89
  doc = json.loads(doc)
87
- chunk = EmbeddedChunk(**doc)
90
+ chunk = load_embedded_chunk_with_backward_compat(doc)
88
91
  except Exception:
89
92
  log.exception(f"Failed to parse document: {doc}")
90
93
  continue
@@ -139,7 +142,7 @@ class ChromaIndex(EmbeddingIndex):
139
142
 
140
143
  for dist, doc in zip(distances, documents, strict=False):
141
144
  doc_data = json.loads(doc)
142
- chunk = EmbeddedChunk(**doc_data)
145
+ chunk = load_embedded_chunk_with_backward_compat(doc_data)
143
146
 
144
147
  score = 1.0 / (1.0 + float(dist)) if dist is not None else 1.0
145
148
 
@@ -21,7 +21,10 @@ from llama_stack.providers.utils.memory.vector_store import (
21
21
  EmbeddingIndex,
22
22
  VectorStoreWithIndex,
23
23
  )
24
- from llama_stack.providers.utils.vector_io.vector_utils import sanitize_collection_name
24
+ from llama_stack.providers.utils.vector_io.vector_utils import (
25
+ load_embedded_chunk_with_backward_compat,
26
+ sanitize_collection_name,
27
+ )
25
28
  from llama_stack_api import (
26
29
  EmbeddedChunk,
27
30
  Files,
@@ -39,6 +42,7 @@ from .config import MilvusVectorIOConfig as RemoteMilvusVectorIOConfig
39
42
 
40
43
  logger = get_logger(name=__name__, category="vector_io::milvus")
41
44
 
45
+
42
46
  VERSION = "v3"
43
47
  VECTOR_DBS_PREFIX = f"vector_stores:milvus:{VERSION}::"
44
48
  VECTOR_INDEX_PREFIX = f"vector_index:milvus:{VERSION}::"
@@ -65,10 +69,9 @@ class MilvusIndex(EmbeddingIndex):
65
69
  if await asyncio.to_thread(self.client.has_collection, self.collection_name):
66
70
  await asyncio.to_thread(self.client.drop_collection, collection_name=self.collection_name)
67
71
 
68
- async def add_chunks(self, chunks: list[EmbeddedChunk], embeddings: NDArray):
69
- assert len(chunks) == len(embeddings), (
70
- f"Chunk length {len(chunks)} does not match embedding length {len(embeddings)}"
71
- )
72
+ async def add_chunks(self, chunks: list[EmbeddedChunk]):
73
+ if not chunks:
74
+ return
72
75
 
73
76
  if not await asyncio.to_thread(self.client.has_collection, self.collection_name):
74
77
  logger.info(f"Creating new collection {self.collection_name} with nullable sparse field")
@@ -81,7 +84,7 @@ class MilvusIndex(EmbeddingIndex):
81
84
  max_length=65535,
82
85
  enable_analyzer=True, # Enable text analysis for BM25
83
86
  )
84
- schema.add_field(field_name="vector", datatype=DataType.FLOAT_VECTOR, dim=len(embeddings[0]))
87
+ schema.add_field(field_name="vector", datatype=DataType.FLOAT_VECTOR, dim=len(chunks[0].embedding))
85
88
  schema.add_field(field_name="chunk_content", datatype=DataType.JSON)
86
89
  # Add sparse vector field for BM25 (required by the function)
87
90
  schema.add_field(field_name="sparse", datatype=DataType.SPARSE_FLOAT_VECTOR)
@@ -110,12 +113,12 @@ class MilvusIndex(EmbeddingIndex):
110
113
  )
111
114
 
112
115
  data = []
113
- for chunk, embedding in zip(chunks, embeddings, strict=False):
116
+ for chunk in chunks:
114
117
  data.append(
115
118
  {
116
119
  "chunk_id": chunk.chunk_id,
117
120
  "content": chunk.content,
118
- "vector": embedding,
121
+ "vector": chunk.embedding, # Already a list[float]
119
122
  "chunk_content": chunk.model_dump(),
120
123
  # sparse field will be handled by BM25 function automatically
121
124
  }
@@ -136,7 +139,7 @@ class MilvusIndex(EmbeddingIndex):
136
139
  output_fields=["*"],
137
140
  search_params={"params": {"radius": score_threshold}},
138
141
  )
139
- chunks = [EmbeddedChunk(**res["entity"]["chunk_content"]) for res in search_res[0]]
142
+ chunks = [load_embedded_chunk_with_backward_compat(res["entity"]["chunk_content"]) for res in search_res[0]]
140
143
  scores = [res["distance"] for res in search_res[0]]
141
144
  return QueryChunksResponse(chunks=chunks, scores=scores)
142
145
 
@@ -163,7 +166,7 @@ class MilvusIndex(EmbeddingIndex):
163
166
  chunks = []
164
167
  scores = []
165
168
  for res in search_res[0]:
166
- chunk = EmbeddedChunk(**res["entity"]["chunk_content"])
169
+ chunk = load_embedded_chunk_with_backward_compat(res["entity"]["chunk_content"])
167
170
  chunks.append(chunk)
168
171
  scores.append(res["distance"]) # BM25 score from Milvus
169
172
 
@@ -191,7 +194,7 @@ class MilvusIndex(EmbeddingIndex):
191
194
  output_fields=["*"],
192
195
  limit=k,
193
196
  )
194
- chunks = [EmbeddedChunk(**res["chunk_content"]) for res in search_res]
197
+ chunks = [load_embedded_chunk_with_backward_compat(res["chunk_content"]) for res in search_res]
195
198
  scores = [1.0] * len(chunks) # Simple binary score for text search
196
199
  return QueryChunksResponse(chunks=chunks, scores=scores)
197
200
 
@@ -243,7 +246,7 @@ class MilvusIndex(EmbeddingIndex):
243
246
  chunks = []
244
247
  scores = []
245
248
  for res in search_res[0]:
246
- chunk = EmbeddedChunk(**res["entity"]["chunk_content"])
249
+ chunk = load_embedded_chunk_with_backward_compat(res["entity"]["chunk_content"])
247
250
  chunks.append(chunk)
248
251
  scores.append(res["distance"])
249
252
 
@@ -18,7 +18,11 @@ from llama_stack.log import get_logger
18
18
  from llama_stack.providers.utils.inference.prompt_adapter import interleaved_content_as_str
19
19
  from llama_stack.providers.utils.memory.openai_vector_store_mixin import OpenAIVectorStoreMixin
20
20
  from llama_stack.providers.utils.memory.vector_store import ChunkForDeletion, EmbeddingIndex, VectorStoreWithIndex
21
- from llama_stack.providers.utils.vector_io.vector_utils import WeightedInMemoryAggregator, sanitize_collection_name
21
+ from llama_stack.providers.utils.vector_io.vector_utils import (
22
+ WeightedInMemoryAggregator,
23
+ load_embedded_chunk_with_backward_compat,
24
+ sanitize_collection_name,
25
+ )
22
26
  from llama_stack_api import (
23
27
  EmbeddedChunk,
24
28
  Files,
@@ -130,19 +134,18 @@ class PGVectorIndex(EmbeddingIndex):
130
134
  log.exception(f"Error creating PGVectorIndex for vector_store: {self.vector_store.identifier}")
131
135
  raise RuntimeError(f"Error creating PGVectorIndex for vector_store: {self.vector_store.identifier}") from e
132
136
 
133
- async def add_chunks(self, chunks: list[EmbeddedChunk], embeddings: NDArray):
134
- assert len(chunks) == len(embeddings), (
135
- f"Chunk length {len(chunks)} does not match embedding length {len(embeddings)}"
136
- )
137
+ async def add_chunks(self, chunks: list[EmbeddedChunk]):
138
+ if not chunks:
139
+ return
137
140
 
138
141
  values = []
139
- for i, chunk in enumerate(chunks):
142
+ for chunk in chunks:
140
143
  content_text = interleaved_content_as_str(chunk.content)
141
144
  values.append(
142
145
  (
143
146
  f"{chunk.chunk_id}",
144
147
  Json(chunk.model_dump()),
145
- embeddings[i].tolist(),
148
+ chunk.embedding, # Already a list[float]
146
149
  content_text,
147
150
  content_text, # Pass content_text twice - once for content_text column, once for to_tsvector function. Eg. to_tsvector(content_text) = tokenized_content
148
151
  )
@@ -194,7 +197,7 @@ class PGVectorIndex(EmbeddingIndex):
194
197
  score = 1.0 / float(dist) if dist != 0 else float("inf")
195
198
  if score < score_threshold:
196
199
  continue
197
- chunks.append(EmbeddedChunk(**doc))
200
+ chunks.append(load_embedded_chunk_with_backward_compat(doc))
198
201
  scores.append(score)
199
202
 
200
203
  return QueryChunksResponse(chunks=chunks, scores=scores)
@@ -230,7 +233,7 @@ class PGVectorIndex(EmbeddingIndex):
230
233
  for doc, score in results:
231
234
  if score < score_threshold:
232
235
  continue
233
- chunks.append(EmbeddedChunk(**doc))
236
+ chunks.append(load_embedded_chunk_with_backward_compat(doc))
234
237
  scores.append(float(score))
235
238
 
236
239
  return QueryChunksResponse(chunks=chunks, scores=scores)
@@ -306,7 +309,8 @@ class PGVectorIndex(EmbeddingIndex):
306
309
  """Remove a chunk from the PostgreSQL table."""
307
310
  chunk_ids = [c.chunk_id for c in chunks_for_deletion]
308
311
  with self.conn.cursor(cursor_factory=psycopg2.extras.DictCursor) as cur:
309
- cur.execute(f"DELETE FROM {self.table_name} WHERE id = ANY(%s)", (chunk_ids))
312
+ # Fix: Use proper tuple parameter binding with explicit array cast
313
+ cur.execute(f"DELETE FROM {self.table_name} WHERE id = ANY(%s::text[])", (chunk_ids,))
310
314
 
311
315
  def get_pgvector_search_function(self) -> str:
312
316
  return self.PGVECTOR_DISTANCE_METRIC_TO_SEARCH_FUNCTION[self.distance_metric]
@@ -18,6 +18,7 @@ from llama_stack.log import get_logger
18
18
  from llama_stack.providers.inline.vector_io.qdrant import QdrantVectorIOConfig as InlineQdrantVectorIOConfig
19
19
  from llama_stack.providers.utils.memory.openai_vector_store_mixin import OpenAIVectorStoreMixin
20
20
  from llama_stack.providers.utils.memory.vector_store import ChunkForDeletion, EmbeddingIndex, VectorStoreWithIndex
21
+ from llama_stack.providers.utils.vector_io.vector_utils import load_embedded_chunk_with_backward_compat
21
22
  from llama_stack_api import (
22
23
  EmbeddedChunk,
23
24
  Files,
@@ -66,24 +67,23 @@ class QdrantIndex(EmbeddingIndex):
66
67
  # If the collection does not exist, it will be created in add_chunks.
67
68
  pass
68
69
 
69
- async def add_chunks(self, chunks: list[EmbeddedChunk], embeddings: NDArray):
70
- assert len(chunks) == len(embeddings), (
71
- f"Chunk length {len(chunks)} does not match embedding length {len(embeddings)}"
72
- )
70
+ async def add_chunks(self, chunks: list[EmbeddedChunk]):
71
+ if not chunks:
72
+ return
73
73
 
74
74
  if not await self.client.collection_exists(self.collection_name):
75
75
  await self.client.create_collection(
76
76
  self.collection_name,
77
- vectors_config=models.VectorParams(size=len(embeddings[0]), distance=models.Distance.COSINE),
77
+ vectors_config=models.VectorParams(size=len(chunks[0].embedding), distance=models.Distance.COSINE),
78
78
  )
79
79
 
80
80
  points = []
81
- for _i, (chunk, embedding) in enumerate(zip(chunks, embeddings, strict=False)):
81
+ for chunk in chunks:
82
82
  chunk_id = chunk.chunk_id
83
83
  points.append(
84
84
  PointStruct(
85
85
  id=convert_id(chunk_id),
86
- vector=embedding,
86
+ vector=chunk.embedding, # Already a list[float]
87
87
  payload={"chunk_content": chunk.model_dump()} | {CHUNK_ID_KEY: chunk_id},
88
88
  )
89
89
  )
@@ -118,7 +118,7 @@ class QdrantIndex(EmbeddingIndex):
118
118
  assert point.payload is not None
119
119
 
120
120
  try:
121
- chunk = EmbeddedChunk(**point.payload["chunk_content"])
121
+ chunk = load_embedded_chunk_with_backward_compat(point.payload["chunk_content"])
122
122
  except Exception:
123
123
  log.exception("Failed to parse chunk")
124
124
  continue
@@ -172,7 +172,7 @@ class QdrantIndex(EmbeddingIndex):
172
172
  raise RuntimeError("Qdrant query returned point with no payload")
173
173
 
174
174
  try:
175
- chunk = EmbeddedChunk(**point.payload["chunk_content"])
175
+ chunk = load_embedded_chunk_with_backward_compat(point.payload["chunk_content"])
176
176
  except Exception:
177
177
  chunk_id = point.payload.get(CHUNK_ID_KEY, "unknown") if point.payload else "unknown"
178
178
  point_id = getattr(point, "id", "unknown")
@@ -242,7 +242,7 @@ class QdrantIndex(EmbeddingIndex):
242
242
  raise RuntimeError("Qdrant query returned point with no payload")
243
243
 
244
244
  try:
245
- chunk = EmbeddedChunk(**point.payload["chunk_content"])
245
+ chunk = load_embedded_chunk_with_backward_compat(point.payload["chunk_content"])
246
246
  except Exception:
247
247
  chunk_id = point.payload.get(CHUNK_ID_KEY, "unknown") if point.payload else "unknown"
248
248
  point_id = getattr(point, "id", "unknown")
@@ -22,6 +22,7 @@ from llama_stack.providers.utils.memory.vector_store import (
22
22
  EmbeddingIndex,
23
23
  VectorStoreWithIndex,
24
24
  )
25
+ from llama_stack.providers.utils.vector_io import load_embedded_chunk_with_backward_compat
25
26
  from llama_stack.providers.utils.vector_io.vector_utils import sanitize_collection_name
26
27
  from llama_stack_api import (
27
28
  EmbeddedChunk,
@@ -57,20 +58,19 @@ class WeaviateIndex(EmbeddingIndex):
57
58
  async def initialize(self):
58
59
  pass
59
60
 
60
- async def add_chunks(self, chunks: list[EmbeddedChunk], embeddings: NDArray):
61
- assert len(chunks) == len(embeddings), (
62
- f"Chunk length {len(chunks)} does not match embedding length {len(embeddings)}"
63
- )
61
+ async def add_chunks(self, chunks: list[EmbeddedChunk]):
62
+ if not chunks:
63
+ return
64
64
 
65
65
  data_objects = []
66
- for chunk, embedding in zip(chunks, embeddings, strict=False):
66
+ for chunk in chunks:
67
67
  data_objects.append(
68
68
  wvc.data.DataObject(
69
69
  properties={
70
70
  "chunk_id": chunk.chunk_id,
71
71
  "chunk_content": chunk.model_dump_json(),
72
72
  },
73
- vector=embedding.tolist(),
73
+ vector=chunk.embedding, # Already a list[float]
74
74
  )
75
75
  )
76
76
 
@@ -116,7 +116,7 @@ class WeaviateIndex(EmbeddingIndex):
116
116
  chunk_json = doc.properties["chunk_content"]
117
117
  try:
118
118
  chunk_dict = json.loads(chunk_json)
119
- chunk = EmbeddedChunk(**chunk_dict)
119
+ chunk = load_embedded_chunk_with_backward_compat(chunk_dict)
120
120
  except Exception:
121
121
  log.exception(f"Failed to parse document: {chunk_json}")
122
122
  continue
@@ -176,7 +176,7 @@ class WeaviateIndex(EmbeddingIndex):
176
176
  chunk_json = doc.properties["chunk_content"]
177
177
  try:
178
178
  chunk_dict = json.loads(chunk_json)
179
- chunk = EmbeddedChunk(**chunk_dict)
179
+ chunk = load_embedded_chunk_with_backward_compat(chunk_dict)
180
180
  except Exception:
181
181
  log.exception(f"Failed to parse document: {chunk_json}")
182
182
  continue
@@ -245,7 +245,7 @@ class WeaviateIndex(EmbeddingIndex):
245
245
  chunk_json = doc.properties["chunk_content"]
246
246
  try:
247
247
  chunk_dict = json.loads(chunk_json)
248
- chunk = EmbeddedChunk(**chunk_dict)
248
+ chunk = load_embedded_chunk_with_backward_compat(chunk_dict)
249
249
  except Exception:
250
250
  log.exception(f"Failed to parse document: {chunk_json}")
251
251
  continue