@lobehub/chat 1.21.15 → 1.22.0
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/Dockerfile +16 -8
- package/Dockerfile.database +20 -9
- package/README.zh-CN.md +8 -6
- package/docs/self-hosting/environment-variables.mdx +71 -0
- package/docs/usage/providers/wenxin.mdx +4 -3
- package/docs/usage/providers/wenxin.zh-CN.mdx +4 -3
- package/locales/ar/error.json +1 -0
- package/locales/ar/modelProvider.json +7 -0
- package/locales/ar/models.json +18 -6
- package/locales/ar/providers.json +3 -0
- package/locales/bg-BG/error.json +1 -0
- package/locales/bg-BG/modelProvider.json +7 -0
- package/locales/bg-BG/models.json +18 -6
- package/locales/bg-BG/providers.json +3 -0
- package/locales/de-DE/error.json +1 -0
- package/locales/de-DE/modelProvider.json +7 -0
- package/locales/de-DE/models.json +18 -6
- package/locales/de-DE/providers.json +3 -0
- package/locales/en-US/error.json +1 -0
- package/locales/en-US/modelProvider.json +7 -0
- package/locales/en-US/models.json +18 -6
- package/locales/en-US/providers.json +3 -0
- package/locales/es-ES/error.json +1 -0
- package/locales/es-ES/modelProvider.json +7 -0
- package/locales/es-ES/models.json +18 -6
- package/locales/es-ES/providers.json +3 -0
- package/locales/fr-FR/error.json +1 -0
- package/locales/fr-FR/modelProvider.json +7 -0
- package/locales/fr-FR/models.json +17 -5
- package/locales/fr-FR/providers.json +3 -0
- package/locales/it-IT/error.json +1 -0
- package/locales/it-IT/modelProvider.json +7 -0
- package/locales/it-IT/models.json +18 -6
- package/locales/it-IT/providers.json +3 -0
- package/locales/ja-JP/error.json +1 -0
- package/locales/ja-JP/modelProvider.json +7 -0
- package/locales/ja-JP/models.json +18 -6
- package/locales/ja-JP/providers.json +3 -0
- package/locales/ko-KR/error.json +1 -0
- package/locales/ko-KR/modelProvider.json +7 -0
- package/locales/ko-KR/models.json +17 -5
- package/locales/ko-KR/providers.json +3 -0
- package/locales/nl-NL/error.json +1 -0
- package/locales/nl-NL/modelProvider.json +7 -0
- package/locales/nl-NL/models.json +17 -5
- package/locales/nl-NL/providers.json +3 -0
- package/locales/pl-PL/error.json +1 -0
- package/locales/pl-PL/modelProvider.json +7 -0
- package/locales/pl-PL/models.json +18 -6
- package/locales/pl-PL/providers.json +3 -0
- package/locales/pt-BR/error.json +1 -0
- package/locales/pt-BR/modelProvider.json +7 -0
- package/locales/pt-BR/models.json +18 -6
- package/locales/pt-BR/providers.json +3 -0
- package/locales/ru-RU/error.json +1 -0
- package/locales/ru-RU/modelProvider.json +7 -0
- package/locales/ru-RU/models.json +18 -6
- package/locales/ru-RU/providers.json +3 -0
- package/locales/tr-TR/error.json +1 -0
- package/locales/tr-TR/modelProvider.json +7 -0
- package/locales/tr-TR/models.json +18 -6
- package/locales/tr-TR/providers.json +3 -0
- package/locales/vi-VN/error.json +1 -0
- package/locales/vi-VN/modelProvider.json +7 -0
- package/locales/vi-VN/models.json +18 -6
- package/locales/vi-VN/providers.json +3 -0
- package/locales/zh-CN/error.json +2 -1
- package/locales/zh-CN/modelProvider.json +8 -1
- package/locales/zh-CN/models.json +16 -4
- package/locales/zh-CN/providers.json +3 -0
- package/locales/zh-TW/error.json +1 -0
- package/locales/zh-TW/modelProvider.json +7 -0
- package/locales/zh-TW/models.json +16 -4
- package/locales/zh-TW/providers.json +3 -0
- package/package.json +5 -3
- package/src/app/(main)/settings/llm/ProviderList/HuggingFace/index.tsx +53 -0
- package/src/app/(main)/settings/llm/ProviderList/providers.tsx +12 -1
- package/src/config/llm.ts +10 -0
- package/src/config/modelProviders/huggingface.ts +50 -0
- package/src/config/modelProviders/index.ts +4 -0
- package/src/const/settings/llm.ts +5 -0
- package/src/features/Conversation/Error/index.tsx +1 -0
- package/src/libs/agent-runtime/AgentRuntime.ts +7 -0
- package/src/libs/agent-runtime/error.ts +1 -0
- package/src/libs/agent-runtime/groq/index.ts +1 -1
- package/src/libs/agent-runtime/huggingface/index.ts +48 -0
- package/src/libs/agent-runtime/types/type.ts +1 -0
- package/src/libs/agent-runtime/utils/openaiCompatibleFactory/index.ts +58 -20
- package/src/libs/agent-runtime/utils/streams/openai.test.ts +78 -7
- package/src/libs/agent-runtime/utils/streams/openai.ts +38 -5
- package/src/libs/agent-runtime/utils/streams/protocol.ts +63 -4
- package/src/locales/default/error.ts +2 -2
- package/src/locales/default/modelProvider.ts +8 -1
- package/src/server/globalConfig/index.ts +12 -1
- package/src/server/modules/AgentRuntime/index.ts +10 -0
- package/src/services/_url.ts +4 -5
- package/src/types/user/settings/keyVaults.ts +1 -0
- /package/src/app/(backend)/{api → webapi}/chat/[provider]/route.test.ts +0 -0
- /package/src/app/(backend)/{api → webapi}/chat/[provider]/route.ts +0 -0
- /package/src/app/(backend)/{api → webapi}/chat/anthropic/route.test.ts +0 -0
- /package/src/app/(backend)/{api → webapi}/chat/anthropic/route.ts +0 -0
- /package/src/app/(backend)/{api → webapi}/chat/google/route.test.ts +0 -0
- /package/src/app/(backend)/{api → webapi}/chat/google/route.ts +0 -0
- /package/src/app/(backend)/{api → webapi}/chat/minimax/route.test.ts +0 -0
- /package/src/app/(backend)/{api → webapi}/chat/minimax/route.ts +0 -0
- /package/src/app/(backend)/{api → webapi}/chat/models/[provider]/route.ts +0 -0
- /package/src/app/(backend)/{api → webapi}/chat/openai/route.test.ts +0 -0
- /package/src/app/(backend)/{api → webapi}/chat/openai/route.ts +0 -0
- /package/src/app/(backend)/{api → webapi}/chat/wenxin/route.test.ts +0 -0
- /package/src/app/(backend)/{api → webapi}/chat/wenxin/route.ts +0 -0
package/CHANGELOG.md
CHANGED
@@ -2,6 +2,56 @@
|
|
2
2
|
|
3
3
|
# Changelog
|
4
4
|
|
5
|
+
## [Version 1.22.0](https://github.com/lobehub/lobe-chat/compare/v1.21.16...v1.22.0)
|
6
|
+
|
7
|
+
<sup>Released on **2024-10-12**</sup>
|
8
|
+
|
9
|
+
#### ♻ Code Refactoring
|
10
|
+
|
11
|
+
- **misc**: Refactor the chat webapi.
|
12
|
+
|
13
|
+
#### ✨ Features
|
14
|
+
|
15
|
+
- **misc**: Add HuggingFace Model Provider.
|
16
|
+
|
17
|
+
<br/>
|
18
|
+
|
19
|
+
<details>
|
20
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
21
|
+
|
22
|
+
#### Code refactoring
|
23
|
+
|
24
|
+
- **misc**: Refactor the chat webapi, closes [#4339](https://github.com/lobehub/lobe-chat/issues/4339) ([4722444](https://github.com/lobehub/lobe-chat/commit/4722444))
|
25
|
+
|
26
|
+
#### What's improved
|
27
|
+
|
28
|
+
- **misc**: Add HuggingFace Model Provider, closes [#4225](https://github.com/lobehub/lobe-chat/issues/4225) ([d310931](https://github.com/lobehub/lobe-chat/commit/d310931))
|
29
|
+
|
30
|
+
</details>
|
31
|
+
|
32
|
+
<div align="right">
|
33
|
+
|
34
|
+
[](#readme-top)
|
35
|
+
|
36
|
+
</div>
|
37
|
+
|
38
|
+
### [Version 1.21.16](https://github.com/lobehub/lobe-chat/compare/v1.21.15...v1.21.16)
|
39
|
+
|
40
|
+
<sup>Released on **2024-10-12**</sup>
|
41
|
+
|
42
|
+
<br/>
|
43
|
+
|
44
|
+
<details>
|
45
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
46
|
+
|
47
|
+
</details>
|
48
|
+
|
49
|
+
<div align="right">
|
50
|
+
|
51
|
+
[](#readme-top)
|
52
|
+
|
53
|
+
</div>
|
54
|
+
|
5
55
|
### [Version 1.21.15](https://github.com/lobehub/lobe-chat/compare/v1.21.14...v1.21.15)
|
6
56
|
|
7
57
|
<sup>Released on **2024-10-12**</sup>
|
package/Dockerfile
CHANGED
@@ -33,23 +33,31 @@ RUN \
|
|
33
33
|
FROM base AS builder
|
34
34
|
|
35
35
|
ARG USE_CN_MIRROR
|
36
|
+
ARG NEXT_PUBLIC_BASE_PATH
|
37
|
+
ARG NEXT_PUBLIC_SENTRY_DSN
|
38
|
+
ARG NEXT_PUBLIC_ANALYTICS_POSTHOG
|
39
|
+
ARG NEXT_PUBLIC_POSTHOG_HOST
|
40
|
+
ARG NEXT_PUBLIC_POSTHOG_KEY
|
41
|
+
ARG NEXT_PUBLIC_ANALYTICS_UMAMI
|
42
|
+
ARG NEXT_PUBLIC_UMAMI_SCRIPT_URL
|
43
|
+
ARG NEXT_PUBLIC_UMAMI_WEBSITE_ID
|
36
44
|
|
37
|
-
ENV NEXT_PUBLIC_BASE_PATH=""
|
45
|
+
ENV NEXT_PUBLIC_BASE_PATH="${NEXT_PUBLIC_BASE_PATH}"
|
38
46
|
|
39
47
|
# Sentry
|
40
|
-
ENV NEXT_PUBLIC_SENTRY_DSN="" \
|
48
|
+
ENV NEXT_PUBLIC_SENTRY_DSN="${NEXT_PUBLIC_SENTRY_DSN}" \
|
41
49
|
SENTRY_ORG="" \
|
42
50
|
SENTRY_PROJECT=""
|
43
51
|
|
44
52
|
# Posthog
|
45
|
-
ENV NEXT_PUBLIC_ANALYTICS_POSTHOG="" \
|
46
|
-
NEXT_PUBLIC_POSTHOG_HOST="" \
|
47
|
-
NEXT_PUBLIC_POSTHOG_KEY=""
|
53
|
+
ENV NEXT_PUBLIC_ANALYTICS_POSTHOG="${NEXT_PUBLIC_ANALYTICS_POSTHOG}" \
|
54
|
+
NEXT_PUBLIC_POSTHOG_HOST="${NEXT_PUBLIC_POSTHOG_HOST}" \
|
55
|
+
NEXT_PUBLIC_POSTHOG_KEY="${NEXT_PUBLIC_POSTHOG_KEY}"
|
48
56
|
|
49
57
|
# Umami
|
50
|
-
ENV NEXT_PUBLIC_ANALYTICS_UMAMI="" \
|
51
|
-
NEXT_PUBLIC_UMAMI_SCRIPT_URL="" \
|
52
|
-
NEXT_PUBLIC_UMAMI_WEBSITE_ID=""
|
58
|
+
ENV NEXT_PUBLIC_ANALYTICS_UMAMI="${NEXT_PUBLIC_ANALYTICS_UMAMI}" \
|
59
|
+
NEXT_PUBLIC_UMAMI_SCRIPT_URL="${NEXT_PUBLIC_UMAMI_SCRIPT_URL}" \
|
60
|
+
NEXT_PUBLIC_UMAMI_WEBSITE_ID="${NEXT_PUBLIC_UMAMI_WEBSITE_ID}"
|
53
61
|
|
54
62
|
# Node
|
55
63
|
ENV NODE_OPTIONS="--max-old-space-size=8192"
|
package/Dockerfile.database
CHANGED
@@ -33,27 +33,38 @@ RUN \
|
|
33
33
|
FROM base AS builder
|
34
34
|
|
35
35
|
ARG USE_CN_MIRROR
|
36
|
-
|
37
|
-
|
36
|
+
ARG NEXT_PUBLIC_BASE_PATH
|
37
|
+
ARG NEXT_PUBLIC_SERVICE_MODE
|
38
|
+
ARG NEXT_PUBLIC_SENTRY_DSN
|
39
|
+
ARG NEXT_PUBLIC_ANALYTICS_POSTHOG
|
40
|
+
ARG NEXT_PUBLIC_POSTHOG_HOST
|
41
|
+
ARG NEXT_PUBLIC_POSTHOG_KEY
|
42
|
+
ARG NEXT_PUBLIC_ANALYTICS_UMAMI
|
43
|
+
ARG NEXT_PUBLIC_UMAMI_SCRIPT_URL
|
44
|
+
ARG NEXT_PUBLIC_UMAMI_WEBSITE_ID
|
45
|
+
|
46
|
+
ENV NEXT_PUBLIC_BASE_PATH="${NEXT_PUBLIC_BASE_PATH}"
|
47
|
+
|
48
|
+
ENV NEXT_PUBLIC_SERVICE_MODE="${NEXT_PUBLIC_SERVICE_MODE:-server}" \
|
38
49
|
APP_URL="http://app.com" \
|
39
50
|
DATABASE_DRIVER="node" \
|
40
51
|
DATABASE_URL="postgres://postgres:password@localhost:5432/postgres" \
|
41
52
|
KEY_VAULTS_SECRET="use-for-build"
|
42
53
|
|
43
54
|
# Sentry
|
44
|
-
ENV NEXT_PUBLIC_SENTRY_DSN="" \
|
55
|
+
ENV NEXT_PUBLIC_SENTRY_DSN="${NEXT_PUBLIC_SENTRY_DSN}" \
|
45
56
|
SENTRY_ORG="" \
|
46
57
|
SENTRY_PROJECT=""
|
47
58
|
|
48
59
|
# Posthog
|
49
|
-
ENV NEXT_PUBLIC_ANALYTICS_POSTHOG="" \
|
50
|
-
NEXT_PUBLIC_POSTHOG_HOST="" \
|
51
|
-
NEXT_PUBLIC_POSTHOG_KEY=""
|
60
|
+
ENV NEXT_PUBLIC_ANALYTICS_POSTHOG="${NEXT_PUBLIC_ANALYTICS_POSTHOG}" \
|
61
|
+
NEXT_PUBLIC_POSTHOG_HOST="${NEXT_PUBLIC_POSTHOG_HOST}" \
|
62
|
+
NEXT_PUBLIC_POSTHOG_KEY="${NEXT_PUBLIC_POSTHOG_KEY}"
|
52
63
|
|
53
64
|
# Umami
|
54
|
-
ENV NEXT_PUBLIC_ANALYTICS_UMAMI="" \
|
55
|
-
NEXT_PUBLIC_UMAMI_SCRIPT_URL="" \
|
56
|
-
NEXT_PUBLIC_UMAMI_WEBSITE_ID=""
|
65
|
+
ENV NEXT_PUBLIC_ANALYTICS_UMAMI="${NEXT_PUBLIC_ANALYTICS_UMAMI}" \
|
66
|
+
NEXT_PUBLIC_UMAMI_SCRIPT_URL="${NEXT_PUBLIC_UMAMI_SCRIPT_URL}" \
|
67
|
+
NEXT_PUBLIC_UMAMI_WEBSITE_ID="${NEXT_PUBLIC_UMAMI_WEBSITE_ID}"
|
57
68
|
|
58
69
|
# Node
|
59
70
|
ENV NODE_OPTIONS="--max-old-space-size=8192"
|
package/README.zh-CN.md
CHANGED
@@ -68,7 +68,7 @@
|
|
68
68
|
- [更多特性](#更多特性)
|
69
69
|
- [⚡️ 性能测试](#️-性能测试)
|
70
70
|
- [🛳 开箱即用](#-开箱即用)
|
71
|
-
- [`A` 使用 Vercel、Zeabur 或
|
71
|
+
- [`A` 使用 Vercel、Zeabur 、Sealos 或 阿里云计算巢 部署](#a-使用-vercelzeabur-sealos-或-阿里云计算巢-部署)
|
72
72
|
- [`B` 使用 Docker 部署](#b-使用-docker-部署)
|
73
73
|
- [环境变量](#环境变量)
|
74
74
|
- [获取 OpenAI API Key](#获取-openai-api-key)
|
@@ -426,9 +426,9 @@ LobeChat 提供了 Vercel 的 自托管版本 和 [Docker 镜像][docker-release
|
|
426
426
|
>
|
427
427
|
> 完整教程请查阅 [📘 构建属于自己的 Lobe Chat][docs-self-hosting]
|
428
428
|
|
429
|
-
### `A` 使用 Vercel、Zeabur 或
|
429
|
+
### `A` 使用 Vercel、Zeabur 、Sealos 或 阿里云计算巢 部署
|
430
430
|
|
431
|
-
如果想在 Vercel
|
431
|
+
如果想在 Vercel 、 Zeabur 或 阿里云 上部署该服务,可以按照以下步骤进行操作:
|
432
432
|
|
433
433
|
- 准备好你的 [OpenAI API Key](https://platform.openai.com/account/api-keys) 。
|
434
434
|
- 点击下方按钮开始部署: 直接使用 GitHub 账号登录即可,记得在环境变量页填入 `OPENAI_API_KEY` (必填) and `ACCESS_CODE`(推荐);
|
@@ -437,9 +437,9 @@ LobeChat 提供了 Vercel 的 自托管版本 和 [Docker 镜像][docker-release
|
|
437
437
|
|
438
438
|
<div align="center">
|
439
439
|
|
440
|
-
| 使用 Vercel 部署 | 使用 Zeabur 部署 | 使用 Sealos 部署 |
|
441
|
-
| :-------------------------------------: | :---------------------------------------------------------: | :---------------------------------------------------------: |
|
442
|
-
| [![][deploy-button-image]][deploy-link] | [![][deploy-on-zeabur-button-image]][deploy-on-zeabur-link] | [![][deploy-on-sealos-button-image]][deploy-on-sealos-link] |
|
440
|
+
| 使用 Vercel 部署 | 使用 Zeabur 部署 | 使用 Sealos 部署 | 使用阿里云计算巢部署 |
|
441
|
+
| :-------------------------------------: | :---------------------------------------------------------: | :---------------------------------------------------------: | :-----------------------------------------------------------------------: |
|
442
|
+
| [![][deploy-button-image]][deploy-link] | [![][deploy-on-zeabur-button-image]][deploy-on-zeabur-link] | [![][deploy-on-sealos-button-image]][deploy-on-sealos-link] | [![][deploy-on-alibaba-cloud-button-image]][deploy-on-alibaba-cloud-link] |
|
443
443
|
|
444
444
|
</div>
|
445
445
|
|
@@ -726,6 +726,8 @@ This project is [Apache 2.0](./LICENSE) licensed.
|
|
726
726
|
[codespaces-shield]: https://github.com/codespaces/badge.svg
|
727
727
|
[deploy-button-image]: https://vercel.com/button
|
728
728
|
[deploy-link]: https://vercel.com/new/clone?repository-url=https%3A%2F%2Fgithub.com%2Flobehub%2Flobe-chat&env=OPENAI_API_KEY,ACCESS_CODE&envDescription=Find%20your%20OpenAI%20API%20Key%20by%20click%20the%20right%20Learn%20More%20button.%20%7C%20Access%20Code%20can%20protect%20your%20website&envLink=https%3A%2F%2Fplatform.openai.com%2Faccount%2Fapi-keys&project-name=lobe-chat&repository-name=lobe-chat
|
729
|
+
[deploy-on-alibaba-cloud-button-image]: https://service-info-public.oss-cn-hangzhou.aliyuncs.com/computenest-en.svg
|
730
|
+
[deploy-on-alibaba-cloud-link]: https://computenest.console.aliyun.com/service/instance/create/default?type=user&ServiceName=LobeChat%E7%A4%BE%E5%8C%BA%E7%89%88
|
729
731
|
[deploy-on-sealos-button-image]: https://raw.githubusercontent.com/labring-actions/templates/main/Deploy-on-Sealos.svg
|
730
732
|
[deploy-on-sealos-link]: https://cloud.sealos.io/?openapp=system-template%3FtemplateName%3Dlobe-chat
|
731
733
|
[deploy-on-zeabur-button-image]: https://zeabur.com/button.svg
|
@@ -21,3 +21,74 @@ LobeChat provides some additional configuration options when deployed, which can
|
|
21
21
|
<Cards href={'environment-variables/s3'} title={'S3 Storage Service'} />
|
22
22
|
<Cards href={'environment-variables/analytics'} title={'Data Analytics'} />
|
23
23
|
</Cards>
|
24
|
+
|
25
|
+
## Building a Custom Image with Overridden NEXT_PUBLIC Variables
|
26
|
+
|
27
|
+
If you need to override NEXT_PUBLIC environment variables, you can build a custom Docker image using GitHub Actions
|
28
|
+
without forking the entire LobeChat repository. Here's a guide on how to do this:
|
29
|
+
|
30
|
+
1. Create a new GitHub repository for your custom build.
|
31
|
+
|
32
|
+
2. In your new repository, create a `.github/workflows` directory.
|
33
|
+
|
34
|
+
3. Inside the `.github/workflows` directory, create a file named `build-custom-lobe.yml`:
|
35
|
+
```yaml
|
36
|
+
name: Build Custom Image
|
37
|
+
|
38
|
+
on:
|
39
|
+
workflow_dispatch: # Manual trigger
|
40
|
+
|
41
|
+
env:
|
42
|
+
REGISTRY: ghcr.io
|
43
|
+
IMAGE_NAME: ${{ github.repository_owner }}/lobe-chat-database # Name of your image
|
44
|
+
|
45
|
+
jobs:
|
46
|
+
build-and-push:
|
47
|
+
runs-on: ubuntu-latest
|
48
|
+
permissions:
|
49
|
+
contents: read
|
50
|
+
packages: write
|
51
|
+
|
52
|
+
steps:
|
53
|
+
- name: Checkout repository
|
54
|
+
uses: actions/checkout@v3
|
55
|
+
with:
|
56
|
+
repository: lobehub/lobe-chat
|
57
|
+
|
58
|
+
- name: Log in to the Container registry
|
59
|
+
uses: docker/login-action@v2
|
60
|
+
with:
|
61
|
+
registry: ${{ env.REGISTRY }}
|
62
|
+
username: ${{ github.actor }}
|
63
|
+
password: ${{ secrets.GITHUB_TOKEN }}
|
64
|
+
|
65
|
+
- name: Extract metadata (tags, labels) for Docker
|
66
|
+
id: meta
|
67
|
+
uses: docker/metadata-action@v4
|
68
|
+
with:
|
69
|
+
images: ${{ env.REGISTRY }}/${{ env.IMAGE_NAME }}
|
70
|
+
|
71
|
+
- name: Build and push Docker image
|
72
|
+
uses: docker/build-push-action@v4
|
73
|
+
with:
|
74
|
+
context: .
|
75
|
+
file: Dockerfile.database # Change dockerfile if needed
|
76
|
+
push: true
|
77
|
+
tags: ${{ steps.meta.outputs.tags }}
|
78
|
+
labels: ${{ steps.meta.outputs.labels }}
|
79
|
+
# List all variables you need to overwrite
|
80
|
+
build-args: |
|
81
|
+
NEXT_PUBLIC_BASE_PATH=${{ secrets.NEXT_PUBLIC_BASE_PATH }}
|
82
|
+
NEXT_PUBLIC_SERVICE_MODE=${{ secrets.NEXT_PUBLIC_SERVICE_MODE }}
|
83
|
+
```
|
84
|
+
|
85
|
+
4. In your GitHub Repository settings > Secrets and variables > Actions > Repository secrets,
|
86
|
+
add any NEXT_PUBLIC variables you want to override
|
87
|
+
|
88
|
+
5. Set "Read and write" permissions for workflows in Repository settings > Actions > General > Workflow permissions.
|
89
|
+
|
90
|
+
6. To build your custom image, go to the "Actions" tab in your GitHub repository and manually trigger the
|
91
|
+
"Build Custom LobeChat Image" workflow.
|
92
|
+
|
93
|
+
This approach allows you to create a custom build with your desired NEXT_PUBLIC variables without maintaining
|
94
|
+
a full fork of the LobeChat repository. You can trigger a new build whenever you need to update your custom image.
|
@@ -35,12 +35,13 @@ inStep
|
|
35
35
|
src={'https://github.com/user-attachments/assets/927b1040-e23f-4919-92e2-80a400db8327'}
|
36
36
|
/>
|
37
37
|
|
38
|
-
-
|
38
|
+
- Enter the `Security Authentication` -> `Access Key` management page from the user account menu
|
39
|
+
- Copy the `Access Key` and `Secret Key`, and store them safely
|
39
40
|
|
40
41
|
<Image
|
41
42
|
alt={'Save Keys'}
|
42
43
|
inStep
|
43
|
-
src={'https://github.com/user-attachments/assets/
|
44
|
+
src={'https://github.com/user-attachments/assets/bb9dadd3-7e9c-45fd-8c56-553ab7287453'}
|
44
45
|
/>
|
45
46
|
|
46
47
|
### Step 2: Configure Wenxin Qianfan in LobeChat
|
@@ -54,7 +55,7 @@ inStep
|
|
54
55
|
src={'https://github.com/user-attachments/assets/e3995de7-38d9-489b-80a2-434477018469'}
|
55
56
|
/>
|
56
57
|
|
57
|
-
- Enter the obtained `
|
58
|
+
- Enter the obtained `Access Key` and `Secret Key`
|
58
59
|
- Select a Wenxin Qianfan model for your AI assistant to start interacting
|
59
60
|
|
60
61
|
<Image
|
@@ -36,12 +36,13 @@ tags:
|
|
36
36
|
src={'https://github.com/user-attachments/assets/927b1040-e23f-4919-92e2-80a400db8327'}
|
37
37
|
/>
|
38
38
|
|
39
|
-
-
|
39
|
+
- 在用户账号菜单进入 `安全认证` -> `Access Key` 管理页面
|
40
|
+
- 复制 `Access Key` 和 `Secret Key`,并妥善保存
|
40
41
|
|
41
42
|
<Image
|
42
43
|
alt={'保存密钥'}
|
43
44
|
inStep
|
44
|
-
src={'https://github.com/user-attachments/assets/
|
45
|
+
src={'https://github.com/user-attachments/assets/bb9dadd3-7e9c-45fd-8c56-553ab7287453'}
|
45
46
|
/>
|
46
47
|
|
47
48
|
### 步骤二:在 LobeChat 中配置文心千帆
|
@@ -55,7 +56,7 @@ tags:
|
|
55
56
|
src={'https://github.com/user-attachments/assets/e3995de7-38d9-489b-80a2-434477018469'}
|
56
57
|
/>
|
57
58
|
|
58
|
-
- 填入获得的 `
|
59
|
+
- 填入获得的 `Access Key` 和 `Secret Key`
|
59
60
|
- 为你的 AI 助手选择一个文心千帆的模型即可开始对话
|
60
61
|
|
61
62
|
<Image
|
package/locales/ar/error.json
CHANGED
@@ -67,6 +67,7 @@
|
|
67
67
|
"OllamaBizError": "خطأ في طلب خدمة Ollama، يرجى التحقق من المعلومات التالية أو إعادة المحاولة",
|
68
68
|
"OllamaServiceUnavailable": "خدمة Ollama غير متوفرة، يرجى التحقق من تشغيل Ollama بشكل صحيح أو إعدادات الـ Ollama للاتصال عبر النطاقات",
|
69
69
|
"OpenAIBizError": "طلب خدمة OpenAI خاطئ، يرجى التحقق من المعلومات التالية أو إعادة المحاولة",
|
70
|
+
"PermissionDenied": "عذرًا، ليس لديك إذن للوصول إلى هذه الخدمة، يرجى التحقق مما إذا كانت مفاتيحك تمتلك إذن الوصول",
|
70
71
|
"PluginApiNotFound": "عذرًا، لا يوجد API للإضافة في وصف الإضافة، يرجى التحقق من تطابق طريقة الطلب الخاصة بك مع API الوصف",
|
71
72
|
"PluginApiParamsError": "عذرًا، فشلت التحقق من صحة معلمات الطلب للإضافة، يرجى التحقق من تطابق المعلمات مع معلومات الوصف",
|
72
73
|
"PluginFailToTransformArguments": "عذرًا، فشل تحويل معلمات استدعاء الإضافة، يرجى محاولة إعادة إنشاء رسالة المساعد أو تجربة نموذج AI ذو قدرات استدعاء أقوى",
|
@@ -58,6 +58,13 @@
|
|
58
58
|
"title": "GitHub PAT"
|
59
59
|
}
|
60
60
|
},
|
61
|
+
"huggingface": {
|
62
|
+
"accessToken": {
|
63
|
+
"desc": "أدخل رمز HuggingFace الخاص بك، انقر [هنا](https://huggingface.co/settings/tokens) لإنشاء واحد",
|
64
|
+
"placeholder": "hf_xxxxxxxxx",
|
65
|
+
"title": "رمز HuggingFace"
|
66
|
+
}
|
67
|
+
},
|
61
68
|
"ollama": {
|
62
69
|
"checker": {
|
63
70
|
"desc": "اختبر ما إذا تم إدخال عنوان الوكيل بشكل صحيح",
|
package/locales/ar/models.json
CHANGED
@@ -458,6 +458,9 @@
|
|
458
458
|
"google/gemma-2-27b-it": {
|
459
459
|
"description": "Gemma 2 تستمر في مفهوم التصميم الخفيف والفعال."
|
460
460
|
},
|
461
|
+
"google/gemma-2-2b-it": {
|
462
|
+
"description": "نموذج تحسين التعليمات الخفيف من Google"
|
463
|
+
},
|
461
464
|
"google/gemma-2-9b-it": {
|
462
465
|
"description": "Gemma 2 هو سلسلة نماذج نصية مفتوحة المصدر خفيفة الوزن من Google."
|
463
466
|
},
|
@@ -589,6 +592,12 @@
|
|
589
592
|
"llama-3.1-sonar-small-128k-online": {
|
590
593
|
"description": "نموذج Llama 3.1 Sonar Small Online، يتمتع بـ 8B من المعلمات، يدعم طول سياق حوالي 127,000 علامة، مصمم للدردشة عبر الإنترنت، قادر على معالجة تفاعلات نصية متنوعة بكفاءة."
|
591
594
|
},
|
595
|
+
"llama-3.2-11b-vision-preview": {
|
596
|
+
"description": "Llama 3.2 مصمم للتعامل مع المهام التي تجمع بين البيانات البصرية والنصية. يظهر أداءً ممتازًا في مهام وصف الصور والأسئلة البصرية، متجاوزًا الفجوة بين توليد اللغة والاستدلال البصري."
|
597
|
+
},
|
598
|
+
"llama-3.2-90b-vision-preview": {
|
599
|
+
"description": "Llama 3.2 مصمم للتعامل مع المهام التي تجمع بين البيانات البصرية والنصية. يظهر أداءً ممتازًا في مهام وصف الصور والأسئلة البصرية، متجاوزًا الفجوة بين توليد اللغة والاستدلال البصري."
|
600
|
+
},
|
592
601
|
"llama3-70b-8192": {
|
593
602
|
"description": "Meta Llama 3 70B يوفر قدرة معالجة معقدة لا مثيل لها، مصمم خصيصًا للمشاريع ذات المتطلبات العالية."
|
594
603
|
},
|
@@ -643,6 +652,9 @@
|
|
643
652
|
"meta-llama/Llama-2-13b-chat-hf": {
|
644
653
|
"description": "LLaMA-2 Chat (13B) يوفر قدرة ممتازة على معالجة اللغة وتجربة تفاعلية رائعة."
|
645
654
|
},
|
655
|
+
"meta-llama/Llama-2-7b-chat-hf": {
|
656
|
+
"description": "واحد من أفضل نماذج المحادثة"
|
657
|
+
},
|
646
658
|
"meta-llama/Llama-3-70b-chat-hf": {
|
647
659
|
"description": "LLaMA-3 Chat (70B) هو نموذج دردشة قوي، يدعم احتياجات الحوار المعقدة."
|
648
660
|
},
|
@@ -811,8 +823,8 @@
|
|
811
823
|
"open-mixtral-8x7b": {
|
812
824
|
"description": "Mixtral 8x7B هو نموذج خبير نادر، يستخدم عدة معلمات لزيادة سرعة الاستدلال، مناسب لمعالجة المهام متعددة اللغات وتوليد الشيفرة."
|
813
825
|
},
|
814
|
-
"openai/gpt-4o
|
815
|
-
"description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الحقيقي للحفاظ على أحدث إصدار. يجمع بين
|
826
|
+
"openai/gpt-4o": {
|
827
|
+
"description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الحقيقي للحفاظ على أحدث إصدار. يجمع بين فهم اللغة القوي وقدرة التوليد، مما يجعله مناسبًا لمجموعة واسعة من التطبيقات، بما في ذلك خدمة العملاء والتعليم والدعم الفني."
|
816
828
|
},
|
817
829
|
"openai/gpt-4o-mini": {
|
818
830
|
"description": "GPT-4o mini هو أحدث نموذج من OpenAI تم إطلاقه بعد GPT-4 Omni، ويدعم إدخال النصوص والصور وإخراج النصوص. كأحد نماذجهم المتقدمة الصغيرة، فهو أرخص بكثير من النماذج الرائدة الأخرى في الآونة الأخيرة، وأرخص بأكثر من 60% من GPT-3.5 Turbo. يحتفظ بذكاء متقدم مع قيمة ممتازة. حصل GPT-4o mini على 82% في اختبار MMLU، وهو حاليًا يتفوق على GPT-4 في تفضيلات الدردشة."
|
@@ -862,11 +874,11 @@
|
|
862
874
|
"qwen-vl-chat-v1": {
|
863
875
|
"description": "نموذج Qwen العملاق للغة البصرية يدعم طرق تفاعل مرنة، بما في ذلك الصور المتعددة، والأسئلة والأجوبة المتعددة، والإبداع."
|
864
876
|
},
|
865
|
-
"qwen-vl-max": {
|
866
|
-
"description": "نموذج Qwen
|
877
|
+
"qwen-vl-max-latest": {
|
878
|
+
"description": "نموذج اللغة البصرية الكبير Qwen. مقارنةً بالنسخة المحسّنة، تعزز مرة أخرى من قدرة الاستدلال البصري وقدرة اتباع التعليمات، مما يوفر مستوى أعلى من الإدراك البصري والمعرفة."
|
867
879
|
},
|
868
|
-
"qwen-vl-plus": {
|
869
|
-
"description": "
|
880
|
+
"qwen-vl-plus-latest": {
|
881
|
+
"description": "نسخة محسّنة من نموذج اللغة البصرية الكبير Qwen. تعزز بشكل كبير من قدرة التعرف على التفاصيل وقدرة التعرف على النصوص، وتدعم دقة تصل إلى أكثر من مليون بكسل وأبعاد صور بأي نسبة عرض إلى ارتفاع."
|
870
882
|
},
|
871
883
|
"qwen-vl-v1": {
|
872
884
|
"description": "نموذج تم تدريبه باستخدام نموذج Qwen-7B اللغوي، مع إضافة نموذج الصور، بدقة إدخال الصور 448."
|
@@ -30,6 +30,9 @@
|
|
30
30
|
"groq": {
|
31
31
|
"description": "يتميز محرك الاستدلال LPU من Groq بأداء ممتاز في أحدث اختبارات المعايير لنماذج اللغة الكبيرة المستقلة (LLM)، حيث أعاد تعريف معايير حلول الذكاء الاصطناعي بسرعته وكفاءته المذهلة. Groq يمثل سرعة استدلال فورية، ويظهر أداءً جيدًا في النشر القائم على السحابة."
|
32
32
|
},
|
33
|
+
"huggingface": {
|
34
|
+
"description": "تقدم واجهة برمجة التطبيقات الخاصة بـ HuggingFace طريقة سريعة ومجانية لاستكشاف الآلاف من النماذج لمجموعة متنوعة من المهام. سواء كنت تقوم بتصميم نموذج أولي لتطبيق جديد أو تحاول استكشاف إمكانيات التعلم الآلي، فإن هذه الواجهة تتيح لك الوصول الفوري إلى نماذج عالية الأداء في مجالات متعددة."
|
35
|
+
},
|
33
36
|
"hunyuan": {
|
34
37
|
"description": "نموذج لغة متقدم تم تطويره بواسطة Tencent، يتمتع بقدرة قوية على الإبداع باللغة الصينية، وقدرة على الاستدلال المنطقي في سياقات معقدة، بالإضافة إلى قدرة موثوقة على تنفيذ المهام."
|
35
38
|
},
|
package/locales/bg-BG/error.json
CHANGED
@@ -67,6 +67,7 @@
|
|
67
67
|
"OllamaBizError": "Грешка при заявка към услугата Ollama, моля, отстранете неизправностите или опитайте отново въз основа на следната информация",
|
68
68
|
"OllamaServiceUnavailable": "Услугата Ollama не е налична. Моля, проверете дали Ollama работи правилно или дали е конфигуриран коректно за междудомейност.",
|
69
69
|
"OpenAIBizError": "Грешка в услугата на OpenAI, моля проверете следната информация или опитайте отново",
|
70
|
+
"PermissionDenied": "Съжаляваме, нямате разрешение да достъпвате тази услуга. Моля, проверете дали вашият ключ има необходимите права за достъп.",
|
70
71
|
"PluginApiNotFound": "Съжаляваме, API не съществува в манифеста на плъгина. Моля, проверете дали методът на вашата заявка съвпада с API на манифеста на плъгина",
|
71
72
|
"PluginApiParamsError": "Съжаляваме, проверката на входния параметър за заявката на плъгина е неуспешна. Моля, проверете дали входните параметри съвпадат с описанието на API",
|
72
73
|
"PluginFailToTransformArguments": "Съжаляваме, неуспешно преобразуване на аргументите за извикване на плъгин. Моля, опитайте отново да генерирате съобщението на помощника или опитайте с по-мощна AI модел на Tools Calling.",
|
@@ -58,6 +58,13 @@
|
|
58
58
|
"title": "GitHub PAT"
|
59
59
|
}
|
60
60
|
},
|
61
|
+
"huggingface": {
|
62
|
+
"accessToken": {
|
63
|
+
"desc": "Въведете вашия HuggingFace токен, кликнете [тук](https://huggingface.co/settings/tokens), за да създадете",
|
64
|
+
"placeholder": "hf_xxxxxxxxx",
|
65
|
+
"title": "HuggingFace токен"
|
66
|
+
}
|
67
|
+
},
|
61
68
|
"ollama": {
|
62
69
|
"checker": {
|
63
70
|
"desc": "Тестване дали адресът на прокси е попълнен правилно",
|
@@ -458,6 +458,9 @@
|
|
458
458
|
"google/gemma-2-27b-it": {
|
459
459
|
"description": "Gemma 2 продължава концепцията за лекота и ефективност."
|
460
460
|
},
|
461
|
+
"google/gemma-2-2b-it": {
|
462
|
+
"description": "Лек модел за настройка на инструкции от Google."
|
463
|
+
},
|
461
464
|
"google/gemma-2-9b-it": {
|
462
465
|
"description": "Gemma 2 е серия от леки отворени текстови модели на Google."
|
463
466
|
},
|
@@ -589,6 +592,12 @@
|
|
589
592
|
"llama-3.1-sonar-small-128k-online": {
|
590
593
|
"description": "Llama 3.1 Sonar Small Online модел, с 8B параметри, поддържащ контекстова дължина от около 127,000 маркера, проектиран за онлайн чат, способен да обработва ефективно различни текстови взаимодействия."
|
591
594
|
},
|
595
|
+
"llama-3.2-11b-vision-preview": {
|
596
|
+
"description": "Llama 3.2 е проектиран да обработва задачи, свързващи визуални и текстови данни. Той показва отлични резултати в задачи като описание на изображения и визуални въпроси и отговори, преодолявайки пропастта между генерирането на език и визуалното разсъждение."
|
597
|
+
},
|
598
|
+
"llama-3.2-90b-vision-preview": {
|
599
|
+
"description": "Llama 3.2 е проектиран да обработва задачи, свързващи визуални и текстови данни. Той показва отлични резултати в задачи като описание на изображения и визуални въпроси и отговори, преодолявайки пропастта между генерирането на език и визуалното разсъждение."
|
600
|
+
},
|
592
601
|
"llama3-70b-8192": {
|
593
602
|
"description": "Meta Llama 3 70B предлага ненадмината способност за обработка на сложност, проектирана за високи изисквания."
|
594
603
|
},
|
@@ -643,6 +652,9 @@
|
|
643
652
|
"meta-llama/Llama-2-13b-chat-hf": {
|
644
653
|
"description": "LLaMA-2 Chat (13B) предлага отлични способности за обработка на език и изключителен интерактивен опит."
|
645
654
|
},
|
655
|
+
"meta-llama/Llama-2-7b-chat-hf": {
|
656
|
+
"description": "Един от най-добрите модели за разговори."
|
657
|
+
},
|
646
658
|
"meta-llama/Llama-3-70b-chat-hf": {
|
647
659
|
"description": "LLaMA-3 Chat (70B) е мощен чат модел, поддържащ сложни изисквания за диалог."
|
648
660
|
},
|
@@ -811,8 +823,8 @@
|
|
811
823
|
"open-mixtral-8x7b": {
|
812
824
|
"description": "Mixtral 8x7B е рядък експертен модел, който използва множество параметри за увеличаване на скоростта на разсъждение, подходящ за обработка на многоезични и кодови генериращи задачи."
|
813
825
|
},
|
814
|
-
"openai/gpt-4o
|
815
|
-
"description": "ChatGPT-4o е динамичен модел, който се актуализира в реално време, за да поддържа най-новата версия. Той комбинира
|
826
|
+
"openai/gpt-4o": {
|
827
|
+
"description": "ChatGPT-4o е динамичен модел, който се актуализира в реално време, за да поддържа най-новата версия. Той комбинира мощно разбиране на езика и способности за генериране, подходящ за мащабни приложения, включително обслужване на клиенти, образование и техническа поддръжка."
|
816
828
|
},
|
817
829
|
"openai/gpt-4o-mini": {
|
818
830
|
"description": "GPT-4o mini е най-новият модел на OpenAI, пуснат след GPT-4 Omni, който поддържа вход и изход на текст и изображения. Като най-напредналият им малък модел, той е значително по-евтин от другите нови модели и е с над 60% по-евтин от GPT-3.5 Turbo. Запазва най-съвременната интелигентност, като предлага значителна стойност за парите. GPT-4o mini получи 82% на теста MMLU и в момента е с по-висок рейтинг от GPT-4 в предпочитанията за чат."
|
@@ -862,11 +874,11 @@
|
|
862
874
|
"qwen-vl-chat-v1": {
|
863
875
|
"description": "Qwen VL поддържа гъвкави интерактивни методи, включително множество изображения, многократни въпроси и отговори, творчество и др."
|
864
876
|
},
|
865
|
-
"qwen-vl-max": {
|
866
|
-
"description": "Qwen е
|
877
|
+
"qwen-vl-max-latest": {
|
878
|
+
"description": "Qwen-VL Max е модел за визуален език с изключително голям мащаб. В сравнение с подобрената версия, той отново подобрява способността за визуално разсъждение и следване на инструкции, предоставяйки по-високо ниво на визуално възприятие и познание."
|
867
879
|
},
|
868
|
-
"qwen-vl-plus": {
|
869
|
-
"description": "Qwen е подобрена версия
|
880
|
+
"qwen-vl-plus-latest": {
|
881
|
+
"description": "Моделят за визуален език Qwen-VL Plus е подобрена версия с голям мащаб. Значително подобрява способността за разпознаване на детайли и текст, поддържа резолюция над милион пиксела и изображения с произволно съотношение на страните."
|
870
882
|
},
|
871
883
|
"qwen-vl-v1": {
|
872
884
|
"description": "Инициализиран с езиковия модел Qwen-7B, добавя модел за изображения, предтренировъчен модел с резолюция на входа от 448."
|
@@ -30,6 +30,9 @@
|
|
30
30
|
"groq": {
|
31
31
|
"description": "Инженерният двигател LPU на Groq показва изключителни резултати в последните независими тестове на големи езикови модели (LLM), преосмисляйки стандартите за AI решения с невероятната си скорост и ефективност. Groq е представител на мигновен скорост на изводите, демонстрирайки добро представяне в облачни внедрения."
|
32
32
|
},
|
33
|
+
"huggingface": {
|
34
|
+
"description": "HuggingFace Inference API предлагава бърз и безплатен начин да изследвате хиляди модели, подходящи за различни задачи. Независимо дали проектирате прототип за ново приложение, или опитвате функционалността на машинното обучение, този API ви предоставя незабавен достъп до високопроизводителни модели в множество области."
|
35
|
+
},
|
33
36
|
"hunyuan": {
|
34
37
|
"description": "Модел на голям език, разработен от Tencent, който притежава мощни способности за създаване на текст на китайски, логическо разсъждение в сложни контексти и надеждни способности за изпълнение на задачи."
|
35
38
|
},
|
package/locales/de-DE/error.json
CHANGED
@@ -67,6 +67,7 @@
|
|
67
67
|
"OllamaBizError": "Fehler bei der Anforderung des Ollama-Dienstes. Bitte überprüfen Sie die folgenden Informationen oder versuchen Sie es erneut.",
|
68
68
|
"OllamaServiceUnavailable": "Der Ollama-Dienst ist nicht verfügbar. Bitte überprüfen Sie, ob Ollama ordnungsgemäß ausgeführt wird und ob die CORS-Konfiguration von Ollama korrekt ist.",
|
69
69
|
"OpenAIBizError": "Fehler bei der Anforderung des OpenAI-Dienstes. Bitte überprüfen Sie die folgenden Informationen oder versuchen Sie es erneut.",
|
70
|
+
"PermissionDenied": "Es tut uns leid, Sie haben keine Berechtigung, auf diesen Dienst zuzugreifen. Bitte überprüfen Sie, ob Ihr Schlüssel die erforderlichen Zugriffsrechte hat.",
|
70
71
|
"PluginApiNotFound": "Entschuldigung, das API des Plugins im Plugin-Manifest existiert nicht. Bitte überprüfen Sie, ob Ihre Anfragemethode mit dem Plugin-Manifest-API übereinstimmt",
|
71
72
|
"PluginApiParamsError": "Entschuldigung, die Eingabeüberprüfung der Plugin-Anfrage ist fehlgeschlagen. Bitte überprüfen Sie, ob die Eingabe mit den API-Beschreibungsinformationen übereinstimmt",
|
72
73
|
"PluginFailToTransformArguments": "Es tut uns leid, die Plugin-Aufrufargumente konnten nicht transformiert werden. Bitte versuchen Sie, die Assistentennachricht erneut zu generieren, oder wechseln Sie zu einem leistungsstärkeren AI-Modell mit Tools Calling-Fähigkeiten und versuchen Sie es erneut.",
|
@@ -58,6 +58,13 @@
|
|
58
58
|
"title": "GitHub PAT"
|
59
59
|
}
|
60
60
|
},
|
61
|
+
"huggingface": {
|
62
|
+
"accessToken": {
|
63
|
+
"desc": "Geben Sie Ihr HuggingFace-Token ein, klicken Sie [hier](https://huggingface.co/settings/tokens), um eines zu erstellen",
|
64
|
+
"placeholder": "hf_xxxxxxxxx",
|
65
|
+
"title": "HuggingFace-Token"
|
66
|
+
}
|
67
|
+
},
|
61
68
|
"ollama": {
|
62
69
|
"checker": {
|
63
70
|
"desc": "Testen Sie, ob die Proxy-Adresse korrekt eingetragen wurde",
|
@@ -458,6 +458,9 @@
|
|
458
458
|
"google/gemma-2-27b-it": {
|
459
459
|
"description": "Gemma 2 setzt das Designkonzept von Leichtbau und Effizienz fort."
|
460
460
|
},
|
461
|
+
"google/gemma-2-2b-it": {
|
462
|
+
"description": "Das leichtgewichtige Anweisungsoptimierungsmodell von Google."
|
463
|
+
},
|
461
464
|
"google/gemma-2-9b-it": {
|
462
465
|
"description": "Gemma 2 ist eine leichtgewichtige Open-Source-Textmodellreihe von Google."
|
463
466
|
},
|
@@ -589,6 +592,12 @@
|
|
589
592
|
"llama-3.1-sonar-small-128k-online": {
|
590
593
|
"description": "Das Llama 3.1 Sonar Small Online-Modell hat 8B Parameter und unterstützt eine Kontextlänge von etwa 127.000 Markierungen, es wurde speziell für Online-Chat entwickelt und kann verschiedene Textinteraktionen effizient verarbeiten."
|
591
594
|
},
|
595
|
+
"llama-3.2-11b-vision-preview": {
|
596
|
+
"description": "Llama 3.2 ist darauf ausgelegt, Aufgaben zu bearbeiten, die visuelle und textuelle Daten kombinieren. Es zeigt hervorragende Leistungen bei Aufgaben wie Bildbeschreibung und visuellen Fragen und Antworten und überbrückt die Kluft zwischen Sprachgenerierung und visueller Schlussfolgerung."
|
597
|
+
},
|
598
|
+
"llama-3.2-90b-vision-preview": {
|
599
|
+
"description": "Llama 3.2 ist darauf ausgelegt, Aufgaben zu bearbeiten, die visuelle und textuelle Daten kombinieren. Es zeigt hervorragende Leistungen bei Aufgaben wie Bildbeschreibung und visuellen Fragen und Antworten und überbrückt die Kluft zwischen Sprachgenerierung und visueller Schlussfolgerung."
|
600
|
+
},
|
592
601
|
"llama3-70b-8192": {
|
593
602
|
"description": "Meta Llama 3 70B bietet unvergleichliche Fähigkeiten zur Verarbeitung von Komplexität und ist maßgeschneidert für Projekte mit hohen Anforderungen."
|
594
603
|
},
|
@@ -643,6 +652,9 @@
|
|
643
652
|
"meta-llama/Llama-2-13b-chat-hf": {
|
644
653
|
"description": "LLaMA-2 Chat (13B) bietet hervorragende Sprachverarbeitungsfähigkeiten und ein ausgezeichnetes Interaktionserlebnis."
|
645
654
|
},
|
655
|
+
"meta-llama/Llama-2-7b-chat-hf": {
|
656
|
+
"description": "Eines der besten Dialogmodelle."
|
657
|
+
},
|
646
658
|
"meta-llama/Llama-3-70b-chat-hf": {
|
647
659
|
"description": "LLaMA-3 Chat (70B) ist ein leistungsstarkes Chat-Modell, das komplexe Dialoganforderungen unterstützt."
|
648
660
|
},
|
@@ -811,8 +823,8 @@
|
|
811
823
|
"open-mixtral-8x7b": {
|
812
824
|
"description": "Mixtral 8x7B ist ein spärliches Expertenmodell, das mehrere Parameter nutzt, um die Schlussfolgerungsgeschwindigkeit zu erhöhen und sich für die Verarbeitung mehrsprachiger und Codegenerierungsaufgaben eignet."
|
813
825
|
},
|
814
|
-
"openai/gpt-4o
|
815
|
-
"description": "ChatGPT-4o ist ein dynamisches Modell, das in Echtzeit aktualisiert wird, um die neueste Version zu gewährleisten. Es kombiniert starke Sprachverständnis- und Generierungsfähigkeiten und eignet sich für großangelegte Anwendungsszenarien, einschließlich Kundenservice, Bildung und
|
826
|
+
"openai/gpt-4o": {
|
827
|
+
"description": "ChatGPT-4o ist ein dynamisches Modell, das in Echtzeit aktualisiert wird, um die neueste Version zu gewährleisten. Es kombiniert starke Sprachverständnis- und Generierungsfähigkeiten und eignet sich für großangelegte Anwendungsszenarien, einschließlich Kundenservice, Bildung und technischem Support."
|
816
828
|
},
|
817
829
|
"openai/gpt-4o-mini": {
|
818
830
|
"description": "GPT-4o mini ist das neueste Modell von OpenAI, das nach GPT-4 Omni veröffentlicht wurde und Text- und Bild-Eingaben unterstützt. Als ihr fortschrittlichstes kleines Modell ist es viel günstiger als andere neueste Modelle und über 60 % günstiger als GPT-3.5 Turbo. Es behält die fortschrittlichste Intelligenz bei und bietet gleichzeitig ein hervorragendes Preis-Leistungs-Verhältnis. GPT-4o mini erzielte 82 % im MMLU-Test und rangiert derzeit in den Chat-Präferenzen über GPT-4."
|
@@ -862,11 +874,11 @@
|
|
862
874
|
"qwen-vl-chat-v1": {
|
863
875
|
"description": "Qwen VL unterstützt flexible Interaktionsmethoden, einschließlich Mehrbild-, Mehrfachfragen und kreativen Fähigkeiten."
|
864
876
|
},
|
865
|
-
"qwen-vl-max": {
|
866
|
-
"description": "
|
877
|
+
"qwen-vl-max-latest": {
|
878
|
+
"description": "Das Tongyi Qianwen Ultra-Scale Visuelle Sprachmodell. Im Vergleich zur verbesserten Version wurden die Fähigkeiten zur visuellen Schlussfolgerung und Befolgung von Anweisungen weiter gesteigert, was ein höheres Niveau an visueller Wahrnehmung und Kognition bietet."
|
867
879
|
},
|
868
|
-
"qwen-vl-plus": {
|
869
|
-
"description": "
|
880
|
+
"qwen-vl-plus-latest": {
|
881
|
+
"description": "Die verbesserte Version des Tongyi Qianwen, eines großangelegten visuellen Sprachmodells. Deutlich verbesserte Fähigkeiten zur Detailerkennung und Texterkennung, unterstützt Bildauflösungen von über einer Million Pixel und beliebige Seitenverhältnisse."
|
870
882
|
},
|
871
883
|
"qwen-vl-v1": {
|
872
884
|
"description": "Initiiert mit dem Qwen-7B-Sprachmodell, fügt es ein Bildmodell hinzu, das für Bildeingaben mit einer Auflösung von 448 vortrainiert wurde."
|
@@ -30,6 +30,9 @@
|
|
30
30
|
"groq": {
|
31
31
|
"description": "Der LPU-Inferenz-Engine von Groq hat in den neuesten unabhängigen Benchmark-Tests für große Sprachmodelle (LLM) hervorragende Leistungen gezeigt und definiert mit seiner erstaunlichen Geschwindigkeit und Effizienz die Standards für KI-Lösungen neu. Groq ist ein Beispiel für sofortige Inferenzgeschwindigkeit und zeigt in cloudbasierten Bereitstellungen eine gute Leistung."
|
32
32
|
},
|
33
|
+
"huggingface": {
|
34
|
+
"description": "Die HuggingFace Inference API bietet eine schnelle und kostenlose Möglichkeit, Tausende von Modellen für verschiedene Aufgaben zu erkunden. Egal, ob Sie Prototypen für neue Anwendungen erstellen oder die Funktionen des maschinellen Lernens ausprobieren, diese API ermöglicht Ihnen den sofortigen Zugriff auf leistungsstarke Modelle aus verschiedenen Bereichen."
|
35
|
+
},
|
33
36
|
"hunyuan": {
|
34
37
|
"description": "Ein von Tencent entwickeltes großes Sprachmodell, das über starke Fähigkeiten zur Erstellung von Inhalten in chinesischer Sprache, logisches Denkvermögen in komplexen Kontexten und zuverlässige Fähigkeiten zur Aufgabenerfüllung verfügt."
|
35
38
|
},
|