@lobehub/chat 1.35.1 → 1.35.2
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/changelog/v1.json +9 -0
- package/docs/changelog/index.json +5 -5
- package/locales/ar/modelProvider.json +4 -4
- package/locales/bg-BG/modelProvider.json +9 -9
- package/locales/de-DE/modelProvider.json +4 -4
- package/locales/en-US/chat.json +1 -1
- package/locales/en-US/modelProvider.json +1 -1
- package/locales/es-ES/modelProvider.json +4 -4
- package/locales/fr-FR/modelProvider.json +23 -23
- package/locales/ja-JP/modelProvider.json +9 -9
- package/locales/ko-KR/modelProvider.json +9 -9
- package/locales/nl-NL/modelProvider.json +23 -23
- package/locales/pl-PL/modelProvider.json +27 -27
- package/locales/pt-BR/modelProvider.json +4 -4
- package/locales/ru-RU/modelProvider.json +4 -4
- package/package.json +1 -1
package/CHANGELOG.md
CHANGED
@@ -2,6 +2,31 @@
|
|
2
2
|
|
3
3
|
# Changelog
|
4
4
|
|
5
|
+
### [Version 1.35.2](https://github.com/lobehub/lobe-chat/compare/v1.35.1...v1.35.2)
|
6
|
+
|
7
|
+
<sup>Released on **2024-12-01**</sup>
|
8
|
+
|
9
|
+
#### 💄 Styles
|
10
|
+
|
11
|
+
- **misc**: Improve i18n.
|
12
|
+
|
13
|
+
<br/>
|
14
|
+
|
15
|
+
<details>
|
16
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
17
|
+
|
18
|
+
#### Styles
|
19
|
+
|
20
|
+
- **misc**: Improve i18n, closes [#4857](https://github.com/lobehub/lobe-chat/issues/4857) ([4b7dbc0](https://github.com/lobehub/lobe-chat/commit/4b7dbc0))
|
21
|
+
|
22
|
+
</details>
|
23
|
+
|
24
|
+
<div align="right">
|
25
|
+
|
26
|
+
[](#readme-top)
|
27
|
+
|
28
|
+
</div>
|
29
|
+
|
5
30
|
### [Version 1.35.1](https://github.com/lobehub/lobe-chat/compare/v1.35.0...v1.35.1)
|
6
31
|
|
7
32
|
<sup>Released on **2024-12-01**</sup>
|
package/changelog/v1.json
CHANGED
@@ -3,7 +3,7 @@
|
|
3
3
|
"cloud": [],
|
4
4
|
"community": [
|
5
5
|
{
|
6
|
-
"image": "",
|
6
|
+
"image": "https://github.com/user-attachments/assets/2048b4c2-4a56-4029-acf9-71e35ff08652",
|
7
7
|
"id": "2024-11-27-forkable-chat",
|
8
8
|
"date": "2024-11-27",
|
9
9
|
"versionRange": ["1.34.0", "1.33.1"]
|
@@ -15,19 +15,19 @@
|
|
15
15
|
"versionRange": ["1.33.0", "1.30.1"]
|
16
16
|
},
|
17
17
|
{
|
18
|
-
"image": "https://github.com/user-attachments/assets/
|
18
|
+
"image": "https://github.com/user-attachments/assets/eb3f3d8a-79ce-40aa-a206-2c846206c0c0",
|
19
19
|
"id": "2024-11-06-share-text-json",
|
20
20
|
"date": "2024-11-06",
|
21
21
|
"versionRange": ["1.28.0", "1.26.1"]
|
22
22
|
},
|
23
23
|
{
|
24
|
-
"image": "https://github.com/user-attachments/assets/
|
24
|
+
"image": "https://github.com/user-attachments/assets/e70c2db6-05c9-43ea-b111-6f6f99e0ae88",
|
25
25
|
"id": "2024-10-27-pin-assistant",
|
26
26
|
"date": "2024-10-27",
|
27
27
|
"versionRange": ["1.26.0", "1.19.1"]
|
28
28
|
},
|
29
29
|
{
|
30
|
-
"image": "",
|
30
|
+
"image": "https://github.com/user-attachments/assets/635f1c74-6327-48a8-a8d9-68d7376c7749",
|
31
31
|
"id": "2024-09-20-artifacts",
|
32
32
|
"date": "2024-09-20",
|
33
33
|
"versionRange": ["1.19.0", "1.17.1"]
|
@@ -39,7 +39,7 @@
|
|
39
39
|
"versionRange": ["1.17.0", "1.12.1"]
|
40
40
|
},
|
41
41
|
{
|
42
|
-
"image": "https://github.com/user-attachments/assets/
|
42
|
+
"image": "https://github.com/user-attachments/assets/385eaca6-daea-484a-9bea-ba7270b4753d",
|
43
43
|
"id": "2024-08-21-file-upload-and-knowledge-base",
|
44
44
|
"date": "2024-08-21",
|
45
45
|
"versionRange": ["1.12.0", "1.8.1"]
|
@@ -88,10 +88,10 @@
|
|
88
88
|
"title": "أسماء النماذج المخصصة"
|
89
89
|
},
|
90
90
|
"download": {
|
91
|
-
"desc": "
|
92
|
-
"remainingTime": "
|
93
|
-
"speed": "
|
94
|
-
"title": "
|
91
|
+
"desc": "أولاما يقوم بتنزيل هذا النموذج، يرجى عدم إغلاق هذه الصفحة إذا أمكن. سيتم استئناف التنزيل من النقطة التي تم قطعها عند إعادة التحميل",
|
92
|
+
"remainingTime": "الوقت المتبقي",
|
93
|
+
"speed": "سرعة التنزيل",
|
94
|
+
"title": "جارٍ تنزيل النموذج {{model}} "
|
95
95
|
},
|
96
96
|
"endpoint": {
|
97
97
|
"desc": "أدخل عنوان واجهة برمجة التطبيقات الخاص بـ Ollama، إذا لم يتم تحديده محليًا، يمكن تركه فارغًا",
|
@@ -88,10 +88,10 @@
|
|
88
88
|
"title": "Имена на персонализирани модели"
|
89
89
|
},
|
90
90
|
"download": {
|
91
|
-
"desc": "Ollama
|
92
|
-
"remainingTime": "
|
93
|
-
"speed": "
|
94
|
-
"title": "
|
91
|
+
"desc": "Ollama изтегля този модел, моля, не затваряйте тази страница. При повторно изтегляне ще продължи от мястото, на което е прекъснато",
|
92
|
+
"remainingTime": "Оставащо време",
|
93
|
+
"speed": "Скорост на изтегляне",
|
94
|
+
"title": "Изтегляне на модел {{model}} "
|
95
95
|
},
|
96
96
|
"endpoint": {
|
97
97
|
"desc": "Въведете адрес на Ollama интерфейсния прокси, оставете празно, ако локално не е указано специално",
|
@@ -123,12 +123,12 @@
|
|
123
123
|
},
|
124
124
|
"title": "Ollama",
|
125
125
|
"unlock": {
|
126
|
-
"cancel": "
|
127
|
-
"confirm": "
|
128
|
-
"description": "
|
126
|
+
"cancel": "Отмяна на изтеглянето",
|
127
|
+
"confirm": "Изтегляне",
|
128
|
+
"description": "Въведете етикета на вашия Ollama модел, за да продължите сесията",
|
129
129
|
"downloaded": "{{completed}} / {{total}}",
|
130
|
-
"starting": "
|
131
|
-
"title": "
|
130
|
+
"starting": "Започва изтеглянето...",
|
131
|
+
"title": "Изтегляне на зададения Ollama модел"
|
132
132
|
}
|
133
133
|
},
|
134
134
|
"sensenova": {
|
@@ -88,10 +88,10 @@
|
|
88
88
|
"title": "Benutzerdefinierte Modellnamen"
|
89
89
|
},
|
90
90
|
"download": {
|
91
|
-
"desc": "Ollama
|
92
|
-
"remainingTime": "
|
93
|
-
"speed": "
|
94
|
-
"title": "
|
91
|
+
"desc": "Ollama lädt dieses Modell herunter. Bitte schließen Sie diese Seite nicht. Ein erneuter Download wird an der unterbrochenen Stelle fortgesetzt.",
|
92
|
+
"remainingTime": "Verbleibende Zeit",
|
93
|
+
"speed": "Downloadgeschwindigkeit",
|
94
|
+
"title": "Lade Modell {{model}} herunter"
|
95
95
|
},
|
96
96
|
"endpoint": {
|
97
97
|
"desc": "Geben Sie die Proxy-Adresse der Ollama-Schnittstelle ein, leer lassen, wenn lokal nicht spezifiziert",
|
package/locales/en-US/chat.json
CHANGED
@@ -10,7 +10,7 @@
|
|
10
10
|
"generating": "Generating",
|
11
11
|
"inThread": "Cannot view in subtopic, please switch to the main conversation area to open",
|
12
12
|
"thinking": "Thinking",
|
13
|
-
"thought": "Thought
|
13
|
+
"thought": "Thought",
|
14
14
|
"unknownTitle": "Untitled Work"
|
15
15
|
},
|
16
16
|
"backToBottom": "Back to bottom",
|
@@ -90,7 +90,7 @@
|
|
90
90
|
"download": {
|
91
91
|
"desc": "Ollama is downloading the model. Please try not to close this page. The download will resume from where it left off if interrupted.",
|
92
92
|
"remainingTime": "Remaining Time",
|
93
|
-
"speed": "
|
93
|
+
"speed": "Speed",
|
94
94
|
"title": "Downloading model {{model}}"
|
95
95
|
},
|
96
96
|
"endpoint": {
|
@@ -88,10 +88,10 @@
|
|
88
88
|
"title": "Nombre de modelos personalizados"
|
89
89
|
},
|
90
90
|
"download": {
|
91
|
-
"desc": "Ollama
|
92
|
-
"remainingTime": "
|
93
|
-
"speed": "
|
94
|
-
"title": "
|
91
|
+
"desc": "Ollama está descargando este modelo, por favor intenta no cerrar esta página. La descarga se reanudará desde donde se interrumpió",
|
92
|
+
"remainingTime": "Tiempo restante",
|
93
|
+
"speed": "Velocidad de descarga",
|
94
|
+
"title": "Descargando el modelo {{model}} "
|
95
95
|
},
|
96
96
|
"endpoint": {
|
97
97
|
"desc": "Introduce la dirección del proxy de la interfaz de Ollama, déjalo en blanco si no se ha especificado localmente",
|
@@ -88,10 +88,10 @@
|
|
88
88
|
"title": "Nom du modèle personnalisé"
|
89
89
|
},
|
90
90
|
"download": {
|
91
|
-
"desc": "Ollama
|
92
|
-
"remainingTime": "
|
93
|
-
"speed": "
|
94
|
-
"title": "
|
91
|
+
"desc": "Ollama est en train de télécharger ce modèle, veuillez essayer de ne pas fermer cette page. Le téléchargement reprendra à l'endroit où il a été interrompu.",
|
92
|
+
"remainingTime": "Temps restant",
|
93
|
+
"speed": "Vitesse de téléchargement",
|
94
|
+
"title": "Téléchargement du modèle {{model}} en cours"
|
95
95
|
},
|
96
96
|
"endpoint": {
|
97
97
|
"desc": "Saisissez l'adresse du proxy Ollama, laissez vide si non spécifié localement",
|
@@ -99,36 +99,36 @@
|
|
99
99
|
},
|
100
100
|
"setup": {
|
101
101
|
"cors": {
|
102
|
-
"description": "
|
102
|
+
"description": "En raison des restrictions de sécurité du navigateur, vous devez configurer CORS pour Ollama afin de l'utiliser correctement.",
|
103
103
|
"linux": {
|
104
|
-
"env": "
|
105
|
-
"reboot": "
|
106
|
-
"systemd": "
|
104
|
+
"env": "Ajoutez `Environment` sous la section [Service], en ajoutant la variable d'environnement OLLAMA_ORIGINS :",
|
105
|
+
"reboot": "Rechargez systemd et redémarrez Ollama",
|
106
|
+
"systemd": "Appelez systemd pour éditer le service ollama :"
|
107
107
|
},
|
108
|
-
"macos": "
|
109
|
-
"reboot": "
|
110
|
-
"title": "
|
111
|
-
"windows": "
|
108
|
+
"macos": "Veuillez ouvrir l'application « Terminal » et coller la commande suivante, puis appuyez sur Entrée pour l'exécuter.",
|
109
|
+
"reboot": "Veuillez redémarrer le service Ollama après l'exécution.",
|
110
|
+
"title": "Configurer Ollama pour autoriser l'accès CORS",
|
111
|
+
"windows": "Sous Windows, cliquez sur « Panneau de configuration », puis accédez à l'édition des variables d'environnement système. Créez une nouvelle variable d'environnement nommée « OLLAMA_ORIGINS » pour votre compte utilisateur, avec la valeur *, puis cliquez sur « OK/Appliquer » pour enregistrer."
|
112
112
|
},
|
113
113
|
"install": {
|
114
|
-
"description": "Veuillez vous assurer que vous avez
|
115
|
-
"docker": "
|
114
|
+
"description": "Veuillez vous assurer que vous avez démarré Ollama. Si vous n'avez pas téléchargé Ollama, veuillez vous rendre sur le site officiel <1>pour le télécharger</1>.",
|
115
|
+
"docker": "Si vous préférez utiliser Docker, Ollama propose également une image Docker officielle que vous pouvez tirer avec la commande suivante :",
|
116
116
|
"linux": {
|
117
|
-
"command": "
|
118
|
-
"manual": "
|
117
|
+
"command": "Installez avec la commande suivante :",
|
118
|
+
"manual": "Ou, vous pouvez également consulter le <1>guide d'installation manuelle pour Linux</1> pour l'installer vous-même."
|
119
119
|
},
|
120
|
-
"title": "
|
121
|
-
"windowsTab": "Windows (
|
120
|
+
"title": "Installer et démarrer l'application Ollama localement",
|
121
|
+
"windowsTab": "Windows (version préliminaire)"
|
122
122
|
}
|
123
123
|
},
|
124
124
|
"title": "Ollama",
|
125
125
|
"unlock": {
|
126
|
-
"cancel": "
|
127
|
-
"confirm": "
|
128
|
-
"description": "
|
126
|
+
"cancel": "Annuler le téléchargement",
|
127
|
+
"confirm": "Télécharger",
|
128
|
+
"description": "Entrez l'étiquette de votre modèle Ollama pour continuer la session.",
|
129
129
|
"downloaded": "{{completed}} / {{total}}",
|
130
|
-
"starting": "
|
131
|
-
"title": "
|
130
|
+
"starting": "Début du téléchargement...",
|
131
|
+
"title": "Télécharger le modèle Ollama spécifié"
|
132
132
|
}
|
133
133
|
},
|
134
134
|
"sensenova": {
|
@@ -88,10 +88,10 @@
|
|
88
88
|
"title": "カスタムモデル名"
|
89
89
|
},
|
90
90
|
"download": {
|
91
|
-
"desc": "Ollama
|
92
|
-
"remainingTime": "
|
93
|
-
"speed": "
|
94
|
-
"title": "
|
91
|
+
"desc": "Ollamaはこのモデルをダウンロードしています。このページを閉じないでください。再ダウンロードすると中断したところから再開されます。",
|
92
|
+
"remainingTime": "残り時間",
|
93
|
+
"speed": "ダウンロード速度",
|
94
|
+
"title": "モデル{{model}}をダウンロード中"
|
95
95
|
},
|
96
96
|
"endpoint": {
|
97
97
|
"desc": "Ollamaプロキシインターフェースアドレスを入力してください。ローカルで追加の指定がない場合は空白のままにしてください",
|
@@ -123,12 +123,12 @@
|
|
123
123
|
},
|
124
124
|
"title": "Ollama",
|
125
125
|
"unlock": {
|
126
|
-
"cancel": "
|
127
|
-
"confirm": "
|
128
|
-
"description": "
|
126
|
+
"cancel": "ダウンロードをキャンセル",
|
127
|
+
"confirm": "ダウンロード",
|
128
|
+
"description": "Ollamaモデルのラベルを入力して、セッションを続行してください。",
|
129
129
|
"downloaded": "{{completed}} / {{total}}",
|
130
|
-
"starting": "
|
131
|
-
"title": "
|
130
|
+
"starting": "ダウンロードを開始しています...",
|
131
|
+
"title": "指定されたOllamaモデルをダウンロード"
|
132
132
|
}
|
133
133
|
},
|
134
134
|
"sensenova": {
|
@@ -88,10 +88,10 @@
|
|
88
88
|
"title": "사용자 정의 모델 이름"
|
89
89
|
},
|
90
90
|
"download": {
|
91
|
-
"desc": "Ollama
|
92
|
-
"remainingTime": "
|
93
|
-
"speed": "
|
94
|
-
"title": "
|
91
|
+
"desc": "Ollama가 모델을 다운로드하고 있습니다. 이 페이지를 닫지 마세요. 다시 다운로드할 경우 중단된 지점에서 계속됩니다.",
|
92
|
+
"remainingTime": "남은 시간",
|
93
|
+
"speed": "다운로드 속도",
|
94
|
+
"title": "모델 {{model}} 다운로드 중"
|
95
95
|
},
|
96
96
|
"endpoint": {
|
97
97
|
"desc": "Ollama 인터페이스 프록시 주소를 입력하세요. 로컬에서 별도로 지정하지 않은 경우 비워둘 수 있습니다",
|
@@ -123,12 +123,12 @@
|
|
123
123
|
},
|
124
124
|
"title": "Ollama",
|
125
125
|
"unlock": {
|
126
|
-
"cancel": "
|
127
|
-
"confirm": "
|
128
|
-
"description": "
|
126
|
+
"cancel": "다운로드 취소",
|
127
|
+
"confirm": "다운로드",
|
128
|
+
"description": "Ollama 모델 태그를 입력하여 세션을 계속 진행하세요.",
|
129
129
|
"downloaded": "{{completed}} / {{total}}",
|
130
|
-
"starting": "
|
131
|
-
"title": "
|
130
|
+
"starting": "다운로드 시작 중...",
|
131
|
+
"title": "지정된 Ollama 모델 다운로드"
|
132
132
|
}
|
133
133
|
},
|
134
134
|
"sensenova": {
|
@@ -88,10 +88,10 @@
|
|
88
88
|
"title": "Aangepaste Modelnamen"
|
89
89
|
},
|
90
90
|
"download": {
|
91
|
-
"desc": "Ollama is
|
92
|
-
"remainingTime": "
|
93
|
-
"speed": "
|
94
|
-
"title": "
|
91
|
+
"desc": "Ollama is het model aan het downloaden, sluit deze pagina alstublieft niet af. Bij een herstart zal het downloaden op de onderbroken plaats verdergaan.",
|
92
|
+
"remainingTime": "Overgebleven tijd",
|
93
|
+
"speed": "Downloadsnelheid",
|
94
|
+
"title": "Model {{model}} wordt gedownload"
|
95
95
|
},
|
96
96
|
"endpoint": {
|
97
97
|
"desc": "Voer het Ollama interface proxyadres in, laat leeg indien niet specifiek aangegeven",
|
@@ -99,36 +99,36 @@
|
|
99
99
|
},
|
100
100
|
"setup": {
|
101
101
|
"cors": {
|
102
|
-
"description": "
|
102
|
+
"description": "Vanwege beveiligingsbeperkingen in de browser moet je CORS-configuratie voor Ollama instellen om het correct te kunnen gebruiken.",
|
103
103
|
"linux": {
|
104
|
-
"env": "
|
105
|
-
"reboot": "
|
106
|
-
"systemd": "
|
104
|
+
"env": "Voeg `Environment` toe onder de [Service] sectie en voeg de OLLAMA_ORIGINS omgevingsvariabele toe:",
|
105
|
+
"reboot": "Herlaad systemd en herstart Ollama",
|
106
|
+
"systemd": "Roep systemd aan om de ollama service te bewerken:"
|
107
107
|
},
|
108
|
-
"macos": "Open
|
109
|
-
"reboot": "
|
110
|
-
"title": "
|
111
|
-
"windows": "
|
108
|
+
"macos": "Open de 'Terminal' applicatie, plak de volgende opdracht en druk op enter om uit te voeren",
|
109
|
+
"reboot": "Herstart de Ollama service na voltooiing",
|
110
|
+
"title": "Configureer Ollama voor cross-origin toegang",
|
111
|
+
"windows": "Op Windows, klik op 'Configuratiescherm', ga naar systeemomgevingsvariabelen bewerken. Maak een nieuwe omgevingsvariabele met de naam 'OLLAMA_ORIGINS' voor je gebruikersaccount, met de waarde *, en klik op 'OK/Toepassen' om op te slaan"
|
112
112
|
},
|
113
113
|
"install": {
|
114
|
-
"description": "Zorg ervoor dat Ollama
|
115
|
-
"docker": "
|
114
|
+
"description": "Zorg ervoor dat je Ollama hebt ingeschakeld. Als je Ollama nog niet hebt gedownload, ga dan naar de officiële website <1>om te downloaden</1>",
|
115
|
+
"docker": "Als je de voorkeur geeft aan Docker, biedt Ollama ook een officiële Docker-image aan, die je kunt ophalen met de volgende opdracht:",
|
116
116
|
"linux": {
|
117
|
-
"command": "
|
118
|
-
"manual": "
|
117
|
+
"command": "Installeer met de volgende opdracht:",
|
118
|
+
"manual": "Of je kunt de <1>Linux handmatige installatiehandleiding</1> raadplegen voor een handmatige installatie"
|
119
119
|
},
|
120
|
-
"title": "
|
121
|
-
"windowsTab": "Windows (
|
120
|
+
"title": "Installeer en start de Ollama applicatie lokaal",
|
121
|
+
"windowsTab": "Windows (previewversie)"
|
122
122
|
}
|
123
123
|
},
|
124
124
|
"title": "Ollama",
|
125
125
|
"unlock": {
|
126
|
-
"cancel": "
|
127
|
-
"confirm": "
|
128
|
-
"description": "
|
126
|
+
"cancel": "Annuleer download",
|
127
|
+
"confirm": "Downloaden",
|
128
|
+
"description": "Voer je Ollama model label in om door te gaan met de sessie",
|
129
129
|
"downloaded": "{{completed}} / {{total}}",
|
130
|
-
"starting": "
|
131
|
-
"title": "Download
|
130
|
+
"starting": "Downloaden starten...",
|
131
|
+
"title": "Download het opgegeven Ollama model"
|
132
132
|
}
|
133
133
|
},
|
134
134
|
"sensenova": {
|
@@ -88,10 +88,10 @@
|
|
88
88
|
"title": "Nazwa własnego modelu"
|
89
89
|
},
|
90
90
|
"download": {
|
91
|
-
"desc": "Ollama
|
92
|
-
"remainingTime": "
|
93
|
-
"speed": "
|
94
|
-
"title": "
|
91
|
+
"desc": "Ollama pobiera ten model, proszę nie zamykać tej strony. Wznowienie pobierania nastąpi od miejsca przerwania",
|
92
|
+
"remainingTime": "Pozostały czas",
|
93
|
+
"speed": "Prędkość pobierania",
|
94
|
+
"title": "Pobieranie modelu {{model}}"
|
95
95
|
},
|
96
96
|
"endpoint": {
|
97
97
|
"desc": "Wprowadź adres rest API Ollama, jeśli lokalnie nie określono, pozostaw puste",
|
@@ -99,37 +99,37 @@
|
|
99
99
|
},
|
100
100
|
"setup": {
|
101
101
|
"cors": {
|
102
|
-
"description": "
|
102
|
+
"description": "Z powodu ograniczeń bezpieczeństwa przeglądarki, musisz skonfigurować CORS dla Ollama, aby móc go używać.",
|
103
103
|
"linux": {
|
104
|
-
"env": "
|
105
|
-
"reboot": "
|
106
|
-
"systemd": "
|
104
|
+
"env": "Dodaj `Environment` w sekcji [Service], dodaj zmienną środowiskową OLLAMA_ORIGINS:",
|
105
|
+
"reboot": "Przeładuj systemd i uruchom ponownie Ollama",
|
106
|
+
"systemd": "Użyj systemd, aby edytować usługę ollama:"
|
107
107
|
},
|
108
|
-
"macos": "
|
109
|
-
"reboot": "
|
110
|
-
"title": "
|
111
|
-
"windows": "
|
108
|
+
"macos": "Otwórz aplikację „Terminal” i wklej poniższe polecenie, a następnie naciśnij Enter",
|
109
|
+
"reboot": "Proszę ponownie uruchomić usługę Ollama po zakończeniu",
|
110
|
+
"title": "Konfiguracja Ollama do zezwolenia na dostęp CORS",
|
111
|
+
"windows": "Na Windowsie, kliknij „Panel sterowania”, aby edytować zmienne środowiskowe systemu. Utwórz nową zmienną środowiskową o nazwie „OLLAMA_ORIGINS” dla swojego konta użytkownika, ustaw wartość na *, a następnie kliknij „OK/Zastosuj”, aby zapisać"
|
112
112
|
},
|
113
113
|
"install": {
|
114
|
-
"description": "
|
115
|
-
"docker": "
|
114
|
+
"description": "Proszę upewnić się, że Ollama jest uruchomione, jeśli nie pobrałeś Ollama, odwiedź oficjalną stronę <1>pobierz</1>",
|
115
|
+
"docker": "Jeśli wolisz używać Dockera, Ollama również oferuje oficjalny obraz Dockera, który możesz pobrać za pomocą poniższego polecenia:",
|
116
116
|
"linux": {
|
117
|
-
"command": "
|
118
|
-
"manual": "
|
117
|
+
"command": "Zainstaluj za pomocą poniższego polecenia:",
|
118
|
+
"manual": "Alternatywnie, możesz zapoznać się z <1>podręcznikiem instalacji ręcznej dla Linuxa</1>, aby zainstalować samodzielnie"
|
119
119
|
},
|
120
|
-
"title": "
|
121
|
-
"windowsTab": "Windows (
|
120
|
+
"title": "Zainstaluj i uruchom aplikację Ollama lokalnie",
|
121
|
+
"windowsTab": "Windows (wersja podglądowa)"
|
122
|
+
},
|
123
|
+
"unlock": {
|
124
|
+
"cancel": "Anuluj pobieranie",
|
125
|
+
"confirm": "Pobierz",
|
126
|
+
"description": "Wprowadź etykietę modelu Ollama, aby kontynuować sesję",
|
127
|
+
"downloaded": "{{completed}} / {{total}}",
|
128
|
+
"starting": "Rozpoczynanie pobierania...",
|
129
|
+
"title": "Pobierz określony model Ollama"
|
122
130
|
}
|
123
131
|
},
|
124
|
-
"title": "Ollama"
|
125
|
-
"unlock": {
|
126
|
-
"cancel": "Cancel Download",
|
127
|
-
"confirm": "Download",
|
128
|
-
"description": "Enter your Ollama model tag to continue the session",
|
129
|
-
"downloaded": "{{completed}} / {{total}}",
|
130
|
-
"starting": "Starting download...",
|
131
|
-
"title": "Download specified Ollama model"
|
132
|
-
}
|
132
|
+
"title": "Ollama"
|
133
133
|
},
|
134
134
|
"sensenova": {
|
135
135
|
"sensenovaAccessKeyID": {
|
@@ -88,10 +88,10 @@
|
|
88
88
|
"title": "Nomes dos Modelos Personalizados"
|
89
89
|
},
|
90
90
|
"download": {
|
91
|
-
"desc": "Ollama
|
92
|
-
"remainingTime": "
|
93
|
-
"speed": "
|
94
|
-
"title": "
|
91
|
+
"desc": "Ollama está baixando este modelo, por favor, evite fechar esta página. O download será retomado do ponto em que parou.",
|
92
|
+
"remainingTime": "Tempo restante",
|
93
|
+
"speed": "Velocidade de download",
|
94
|
+
"title": "Baixando o modelo {{model}} "
|
95
95
|
},
|
96
96
|
"endpoint": {
|
97
97
|
"desc": "Insira o endereço do proxy de interface da Ollama, se não foi especificado localmente, pode deixar em branco",
|
@@ -88,10 +88,10 @@
|
|
88
88
|
"title": "Название кастомных моделей"
|
89
89
|
},
|
90
90
|
"download": {
|
91
|
-
"desc": "Ollama
|
92
|
-
"remainingTime": "
|
93
|
-
"speed": "
|
94
|
-
"title": "
|
91
|
+
"desc": "Ollama загружает эту модель, пожалуйста, старайтесь не закрывать эту страницу. При повторной загрузке процесс будет продолжен с места остановки",
|
92
|
+
"remainingTime": "Оставшееся время",
|
93
|
+
"speed": "Скорость загрузки",
|
94
|
+
"title": "Загрузка модели {{model}} "
|
95
95
|
},
|
96
96
|
"endpoint": {
|
97
97
|
"desc": "Введите адрес прокси-интерфейса Ollama, если локально не указано иное, можете оставить пустым",
|
package/package.json
CHANGED
@@ -1,6 +1,6 @@
|
|
1
1
|
{
|
2
2
|
"name": "@lobehub/chat",
|
3
|
-
"version": "1.35.
|
3
|
+
"version": "1.35.2",
|
4
4
|
"description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
|
5
5
|
"keywords": [
|
6
6
|
"framework",
|