@lobehub/lobehub 2.0.0-next.331 → 2.0.0-next.332
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/changelog/v1.json +9 -0
- package/e2e/src/support/webServer.ts +95 -43
- package/locales/ar/chat.json +5 -0
- package/locales/ar/desktop-onboarding.json +5 -0
- package/locales/ar/discover.json +15 -0
- package/locales/ar/models.json +35 -0
- package/locales/bg-BG/chat.json +5 -0
- package/locales/bg-BG/desktop-onboarding.json +5 -0
- package/locales/bg-BG/discover.json +15 -0
- package/locales/bg-BG/models.json +30 -0
- package/locales/de-DE/chat.json +5 -0
- package/locales/de-DE/desktop-onboarding.json +5 -0
- package/locales/de-DE/discover.json +15 -0
- package/locales/de-DE/models.json +38 -0
- package/locales/en-US/desktop-onboarding.json +5 -0
- package/locales/en-US/discover.json +14 -0
- package/locales/es-ES/chat.json +5 -0
- package/locales/es-ES/desktop-onboarding.json +5 -0
- package/locales/es-ES/discover.json +15 -0
- package/locales/es-ES/models.json +38 -0
- package/locales/fa-IR/chat.json +5 -0
- package/locales/fa-IR/desktop-onboarding.json +5 -0
- package/locales/fa-IR/discover.json +15 -0
- package/locales/fa-IR/models.json +11 -0
- package/locales/fr-FR/chat.json +5 -0
- package/locales/fr-FR/desktop-onboarding.json +5 -0
- package/locales/fr-FR/discover.json +15 -0
- package/locales/fr-FR/models.json +36 -0
- package/locales/it-IT/chat.json +5 -0
- package/locales/it-IT/desktop-onboarding.json +5 -0
- package/locales/it-IT/discover.json +15 -0
- package/locales/it-IT/models.json +32 -0
- package/locales/ja-JP/chat.json +5 -0
- package/locales/ja-JP/desktop-onboarding.json +5 -0
- package/locales/ja-JP/discover.json +15 -0
- package/locales/ja-JP/models.json +42 -0
- package/locales/ko-KR/chat.json +5 -0
- package/locales/ko-KR/desktop-onboarding.json +5 -0
- package/locales/ko-KR/discover.json +15 -0
- package/locales/ko-KR/models.json +55 -0
- package/locales/nl-NL/chat.json +5 -0
- package/locales/nl-NL/desktop-onboarding.json +5 -0
- package/locales/nl-NL/discover.json +15 -0
- package/locales/nl-NL/models.json +34 -0
- package/locales/pl-PL/chat.json +5 -0
- package/locales/pl-PL/desktop-onboarding.json +5 -0
- package/locales/pl-PL/discover.json +15 -0
- package/locales/pl-PL/models.json +31 -0
- package/locales/pt-BR/chat.json +5 -0
- package/locales/pt-BR/desktop-onboarding.json +5 -0
- package/locales/pt-BR/discover.json +15 -0
- package/locales/pt-BR/models.json +42 -0
- package/locales/ru-RU/chat.json +5 -0
- package/locales/ru-RU/desktop-onboarding.json +5 -0
- package/locales/ru-RU/discover.json +15 -0
- package/locales/ru-RU/models.json +32 -0
- package/locales/tr-TR/chat.json +5 -0
- package/locales/tr-TR/desktop-onboarding.json +5 -0
- package/locales/tr-TR/discover.json +15 -0
- package/locales/tr-TR/models.json +48 -0
- package/locales/vi-VN/chat.json +5 -0
- package/locales/vi-VN/desktop-onboarding.json +5 -0
- package/locales/vi-VN/discover.json +15 -0
- package/locales/vi-VN/models.json +36 -0
- package/locales/zh-CN/desktop-onboarding.json +3 -3
- package/locales/zh-CN/discover.json +14 -0
- package/locales/zh-CN/models.json +1 -0
- package/locales/zh-TW/chat.json +5 -0
- package/locales/zh-TW/desktop-onboarding.json +5 -0
- package/locales/zh-TW/discover.json +15 -0
- package/locales/zh-TW/models.json +42 -0
- package/package.json +1 -1
|
@@ -561,6 +561,38 @@
|
|
|
561
561
|
"glm-4.5-x.description": "Edizione veloce di GLM-4.5, con prestazioni elevate e velocità di generazione fino a 100 token/sec.",
|
|
562
562
|
"glm-4.5.description": "Modello di punta di Zhipu con modalità di pensiero commutabile, che offre SOTA open-source complessivo e fino a 128K di contesto.",
|
|
563
563
|
"glm-4.5v.description": "Il modello di ragionamento visivo di nuova generazione MoE di Zhipu ha 106B parametri totali con 12B attivi, raggiungendo SOTA tra i modelli multimodali open-source di dimensioni simili in compiti su immagini, video, documenti e GUI.",
|
|
564
|
+
"glm-4.6.description": "GLM-4.6 (355B), il nuovo modello di punta di Zhipu, supera completamente i suoi predecessori in codifica avanzata, elaborazione di testi lunghi, ragionamento e capacità agentiche. Si distingue in particolare per le sue abilità di programmazione, comparabili a quelle di Claude Sonnet 4, affermandosi come il miglior modello di codifica in Cina.",
|
|
565
|
+
"glm-4.7.description": "GLM-4.7 è il nuovo modello di punta di Zhipu, ottimizzato per scenari di codifica agentica con capacità migliorate nella programmazione, pianificazione di compiti a lungo termine e collaborazione con strumenti. Raggiunge prestazioni leader tra i modelli open-source su numerosi benchmark pubblici. Le capacità generali sono state potenziate con risposte più concise e naturali e una scrittura più coinvolgente. Per compiti agentici complessi, il modello segue meglio le istruzioni durante l'uso degli strumenti, e l'estetica del frontend e l'efficienza nel completamento di compiti a lungo termine in Artifacts e Agentic Coding sono ulteriormente migliorate.",
|
|
566
|
+
"glm-4.description": "GLM-4 è il precedente modello di punta rilasciato a gennaio 2024, ora sostituito dal più potente GLM-4-0520.",
|
|
567
|
+
"glm-4v-flash.description": "GLM-4V-Flash è focalizzato sulla comprensione efficiente di immagini singole per scenari di analisi rapida come l'elaborazione di immagini in tempo reale o in batch.",
|
|
568
|
+
"glm-4v-plus-0111.description": "GLM-4V-Plus comprende video e immagini multiple, ideale per compiti multimodali.",
|
|
569
|
+
"glm-4v-plus.description": "GLM-4V-Plus comprende video e immagini multiple, ideale per compiti multimodali.",
|
|
570
|
+
"glm-4v.description": "GLM-4V offre una solida comprensione e capacità di ragionamento visivo su compiti basati su immagini.",
|
|
571
|
+
"glm-z1-air.description": "Modello di ragionamento con elevate capacità inferenziali per compiti che richiedono deduzioni complesse.",
|
|
572
|
+
"glm-z1-airx.description": "Ragionamento ultra-rapido con alta qualità inferenziale.",
|
|
573
|
+
"glm-z1-flash.description": "La serie GLM-Z1 eccelle nel ragionamento complesso, con prestazioni elevate in logica, matematica e programmazione.",
|
|
574
|
+
"glm-z1-flashx.description": "Veloce ed economico: versione Flash con ragionamento ultra-rapido e maggiore concorrenza.",
|
|
575
|
+
"glm-zero-preview.description": "GLM-Zero-Preview offre un ragionamento complesso avanzato, eccellendo in logica, matematica e programmazione.",
|
|
576
|
+
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 è il modello di punta di Anthropic, che unisce intelligenza eccezionale e prestazioni scalabili per compiti complessi che richiedono risposte e ragionamenti di altissima qualità.",
|
|
577
|
+
"google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash offre capacità di nuova generazione, tra cui velocità eccezionale, uso nativo di strumenti, generazione multimodale e una finestra di contesto da 1 milione di token.",
|
|
578
|
+
"google/gemini-2.0-flash-exp:free.description": "Gemini 2.0 Flash Experimental è il più recente modello multimodale sperimentale di Google, con miglioramenti qualitativi rispetto alle versioni precedenti, in particolare in conoscenza del mondo, codice e contesto esteso.",
|
|
579
|
+
"google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Lite è una variante leggera di Gemini con il ragionamento disattivato per impostazione predefinita per migliorare latenza e costi, ma può essere attivato tramite parametri.",
|
|
580
|
+
"google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Lite offre funzionalità di nuova generazione tra cui velocità eccezionale, uso integrato di strumenti, generazione multimodale e una finestra di contesto da 1 milione di token.",
|
|
581
|
+
"google/gemini-2.0-flash.description": "Gemini 2.0 Flash è il modello di ragionamento ad alte prestazioni di Google per compiti multimodali estesi.",
|
|
582
|
+
"google/gemini-2.5-flash-image-free.description": "Gemini 2.5 Flash Image livello gratuito con generazione multimodale a quota limitata.",
|
|
583
|
+
"google/gemini-2.5-flash-image-preview.description": "Modello sperimentale Gemini 2.5 Flash con supporto alla generazione di immagini.",
|
|
584
|
+
"google/gemini-2.5-flash-image.description": "Gemini 2.5 Flash Image (Nano Banana) è il modello di generazione di immagini di Google con supporto alla conversazione multimodale.",
|
|
585
|
+
"google/gemini-2.5-flash-lite.description": "Gemini 2.5 Flash Lite è la variante leggera di Gemini 2.5, ottimizzata per latenza e costi, adatta a scenari ad alto volume.",
|
|
586
|
+
"google/gemini-2.5-flash-preview.description": "Gemini 2.5 Flash è il modello di punta più avanzato di Google, progettato per compiti complessi di ragionamento, programmazione, matematica e scienza. Include un sistema di 'pensiero' integrato per fornire risposte più accurate con elaborazione contestuale più fine.\n\nNota: questo modello ha due varianti — con e senza pensiero. Il prezzo dell'output varia significativamente a seconda che il pensiero sia attivato. Se scegli la variante standard (senza il suffisso ':thinking'), il modello eviterà esplicitamente di generare token di pensiero.\n\nPer utilizzare il pensiero e ricevere token di pensiero, devi selezionare la variante ':thinking', che comporta un costo maggiore per l'output.\n\nGemini 2.5 Flash può anche essere configurato tramite il parametro 'max reasoning tokens' come documentato (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
|
|
587
|
+
"google/gemini-2.5-flash-preview:thinking.description": "Gemini 2.5 Flash è il modello di punta più avanzato di Google, progettato per compiti complessi di ragionamento, programmazione, matematica e scienza. Include un sistema di 'pensiero' integrato per fornire risposte più accurate con elaborazione contestuale più fine.\n\nNota: questo modello ha due varianti — con e senza pensiero. Il prezzo dell'output varia significativamente a seconda che il pensiero sia attivato. Se scegli la variante standard (senza il suffisso ':thinking'), il modello eviterà esplicitamente di generare token di pensiero.\n\nPer utilizzare il pensiero e ricevere token di pensiero, devi selezionare la variante ':thinking', che comporta un costo maggiore per l'output.\n\nGemini 2.5 Flash può anche essere configurato tramite il parametro 'max reasoning tokens' come documentato (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
|
|
588
|
+
"google/gemini-2.5-flash.description": "Gemini 2.5 Flash (Lite/Pro/Flash) è la famiglia di modelli di Google che spazia da bassa latenza a ragionamento ad alte prestazioni.",
|
|
589
|
+
"google/gemini-2.5-pro-free.description": "Gemini 2.5 Pro livello gratuito offre generazione multimodale con contesto esteso a quota limitata, adatto per prove e flussi di lavoro leggeri.",
|
|
590
|
+
"google/gemini-2.5-pro-preview.description": "Gemini 2.5 Pro Preview è il modello di pensiero più avanzato di Google per il ragionamento su problemi complessi in codice, matematica e STEM, e per l'analisi di grandi dataset, basi di codice e documenti con contesto esteso.",
|
|
591
|
+
"google/gemini-2.5-pro.description": "Gemini 2.5 Pro è il modello di ragionamento di punta di Google con supporto a contesto esteso per compiti complessi.",
|
|
592
|
+
"google/gemini-3-pro-image-preview-free.description": "Gemini 3 Pro Image livello gratuito con generazione multimodale a quota limitata.",
|
|
593
|
+
"google/gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) è il modello di generazione di immagini di Google con supporto alla conversazione multimodale.",
|
|
594
|
+
"google/gemini-3-pro-preview-free.description": "Gemini 3 Pro Preview Free offre la stessa comprensione e ragionamento multimodale della versione standard, ma con limiti di quota e frequenza, ideale per prove e uso a bassa frequenza.",
|
|
595
|
+
"google/gemini-3-pro-preview.description": "Gemini 3 Pro è il modello di ragionamento multimodale di nuova generazione della famiglia Gemini, in grado di comprendere testo, audio, immagini e video, e di gestire compiti complessi e grandi basi di codice.",
|
|
564
596
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 è un LLM open-source pensato per sviluppatori, ricercatori e aziende, progettato per supportare la creazione, la sperimentazione e la scalabilità responsabile di idee basate su IA generativa. Parte integrante dell’ecosistema globale per l’innovazione comunitaria, è ideale per ambienti con risorse limitate, dispositivi edge e tempi di addestramento ridotti.",
|
|
565
597
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Solido ragionamento visivo su immagini ad alta risoluzione, ideale per applicazioni di comprensione visiva.",
|
|
566
598
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Ragionamento visivo avanzato per applicazioni agenti di comprensione visiva.",
|
package/locales/ja-JP/chat.json
CHANGED
|
@@ -204,6 +204,7 @@
|
|
|
204
204
|
"noSelectedAgents": "メンバーが選択されていません",
|
|
205
205
|
"openInNewWindow": "新しいウィンドウで開く",
|
|
206
206
|
"operation.execAgentRuntime": "応答を準備中",
|
|
207
|
+
"operation.execClientTask": "タスクを実行中",
|
|
207
208
|
"operation.sendMessage": "メッセージを送信中",
|
|
208
209
|
"owner": "グループオーナー",
|
|
209
210
|
"pageCopilot.title": "ドキュメントコパイロット",
|
|
@@ -322,11 +323,15 @@
|
|
|
322
323
|
"tab.profile": "アシスタントプロフィール",
|
|
323
324
|
"tab.search": "検索",
|
|
324
325
|
"task.activity.calling": "スキルを呼び出し中…",
|
|
326
|
+
"task.activity.clientExecuting": "ローカルで実行中...",
|
|
325
327
|
"task.activity.generating": "返信を生成中…",
|
|
326
328
|
"task.activity.gotResult": "スキルの結果を取得しました",
|
|
327
329
|
"task.activity.toolCalling": "{{toolName}} を呼び出し中…",
|
|
328
330
|
"task.activity.toolResult": "{{toolName}} の結果を取得しました",
|
|
329
331
|
"task.batchTasks": "{{count}} 件のバッチサブタスク",
|
|
332
|
+
"task.instruction": "タスクの指示",
|
|
333
|
+
"task.intermediateSteps": "{{count}} 件の中間ステップ",
|
|
334
|
+
"task.metrics.duration": "(所要時間:{{duration}})",
|
|
330
335
|
"task.metrics.stepsShort": "ステップ",
|
|
331
336
|
"task.metrics.toolCallsShort": "回のスキル呼び出し",
|
|
332
337
|
"task.status.cancelled": "タスクがキャンセルされました",
|
|
@@ -58,6 +58,7 @@
|
|
|
58
58
|
"screen4.title": "データの共有方法を選択してください",
|
|
59
59
|
"screen4.title2": "ご選択は改善に役立ちます",
|
|
60
60
|
"screen4.title3": "設定からいつでも変更できます",
|
|
61
|
+
"screen5.actions.cancel": "キャンセル",
|
|
61
62
|
"screen5.actions.connectToServer": "サーバーに接続",
|
|
62
63
|
"screen5.actions.connecting": "接続中...",
|
|
63
64
|
"screen5.actions.signInCloud": "LobeHub Cloud にサインイン",
|
|
@@ -65,6 +66,10 @@
|
|
|
65
66
|
"screen5.actions.signingIn": "サインイン中...",
|
|
66
67
|
"screen5.actions.signingOut": "サインアウト中...",
|
|
67
68
|
"screen5.actions.tryAgain": "再試行",
|
|
69
|
+
"screen5.auth.phase.browserOpened": "ブラウザが開きました。サインインしてください...",
|
|
70
|
+
"screen5.auth.phase.verifying": "認証情報を確認しています...",
|
|
71
|
+
"screen5.auth.phase.waitingForAuth": "認証を待っています...",
|
|
72
|
+
"screen5.auth.remaining": "残り時間:{{time}}秒",
|
|
68
73
|
"screen5.badge": "サインイン",
|
|
69
74
|
"screen5.description": "すべてのデバイスでエージェント、グループ、設定、コンテキストを同期するにはサインインしてください。",
|
|
70
75
|
"screen5.errors.desktopOnlyOidc": "OIDC 認証はデスクトップアプリでのみ利用可能です。",
|
|
@@ -141,6 +141,16 @@
|
|
|
141
141
|
"filterBy.timePeriod.year": "過去1年",
|
|
142
142
|
"footer.desc": "世界中のAIユーザーと共に進化しましょう。クリエイターとして、あなたのエージェントやスキルをLobeHubコミュニティに投稿しましょう。",
|
|
143
143
|
"footer.title": "あなたの作品をLobeHubコミュニティで共有しよう",
|
|
144
|
+
"fork.alreadyForked": "このエージェントはすでにフォークされています。フォーク先へ移動します…",
|
|
145
|
+
"fork.failed": "フォークに失敗しました。もう一度お試しください。",
|
|
146
|
+
"fork.forkAndChat": "フォークしてチャット",
|
|
147
|
+
"fork.forkedFrom": "フォーク元",
|
|
148
|
+
"fork.forks": "フォーク",
|
|
149
|
+
"fork.forksCount": "{{count}} 件のフォーク",
|
|
150
|
+
"fork.forksCount_other": "{{count}} 件のフォーク",
|
|
151
|
+
"fork.success": "フォークが完了しました!",
|
|
152
|
+
"fork.viewAllForks": "すべてのフォークを表示",
|
|
153
|
+
"groupAgents.tag": "グループ",
|
|
144
154
|
"home.communityAgents": "コミュニティアシスタント",
|
|
145
155
|
"home.featuredAssistants": "おすすめアシスタント",
|
|
146
156
|
"home.featuredModels": "おすすめモデル",
|
|
@@ -471,14 +481,19 @@
|
|
|
471
481
|
"user.follow": "フォロー",
|
|
472
482
|
"user.followers": "フォロワー",
|
|
473
483
|
"user.following": "フォロー中",
|
|
484
|
+
"user.forkedAgentGroups": "フォーク済みのエージェントグループ",
|
|
485
|
+
"user.forkedAgents": "フォーク済みのエージェント",
|
|
474
486
|
"user.login": "クリエイターになる",
|
|
475
487
|
"user.logout": "ログアウト",
|
|
476
488
|
"user.myProfile": "マイページ",
|
|
477
489
|
"user.noAgents": "このユーザーはまだアシスタントを公開していません",
|
|
478
490
|
"user.noFavoriteAgents": "お気に入りのアシスタントはまだありません",
|
|
479
491
|
"user.noFavoritePlugins": "お気に入りのプラグインはまだありません",
|
|
492
|
+
"user.noForkedAgentGroups": "フォーク済みのエージェントグループはまだありません",
|
|
493
|
+
"user.noForkedAgents": "フォーク済みのエージェントはまだありません",
|
|
480
494
|
"user.publishedAgents": "作成したアシスタント",
|
|
481
495
|
"user.tabs.favorites": "お気に入り",
|
|
496
|
+
"user.tabs.forkedAgents": "フォーク済み",
|
|
482
497
|
"user.tabs.publishedAgents": "作成したアシスタント",
|
|
483
498
|
"user.unfavorite": "お気に入りから削除",
|
|
484
499
|
"user.unfavoriteFailed": "お気に入りからの削除に失敗しました",
|
|
@@ -607,6 +607,48 @@
|
|
|
607
607
|
"google/gemma-3-27b-it.description": "Gemma 3 27Bは、効率と性能の新たな基準を打ち立てるGoogleのオープンソース言語モデルです。",
|
|
608
608
|
"google/text-embedding-005.description": "コードおよび英語タスクに最適化された英語中心のテキスト埋め込みモデルです。",
|
|
609
609
|
"google/text-multilingual-embedding-002.description": "多言語間タスクに最適化された多言語テキスト埋め込みモデルです。",
|
|
610
|
+
"gpt-3.5-turbo-0125.description": "GPT-3.5 Turbo はテキスト生成と理解のためのモデルで、現在は gpt-3.5-turbo-0125 を指しています。",
|
|
611
|
+
"gpt-3.5-turbo-1106.description": "GPT-3.5 Turbo はテキスト生成と理解のためのモデルで、現在は gpt-3.5-turbo-0125 を指しています。",
|
|
612
|
+
"gpt-3.5-turbo-instruct.description": "GPT-3.5 Turbo は、指示に従うタスクに最適化されたテキスト生成・理解モデルです。",
|
|
613
|
+
"gpt-3.5-turbo.description": "GPT-3.5 Turbo はテキスト生成と理解のためのモデルで、現在は gpt-3.5-turbo-0125 を指しています。",
|
|
614
|
+
"gpt-35-turbo-16k.description": "GPT-3.5 Turbo 16k は、複雑なタスクに対応する高容量のテキスト生成モデルです。",
|
|
615
|
+
"gpt-35-turbo.description": "GPT-3.5 Turbo は OpenAI の効率的なチャット・テキスト生成モデルで、並列関数呼び出しをサポートします。",
|
|
616
|
+
"gpt-4-0125-preview.description": "最新の GPT-4 Turbo は視覚機能を追加。ビジュアルリクエストは JSON モードと関数呼び出しに対応。リアルタイムアプリケーション向けに精度と効率のバランスを取ったコスト効率の高いマルチモーダルモデルです。",
|
|
617
|
+
"gpt-4-0613.description": "GPT-4 はより大きなコンテキストウィンドウを提供し、長文入力に対応。広範な情報統合やデータ分析に適しています。",
|
|
618
|
+
"gpt-4-1106-preview.description": "最新の GPT-4 Turbo は視覚機能を追加。ビジュアルリクエストは JSON モードと関数呼び出しに対応。リアルタイムアプリケーション向けに精度と効率のバランスを取ったコスト効率の高いマルチモーダルモデルです。",
|
|
619
|
+
"gpt-4-32k-0613.description": "GPT-4 はより大きなコンテキストウィンドウを提供し、長文入力に対応。広範な情報統合やデータ分析に適しています。",
|
|
620
|
+
"gpt-4-32k.description": "GPT-4 はより大きなコンテキストウィンドウを提供し、長文入力に対応。広範な情報統合やデータ分析に適しています。",
|
|
621
|
+
"gpt-4-turbo-2024-04-09.description": "最新の GPT-4 Turbo は視覚機能を追加。ビジュアルリクエストは JSON モードと関数呼び出しに対応。リアルタイムアプリケーション向けに精度と効率のバランスを取ったコスト効率の高いマルチモーダルモデルです。",
|
|
622
|
+
"gpt-4-turbo-preview.description": "最新の GPT-4 Turbo は視覚機能を追加。ビジュアルリクエストは JSON モードと関数呼び出しに対応。リアルタイムアプリケーション向けに精度と効率のバランスを取ったコスト効率の高いマルチモーダルモデルです。",
|
|
623
|
+
"gpt-4-turbo.description": "最新の GPT-4 Turbo は視覚機能を追加。ビジュアルリクエストは JSON モードと関数呼び出しに対応。リアルタイムアプリケーション向けに精度と効率のバランスを取ったコスト効率の高いマルチモーダルモデルです。",
|
|
624
|
+
"gpt-4-vision-preview.description": "GPT-4 Vision プレビューは、画像解析および処理タスク向けに設計されたモデルです。",
|
|
625
|
+
"gpt-4.1-mini.description": "GPT-4.1 mini は知能、速度、コストのバランスが取れたモデルで、多様なユースケースに適しています。",
|
|
626
|
+
"gpt-4.1-nano.description": "GPT-4.1 nano は GPT-4.1 モデルの中で最も高速かつコスト効率の高いモデルです。",
|
|
627
|
+
"gpt-4.1.description": "GPT-4.1 は複雑なタスクや分野横断的な問題解決に対応するフラッグシップモデルです。",
|
|
628
|
+
"gpt-4.5-preview.description": "GPT-4.5-preview は最新の汎用モデルで、深い世界知識と意図理解を備え、創造的なタスクやエージェント計画に強みを持ちます。知識のカットオフは 2023年10月です。",
|
|
629
|
+
"gpt-4.description": "GPT-4 はより大きなコンテキストウィンドウを提供し、長文入力に対応。広範な情報統合やデータ分析に適しています。",
|
|
630
|
+
"gpt-4o-2024-05-13.description": "ChatGPT-4o はリアルタイムで更新される動的モデルで、カスタマーサポート、教育、技術支援などの大規模ユースケースにおいて高い理解力と生成力を発揮します。",
|
|
631
|
+
"gpt-4o-2024-08-06.description": "ChatGPT-4o はリアルタイムで更新される動的モデルで、カスタマーサポート、教育、技術支援などの大規模ユースケースにおいて高い言語理解と生成能力を発揮します。",
|
|
632
|
+
"gpt-4o-2024-11-20.description": "ChatGPT-4o はリアルタイムで更新される動的モデルで、カスタマーサポート、教育、技術支援などの大規模ユースケースにおいて高い理解力と生成力を発揮します。",
|
|
633
|
+
"gpt-4o-audio-preview.description": "GPT-4o Audio プレビューは音声入力と出力に対応したモデルです。",
|
|
634
|
+
"gpt-4o-mini-audio-preview.description": "GPT-4o mini Audio は音声入力と出力に対応した小型モデルです。",
|
|
635
|
+
"gpt-4o-mini-realtime-preview.description": "GPT-4o-mini リアルタイムバリアントは、音声とテキストのリアルタイム入出力に対応しています。",
|
|
636
|
+
"gpt-4o-mini-search-preview.description": "GPT-4o mini Search Preview は、Chat Completions API を通じてウェブ検索クエリの理解と実行に特化して訓練されたモデルです。ウェブ検索はツール呼び出しごとに課金され、トークンコストとは別に請求されます。",
|
|
637
|
+
"gpt-4o-mini-transcribe.description": "GPT-4o Mini Transcribe は音声をテキストに変換するモデルで、元の Whisper モデルよりも単語誤認率、言語識別、精度が向上しています。",
|
|
638
|
+
"gpt-4o-mini-tts.description": "GPT-4o mini TTS は GPT-4o mini をベースにしたテキスト読み上げモデルで、最大 2000 トークンのテキストを自然な音声に変換します。",
|
|
639
|
+
"gpt-4o-mini.description": "GPT-4o mini は GPT-4 Omni の後継となる最新モデルで、テキスト+画像入力とテキスト出力に対応。最先端の小型モデルであり、最近の先端モデルより大幅に安価(GPT-3.5 Turbo の 60%以上安)ながら、トップクラスの知能(MMLU 82%)を維持しています。",
|
|
640
|
+
"gpt-4o-realtime-preview-2024-10-01.description": "GPT-4o リアルタイムバリアントは、音声とテキストのリアルタイム入出力に対応しています。",
|
|
641
|
+
"gpt-4o-realtime-preview-2025-06-03.description": "GPT-4o リアルタイムバリアントは、音声とテキストのリアルタイム入出力に対応しています。",
|
|
642
|
+
"gpt-4o-realtime-preview.description": "GPT-4o リアルタイムバリアントは、音声とテキストのリアルタイム入出力に対応しています。",
|
|
643
|
+
"gpt-4o-search-preview.description": "GPT-4o Search Preview は、Chat Completions API を通じてウェブ検索クエリの理解と実行に特化して訓練されたモデルです。ウェブ検索はツール呼び出しごとに課金され、トークンコストとは別に請求されます。",
|
|
644
|
+
"gpt-4o-transcribe.description": "GPT-4o Transcribe は音声をテキストに変換するモデルで、元の Whisper モデルよりも単語誤認率、言語識別、精度が向上しています。",
|
|
645
|
+
"gpt-4o.description": "ChatGPT-4o はリアルタイムで更新される動的モデルで、カスタマーサポート、教育、技術支援などの大規模ユースケースにおいて高い理解力と生成力を発揮します。",
|
|
646
|
+
"gpt-5-chat-latest.description": "ChatGPT に使用される GPT-5 モデルで、会話アプリケーション向けに高い理解力と生成力を兼ね備えています。",
|
|
647
|
+
"gpt-5-chat.description": "GPT-5 Chat は会話シナリオに最適化されたプレビューモデルで、テキストと画像の入力に対応し、テキスト出力を行います。チャットボットや会話型 AI アプリケーションに適しています。",
|
|
648
|
+
"gpt-5-codex.description": "GPT-5 Codex は、Codex のような環境でのエージェント型コーディングタスクに最適化された GPT-5 バリアントです。",
|
|
649
|
+
"gpt-5-mini.description": "明確に定義されたタスク向けに高速かつコスト効率の高い GPT-5 バリアントで、品質を維持しながら迅速な応答を提供します。",
|
|
650
|
+
"gpt-5-nano.description": "最も高速かつコスト効率の高い GPT-5 バリアントで、レイテンシーやコストに敏感なアプリケーションに最適です。",
|
|
651
|
+
"gpt-5-pro.description": "GPT-5 Pro はより多くの計算資源を使用して深く思考し、常に優れた回答を提供するモデルです。",
|
|
610
652
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "視覚理解エージェント向けの高度な画像推論機能。",
|
|
611
653
|
"meta/Llama-3.3-70B-Instruct.description": "Llama 3.3 は、最先端の多言語対応オープンソース Llama モデルであり、非常に低コストで 405B に近い性能を実現します。Transformer ベースで、SFT および RLHF により有用性と安全性が向上しています。命令調整版は多言語チャットに最適化されており、業界ベンチマークで多くのオープン・クローズドチャットモデルを上回ります。知識カットオフ:2023年12月。",
|
|
612
654
|
"meta/Meta-Llama-3-70B-Instruct.description": "推論、コーディング、幅広い言語タスクに優れた 70B パラメータの強力なモデル。",
|
package/locales/ko-KR/chat.json
CHANGED
|
@@ -204,6 +204,7 @@
|
|
|
204
204
|
"noSelectedAgents": "구성원이 선택되지 않았습니다",
|
|
205
205
|
"openInNewWindow": "새 창에서 열기",
|
|
206
206
|
"operation.execAgentRuntime": "응답 준비 중",
|
|
207
|
+
"operation.execClientTask": "작업 실행 중",
|
|
207
208
|
"operation.sendMessage": "메시지 전송 중",
|
|
208
209
|
"owner": "그룹 소유자",
|
|
209
210
|
"pageCopilot.title": "문서 코파일럿",
|
|
@@ -322,11 +323,15 @@
|
|
|
322
323
|
"tab.profile": "도우미 프로필",
|
|
323
324
|
"tab.search": "검색",
|
|
324
325
|
"task.activity.calling": "기능 호출 중…",
|
|
326
|
+
"task.activity.clientExecuting": "로컬에서 실행 중...",
|
|
325
327
|
"task.activity.generating": "응답 생성 중…",
|
|
326
328
|
"task.activity.gotResult": "기능 결과를 가져왔습니다",
|
|
327
329
|
"task.activity.toolCalling": "{{toolName}} 호출 중…",
|
|
328
330
|
"task.activity.toolResult": "{{toolName}} 결과를 가져왔습니다",
|
|
329
331
|
"task.batchTasks": "{{count}}개의 일괄 하위 작업",
|
|
332
|
+
"task.instruction": "작업 지침",
|
|
333
|
+
"task.intermediateSteps": "{{count}}단계 중간 과정",
|
|
334
|
+
"task.metrics.duration": "(소요 시간: {{duration}})",
|
|
330
335
|
"task.metrics.stepsShort": "단계",
|
|
331
336
|
"task.metrics.toolCallsShort": "회 기능 호출",
|
|
332
337
|
"task.status.cancelled": "작업이 취소되었습니다",
|
|
@@ -58,6 +58,7 @@
|
|
|
58
58
|
"screen4.title": "데이터를 어떻게 공유하시겠습니까?",
|
|
59
59
|
"screen4.title2": "당신의 선택이 개선에 도움이 됩니다",
|
|
60
60
|
"screen4.title3": "설정에서 언제든지 변경할 수 있습니다",
|
|
61
|
+
"screen5.actions.cancel": "취소",
|
|
61
62
|
"screen5.actions.connectToServer": "서버에 연결",
|
|
62
63
|
"screen5.actions.connecting": "연결 중...",
|
|
63
64
|
"screen5.actions.signInCloud": "LobeHub 클라우드에 로그인",
|
|
@@ -65,6 +66,10 @@
|
|
|
65
66
|
"screen5.actions.signingIn": "로그인 중...",
|
|
66
67
|
"screen5.actions.signingOut": "로그아웃 중...",
|
|
67
68
|
"screen5.actions.tryAgain": "다시 시도",
|
|
69
|
+
"screen5.auth.phase.browserOpened": "브라우저가 열렸습니다. 로그인해 주세요...",
|
|
70
|
+
"screen5.auth.phase.verifying": "자격 증명을 확인하는 중...",
|
|
71
|
+
"screen5.auth.phase.waitingForAuth": "인증을 기다리는 중...",
|
|
72
|
+
"screen5.auth.remaining": "남은 시간: {{time}}초",
|
|
68
73
|
"screen5.badge": "로그인",
|
|
69
74
|
"screen5.description": "에이전트, 그룹, 설정, 컨텍스트를 모든 기기에서 동기화하려면 로그인하세요.",
|
|
70
75
|
"screen5.errors.desktopOnlyOidc": "OIDC 인증은 데스크톱 앱에서만 사용할 수 있습니다.",
|
|
@@ -141,6 +141,16 @@
|
|
|
141
141
|
"filterBy.timePeriod.year": "최근 1년",
|
|
142
142
|
"footer.desc": "전 세계 AI 사용자와 함께 발전하세요. 크리에이터가 되어 LobeHub 커뮤니티에 에이전트와 스킬을 제출해보세요.",
|
|
143
143
|
"footer.title": "오늘 LobeHub 커뮤니티에 당신의 창작물을 공유하세요",
|
|
144
|
+
"fork.alreadyForked": "이미 이 에이전트를 포크했습니다. 포크한 항목으로 이동 중...",
|
|
145
|
+
"fork.failed": "포크에 실패했습니다. 다시 시도해 주세요.",
|
|
146
|
+
"fork.forkAndChat": "포크 및 채팅",
|
|
147
|
+
"fork.forkedFrom": "포크된 원본",
|
|
148
|
+
"fork.forks": "포크",
|
|
149
|
+
"fork.forksCount": "{{count}}개 포크",
|
|
150
|
+
"fork.forksCount_other": "{{count}}개 포크",
|
|
151
|
+
"fork.success": "성공적으로 포크되었습니다!",
|
|
152
|
+
"fork.viewAllForks": "모든 포크 보기",
|
|
153
|
+
"groupAgents.tag": "그룹",
|
|
144
154
|
"home.communityAgents": "커뮤니티 도우미",
|
|
145
155
|
"home.featuredAssistants": "추천 도우미",
|
|
146
156
|
"home.featuredModels": "추천 모델",
|
|
@@ -471,14 +481,19 @@
|
|
|
471
481
|
"user.follow": "팔로우",
|
|
472
482
|
"user.followers": "팔로워",
|
|
473
483
|
"user.following": "팔로잉",
|
|
484
|
+
"user.forkedAgentGroups": "포크한 에이전트 그룹",
|
|
485
|
+
"user.forkedAgents": "포크한 에이전트",
|
|
474
486
|
"user.login": "크리에이터 되기",
|
|
475
487
|
"user.logout": "로그아웃",
|
|
476
488
|
"user.myProfile": "내 프로필",
|
|
477
489
|
"user.noAgents": "이 사용자가 아직 도우미를 게시하지 않았습니다",
|
|
478
490
|
"user.noFavoriteAgents": "즐겨찾는 어시스턴트가 없습니다",
|
|
479
491
|
"user.noFavoritePlugins": "즐겨찾는 플러그인이 없습니다",
|
|
492
|
+
"user.noForkedAgentGroups": "포크한 에이전트 그룹이 없습니다",
|
|
493
|
+
"user.noForkedAgents": "포크한 에이전트가 없습니다",
|
|
480
494
|
"user.publishedAgents": "제작한 도우미",
|
|
481
495
|
"user.tabs.favorites": "즐겨찾기",
|
|
496
|
+
"user.tabs.forkedAgents": "포크됨",
|
|
482
497
|
"user.tabs.publishedAgents": "창작",
|
|
483
498
|
"user.unfavorite": "즐겨찾기 해제",
|
|
484
499
|
"user.unfavoriteFailed": "즐겨찾기 해제 실패",
|
|
@@ -573,6 +573,61 @@
|
|
|
573
573
|
"glm-z1-flash.description": "GLM-Z1 시리즈는 논리, 수학, 프로그래밍 등 복잡한 추론에서 뛰어난 성능을 발휘합니다.",
|
|
574
574
|
"glm-z1-flashx.description": "빠르고 저비용: 초고속 추론과 높은 동시성을 제공하는 Flash 향상 버전입니다.",
|
|
575
575
|
"glm-zero-preview.description": "GLM-Zero-Preview는 논리, 수학, 프로그래밍 등 복잡한 추론에서 뛰어난 성능을 발휘합니다.",
|
|
576
|
+
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5는 Anthropic의 대표 모델로, 탁월한 지능과 확장 가능한 성능을 결합하여 최고 수준의 응답 품질과 추론 능력이 요구되는 복잡한 작업을 처리합니다.",
|
|
577
|
+
"google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash는 차세대 기능을 제공하며, 뛰어난 속도, 기본 도구 사용, 멀티모달 생성, 1M 토큰 컨텍스트 윈도우를 지원합니다.",
|
|
578
|
+
"google/gemini-2.0-flash-exp:free.description": "Gemini 2.0 Flash Experimental은 Google의 최신 실험용 멀티모달 AI 모델로, 이전 버전 대비 세계 지식, 코드, 장문 컨텍스트 처리에서 품질이 향상되었습니다.",
|
|
579
|
+
"google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Lite는 지연 시간과 비용을 줄이기 위해 기본적으로 사고 기능이 비활성화된 경량 Gemini 변형 모델이며, 매개변수를 통해 활성화할 수 있습니다.",
|
|
580
|
+
"google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Lite는 차세대 기능을 제공하며, 뛰어난 속도, 내장 도구 사용, 멀티모달 생성, 1M 토큰 컨텍스트 윈도우를 지원합니다.",
|
|
581
|
+
"google/gemini-2.0-flash.description": "Gemini 2.0 Flash는 Google의 고성능 추론 모델로, 확장된 멀티모달 작업에 적합합니다.",
|
|
582
|
+
"google/gemini-2.5-flash-image-free.description": "Gemini 2.5 Flash Image 무료 등급은 제한된 할당량의 멀티모달 생성을 지원합니다.",
|
|
583
|
+
"google/gemini-2.5-flash-image-preview.description": "Gemini 2.5 Flash는 이미지 생성을 지원하는 실험용 모델입니다.",
|
|
584
|
+
"google/gemini-2.5-flash-image.description": "Gemini 2.5 Flash Image (Nano Banana)는 Google의 이미지 생성 모델로, 멀티모달 대화를 지원합니다.",
|
|
585
|
+
"google/gemini-2.5-flash-lite.description": "Gemini 2.5 Flash Lite는 지연 시간과 비용을 최적화한 경량 Gemini 2.5 변형 모델로, 대량 처리 시나리오에 적합합니다.",
|
|
586
|
+
"google/gemini-2.5-flash-preview.description": "Gemini 2.5 Flash는 고급 추론, 코딩, 수학, 과학 작업을 위해 설계된 Google의 최첨단 대표 모델입니다. 내장된 '사고(thinking)' 기능을 통해 더 높은 정확도의 응답과 정교한 컨텍스트 처리를 제공합니다.\n\n참고: 이 모델은 사고(thinking)와 비사고(non-thinking) 두 가지 변형이 있으며, 사고 기능의 활성화 여부에 따라 출력 비용이 크게 달라집니다. 기본 변형(:thinking 접미사 없이)을 선택하면 사고 토큰 생성을 명시적으로 피합니다.\n\n사고 기능을 사용하고 사고 토큰을 받으려면 ':thinking' 변형을 선택해야 하며, 이 경우 사고 출력 비용이 더 높습니다.\n\nGemini 2.5 Flash는 문서에 명시된 'max reasoning tokens' 매개변수를 통해 구성할 수 있습니다 (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
|
|
587
|
+
"google/gemini-2.5-flash-preview:thinking.description": "Gemini 2.5 Flash는 고급 추론, 코딩, 수학, 과학 작업을 위해 설계된 Google의 최첨단 대표 모델입니다. 내장된 '사고(thinking)' 기능을 통해 더 높은 정확도의 응답과 정교한 컨텍스트 처리를 제공합니다.\n\n참고: 이 모델은 사고(thinking)와 비사고(non-thinking) 두 가지 변형이 있으며, 사고 기능의 활성화 여부에 따라 출력 비용이 크게 달라집니다. 기본 변형(:thinking 접미사 없이)을 선택하면 사고 토큰 생성을 명시적으로 피합니다.\n\n사고 기능을 사용하고 사고 토큰을 받으려면 ':thinking' 변형을 선택해야 하며, 이 경우 사고 출력 비용이 더 높습니다.\n\nGemini 2.5 Flash는 문서에 명시된 'max reasoning tokens' 매개변수를 통해 구성할 수 있습니다 (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
|
|
588
|
+
"google/gemini-2.5-flash.description": "Gemini 2.5 Flash (Lite/Pro/Flash)는 Google의 저지연부터 고성능 추론까지 아우르는 모델군입니다.",
|
|
589
|
+
"google/gemini-2.5-pro-free.description": "Gemini 2.5 Pro 무료 등급은 제한된 할당량의 멀티모달 장문 컨텍스트를 제공하며, 시험 사용 및 가벼운 워크플로우에 적합합니다.",
|
|
590
|
+
"google/gemini-2.5-pro-preview.description": "Gemini 2.5 Pro Preview는 복잡한 코드, 수학, STEM 문제에 대한 추론과 대규모 데이터셋, 코드베이스, 문서 분석을 위한 Google의 가장 진보된 사고 모델입니다.",
|
|
591
|
+
"google/gemini-2.5-pro.description": "Gemini 2.5 Pro는 복잡한 작업을 위한 장문 컨텍스트 지원을 갖춘 Google의 대표 추론 모델입니다.",
|
|
592
|
+
"google/gemini-3-pro-image-preview-free.description": "Gemini 3 Pro Image 무료 등급은 제한된 할당량의 멀티모달 생성을 지원합니다.",
|
|
593
|
+
"google/gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro)는 Google의 이미지 생성 모델로, 멀티모달 대화를 지원합니다.",
|
|
594
|
+
"google/gemini-3-pro-preview-free.description": "Gemini 3 Pro Preview Free는 표준 버전과 동일한 멀티모달 이해 및 추론 기능을 제공하지만, 할당량 및 속도 제한이 있어 시험 사용 및 저빈도 사용에 적합합니다.",
|
|
595
|
+
"google/gemini-3-pro-preview.description": "Gemini 3 Pro는 Gemini 시리즈의 차세대 멀티모달 추론 모델로, 텍스트, 오디오, 이미지, 비디오를 이해하며 복잡한 작업과 대규모 코드베이스를 처리할 수 있습니다.",
|
|
596
|
+
"google/gemini-embedding-001.description": "영어, 다국어, 코드 작업에서 뛰어난 성능을 보이는 최첨단 임베딩 모델입니다.",
|
|
597
|
+
"google/gemini-flash-1.5.description": "Gemini 1.5 Flash는 다양한 복잡한 작업을 위한 최적화된 멀티모달 처리를 제공합니다.",
|
|
598
|
+
"google/gemini-pro-1.5.description": "Gemini 1.5 Pro는 멀티모달 데이터 처리를 보다 효율적으로 수행하기 위한 최신 최적화를 결합한 모델입니다.",
|
|
599
|
+
"google/gemma-2-27b-it.description": "Gemma 2 27B는 다양한 시나리오에서 강력한 성능을 발휘하는 범용 대형 언어 모델입니다.",
|
|
600
|
+
"google/gemma-2-27b.description": "Gemma 2는 소형 앱부터 복잡한 데이터 처리까지 다양한 사용 사례에 적합한 Google의 효율적인 모델군입니다.",
|
|
601
|
+
"google/gemma-2-2b-it.description": "엣지 애플리케이션을 위해 설계된 고급 소형 언어 모델입니다.",
|
|
602
|
+
"google/gemma-2-9b-it.description": "Google이 개발한 Gemma 2 9B는 효율적인 명령 수행과 전반적인 우수한 성능을 제공합니다.",
|
|
603
|
+
"google/gemma-2-9b-it:free.description": "Gemma 2는 Google의 경량 오픈소스 텍스트 모델군입니다.",
|
|
604
|
+
"google/gemma-2-9b.description": "Gemma 2는 소형 앱부터 복잡한 데이터 처리까지 다양한 사용 사례에 적합한 Google의 효율적인 모델군입니다.",
|
|
605
|
+
"google/gemma-2b-it.description": "Gemma Instruct (2B)는 경량 애플리케이션을 위한 기본 명령 처리 기능을 제공합니다.",
|
|
606
|
+
"google/gemma-3-12b-it.description": "Gemma 3 12B는 효율성과 성능 면에서 새로운 기준을 제시하는 Google의 오픈소스 언어 모델입니다.",
|
|
607
|
+
"google/gemma-3-27b-it.description": "Gemma 3 27B는 효율성과 성능 면에서 새로운 기준을 제시하는 Google의 오픈소스 언어 모델입니다.",
|
|
608
|
+
"google/text-embedding-005.description": "코드 및 영어 작업에 최적화된 영어 중심 텍스트 임베딩 모델입니다.",
|
|
609
|
+
"google/text-multilingual-embedding-002.description": "다양한 언어 간 작업에 최적화된 다국어 텍스트 임베딩 모델입니다.",
|
|
610
|
+
"gpt-3.5-turbo-0125.description": "텍스트 생성 및 이해를 위한 GPT 3.5 Turbo; 현재 gpt-3.5-turbo-0125를 가리킵니다.",
|
|
611
|
+
"gpt-3.5-turbo-1106.description": "텍스트 생성 및 이해를 위한 GPT 3.5 Turbo; 현재 gpt-3.5-turbo-0125를 가리킵니다.",
|
|
612
|
+
"gpt-3.5-turbo-instruct.description": "명령 수행에 최적화된 텍스트 생성 및 이해용 GPT 3.5 Turbo.",
|
|
613
|
+
"gpt-3.5-turbo.description": "텍스트 생성 및 이해를 위한 GPT 3.5 Turbo; 현재 gpt-3.5-turbo-0125를 가리킵니다.",
|
|
614
|
+
"gpt-35-turbo-16k.description": "GPT-3.5 Turbo 16k는 복잡한 작업을 위한 고용량 텍스트 생성 모델입니다.",
|
|
615
|
+
"gpt-35-turbo.description": "GPT-3.5 Turbo는 OpenAI의 효율적인 채팅 및 텍스트 생성 모델로, 병렬 함수 호출을 지원합니다.",
|
|
616
|
+
"gpt-4-0125-preview.description": "최신 GPT-4 Turbo는 비전 기능을 추가했습니다. 시각적 요청은 JSON 모드 및 함수 호출을 지원합니다. 정확성과 효율성의 균형을 갖춘 실시간 애플리케이션용 비용 효율적인 멀티모달 모델입니다.",
|
|
617
|
+
"gpt-4-0613.description": "GPT-4는 더 긴 입력을 처리할 수 있는 확장된 컨텍스트 윈도우를 제공하여, 광범위한 정보 통합 및 데이터 분석에 적합합니다.",
|
|
618
|
+
"gpt-4-1106-preview.description": "최신 GPT-4 Turbo는 비전 기능을 추가했습니다. 시각적 요청은 JSON 모드 및 함수 호출을 지원합니다. 정확성과 효율성의 균형을 갖춘 실시간 애플리케이션용 비용 효율적인 멀티모달 모델입니다.",
|
|
619
|
+
"gpt-4-32k-0613.description": "GPT-4는 더 긴 입력을 처리할 수 있는 확장된 컨텍스트 윈도우를 제공하여, 광범위한 정보 통합 및 데이터 분석에 적합합니다.",
|
|
620
|
+
"gpt-4-32k.description": "GPT-4는 더 긴 입력을 처리할 수 있는 확장된 컨텍스트 윈도우를 제공하여, 광범위한 정보 통합 및 데이터 분석에 적합합니다.",
|
|
621
|
+
"gpt-4-turbo-2024-04-09.description": "최신 GPT-4 Turbo는 비전 기능을 추가했습니다. 시각적 요청은 JSON 모드 및 함수 호출을 지원합니다. 정확성과 효율성의 균형을 갖춘 실시간 애플리케이션용 비용 효율적인 멀티모달 모델입니다.",
|
|
622
|
+
"gpt-4-turbo-preview.description": "최신 GPT-4 Turbo는 비전 기능을 추가했습니다. 시각적 요청은 JSON 모드 및 함수 호출을 지원합니다. 정확성과 효율성의 균형을 갖춘 실시간 애플리케이션용 비용 효율적인 멀티모달 모델입니다.",
|
|
623
|
+
"gpt-4-turbo.description": "최신 GPT-4 Turbo는 비전 기능을 추가했습니다. 시각적 요청은 JSON 모드 및 함수 호출을 지원합니다. 정확성과 효율성의 균형을 갖춘 실시간 애플리케이션용 비용 효율적인 멀티모달 모델입니다.",
|
|
624
|
+
"gpt-4-vision-preview.description": "이미지 분석 및 처리 작업을 위한 GPT-4 Vision 프리뷰 모델입니다.",
|
|
625
|
+
"gpt-4.1-mini.description": "GPT-4.1 mini는 지능, 속도, 비용의 균형을 이루어 다양한 사용 사례에 적합합니다.",
|
|
626
|
+
"gpt-4.1-nano.description": "GPT-4.1 nano는 가장 빠르고 비용 효율적인 GPT-4.1 모델입니다.",
|
|
627
|
+
"gpt-4.1.description": "GPT-4.1은 복잡한 작업과 도메인 간 문제 해결을 위한 대표 모델입니다.",
|
|
628
|
+
"gpt-4.5-preview.description": "GPT-4.5-preview는 세계 지식과 의도 이해 능력이 향상된 최신 범용 모델로, 창의적 작업과 에이전트 계획에 강합니다. 지식 기준일: 2023년 10월.",
|
|
629
|
+
"gpt-4.description": "GPT-4는 더 긴 입력을 처리할 수 있는 확장된 컨텍스트 윈도우를 제공하여, 광범위한 정보 통합 및 데이터 분석에 적합합니다.",
|
|
630
|
+
"gpt-4o-2024-05-13.description": "ChatGPT-4o는 실시간으로 업데이트되는 동적 모델로, 고객 지원, 교육, 기술 지원 등 대규모 사용 사례에 적합한 강력한 이해 및 생성 능력을 결합합니다.",
|
|
576
631
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "시각 이해 에이전트 애플리케이션을 위한 고급 이미지 추론 기능.",
|
|
577
632
|
"meta/Llama-3.3-70B-Instruct.description": "Llama 3.3은 가장 진보된 다국어 오픈소스 Llama 모델로, 매우 낮은 비용으로 405B에 근접한 성능을 제공합니다. Transformer 기반이며, 유용성과 안전성을 위해 SFT 및 RLHF로 개선되었습니다. 명령어 튜닝 버전은 다국어 채팅에 최적화되어 있으며, 산업 벤치마크에서 많은 오픈 및 클로즈드 채팅 모델을 능가합니다. 지식 기준일: 2023년 12월.",
|
|
578
633
|
"meta/Meta-Llama-3-70B-Instruct.description": "추론, 코딩, 다양한 언어 작업에 뛰어난 성능을 보이는 강력한 70B 파라미터 모델.",
|
package/locales/nl-NL/chat.json
CHANGED
|
@@ -204,6 +204,7 @@
|
|
|
204
204
|
"noSelectedAgents": "Nog geen leden geselecteerd",
|
|
205
205
|
"openInNewWindow": "Openen in nieuw venster",
|
|
206
206
|
"operation.execAgentRuntime": "Reactie voorbereiden",
|
|
207
|
+
"operation.execClientTask": "Taak wordt uitgevoerd",
|
|
207
208
|
"operation.sendMessage": "Bericht verzenden",
|
|
208
209
|
"owner": "Groepseigenaar",
|
|
209
210
|
"pageCopilot.title": "Pagina-agent",
|
|
@@ -322,11 +323,15 @@
|
|
|
322
323
|
"tab.profile": "Agentprofiel",
|
|
323
324
|
"tab.search": "Zoeken",
|
|
324
325
|
"task.activity.calling": "Skill wordt aangeroepen...",
|
|
326
|
+
"task.activity.clientExecuting": "Lokaal uitvoeren...",
|
|
325
327
|
"task.activity.generating": "Reactie wordt gegenereerd...",
|
|
326
328
|
"task.activity.gotResult": "Toolresultaat ontvangen",
|
|
327
329
|
"task.activity.toolCalling": "{{toolName}} wordt aangeroepen...",
|
|
328
330
|
"task.activity.toolResult": "{{toolName}} resultaat ontvangen",
|
|
329
331
|
"task.batchTasks": "{{count}} batch-subtaken",
|
|
332
|
+
"task.instruction": "Taakinstructie",
|
|
333
|
+
"task.intermediateSteps": "{{count}} tussenstappen",
|
|
334
|
+
"task.metrics.duration": "(duurde {{duration}})",
|
|
330
335
|
"task.metrics.stepsShort": "stappen",
|
|
331
336
|
"task.metrics.toolCallsShort": "toolgebruik",
|
|
332
337
|
"task.status.cancelled": "Taak geannuleerd",
|
|
@@ -58,6 +58,7 @@
|
|
|
58
58
|
"screen4.title": "Hoe wil je gegevens delen?",
|
|
59
59
|
"screen4.title2": "Jouw keuze helpt ons verbeteren",
|
|
60
60
|
"screen4.title3": "Je kunt dit op elk moment wijzigen in de instellingen",
|
|
61
|
+
"screen5.actions.cancel": "Annuleren",
|
|
61
62
|
"screen5.actions.connectToServer": "Verbinden met server",
|
|
62
63
|
"screen5.actions.connecting": "Bezig met verbinden...",
|
|
63
64
|
"screen5.actions.signInCloud": "Aanmelden bij LobeHub Cloud",
|
|
@@ -65,6 +66,10 @@
|
|
|
65
66
|
"screen5.actions.signingIn": "Bezig met aanmelden...",
|
|
66
67
|
"screen5.actions.signingOut": "Bezig met afmelden...",
|
|
67
68
|
"screen5.actions.tryAgain": "Opnieuw proberen",
|
|
69
|
+
"screen5.auth.phase.browserOpened": "Browser geopend, log in alstublieft...",
|
|
70
|
+
"screen5.auth.phase.verifying": "Inloggegevens worden geverifieerd...",
|
|
71
|
+
"screen5.auth.phase.waitingForAuth": "Wachten op autorisatie...",
|
|
72
|
+
"screen5.auth.remaining": "Resterend: {{time}}s",
|
|
68
73
|
"screen5.badge": "Aanmelden",
|
|
69
74
|
"screen5.description": "Meld je aan om Agenten, Groepen, instellingen en Context te synchroniseren op al je apparaten.",
|
|
70
75
|
"screen5.errors.desktopOnlyOidc": "OIDC-autorisatie is alleen beschikbaar in de desktop-app.",
|
|
@@ -141,6 +141,16 @@
|
|
|
141
141
|
"filterBy.timePeriod.year": "Laatste jaar",
|
|
142
142
|
"footer.desc": "Ontwikkel mee met AI-gebruikers wereldwijd. Word een maker en dien je agents en vaardigheden in bij de LobeHub-community.",
|
|
143
143
|
"footer.title": "Deel vandaag nog je creatie in de LobeHub-community",
|
|
144
|
+
"fork.alreadyForked": "Je hebt deze agent al geforkt. Navigeren naar je fork...",
|
|
145
|
+
"fork.failed": "Forken is mislukt. Probeer het opnieuw.",
|
|
146
|
+
"fork.forkAndChat": "Fork & Chat",
|
|
147
|
+
"fork.forkedFrom": "Geforkt van",
|
|
148
|
+
"fork.forks": "forks",
|
|
149
|
+
"fork.forksCount": "{{count}} fork",
|
|
150
|
+
"fork.forksCount_other": "{{count}} forks",
|
|
151
|
+
"fork.success": "Succesvol geforkt!",
|
|
152
|
+
"fork.viewAllForks": "Bekijk alle forks",
|
|
153
|
+
"groupAgents.tag": "Groep",
|
|
144
154
|
"home.communityAgents": "Community Agents",
|
|
145
155
|
"home.featuredAssistants": "Uitgelichte Agents",
|
|
146
156
|
"home.featuredModels": "Uitgelichte Modellen",
|
|
@@ -471,14 +481,19 @@
|
|
|
471
481
|
"user.follow": "Volgen",
|
|
472
482
|
"user.followers": "Volgers",
|
|
473
483
|
"user.following": "Volgend",
|
|
484
|
+
"user.forkedAgentGroups": "Geforkte Agentgroepen",
|
|
485
|
+
"user.forkedAgents": "Geforkte Agents",
|
|
474
486
|
"user.login": "Word een Maker",
|
|
475
487
|
"user.logout": "Uitloggen",
|
|
476
488
|
"user.myProfile": "Mijn Profiel",
|
|
477
489
|
"user.noAgents": "Deze gebruiker heeft nog geen Agents gepubliceerd",
|
|
478
490
|
"user.noFavoriteAgents": "Nog geen opgeslagen Agents",
|
|
479
491
|
"user.noFavoritePlugins": "Nog geen opgeslagen Vaardigheden",
|
|
492
|
+
"user.noForkedAgentGroups": "Nog geen geforkte agentgroepen",
|
|
493
|
+
"user.noForkedAgents": "Nog geen geforkte agents",
|
|
480
494
|
"user.publishedAgents": "Gemaakte Agents",
|
|
481
495
|
"user.tabs.favorites": "Favorieten",
|
|
496
|
+
"user.tabs.forkedAgents": "Geforkt",
|
|
482
497
|
"user.tabs.publishedAgents": "Gemaakt",
|
|
483
498
|
"user.unfavorite": "Verwijderen uit opgeslagen",
|
|
484
499
|
"user.unfavoriteFailed": "Verwijderen mislukt",
|
|
@@ -643,6 +643,40 @@
|
|
|
643
643
|
"gpt-4o-search-preview.description": "GPT-4o Search Preview is getraind om webzoekopdrachten te begrijpen en uit te voeren via de Chat Completions API. Webzoekopdrachten worden per toolaanroep gefactureerd, naast tokenkosten.",
|
|
644
644
|
"gpt-4o-transcribe.description": "GPT-4o Transcribe is een spraak-naar-tekstmodel dat audio transcribeert met GPT-4o, met verbeterde woordherkenning, taalidentificatie en nauwkeurigheid ten opzichte van het oorspronkelijke Whisper-model.",
|
|
645
645
|
"gpt-4o.description": "ChatGPT-4o is een dynamisch model dat realtime wordt bijgewerkt en sterke taalbegrip- en generatiecapaciteiten combineert voor grootschalige toepassingen zoals klantenservice, onderwijs en technische ondersteuning.",
|
|
646
|
+
"gpt-5-chat-latest.description": "Het GPT-5-model dat wordt gebruikt in ChatGPT, combineert sterk begrip en generatie voor conversatietoepassingen.",
|
|
647
|
+
"gpt-5-chat.description": "GPT-5 Chat is een previewmodel geoptimaliseerd voor conversatiescenario's. Het ondersteunt tekst- en afbeeldingsinvoer, geeft alleen tekstuitvoer en is geschikt voor chatbots en conversatie-AI-toepassingen.",
|
|
648
|
+
"gpt-5-codex.description": "GPT-5 Codex is een GPT-5-variant geoptimaliseerd voor agentmatige programmeertaken in Codex-achtige omgevingen.",
|
|
649
|
+
"gpt-5-mini.description": "Een snellere, kostenefficiëntere GPT-5-variant voor goed gedefinieerde taken, met snelle reacties zonder kwaliteitsverlies.",
|
|
650
|
+
"gpt-5-nano.description": "De snelste en meest kosteneffectieve GPT-5-variant, ideaal voor toepassingen met strikte eisen op het gebied van latentie en kosten.",
|
|
651
|
+
"gpt-5-pro.description": "GPT-5 Pro gebruikt meer rekenkracht om dieper na te denken en consequent betere antwoorden te leveren.",
|
|
652
|
+
"gpt-5.1-chat-latest.description": "GPT-5.1 Chat: de ChatGPT-variant van GPT-5.1, ontworpen voor chatscenario's.",
|
|
653
|
+
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini: een kleinere, goedkopere Codex-variant geoptimaliseerd voor agentmatige programmeertaken.",
|
|
654
|
+
"gpt-5.1-codex.description": "GPT-5.1 Codex: een GPT-5.1-variant geoptimaliseerd voor agentmatige programmeertaken, geschikt voor complexe code-/agentworkflows in de Responses API.",
|
|
655
|
+
"gpt-5.1.description": "GPT-5.1 — een toonaangevend model geoptimaliseerd voor programmeren en agenttaken met configureerbare redeneercapaciteit en langere context.",
|
|
656
|
+
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat is de ChatGPT-variant (chat-latest) om de nieuwste verbeteringen in conversatie te ervaren.",
|
|
657
|
+
"gpt-5.2-pro.description": "GPT-5.2 Pro: een slimmer, preciezer GPT-5.2-model (alleen via Responses API), geschikt voor moeilijkere problemen en langere redeneerketens.",
|
|
658
|
+
"gpt-5.2.description": "GPT-5.2 is een toonaangevend model voor programmeren en agentworkflows met sterkere redeneercapaciteit en prestaties bij lange contexten.",
|
|
659
|
+
"gpt-5.description": "Het beste model voor domeinoverstijgende programmeer- en agenttaken. GPT-5 biedt sprongen in nauwkeurigheid, snelheid, redeneervermogen, contextbewustzijn, gestructureerd denken en probleemoplossing.",
|
|
660
|
+
"gpt-audio.description": "GPT Audio is een algemeen chatmodel voor audio-invoer/-uitvoer, ondersteund in de Chat Completions API.",
|
|
661
|
+
"gpt-image-1-mini.description": "Een goedkopere GPT Image 1-variant met native tekst- en afbeeldingsinvoer en afbeeldingsuitvoer.",
|
|
662
|
+
"gpt-image-1.5.description": "Een verbeterd GPT Image 1-model met 4× snellere generatie, nauwkeurigere bewerkingen en verbeterde tekstrendering.",
|
|
663
|
+
"gpt-image-1.description": "ChatGPT's native multimodale afbeeldingsgeneratiemodel.",
|
|
664
|
+
"gpt-oss-120b.description": "Toegang vereist een aanvraag. GPT-OSS-120B is een open-source groot taalmodel van OpenAI met sterke tekstgeneratiecapaciteit.",
|
|
665
|
+
"gpt-oss-20b.description": "Toegang vereist een aanvraag. GPT-OSS-20B is een open-source middelgroot taalmodel van OpenAI met efficiënte tekstgeneratie.",
|
|
666
|
+
"gpt-oss:120b.description": "GPT-OSS 120B is OpenAI’s grote open-source LLM met MXFP4-kwantisatie en gepositioneerd als vlaggenschipmodel. Het vereist multi-GPU- of high-end werkstationomgevingen en levert uitstekende prestaties in complexe redenering, codegeneratie en meertalige verwerking, met geavanceerde functieaanroepen en toolintegratie.",
|
|
667
|
+
"gpt-oss:20b.description": "GPT-OSS 20B is een open-source LLM van OpenAI met MXFP4-kwantisatie, geschikt voor high-end consument-GPU’s of Apple Silicon Macs. Het presteert goed in dialooggeneratie, programmeren en redeneertaken, en ondersteunt functieaanroepen en toolgebruik.",
|
|
668
|
+
"gpt-realtime.description": "Een algemeen realtime model dat realtime tekst- en audio-invoer/-uitvoer ondersteunt, plus afbeeldingsinvoer.",
|
|
669
|
+
"grok-2-image-1212.description": "Ons nieuwste afbeeldingsgeneratiemodel creëert levendige, realistische beelden op basis van prompts en blinkt uit in marketing-, sociale media- en entertainmenttoepassingen.",
|
|
670
|
+
"grok-2-vision-1212.description": "Verbeterde nauwkeurigheid, instructieopvolging en meertalige mogelijkheden.",
|
|
671
|
+
"grok-3-mini.description": "Een lichtgewicht model dat eerst nadenkt voordat het antwoordt. Snel en slim voor logische taken die geen diepgaande domeinkennis vereisen, met toegang tot ruwe redeneertracering.",
|
|
672
|
+
"grok-3.description": "Een vlaggenschipmodel dat uitblinkt in zakelijke toepassingen zoals gegevensextractie, programmeren en samenvatten, met diepgaande domeinkennis in financiën, gezondheidszorg, recht en wetenschap.",
|
|
673
|
+
"grok-4-0709.description": "xAI’s Grok 4 met sterke redeneercapaciteit.",
|
|
674
|
+
"grok-4-1-fast-non-reasoning.description": "Een grensverleggend multimodaal model geoptimaliseerd voor krachtige agenttoolgebruik.",
|
|
675
|
+
"grok-4-1-fast-reasoning.description": "Een grensverleggend multimodaal model geoptimaliseerd voor krachtige agenttoolgebruik.",
|
|
676
|
+
"grok-4-fast-non-reasoning.description": "We zijn verheugd Grok 4 Fast uit te brengen, onze nieuwste vooruitgang in kosteneffectieve redeneermodellen.",
|
|
677
|
+
"grok-4-fast-reasoning.description": "We zijn verheugd Grok 4 Fast uit te brengen, onze nieuwste vooruitgang in kosteneffectieve redeneermodellen.",
|
|
678
|
+
"grok-4.description": "Ons nieuwste en krachtigste vlaggenschipmodel, uitblinkend in NLP, wiskunde en redenering—een ideale allrounder.",
|
|
679
|
+
"grok-code-fast-1.description": "We zijn verheugd om grok-code-fast-1 te lanceren, een snel en kosteneffectief redeneermodel dat uitblinkt in agentmatig programmeren.",
|
|
646
680
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 is een open LLM voor ontwikkelaars, onderzoekers en bedrijven, ontworpen om hen te helpen bij het bouwen, experimenteren en verantwoord opschalen van generatieve AI-ideeën. Als onderdeel van de basis voor wereldwijde gemeenschapsinnovatie is het goed geschikt voor beperkte rekenkracht en middelen, edge-apparaten en snellere trainingstijden.",
|
|
647
681
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Sterke beeldredenering op afbeeldingen met hoge resolutie, geschikt voor toepassingen voor visueel begrip.",
|
|
648
682
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Geavanceerde beeldredenering voor toepassingen met visueel begrip en agentfunctionaliteit.",
|
package/locales/pl-PL/chat.json
CHANGED
|
@@ -204,6 +204,7 @@
|
|
|
204
204
|
"noSelectedAgents": "Nie wybrano jeszcze członków",
|
|
205
205
|
"openInNewWindow": "Otwórz w nowym oknie",
|
|
206
206
|
"operation.execAgentRuntime": "Przygotowywanie odpowiedzi",
|
|
207
|
+
"operation.execClientTask": "Wykonywanie zadania",
|
|
207
208
|
"operation.sendMessage": "Wysyłanie wiadomości",
|
|
208
209
|
"owner": "Właściciel grupy",
|
|
209
210
|
"pageCopilot.title": "Agent strony",
|
|
@@ -322,11 +323,15 @@
|
|
|
322
323
|
"tab.profile": "Profil agenta",
|
|
323
324
|
"tab.search": "Szukaj",
|
|
324
325
|
"task.activity.calling": "Wywoływanie umiejętności...",
|
|
326
|
+
"task.activity.clientExecuting": "Wykonywanie lokalnie...",
|
|
325
327
|
"task.activity.generating": "Generowanie odpowiedzi...",
|
|
326
328
|
"task.activity.gotResult": "Otrzymano wynik narzędzia",
|
|
327
329
|
"task.activity.toolCalling": "Wywoływanie {{toolName}}...",
|
|
328
330
|
"task.activity.toolResult": "Otrzymano wynik {{toolName}}",
|
|
329
331
|
"task.batchTasks": "{{count}} zadań zbiorczych",
|
|
332
|
+
"task.instruction": "Instrukcja zadania",
|
|
333
|
+
"task.intermediateSteps": "{{count}} kroków pośrednich",
|
|
334
|
+
"task.metrics.duration": "(zajęło {{duration}})",
|
|
330
335
|
"task.metrics.stepsShort": "kroków",
|
|
331
336
|
"task.metrics.toolCallsShort": "użycia narzędzi",
|
|
332
337
|
"task.status.cancelled": "Zadanie anulowane",
|
|
@@ -58,6 +58,7 @@
|
|
|
58
58
|
"screen4.title": "Jak chcesz udostępniać dane?",
|
|
59
59
|
"screen4.title2": "Twój wybór pomaga nam się rozwijać",
|
|
60
60
|
"screen4.title3": "Możesz to zmienić w każdej chwili w ustawieniach",
|
|
61
|
+
"screen5.actions.cancel": "Anuluj",
|
|
61
62
|
"screen5.actions.connectToServer": "Połącz z serwerem",
|
|
62
63
|
"screen5.actions.connecting": "Łączenie...",
|
|
63
64
|
"screen5.actions.signInCloud": "Zaloguj się do LobeHub Cloud",
|
|
@@ -65,6 +66,10 @@
|
|
|
65
66
|
"screen5.actions.signingIn": "Logowanie...",
|
|
66
67
|
"screen5.actions.signingOut": "Wylogowywanie...",
|
|
67
68
|
"screen5.actions.tryAgain": "Spróbuj ponownie",
|
|
69
|
+
"screen5.auth.phase.browserOpened": "Przeglądarka została otwarta, zaloguj się...",
|
|
70
|
+
"screen5.auth.phase.verifying": "Weryfikowanie danych logowania...",
|
|
71
|
+
"screen5.auth.phase.waitingForAuth": "Oczekiwanie na autoryzację...",
|
|
72
|
+
"screen5.auth.remaining": "Pozostało: {{time}}s",
|
|
68
73
|
"screen5.badge": "Logowanie",
|
|
69
74
|
"screen5.description": "Zaloguj się, aby synchronizować Agentów, Grupy, ustawienia i Kontekst na wszystkich urządzeniach.",
|
|
70
75
|
"screen5.errors.desktopOnlyOidc": "Autoryzacja OIDC jest dostępna tylko w wersji desktopowej aplikacji.",
|
|
@@ -141,6 +141,16 @@
|
|
|
141
141
|
"filterBy.timePeriod.year": "Ostatni rok",
|
|
142
142
|
"footer.desc": "Rozwijaj się z użytkownikami AI na całym świecie. Zostań twórcą i przesyłaj swoich agentów i umiejętności do Społeczności LobeHub.",
|
|
143
143
|
"footer.title": "Podziel się swoją twórczością w Społeczności LobeHub już dziś",
|
|
144
|
+
"fork.alreadyForked": "Już rozwidliłeś tego agenta. Przechodzenie do Twojego forka...",
|
|
145
|
+
"fork.failed": "Nie udało się rozwidlić. Spróbuj ponownie.",
|
|
146
|
+
"fork.forkAndChat": "Rozwidlij i czatuj",
|
|
147
|
+
"fork.forkedFrom": "Rozwidlono z",
|
|
148
|
+
"fork.forks": "rozwidlenia",
|
|
149
|
+
"fork.forksCount": "{{count}} rozwidlenie",
|
|
150
|
+
"fork.forksCount_other": "{{count}} rozwidleń",
|
|
151
|
+
"fork.success": "Pomyślnie rozwidlono!",
|
|
152
|
+
"fork.viewAllForks": "Zobacz wszystkie rozwidlenia",
|
|
153
|
+
"groupAgents.tag": "Grupa",
|
|
144
154
|
"home.communityAgents": "Agenci Społeczności",
|
|
145
155
|
"home.featuredAssistants": "Polecani Agenci",
|
|
146
156
|
"home.featuredModels": "Polecane Modele",
|
|
@@ -471,14 +481,19 @@
|
|
|
471
481
|
"user.follow": "Obserwuj",
|
|
472
482
|
"user.followers": "Obserwujący",
|
|
473
483
|
"user.following": "Obserwowani",
|
|
484
|
+
"user.forkedAgentGroups": "Rozwidlone grupy agentów",
|
|
485
|
+
"user.forkedAgents": "Rozwidleni agenci",
|
|
474
486
|
"user.login": "Zostań Twórcą",
|
|
475
487
|
"user.logout": "Wyloguj",
|
|
476
488
|
"user.myProfile": "Mój Profil",
|
|
477
489
|
"user.noAgents": "Ten użytkownik nie opublikował jeszcze żadnych agentów",
|
|
478
490
|
"user.noFavoriteAgents": "Brak zapisanych agentów",
|
|
479
491
|
"user.noFavoritePlugins": "Brak zapisanych umiejętności",
|
|
492
|
+
"user.noForkedAgentGroups": "Brak rozwidlonych grup agentów",
|
|
493
|
+
"user.noForkedAgents": "Brak rozwidlonych agentów",
|
|
480
494
|
"user.publishedAgents": "Utworzeni Agenci",
|
|
481
495
|
"user.tabs.favorites": "Ulubione",
|
|
496
|
+
"user.tabs.forkedAgents": "Rozwidleni",
|
|
482
497
|
"user.tabs.publishedAgents": "Utworzone",
|
|
483
498
|
"user.unfavorite": "Usuń z ulubionych",
|
|
484
499
|
"user.unfavoriteFailed": "Nie udało się usunąć z ulubionych",
|