@lobehub/chat 1.94.9 → 1.94.11
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.github/workflows/auto-i18n.yml +37 -325
- package/CHANGELOG.md +50 -0
- package/apps/desktop/src/main/appBrowsers.ts +2 -0
- package/apps/desktop/src/main/core/Browser.ts +39 -1
- package/changelog/v1.json +18 -0
- package/locales/ar/models.json +27 -0
- package/locales/bg-BG/models.json +27 -0
- package/locales/de-DE/models.json +27 -0
- package/locales/en-US/models.json +27 -0
- package/locales/es-ES/models.json +27 -0
- package/locales/fa-IR/models.json +27 -0
- package/locales/fr-FR/models.json +27 -0
- package/locales/it-IT/models.json +27 -0
- package/locales/ja-JP/models.json +27 -0
- package/locales/ko-KR/models.json +27 -0
- package/locales/nl-NL/models.json +27 -0
- package/locales/pl-PL/models.json +27 -0
- package/locales/pt-BR/models.json +27 -0
- package/locales/ru-RU/models.json +27 -0
- package/locales/tr-TR/models.json +27 -0
- package/locales/vi-VN/models.json +27 -0
- package/locales/zh-CN/models.json +27 -0
- package/locales/zh-TW/models.json +27 -0
- package/package.json +1 -1
- package/src/store/chat/slices/aiChat/actions/generateAIChat.ts +5 -4
- package/src/store/chat/slices/message/selectors.ts +10 -3
@@ -659,6 +659,9 @@
|
|
659
659
|
"codestral-latest": {
|
660
660
|
"description": "Codestralは、コード生成に特化した最先端の生成モデルであり、中間埋め込みやコード補完タスクを最適化しています。"
|
661
661
|
},
|
662
|
+
"codex-mini-latest": {
|
663
|
+
"description": "codex-mini-latest は o4-mini の微調整バージョンで、Codex CLI 専用に設計されています。API を直接使用する場合は、gpt-4.1 から始めることを推奨します。"
|
664
|
+
},
|
662
665
|
"cognitivecomputations/dolphin-mixtral-8x22b": {
|
663
666
|
"description": "Dolphin Mixtral 8x22Bは指示遵守、対話、プログラミングのために設計されたモデルです。"
|
664
667
|
},
|
@@ -716,6 +719,9 @@
|
|
716
719
|
"compound-beta-mini": {
|
717
720
|
"description": "Compound-beta-miniは複合AIシステムで、GroqCloudでサポートされている公開利用可能なモデルによって支えられ、ユーザーのクエリに応じてツールを賢く選択的に使用します。"
|
718
721
|
},
|
722
|
+
"computer-use-preview": {
|
723
|
+
"description": "computer-use-preview モデルは「コンピュータ使用ツール」専用に設計されたモデルで、コンピュータ関連のタスクを理解し実行するように訓練されています。"
|
724
|
+
},
|
719
725
|
"dall-e-2": {
|
720
726
|
"description": "第二世代DALL·Eモデル、よりリアルで正確な画像生成をサポートし、解像度は第一世代の4倍です"
|
721
727
|
},
|
@@ -905,6 +911,15 @@
|
|
905
911
|
"doubao-1.5-vision-lite": {
|
906
912
|
"description": "Doubao-1.5-vision-liteは新たにアップグレードされた多モーダル大モデルで、任意の解像度と極端なアスペクト比の画像認識をサポートし、視覚推論、文書認識、詳細情報の理解、指示の遵守能力を強化しています。128kのコンテキストウィンドウをサポートし、出力長は最大16kトークンをサポートします。"
|
907
913
|
},
|
914
|
+
"doubao-seed-1.6": {
|
915
|
+
"description": "Doubao-Seed-1.6 は新しいマルチモーダル深層思考モデルで、auto/thinking/non-thinking の3つの思考モードをサポートします。non-thinking モードでは、Doubao-1.5-pro/250115 と比較して大幅に性能が向上しています。256k のコンテキストウィンドウをサポートし、最大16kトークンの出力長に対応しています。"
|
916
|
+
},
|
917
|
+
"doubao-seed-1.6-flash": {
|
918
|
+
"description": "Doubao-Seed-1.6-flash は推論速度に極限を追求したマルチモーダル深層思考モデルで、TPOT はわずか10msです。テキストと視覚の理解を同時にサポートし、テキスト理解能力は前世代の lite を超え、視覚理解は競合の pro シリーズモデルに匹敵します。256k のコンテキストウィンドウをサポートし、最大16kトークンの出力長に対応しています。"
|
919
|
+
},
|
920
|
+
"doubao-seed-1.6-thinking": {
|
921
|
+
"description": "Doubao-Seed-1.6-thinking モデルは思考能力が大幅に強化されており、Doubao-1.5-thinking-pro と比較して、コーディング、数学、論理推論などの基礎能力がさらに向上しています。視覚理解もサポートしています。256k のコンテキストウィンドウをサポートし、最大16kトークンの出力長に対応しています。"
|
922
|
+
},
|
908
923
|
"emohaa": {
|
909
924
|
"description": "Emohaaは心理モデルで、専門的な相談能力を持ち、ユーザーが感情問題を理解するのを助けます。"
|
910
925
|
},
|
@@ -1268,6 +1283,9 @@
|
|
1268
1283
|
"gpt-4o-mini": {
|
1269
1284
|
"description": "GPT-4o miniは、OpenAIがGPT-4 Omniの後に発表した最新のモデルで、画像とテキストの入力をサポートし、テキストを出力します。最先端の小型モデルとして、最近の他の先進モデルよりもはるかに安価で、GPT-3.5 Turboよりも60%以上安価です。最先端の知能を維持しつつ、コストパフォーマンスが大幅に向上しています。GPT-4o miniはMMLUテストで82%のスコアを獲得し、現在チャットの好みではGPT-4よりも高い評価を得ています。"
|
1270
1285
|
},
|
1286
|
+
"gpt-4o-mini-audio-preview": {
|
1287
|
+
"description": "GPT-4o mini Audio モデルは音声の入力と出力に対応しています。"
|
1288
|
+
},
|
1271
1289
|
"gpt-4o-mini-realtime-preview": {
|
1272
1290
|
"description": "GPT-4o-miniリアルタイムバージョン、音声とテキストのリアルタイム入力と出力をサポート"
|
1273
1291
|
},
|
@@ -1421,6 +1439,9 @@
|
|
1421
1439
|
"kimi-latest": {
|
1422
1440
|
"description": "Kimi スマートアシスタント製品は最新の Kimi 大モデルを使用しており、まだ安定していない機能が含まれている可能性があります。画像理解をサポートし、リクエストのコンテキストの長さに応じて 8k/32k/128k モデルを請求モデルとして自動的に選択します。"
|
1423
1441
|
},
|
1442
|
+
"kimi-thinking-preview": {
|
1443
|
+
"description": "kimi-thinking-preview モデルは月の裏側が提供するマルチモーダル推論能力と汎用推論能力を備えたマルチモーダル思考モデルで、深い推論に優れ、より多くの難しい課題の解決を支援します。"
|
1444
|
+
},
|
1424
1445
|
"learnlm-1.5-pro-experimental": {
|
1425
1446
|
"description": "LearnLMは、学習科学の原則に従って訓練された実験的なタスク特化型言語モデルで、教育や学習のシーンでシステムの指示に従い、専門的なメンターとして機能します。"
|
1426
1447
|
},
|
@@ -1823,12 +1844,18 @@
|
|
1823
1844
|
"o1-preview": {
|
1824
1845
|
"description": "o1はOpenAIの新しい推論モデルで、広範な一般知識を必要とする複雑なタスクに適しています。このモデルは128Kのコンテキストを持ち、2023年10月の知識のカットオフがあります。"
|
1825
1846
|
},
|
1847
|
+
"o1-pro": {
|
1848
|
+
"description": "o1 シリーズモデルは強化学習で訓練されており、回答前に思考を行い、複雑な推論タスクを実行できます。o1-pro モデルはより多くの計算資源を使用してより深い思考を行い、継続的に高品質な回答を提供します。"
|
1849
|
+
},
|
1826
1850
|
"o3": {
|
1827
1851
|
"description": "o3は全能で強力なモデルで、複数の分野で優れたパフォーマンスを発揮します。数学、科学、プログラミング、視覚推論タスクの新たな基準を設定しました。また、技術的な執筆や指示の遵守にも優れています。ユーザーはこれを利用して、テキスト、コード、画像を分析し、複雑な多段階の問題を解決できます。"
|
1828
1852
|
},
|
1829
1853
|
"o3-mini": {
|
1830
1854
|
"description": "o3-miniは、o1-miniと同じコストと遅延目標で高い知能を提供する最新の小型推論モデルです。"
|
1831
1855
|
},
|
1856
|
+
"o3-pro": {
|
1857
|
+
"description": "o3-pro モデルはより多くの計算を用いてより深く思考し、常により良い回答を提供します。Responses API のみで使用可能です。"
|
1858
|
+
},
|
1832
1859
|
"o4-mini": {
|
1833
1860
|
"description": "o4-miniは私たちの最新の小型oシリーズモデルです。迅速かつ効果的な推論のために最適化されており、コーディングや視覚タスクで非常に高い効率と性能を発揮します。"
|
1834
1861
|
},
|
@@ -659,6 +659,9 @@
|
|
659
659
|
"codestral-latest": {
|
660
660
|
"description": "Codestral은 코드 생성을 전문으로 하는 최첨단 생성 모델로, 중간 채우기 및 코드 완성 작업을 최적화했습니다."
|
661
661
|
},
|
662
|
+
"codex-mini-latest": {
|
663
|
+
"description": "codex-mini-latest는 o4-mini의 미세 조정 버전으로, Codex CLI 전용입니다. API를 통해 직접 사용하려면 gpt-4.1부터 시작하는 것을 권장합니다."
|
664
|
+
},
|
662
665
|
"cognitivecomputations/dolphin-mixtral-8x22b": {
|
663
666
|
"description": "Dolphin Mixtral 8x22B는 지시 준수, 대화 및 프로그래밍을 위해 설계된 모델입니다."
|
664
667
|
},
|
@@ -716,6 +719,9 @@
|
|
716
719
|
"compound-beta-mini": {
|
717
720
|
"description": "Compound-beta-mini는 GroqCloud에서 지원하는 공개 가능한 모델로 구성된 복합 AI 시스템으로, 사용자의 쿼리에 답변하기 위해 도구를 지능적으로 선택적으로 사용할 수 있습니다."
|
718
721
|
},
|
722
|
+
"computer-use-preview": {
|
723
|
+
"description": "computer-use-preview 모델은 '컴퓨터 사용 도구'를 위해 특별히 설계된 전용 모델로, 컴퓨터 관련 작업을 이해하고 수행하도록 훈련되었습니다."
|
724
|
+
},
|
719
725
|
"dall-e-2": {
|
720
726
|
"description": "2세대 DALL·E 모델로, 더 사실적이고 정확한 이미지 생성을 지원하며, 해상도는 1세대의 4배입니다."
|
721
727
|
},
|
@@ -905,6 +911,15 @@
|
|
905
911
|
"doubao-1.5-vision-lite": {
|
906
912
|
"description": "Doubao-1.5-vision-lite는 새롭게 업그레이드된 다중 모드 대모델로, 임의의 해상도와 극단적인 가로 세로 비율의 이미지 인식을 지원하며, 시각적 추론, 문서 인식, 세부 정보 이해 및 지시 준수 능력을 강화합니다. 128k 문맥 창을 지원하며, 최대 16k 토큰의 출력 길이를 지원합니다."
|
907
913
|
},
|
914
|
+
"doubao-seed-1.6": {
|
915
|
+
"description": "Doubao-Seed-1.6은 완전히 새로워진 다중 모달 심층 사고 모델로, auto/thinking/non-thinking 세 가지 사고 모드를 모두 지원합니다. non-thinking 모드에서 모델 성능은 Doubao-1.5-pro/250115에 비해 크게 향상되었습니다. 256k 컨텍스트 윈도우를 지원하며, 출력 길이는 최대 16k 토큰까지 가능합니다."
|
916
|
+
},
|
917
|
+
"doubao-seed-1.6-flash": {
|
918
|
+
"description": "Doubao-Seed-1.6-flash는 추론 속도가 극대화된 다중 모달 심층 사고 모델로, TPOT가 단 10ms에 불과합니다. 텍스트와 시각 이해를 모두 지원하며, 텍스트 이해 능력은 이전 세대 lite를 능가하고, 시각 이해는 경쟁사 pro 시리즈 모델과 견줄 만합니다. 256k 컨텍스트 윈도우를 지원하며, 출력 길이는 최대 16k 토큰까지 가능합니다."
|
919
|
+
},
|
920
|
+
"doubao-seed-1.6-thinking": {
|
921
|
+
"description": "Doubao-Seed-1.6-thinking 모델은 사고 능력이 크게 강화되어 Doubao-1.5-thinking-pro에 비해 코딩, 수학, 논리 추론 등 기본 능력이 더욱 향상되었으며, 시각 이해를 지원합니다. 256k 컨텍스트 윈도우를 지원하며, 출력 길이는 최대 16k 토큰까지 가능합니다."
|
922
|
+
},
|
908
923
|
"emohaa": {
|
909
924
|
"description": "Emohaa는 심리 모델로, 전문 상담 능력을 갖추고 있어 사용자가 감정 문제를 이해하는 데 도움을 줍니다."
|
910
925
|
},
|
@@ -1268,6 +1283,9 @@
|
|
1268
1283
|
"gpt-4o-mini": {
|
1269
1284
|
"description": "GPT-4o mini는 OpenAI가 GPT-4 Omni 이후에 출시한 최신 모델로, 텍스트와 이미지를 입력받아 텍스트를 출력합니다. 이 모델은 최신의 소형 모델로, 최근의 다른 최첨단 모델보다 훨씬 저렴하며, GPT-3.5 Turbo보다 60% 이상 저렴합니다. 최첨단의 지능을 유지하면서도 뛰어난 가성비를 자랑합니다. GPT-4o mini는 MMLU 테스트에서 82%의 점수를 기록했으며, 현재 채팅 선호도에서 GPT-4보다 높은 순위를 차지하고 있습니다."
|
1270
1285
|
},
|
1286
|
+
"gpt-4o-mini-audio-preview": {
|
1287
|
+
"description": "GPT-4o mini Audio 모델로, 오디오 입력과 출력을 지원합니다."
|
1288
|
+
},
|
1271
1289
|
"gpt-4o-mini-realtime-preview": {
|
1272
1290
|
"description": "GPT-4o-mini 실시간 버전으로, 오디오 및 텍스트의 실시간 입력 및 출력을 지원합니다."
|
1273
1291
|
},
|
@@ -1421,6 +1439,9 @@
|
|
1421
1439
|
"kimi-latest": {
|
1422
1440
|
"description": "Kimi 스마트 어시스턴트 제품은 최신 Kimi 대형 모델을 사용하며, 아직 안정되지 않은 기능이 포함될 수 있습니다. 이미지 이해를 지원하며, 요청의 맥락 길이에 따라 8k/32k/128k 모델을 청구 모델로 자동 선택합니다."
|
1423
1441
|
},
|
1442
|
+
"kimi-thinking-preview": {
|
1443
|
+
"description": "kimi-thinking-preview 모델은 월면의 어두운 면에서 제공하는 다중 모달 추론 능력과 범용 추론 능력을 갖춘 다중 모달 사고 모델로, 심층 추론에 능하며 더 어렵고 복잡한 문제 해결을 돕습니다."
|
1444
|
+
},
|
1424
1445
|
"learnlm-1.5-pro-experimental": {
|
1425
1446
|
"description": "LearnLM은 학습 과학 원칙에 맞춰 훈련된 실험적이고 특정 작업에 특화된 언어 모델로, 교육 및 학습 환경에서 시스템 지침을 따르며 전문가 멘토 역할을 수행합니다."
|
1426
1447
|
},
|
@@ -1823,12 +1844,18 @@
|
|
1823
1844
|
"o1-preview": {
|
1824
1845
|
"description": "o1은 OpenAI의 새로운 추론 모델로, 광범위한 일반 지식이 필요한 복잡한 작업에 적합합니다. 이 모델은 128K의 컨텍스트와 2023년 10월의 지식 기준일을 가지고 있습니다."
|
1825
1846
|
},
|
1847
|
+
"o1-pro": {
|
1848
|
+
"description": "o1 시리즈 모델은 강화 학습을 통해 훈련되어 답변 전에 사고를 수행하고 복잡한 추론 작업을 실행할 수 있습니다. o1-pro 모델은 더 많은 계산 자원을 사용하여 더 깊이 사고함으로써 지속적으로 더 우수한 답변을 제공합니다."
|
1849
|
+
},
|
1826
1850
|
"o3": {
|
1827
1851
|
"description": "o3는 다재다능한 강력한 모델로, 여러 분야에서 뛰어난 성능을 발휘합니다. 수학, 과학, 프로그래밍 및 시각적 추론 작업에서 새로운 기준을 세웠습니다. 기술 작문 및 지시 준수에도 능숙합니다. 사용자는 이를 통해 텍스트, 코드 및 이미지를 분석하고, 다단계 복잡한 문제를 해결할 수 있습니다."
|
1828
1852
|
},
|
1829
1853
|
"o3-mini": {
|
1830
1854
|
"description": "o3-mini는 최신 소형 추론 모델로, o1-mini와 동일한 비용과 지연 목표에서 높은 지능을 제공합니다."
|
1831
1855
|
},
|
1856
|
+
"o3-pro": {
|
1857
|
+
"description": "o3-pro 모델은 더 많은 계산을 사용하여 더 깊이 사고하고 항상 더 나은 답변을 제공하며, Responses API에서만 사용할 수 있습니다."
|
1858
|
+
},
|
1832
1859
|
"o4-mini": {
|
1833
1860
|
"description": "o4-mini는 최신 소형 o 시리즈 모델로, 빠르고 효율적인 추론을 위해 최적화되어 있으며, 코딩 및 시각적 작업에서 매우 높은 효율성과 성능을 자랑합니다."
|
1834
1861
|
},
|
@@ -659,6 +659,9 @@
|
|
659
659
|
"codestral-latest": {
|
660
660
|
"description": "Codestral is een geavanceerd generatief model dat zich richt op codegeneratie, geoptimaliseerd voor tussentijdse invulling en code-aanvultaken."
|
661
661
|
},
|
662
|
+
"codex-mini-latest": {
|
663
|
+
"description": "codex-mini-latest is een verfijnde versie van o4-mini, speciaal ontworpen voor Codex CLI. Voor direct gebruik via de API raden we aan te beginnen met gpt-4.1."
|
664
|
+
},
|
662
665
|
"cognitivecomputations/dolphin-mixtral-8x22b": {
|
663
666
|
"description": "Dolphin Mixtral 8x22B is een model ontworpen voor instructievolging, gesprekken en programmeren."
|
664
667
|
},
|
@@ -716,6 +719,9 @@
|
|
716
719
|
"compound-beta-mini": {
|
717
720
|
"description": "Compound-beta-mini is een samengesteld AI-systeem dat wordt ondersteund door open beschikbare modellen in GroqCloud, en kan intelligent en selectief tools gebruiken om gebruikersvragen te beantwoorden."
|
718
721
|
},
|
722
|
+
"computer-use-preview": {
|
723
|
+
"description": "Het computer-use-preview model is een speciaal model ontworpen voor 'computergebruiktools', getraind om computergerelateerde taken te begrijpen en uit te voeren."
|
724
|
+
},
|
719
725
|
"dall-e-2": {
|
720
726
|
"description": "De tweede generatie DALL·E model, ondersteunt realistischere en nauwkeurigere beeldgeneratie, met een resolutie die vier keer zo hoog is als die van de eerste generatie."
|
721
727
|
},
|
@@ -905,6 +911,15 @@
|
|
905
911
|
"doubao-1.5-vision-lite": {
|
906
912
|
"description": "Doubao-1.5-vision-lite is een nieuw geüpgradede multimodale groot model, dat ondersteuning biedt voor beeldherkenning met willekeurige resoluties en extreme beeldverhoudingen, en de visuele redenering, documentherkenning, begrip van gedetailleerde informatie en het volgen van instructies verbetert. Ondersteunt een contextvenster van 128k en een maximale outputlengte van 16k tokens."
|
907
913
|
},
|
914
|
+
"doubao-seed-1.6": {
|
915
|
+
"description": "Doubao-Seed-1.6 is een gloednieuw multimodaal diepdenkend model dat drie denkwijzen ondersteunt: auto, thinking en non-thinking. In de non-thinking modus is de modelprestatie aanzienlijk verbeterd ten opzichte van Doubao-1.5-pro/250115. Ondersteunt een contextvenster van 256k en een maximale uitvoerlengte van 16k tokens."
|
916
|
+
},
|
917
|
+
"doubao-seed-1.6-flash": {
|
918
|
+
"description": "Doubao-Seed-1.6-flash is een multimodaal diepdenkend model met extreem snelle inferentiesnelheid, TPOT slechts 10ms; ondersteunt zowel tekst- als visueel begrip, met tekstbegrip dat beter is dan de vorige lite-generatie en visueel begrip dat vergelijkbaar is met concurrerende pro-serie modellen. Ondersteunt een contextvenster van 256k en een maximale uitvoerlengte van 16k tokens."
|
919
|
+
},
|
920
|
+
"doubao-seed-1.6-thinking": {
|
921
|
+
"description": "Doubao-Seed-1.6-thinking model heeft sterk verbeterde denkvermogens. Vergeleken met Doubao-1.5-thinking-pro zijn de basisvaardigheden in coderen, wiskunde en logisch redeneren verder verbeterd, met ondersteuning voor visueel begrip. Ondersteunt een contextvenster van 256k en een maximale uitvoerlengte van 16k tokens."
|
922
|
+
},
|
908
923
|
"emohaa": {
|
909
924
|
"description": "Emohaa is een psychologisch model met professionele adviescapaciteiten, dat gebruikers helpt emotionele problemen te begrijpen."
|
910
925
|
},
|
@@ -1268,6 +1283,9 @@
|
|
1268
1283
|
"gpt-4o-mini": {
|
1269
1284
|
"description": "GPT-4o mini is het nieuwste model van OpenAI, gelanceerd na GPT-4 Omni, en ondersteunt zowel tekst- als beeldinvoer met tekstuitvoer. Als hun meest geavanceerde kleine model is het veel goedkoper dan andere recente toonaangevende modellen en meer dan 60% goedkoper dan GPT-3.5 Turbo. Het behoudt de meest geavanceerde intelligentie met een aanzienlijke prijs-kwaliteitverhouding. GPT-4o mini behaalde 82% op de MMLU-test en staat momenteel hoger in chatvoorkeuren dan GPT-4."
|
1270
1285
|
},
|
1286
|
+
"gpt-4o-mini-audio-preview": {
|
1287
|
+
"description": "GPT-4o mini Audio model, ondersteunt audio-invoer en -uitvoer."
|
1288
|
+
},
|
1271
1289
|
"gpt-4o-mini-realtime-preview": {
|
1272
1290
|
"description": "GPT-4o-mini realtime versie, ondersteunt audio en tekst realtime invoer en uitvoer."
|
1273
1291
|
},
|
@@ -1421,6 +1439,9 @@
|
|
1421
1439
|
"kimi-latest": {
|
1422
1440
|
"description": "Kimi slimme assistent product maakt gebruik van het nieuwste Kimi grote model, dat mogelijk nog niet stabiele functies bevat. Ondersteunt beeldbegrip en kiest automatisch het 8k/32k/128k model als factureringsmodel op basis van de lengte van de context van het verzoek."
|
1423
1441
|
},
|
1442
|
+
"kimi-thinking-preview": {
|
1443
|
+
"description": "kimi-thinking-preview model is een multimodaal denkmodel met multimodale en algemene redeneervaardigheden, aangeboden door de donkere zijde van de maan. Het blinkt uit in diep redeneren en helpt bij het oplossen van complexere problemen."
|
1444
|
+
},
|
1424
1445
|
"learnlm-1.5-pro-experimental": {
|
1425
1446
|
"description": "LearnLM is een experimenteel, taak-specifiek taalmodel dat is getraind volgens de principes van de leerwetenschap, en kan systeeminstructies volgen in onderwijs- en leeromgevingen, en fungeert als een expertmentor."
|
1426
1447
|
},
|
@@ -1823,12 +1844,18 @@
|
|
1823
1844
|
"o1-preview": {
|
1824
1845
|
"description": "o1 is het nieuwe redeneermodel van OpenAI, geschikt voor complexe taken die uitgebreide algemene kennis vereisen. Dit model heeft een context van 128K en een kennisafkapdatum van oktober 2023."
|
1825
1846
|
},
|
1847
|
+
"o1-pro": {
|
1848
|
+
"description": "De o1-serie modellen zijn getraind met versterkend leren, kunnen nadenken voordat ze antwoorden en complexe redeneertaken uitvoeren. Het o1-pro model gebruikt meer rekenkracht voor diepgaander denken, waardoor het continu betere antwoorden levert."
|
1849
|
+
},
|
1826
1850
|
"o3": {
|
1827
1851
|
"description": "o3 is een veelzijdig en krachtig model dat uitblinkt in verschillende domeinen. Het stelt nieuwe normen voor wiskunde, wetenschap, programmeren en visuele redeneringstaken. Het is ook bedreven in technische schrijfvaardigheid en het volgen van instructies. Gebruikers kunnen het gebruiken om teksten, code en afbeeldingen te analyseren en complexe meerstapsproblemen op te lossen."
|
1828
1852
|
},
|
1829
1853
|
"o3-mini": {
|
1830
1854
|
"description": "o3-mini is ons nieuwste kleine inferentiemodel dat hoge intelligentie biedt met dezelfde kosten- en vertragingdoelen als o1-mini."
|
1831
1855
|
},
|
1856
|
+
"o3-pro": {
|
1857
|
+
"description": "Het o3-pro model gebruikt meer rekenkracht om dieper na te denken en altijd betere antwoorden te bieden, alleen ondersteund onder de Responses API."
|
1858
|
+
},
|
1832
1859
|
"o4-mini": {
|
1833
1860
|
"description": "o4-mini is ons nieuwste compacte model uit de o-serie. Het is geoptimaliseerd voor snelle en efficiënte inferentie, met een hoge efficiëntie en prestaties in codering en visuele taken."
|
1834
1861
|
},
|
@@ -659,6 +659,9 @@
|
|
659
659
|
"codestral-latest": {
|
660
660
|
"description": "Codestral to nowoczesny model generacyjny skoncentrowany na generowaniu kodu, zoptymalizowany do zadań wypełniania i uzupełniania kodu."
|
661
661
|
},
|
662
|
+
"codex-mini-latest": {
|
663
|
+
"description": "codex-mini-latest to wersja dostrojona o4-mini, specjalnie zaprojektowana do Codex CLI. Do bezpośredniego użycia przez API zalecamy rozpoczęcie od gpt-4.1."
|
664
|
+
},
|
662
665
|
"cognitivecomputations/dolphin-mixtral-8x22b": {
|
663
666
|
"description": "Dolphin Mixtral 8x22B to model zaprojektowany do przestrzegania instrukcji, dialogów i programowania."
|
664
667
|
},
|
@@ -716,6 +719,9 @@
|
|
716
719
|
"compound-beta-mini": {
|
717
720
|
"description": "Compound-beta-mini to złożony system AI wspierany przez publicznie dostępne modele w GroqCloud, który inteligentnie i selektywnie wykorzystuje narzędzia do odpowiadania na zapytania użytkowników."
|
718
721
|
},
|
722
|
+
"computer-use-preview": {
|
723
|
+
"description": "Model computer-use-preview to dedykowany model zaprojektowany specjalnie do „narzędzi użycia komputera”, wytrenowany do rozumienia i wykonywania zadań związanych z komputerem."
|
724
|
+
},
|
719
725
|
"dall-e-2": {
|
720
726
|
"description": "Druga generacja modelu DALL·E, obsługująca bardziej realistyczne i dokładne generowanie obrazów, o rozdzielczości czterokrotnie większej niż pierwsza generacja."
|
721
727
|
},
|
@@ -905,6 +911,15 @@
|
|
905
911
|
"doubao-1.5-vision-lite": {
|
906
912
|
"description": "Doubao-1.5-vision-lite to nowo zaktualizowany model multimodalny, który obsługuje rozpoznawanie obrazów o dowolnej rozdzielczości i ekstremalnych proporcjach, wzmacniając zdolności wnioskowania wizualnego, rozpoznawania dokumentów, rozumienia szczegółowych informacji i przestrzegania instrukcji. Obsługuje okno kontekstowe 128k, maksymalna długość wyjścia to 16k tokenów."
|
907
913
|
},
|
914
|
+
"doubao-seed-1.6": {
|
915
|
+
"description": "Doubao-Seed-1.6 to nowy, multimodalny model głębokiego myślenia, obsługujący trzy tryby myślenia: auto, thinking i non-thinking. W trybie non-thinking model osiąga znacznie lepsze wyniki w porównaniu z Doubao-1.5-pro/250115. Obsługuje kontekst do 256k oraz maksymalną długość wyjścia do 16k tokenów."
|
916
|
+
},
|
917
|
+
"doubao-seed-1.6-flash": {
|
918
|
+
"description": "Doubao-Seed-1.6-flash to ultraszybki multimodalny model głębokiego myślenia, z czasem TPOT wynoszącym zaledwie 10 ms; obsługuje zarówno rozumienie tekstu, jak i obrazu, z lepszymi zdolnościami tekstowymi niż poprzednia generacja lite oraz wizualnymi porównywalnymi do modeli pro konkurencji. Obsługuje kontekst do 256k oraz maksymalną długość wyjścia do 16k tokenów."
|
919
|
+
},
|
920
|
+
"doubao-seed-1.6-thinking": {
|
921
|
+
"description": "Model Doubao-Seed-1.6-thinking ma znacznie wzmocnione zdolności myślenia, w porównaniu z Doubao-1.5-thinking-pro osiąga dalsze ulepszenia w podstawowych umiejętnościach takich jak kodowanie, matematyka i rozumowanie logiczne, wspiera również rozumienie wizualne. Obsługuje kontekst do 256k oraz maksymalną długość wyjścia do 16k tokenów."
|
922
|
+
},
|
908
923
|
"emohaa": {
|
909
924
|
"description": "Emohaa to model psychologiczny, posiadający profesjonalne umiejętności doradcze, pomagający użytkownikom zrozumieć problemy emocjonalne."
|
910
925
|
},
|
@@ -1268,6 +1283,9 @@
|
|
1268
1283
|
"gpt-4o-mini": {
|
1269
1284
|
"description": "GPT-4o mini to najnowszy model OpenAI, wprowadzony po GPT-4 Omni, obsługujący wejścia tekstowe i wizualne oraz generujący tekst. Jako ich najnowocześniejszy model w małej skali, jest znacznie tańszy niż inne niedawno wprowadzone modele, a jego cena jest o ponad 60% niższa niż GPT-3.5 Turbo. Utrzymuje najnowocześniejszą inteligencję, jednocześnie oferując znaczną wartość za pieniądze. GPT-4o mini uzyskał wynik 82% w teście MMLU i obecnie zajmuje wyższą pozycję w preferencjach czatu niż GPT-4."
|
1270
1285
|
},
|
1286
|
+
"gpt-4o-mini-audio-preview": {
|
1287
|
+
"description": "Model GPT-4o mini Audio, obsługujący wejście i wyjście audio."
|
1288
|
+
},
|
1271
1289
|
"gpt-4o-mini-realtime-preview": {
|
1272
1290
|
"description": "Wersja na żywo GPT-4o-mini, obsługująca wejście i wyjście audio oraz tekstowe w czasie rzeczywistym."
|
1273
1291
|
},
|
@@ -1421,6 +1439,9 @@
|
|
1421
1439
|
"kimi-latest": {
|
1422
1440
|
"description": "Produkt Kimi Smart Assistant korzysta z najnowszego modelu Kimi, który może zawierać cechy jeszcze niestabilne. Obsługuje zrozumienie obrazów i automatycznie wybiera model 8k/32k/128k jako model rozliczeniowy w zależności od długości kontekstu żądania."
|
1423
1441
|
},
|
1442
|
+
"kimi-thinking-preview": {
|
1443
|
+
"description": "Model kimi-thinking-preview dostarczany przez Moon’s Dark Side to multimodalny model myślenia z umiejętnościami ogólnego i głębokiego rozumowania, który pomaga rozwiązywać bardziej złożone i trudniejsze problemy."
|
1444
|
+
},
|
1424
1445
|
"learnlm-1.5-pro-experimental": {
|
1425
1446
|
"description": "LearnLM to eksperymentalny model językowy, specyficzny dla zadań, przeszkolony zgodnie z zasadami nauki o uczeniu się, który może przestrzegać systemowych instrukcji w scenariuszach nauczania i uczenia się, pełniąc rolę eksperta mentora."
|
1426
1447
|
},
|
@@ -1823,12 +1844,18 @@
|
|
1823
1844
|
"o1-preview": {
|
1824
1845
|
"description": "o1 to nowy model wnioskowania OpenAI, odpowiedni do złożonych zadań wymagających szerokiej wiedzy ogólnej. Model ten ma kontekst 128K i datę graniczną wiedzy z października 2023 roku."
|
1825
1846
|
},
|
1847
|
+
"o1-pro": {
|
1848
|
+
"description": "Modele serii o1 są trenowane z wykorzystaniem uczenia ze wzmocnieniem, potrafią myśleć przed udzieleniem odpowiedzi i wykonywać złożone zadania rozumowania. Model o1-pro wykorzystuje więcej zasobów obliczeniowych do głębszego myślenia, co pozwala na ciągłe dostarczanie lepszych odpowiedzi."
|
1849
|
+
},
|
1826
1850
|
"o3": {
|
1827
1851
|
"description": "o3 to wszechstronny i potężny model, który doskonale sprawdza się w wielu dziedzinach. Ustanawia nowe standardy w zadaniach matematycznych, naukowych, programistycznych i wizualnych. Jest również biegły w pisaniu technicznym i przestrzeganiu instrukcji. Użytkownicy mogą go wykorzystać do analizy tekstów, kodów i obrazów, rozwiązując złożone problemy wieloetapowe."
|
1828
1852
|
},
|
1829
1853
|
"o3-mini": {
|
1830
1854
|
"description": "o3-mini to nasz najnowszy mały model wnioskowania, który oferuje wysoką inteligencję przy tych samych kosztach i celach opóźnienia co o1-mini."
|
1831
1855
|
},
|
1856
|
+
"o3-pro": {
|
1857
|
+
"description": "Model o3-pro wykorzystuje większą moc obliczeniową do głębszego myślenia i zawsze dostarcza lepsze odpowiedzi, jest dostępny wyłącznie przez API Responses."
|
1858
|
+
},
|
1832
1859
|
"o4-mini": {
|
1833
1860
|
"description": "o4-mini to nasz najnowszy mały model z serii o. Został zoptymalizowany do szybkiego i efektywnego wnioskowania, osiągając wysoką wydajność i efektywność w zadaniach kodowania i wizualnych."
|
1834
1861
|
},
|
@@ -659,6 +659,9 @@
|
|
659
659
|
"codestral-latest": {
|
660
660
|
"description": "Codestral é um modelo gerador de ponta focado em geração de código, otimizado para preenchimento intermediário e tarefas de conclusão de código."
|
661
661
|
},
|
662
|
+
"codex-mini-latest": {
|
663
|
+
"description": "codex-mini-latest é uma versão ajustada do o4-mini, especialmente para o Codex CLI. Para uso direto via API, recomendamos começar com o gpt-4.1."
|
664
|
+
},
|
662
665
|
"cognitivecomputations/dolphin-mixtral-8x22b": {
|
663
666
|
"description": "Dolphin Mixtral 8x22B é um modelo projetado para seguir instruções, diálogos e programação."
|
664
667
|
},
|
@@ -716,6 +719,9 @@
|
|
716
719
|
"compound-beta-mini": {
|
717
720
|
"description": "Compound-beta-mini é um sistema de IA composto, suportado por modelos abertos disponíveis no GroqCloud, que pode usar ferramentas de forma inteligente e seletiva para responder a consultas dos usuários."
|
718
721
|
},
|
722
|
+
"computer-use-preview": {
|
723
|
+
"description": "O modelo computer-use-preview é um modelo dedicado projetado para \"ferramentas de uso de computador\", treinado para entender e executar tarefas relacionadas a computadores."
|
724
|
+
},
|
719
725
|
"dall-e-2": {
|
720
726
|
"description": "O segundo modelo DALL·E, suporta geração de imagens mais realistas e precisas, com resolução quatro vezes maior que a da primeira geração."
|
721
727
|
},
|
@@ -905,6 +911,15 @@
|
|
905
911
|
"doubao-1.5-vision-lite": {
|
906
912
|
"description": "Doubao-1.5-vision-lite é um modelo multimodal atualizado, suportando reconhecimento de imagens de qualquer resolução e proporções extremas, melhorando a capacidade de raciocínio visual, reconhecimento de documentos, compreensão de informações detalhadas e seguimento de instruções. Suporta uma janela de contexto de 128k, com comprimento de saída de até 16k tokens."
|
907
913
|
},
|
914
|
+
"doubao-seed-1.6": {
|
915
|
+
"description": "Doubao-Seed-1.6 é um novo modelo multimodal de pensamento profundo, suportando três modos de pensamento: auto, thinking e non-thinking. No modo non-thinking, o desempenho do modelo melhora significativamente em comparação com Doubao-1.5-pro/250115. Suporta janela de contexto de 256k e comprimento máximo de saída de 16k tokens."
|
916
|
+
},
|
917
|
+
"doubao-seed-1.6-flash": {
|
918
|
+
"description": "Doubao-Seed-1.6-flash é um modelo multimodal de pensamento profundo com velocidade de inferência extrema, TPOT de apenas 10ms; suporta compreensão de texto e visual, com capacidade de compreensão textual superior à geração lite anterior e compreensão visual comparável aos modelos pro da concorrência. Suporta janela de contexto de 256k e comprimento máximo de saída de 16k tokens."
|
919
|
+
},
|
920
|
+
"doubao-seed-1.6-thinking": {
|
921
|
+
"description": "O modelo Doubao-Seed-1.6-thinking tem capacidade de pensamento significativamente reforçada, melhorando ainda mais as habilidades básicas em Coding, Matemática e raciocínio lógico em comparação com Doubao-1.5-thinking-pro, além de suportar compreensão visual. Suporta janela de contexto de 256k e comprimento máximo de saída de 16k tokens."
|
922
|
+
},
|
908
923
|
"emohaa": {
|
909
924
|
"description": "O Emohaa é um modelo psicológico com capacidade de consultoria profissional, ajudando os usuários a entender questões emocionais."
|
910
925
|
},
|
@@ -1268,6 +1283,9 @@
|
|
1268
1283
|
"gpt-4o-mini": {
|
1269
1284
|
"description": "O GPT-4o mini é o mais recente modelo lançado pela OpenAI após o GPT-4 Omni, suportando entrada de texto e imagem e gerando texto como saída. Como seu modelo compacto mais avançado, ele é muito mais acessível do que outros modelos de ponta recentes, custando mais de 60% menos que o GPT-3.5 Turbo. Ele mantém uma inteligência de ponta, ao mesmo tempo que oferece um custo-benefício significativo. O GPT-4o mini obteve uma pontuação de 82% no teste MMLU e atualmente está classificado acima do GPT-4 em preferências de chat."
|
1270
1285
|
},
|
1286
|
+
"gpt-4o-mini-audio-preview": {
|
1287
|
+
"description": "Modelo GPT-4o mini Audio, suporta entrada e saída de áudio."
|
1288
|
+
},
|
1271
1289
|
"gpt-4o-mini-realtime-preview": {
|
1272
1290
|
"description": "Versão em tempo real do GPT-4o-mini, suporta entrada e saída de áudio e texto em tempo real."
|
1273
1291
|
},
|
@@ -1421,6 +1439,9 @@
|
|
1421
1439
|
"kimi-latest": {
|
1422
1440
|
"description": "O produto assistente inteligente Kimi utiliza o mais recente modelo Kimi, que pode conter recursos ainda não estáveis. Suporta compreensão de imagens e seleciona automaticamente o modelo de cobrança de 8k/32k/128k com base no comprimento do contexto da solicitação."
|
1423
1441
|
},
|
1442
|
+
"kimi-thinking-preview": {
|
1443
|
+
"description": "O modelo kimi-thinking-preview, fornecido pela Face Oculta da Lua, é um modelo multimodal de pensamento com capacidades de raciocínio multimodal e geral, especializado em raciocínio profundo para ajudar a resolver problemas mais complexos."
|
1444
|
+
},
|
1424
1445
|
"learnlm-1.5-pro-experimental": {
|
1425
1446
|
"description": "LearnLM é um modelo de linguagem experimental e específico para tarefas, treinado para atender aos princípios da ciência da aprendizagem, podendo seguir instruções sistemáticas em cenários de ensino e aprendizagem, atuando como um mentor especialista, entre outros."
|
1426
1447
|
},
|
@@ -1823,12 +1844,18 @@
|
|
1823
1844
|
"o1-preview": {
|
1824
1845
|
"description": "o1 é o novo modelo de raciocínio da OpenAI, adequado para tarefas complexas que exigem amplo conhecimento geral. Este modelo possui um contexto de 128K e uma data limite de conhecimento em outubro de 2023."
|
1825
1846
|
},
|
1847
|
+
"o1-pro": {
|
1848
|
+
"description": "A série de modelos o1 é treinada com aprendizado por reforço, capaz de pensar antes de responder e executar tarefas complexas de raciocínio. O modelo o1-pro utiliza mais recursos computacionais para um pensamento mais profundo, oferecendo respostas de qualidade superior de forma contínua."
|
1849
|
+
},
|
1826
1850
|
"o3": {
|
1827
1851
|
"description": "o3 é um modelo versátil e poderoso, com excelente desempenho em várias áreas. Ele estabelece novos padrões para tarefas de matemática, ciência, programação e raciocínio visual. Também é bom em redação técnica e seguimento de instruções. Os usuários podem utilizá-lo para analisar textos, códigos e imagens, resolvendo problemas complexos em múltiplas etapas."
|
1828
1852
|
},
|
1829
1853
|
"o3-mini": {
|
1830
1854
|
"description": "o3-mini é nosso mais recente modelo de inferência em miniatura, oferecendo alta inteligência com os mesmos custos e metas de latência que o o1-mini."
|
1831
1855
|
},
|
1856
|
+
"o3-pro": {
|
1857
|
+
"description": "O modelo o3-pro utiliza mais computação para pensar mais profundamente e sempre fornecer melhores respostas, suportado apenas para uso via Responses API."
|
1858
|
+
},
|
1832
1859
|
"o4-mini": {
|
1833
1860
|
"description": "o4-mini é nosso mais recente modelo compacto da série o. Ele é otimizado para inferência rápida e eficaz, apresentando alta eficiência e desempenho em tarefas de codificação e visuais."
|
1834
1861
|
},
|
@@ -659,6 +659,9 @@
|
|
659
659
|
"codestral-latest": {
|
660
660
|
"description": "Codestral — это передовая генеративная модель, сосредоточенная на генерации кода, оптимизированная для промежуточного заполнения и задач дополнения кода."
|
661
661
|
},
|
662
|
+
"codex-mini-latest": {
|
663
|
+
"description": "codex-mini-latest — это доработанная версия o4-mini, специально предназначенная для Codex CLI. Для прямого использования через API мы рекомендуем начинать с gpt-4.1."
|
664
|
+
},
|
662
665
|
"cognitivecomputations/dolphin-mixtral-8x22b": {
|
663
666
|
"description": "Dolphin Mixtral 8x22B — это модель, разработанная для соблюдения инструкций, диалогов и программирования."
|
664
667
|
},
|
@@ -716,6 +719,9 @@
|
|
716
719
|
"compound-beta-mini": {
|
717
720
|
"description": "Compound-beta-mini — это комплексная AI-система, поддерживаемая открытыми доступными моделями в GroqCloud, которая может интеллектуально и выборочно использовать инструменты для ответа на запросы пользователей."
|
718
721
|
},
|
722
|
+
"computer-use-preview": {
|
723
|
+
"description": "Модель computer-use-preview специально разработана для «инструментов использования компьютера» и обучена понимать и выполнять задачи, связанные с компьютером."
|
724
|
+
},
|
719
725
|
"dall-e-2": {
|
720
726
|
"description": "Вторая генерация модели DALL·E, поддерживающая более реалистичную и точную генерацию изображений с разрешением в 4 раза выше, чем у первой генерации."
|
721
727
|
},
|
@@ -905,6 +911,15 @@
|
|
905
911
|
"doubao-1.5-vision-lite": {
|
906
912
|
"description": "Doubao-1.5-vision-lite — это новая усовершенствованная мультимодальная модель, поддерживающая распознавание изображений с любым разрешением и экстремальным соотношением сторон, улучшая способности к визуальному выводу, распознаванию документов, пониманию детальной информации и соблюдению инструкций. Поддерживает контекстное окно 128k, максимальная длина вывода составляет 16k токенов."
|
907
913
|
},
|
914
|
+
"doubao-seed-1.6": {
|
915
|
+
"description": "Doubao-Seed-1.6 — новая мультимодальная модель глубокого мышления, поддерживающая три режима мышления: auto, thinking и non-thinking. В режиме non-thinking производительность модели значительно выше по сравнению с Doubao-1.5-pro/250115. Поддерживает контекстное окно до 256k и максимальную длину вывода до 16k токенов."
|
916
|
+
},
|
917
|
+
"doubao-seed-1.6-flash": {
|
918
|
+
"description": "Doubao-Seed-1.6-flash — мультимодальная модель глубокого мышления с предельной скоростью вывода, TPOT занимает всего 10 мс; поддерживает понимание текста и визуальных данных, текстовое понимание превосходит предыдущую lite-версию, визуальное понимание сопоставимо с pro-серией конкурентов. Поддерживает контекстное окно до 256k и максимальную длину вывода до 16k токенов."
|
919
|
+
},
|
920
|
+
"doubao-seed-1.6-thinking": {
|
921
|
+
"description": "Модель Doubao-Seed-1.6-thinking значительно усилена в способности к мышлению, по сравнению с Doubao-1.5-thinking-pro улучшены базовые навыки в программировании, математике и логическом рассуждении, поддерживает визуальное понимание. Поддерживает контекстное окно до 256k и максимальную длину вывода до 16k токенов."
|
922
|
+
},
|
908
923
|
"emohaa": {
|
909
924
|
"description": "Emohaa — это психологическая модель, обладающая профессиональными консультационными способностями, помогающая пользователям понимать эмоциональные проблемы."
|
910
925
|
},
|
@@ -1268,6 +1283,9 @@
|
|
1268
1283
|
"gpt-4o-mini": {
|
1269
1284
|
"description": "GPT-4o mini — это последняя модель, выпущенная OpenAI после GPT-4 Omni, поддерживающая ввод изображений и текстов с выводом текста. Как их самый продвинутый компактный модель, она значительно дешевле других недавних передовых моделей и более чем на 60% дешевле GPT-3.5 Turbo. Она сохраняет передовой уровень интеллекта при значительном соотношении цена-качество. GPT-4o mini набрала 82% на тесте MMLU и в настоящее время занимает более высокое место в предпочтениях чата по сравнению с GPT-4."
|
1270
1285
|
},
|
1286
|
+
"gpt-4o-mini-audio-preview": {
|
1287
|
+
"description": "Модель GPT-4o mini Audio поддерживает ввод и вывод аудио."
|
1288
|
+
},
|
1271
1289
|
"gpt-4o-mini-realtime-preview": {
|
1272
1290
|
"description": "Реальная версия GPT-4o-mini, поддерживающая аудио и текстовый ввод и вывод в реальном времени."
|
1273
1291
|
},
|
@@ -1421,6 +1439,9 @@
|
|
1421
1439
|
"kimi-latest": {
|
1422
1440
|
"description": "Продукт Kimi Smart Assistant использует последнюю модель Kimi, которая может содержать нестабильные функции. Поддерживает понимание изображений и автоматически выбирает модель 8k/32k/128k в качестве модели для выставления счетов в зависимости от длины контекста запроса."
|
1423
1441
|
},
|
1442
|
+
"kimi-thinking-preview": {
|
1443
|
+
"description": "Модель kimi-thinking-preview от Moon’s Dark Side — мультимодальная модель мышления с возможностями универсального и глубокого рассуждения, помогает решать более сложные задачи."
|
1444
|
+
},
|
1424
1445
|
"learnlm-1.5-pro-experimental": {
|
1425
1446
|
"description": "LearnLM — это экспериментальная языковая модель, ориентированная на конкретные задачи, обученная в соответствии с принципами науки о обучении, которая может следовать системным инструкциям в учебных и образовательных сценариях, выступая в роли эксперта-наставника и т.д."
|
1426
1447
|
},
|
@@ -1823,12 +1844,18 @@
|
|
1823
1844
|
"o1-preview": {
|
1824
1845
|
"description": "o1 — это новая модель вывода от OpenAI, подходящая для сложных задач, требующих обширных общих знаний. Модель имеет контекст 128K и срок знания до октября 2023 года."
|
1825
1846
|
},
|
1847
|
+
"o1-pro": {
|
1848
|
+
"description": "Модели серии o1 обучены с использованием обучения с подкреплением, способны размышлять перед ответом и выполнять сложные задачи рассуждения. Модель o1-pro использует больше вычислительных ресурсов для более глубокого мышления, обеспечивая постоянно высокое качество ответов."
|
1849
|
+
},
|
1826
1850
|
"o3": {
|
1827
1851
|
"description": "o3 — это универсальная мощная модель, которая демонстрирует отличные результаты в различных областях. Она устанавливает новые стандарты для задач математики, науки, программирования и визуального вывода. Она также хорошо справляется с техническим письмом и соблюдением инструкций. Пользователи могут использовать ее для анализа текста, кода и изображений, решая сложные многошаговые задачи."
|
1828
1852
|
},
|
1829
1853
|
"o3-mini": {
|
1830
1854
|
"description": "o3-mini — это наша последняя компактная модель вывода, обеспечивающая высокий уровень интеллекта при тех же затратах и задержках, что и o1-mini."
|
1831
1855
|
},
|
1856
|
+
"o3-pro": {
|
1857
|
+
"description": "Модель o3-pro использует больше вычислительных ресурсов для более глубокого мышления и всегда предоставляет лучшие ответы, поддерживается только в Responses API."
|
1858
|
+
},
|
1832
1859
|
"o4-mini": {
|
1833
1860
|
"description": "o4-mini — это наша новейшая компактная модель серии o. Она оптимизирована для быстрого и эффективного вывода, демонстрируя высокую эффективность и производительность в задачах кодирования и визуализации."
|
1834
1861
|
},
|
@@ -659,6 +659,9 @@
|
|
659
659
|
"codestral-latest": {
|
660
660
|
"description": "Codestral, kod üretimine odaklanan son teknoloji bir üretim modelidir, ara doldurma ve kod tamamlama görevlerini optimize etmiştir."
|
661
661
|
},
|
662
|
+
"codex-mini-latest": {
|
663
|
+
"description": "codex-mini-latest, Codex CLI için özel olarak tasarlanmış o4-mini'nin ince ayar versiyonudur. API üzerinden doğrudan kullanım için, gpt-4.1'den başlamanızı öneririz."
|
664
|
+
},
|
662
665
|
"cognitivecomputations/dolphin-mixtral-8x22b": {
|
663
666
|
"description": "Dolphin Mixtral 8x22B, talimat takibi, diyalog ve programlama için tasarlanmış bir modeldir."
|
664
667
|
},
|
@@ -716,6 +719,9 @@
|
|
716
719
|
"compound-beta-mini": {
|
717
720
|
"description": "Compound-beta-mini, GroqCloud'da desteklenen açık kullanılabilir modellerden güç alan bir bileşik AI sistemidir, kullanıcı sorgularını yanıtlamak için araçları akıllıca ve seçici bir şekilde kullanabilir."
|
718
721
|
},
|
722
|
+
"computer-use-preview": {
|
723
|
+
"description": "computer-use-preview modeli, \"Bilgisayar Kullanım Araçları\" için özel olarak tasarlanmış bir modeldir ve bilgisayarla ilgili görevleri anlama ve yerine getirme konusunda eğitilmiştir."
|
724
|
+
},
|
719
725
|
"dall-e-2": {
|
720
726
|
"description": "İkinci nesil DALL·E modeli, daha gerçekçi ve doğru görüntü üretimi destekler, çözünürlüğü birinci neslin 4 katıdır."
|
721
727
|
},
|
@@ -905,6 +911,15 @@
|
|
905
911
|
"doubao-1.5-vision-lite": {
|
906
912
|
"description": "Doubao-1.5-vision-lite, yeni güncellenmiş çok modlu büyük modeldir, herhangi bir çözünürlük ve aşırı en-boy oranı görüntü tanıma desteği sunar, görsel çıkarım, belge tanıma, detay bilgisi anlama ve talimat takibi yeteneklerini artırır. 128k bağlam penceresi destekler, çıktı uzunluğu maksimum 16k token destekler."
|
907
913
|
},
|
914
|
+
"doubao-seed-1.6": {
|
915
|
+
"description": "Doubao-Seed-1.6, auto/thinking/non-thinking olmak üzere üç düşünme modunu destekleyen tamamen yeni çok modlu derin düşünme modelidir. Non-thinking modunda, model performansı Doubao-1.5-pro/250115'e kıyasla büyük ölçüde artmıştır. 256k bağlam penceresini destekler ve çıktı uzunluğu maksimum 16k token olabilir."
|
916
|
+
},
|
917
|
+
"doubao-seed-1.6-flash": {
|
918
|
+
"description": "Doubao-Seed-1.6-flash, TPOT sadece 10ms olan son derece hızlı çok modlu derin düşünme modelidir; hem metin hem de görsel anlayışı destekler, metin anlama yeteneği önceki lite neslini aşar, görsel anlama ise rakiplerin pro serisi modelleriyle eşdeğerdir. 256k bağlam penceresini destekler ve çıktı uzunluğu maksimum 16k token olabilir."
|
919
|
+
},
|
920
|
+
"doubao-seed-1.6-thinking": {
|
921
|
+
"description": "Doubao-Seed-1.6-thinking modeli düşünme yeteneğinde büyük gelişme göstermiştir; Doubao-1.5-thinking-pro ile karşılaştırıldığında Kodlama, Matematik ve mantıksal akıl yürütme gibi temel yeteneklerde daha da iyileşmiştir ve görsel anlayışı destekler. 256k bağlam penceresini destekler ve çıktı uzunluğu maksimum 16k token olabilir."
|
922
|
+
},
|
908
923
|
"emohaa": {
|
909
924
|
"description": "Emohaa, duygusal sorunları anlamalarına yardımcı olmak için profesyonel danışmanlık yeteneklerine sahip bir psikolojik modeldir."
|
910
925
|
},
|
@@ -1268,6 +1283,9 @@
|
|
1268
1283
|
"gpt-4o-mini": {
|
1269
1284
|
"description": "GPT-4o mini, OpenAI'nin GPT-4 Omni'den sonra tanıttığı en yeni modeldir. Görsel ve metin girişi destekler ve metin çıktısı verir. En gelişmiş küçük model olarak, diğer son zamanlardaki öncü modellere göre çok daha ucuzdur ve GPT-3.5 Turbo'dan %60'tan fazla daha ucuzdur. En son teknolojiyi korurken, önemli bir maliyet etkinliği sunar. GPT-4o mini, MMLU testinde %82 puan almış olup, şu anda sohbet tercihleri açısından GPT-4'ün üzerinde yer almaktadır."
|
1270
1285
|
},
|
1286
|
+
"gpt-4o-mini-audio-preview": {
|
1287
|
+
"description": "GPT-4o mini Ses modeli, ses giriş ve çıkışını destekler."
|
1288
|
+
},
|
1271
1289
|
"gpt-4o-mini-realtime-preview": {
|
1272
1290
|
"description": "GPT-4o-mini gerçek zamanlı versiyonu, ses ve metin için gerçek zamanlı giriş ve çıkış desteği sunar."
|
1273
1291
|
},
|
@@ -1421,6 +1439,9 @@
|
|
1421
1439
|
"kimi-latest": {
|
1422
1440
|
"description": "Kimi akıllı asistan ürünü, en son Kimi büyük modelini kullanır ve henüz kararlı olmayan özellikler içerebilir. Görüntü anlayışını desteklerken, isteğin bağlam uzunluğuna göre 8k/32k/128k modelini faturalama modeli olarak otomatik olarak seçecektir."
|
1423
1441
|
},
|
1442
|
+
"kimi-thinking-preview": {
|
1443
|
+
"description": "kimi-thinking-preview modeli, Ay'ın karanlık yüzü tarafından sunulan çok modlu akıl yürütme ve genel akıl yürütme yeteneklerine sahip çok modlu düşünme modelidir; derin akıl yürütmede uzmandır ve daha zor sorunların çözümüne yardımcı olur."
|
1444
|
+
},
|
1424
1445
|
"learnlm-1.5-pro-experimental": {
|
1425
1446
|
"description": "LearnLM, öğrenme bilimleri ilkelerine uygun olarak eğitilmiş, görev odaklı deneysel bir dil modelidir. Eğitim ve öğrenim senaryolarında sistem talimatlarını takip edebilir ve uzman bir mentor olarak görev alabilir."
|
1426
1447
|
},
|
@@ -1823,12 +1844,18 @@
|
|
1823
1844
|
"o1-preview": {
|
1824
1845
|
"description": "o1, OpenAI'nin geniş genel bilgiye ihtiyaç duyan karmaşık görevler için uygun yeni bir akıl yürütme modelidir. Bu model, 128K bağlam ve Ekim 2023 bilgi kesim tarihi ile donatılmıştır."
|
1825
1846
|
},
|
1847
|
+
"o1-pro": {
|
1848
|
+
"description": "o1 serisi modeller, güçlendirilmiş öğrenme ile eğitilmiş olup, yanıtlamadan önce düşünme yapabilir ve karmaşık akıl yürütme görevlerini yerine getirebilir. o1-pro modeli, daha derin düşünme için daha fazla hesaplama kaynağı kullanır ve böylece sürekli olarak daha kaliteli yanıtlar sunar."
|
1849
|
+
},
|
1826
1850
|
"o3": {
|
1827
1851
|
"description": "o3, çok çeşitli alanlarda mükemmel performans gösteren çok yönlü güçlü bir modeldir. Matematik, bilim, programlama ve görsel çıkarım görevlerinde yeni standartlar belirler. Ayrıca teknik yazım ve talimat takibi konusunda da uzmandır. Kullanıcılar, metin, kod ve görüntüleri analiz ederek çok adımlı karmaşık sorunları çözebilir."
|
1828
1852
|
},
|
1829
1853
|
"o3-mini": {
|
1830
1854
|
"description": "o3-mini, aynı maliyet ve gecikme hedefleriyle yüksek zeka sunan en yeni küçük ölçekli çıkarım modelimizdir."
|
1831
1855
|
},
|
1856
|
+
"o3-pro": {
|
1857
|
+
"description": "o3-pro modeli, daha derin düşünmek ve her zaman daha iyi yanıtlar sunmak için daha fazla hesaplama kullanır; yalnızca Responses API altında kullanılabilir."
|
1858
|
+
},
|
1832
1859
|
"o4-mini": {
|
1833
1860
|
"description": "o4-mini, en yeni küçük o serisi modelimizdir. Hızlı ve etkili çıkarım için optimize edilmiştir ve kodlama ile görsel görevlerde son derece yüksek verimlilik ve performans sergiler."
|
1834
1861
|
},
|