@lobehub/chat 1.22.15 → 1.22.17

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
@@ -47,8 +47,8 @@
47
47
  "ERNIE-4.0-8K-Preview": {
48
48
  "description": "바이두가 자체 개발한 플래그십 초대규모 언어 모델로, ERNIE 3.5에 비해 모델 능력이 전면적으로 업그레이드되었으며, 다양한 분야의 복잡한 작업 시나리오에 널리 적용됩니다. 자동으로 바이두 검색 플러그인과 연결되어 질문 응답 정보의 시의성을 보장합니다."
49
49
  },
50
- "ERNIE-4.0-Turbo-8K": {
51
- "description": "바이두가 자체 개발한 플래그십 초대규모 언어 모델로, 종합적인 성능이 뛰어나며, 다양한 분야의 복잡한 작업 시나리오에 널리 적용됩니다. 자동으로 바이두 검색 플러그인과 연결되어 질문 응답 정보의 시의성을 보장합니다. ERNIE 4.0에 비해 성능이 더욱 우수합니다."
50
+ "ERNIE-4.0-Turbo-8K-Latest": {
51
+ "description": "바이두가 개발한 플래그십 대규모 언어 모델로, 다양한 분야의 복잡한 작업 환경에서 뛰어난 종합 효과를 보여줍니다. 바이두 검색 플러그인 자동 연결을 지원하여 질문과 답변 정보의 시의성을 보장합니다. ERNIE 4.0에 비해 성능이 더욱 우수합니다."
52
52
  },
53
53
  "ERNIE-4.0-Turbo-8K-Preview": {
54
54
  "description": "바이두가 자체 개발한 플래그십 초대규모 언어 모델로, 종합적인 성능이 뛰어나며, 다양한 분야의 복잡한 작업 시나리오에 널리 적용됩니다. 자동으로 바이두 검색 플러그인과 연결되어 질문 응답 정보의 시의성을 보장합니다. ERNIE 4.0에 비해 성능이 더욱 우수합니다."
@@ -80,8 +80,11 @@
80
80
  "NousResearch/Nous-Hermes-2-Yi-34B": {
81
81
  "description": "Nous Hermes-2 Yi (34B)는 최적화된 언어 출력과 다양한 응용 가능성을 제공합니다."
82
82
  },
83
- "Phi-3-5-mini-instruct": {
84
- "description": "Phi-3-mini 모델의 새로 고침 버전입니다."
83
+ "OpenGVLab/InternVL2-26B": {
84
+ "description": "InternVL2는 문서 차트 이해, 장면 텍스트 이해, OCR, 과학 및 수학 문제 해결을 포함한 다양한 시각 언어 작업에서 뛰어난 성능을 보여줍니다."
85
+ },
86
+ "OpenGVLab/InternVL2-Llama3-76B": {
87
+ "description": "InternVL2는 문서 및 차트 이해, 장면 텍스트 이해, OCR, 과학 및 수학 문제 해결을 포함한 다양한 시각 언어 작업에서 뛰어난 성능을 보여줍니다."
85
88
  },
86
89
  "Phi-3-medium-128k-instruct": {
87
90
  "description": "같은 Phi-3-medium 모델이지만 RAG 또는 몇 가지 샷 프롬프트를 위한 더 큰 컨텍스트 크기를 가지고 있습니다."
@@ -101,9 +104,21 @@
101
104
  "Phi-3-small-8k-instruct": {
102
105
  "description": "7B 매개변수 모델로, Phi-3-mini보다 더 나은 품질을 제공하며, 고품질의 추론 밀집 데이터에 중점을 두고 있습니다."
103
106
  },
107
+ "Phi-3.5-mini-instruct": {
108
+ "description": "Phi-3-mini 모델의 업데이트된 버전입니다."
109
+ },
110
+ "Phi-3.5-vision-instrust": {
111
+ "description": "Phi-3-vision 모델의 업데이트된 버전입니다."
112
+ },
104
113
  "Pro-128k": {
105
114
  "description": "Spark Pro-128K는 초대형 컨텍스트 처리 능력을 갖추고 있으며, 최대 128K의 컨텍스트 정보를 처리할 수 있어, 특히 전체 분석 및 장기 논리 연관 처리가 필요한 긴 문서 콘텐츠에 적합합니다. 복잡한 텍스트 커뮤니케이션에서 매끄럽고 일관된 논리와 다양한 인용 지원을 제공합니다."
106
115
  },
116
+ "Pro/OpenGVLab/InternVL2-8B": {
117
+ "description": "InternVL2는 문서 및 차트 이해, 장면 텍스트 이해, OCR, 과학 및 수학 문제 해결을 포함한 다양한 시각 언어 작업에서 뛰어난 성능을 보여줍니다."
118
+ },
119
+ "Pro/Qwen/Qwen2-VL-7B-Instruct": {
120
+ "description": "Qwen2-VL은 Qwen-VL 모델의 최신 반복 버전으로, 시각 이해 기준 테스트에서 최첨단 성능을 달성했습니다."
121
+ },
107
122
  "Qwen/Qwen1.5-110B-Chat": {
108
123
  "description": "Qwen2의 테스트 버전인 Qwen1.5는 대규모 데이터를 사용하여 더 정밀한 대화 기능을 구현하였습니다."
109
124
  },
@@ -113,18 +128,27 @@
113
128
  "Qwen/Qwen2-72B-Instruct": {
114
129
  "description": "Qwen2는 다양한 지시 유형을 지원하는 고급 범용 언어 모델입니다."
115
130
  },
131
+ "Qwen/Qwen2-VL-72B-Instruct": {
132
+ "description": "Qwen2-VL은 Qwen-VL 모델의 최신 반복 버전으로, 시각 이해 기준 테스트에서 최첨단 성능을 달성했습니다."
133
+ },
116
134
  "Qwen/Qwen2.5-14B-Instruct": {
117
135
  "description": "Qwen2.5는 지시형 작업 처리를 최적화하기 위해 설계된 새로운 대형 언어 모델 시리즈입니다."
118
136
  },
119
137
  "Qwen/Qwen2.5-32B-Instruct": {
120
138
  "description": "Qwen2.5는 지시형 작업 처리를 최적화하기 위해 설계된 새로운 대형 언어 모델 시리즈입니다."
121
139
  },
122
- "Qwen/Qwen2.5-72B-Instruct": {
123
- "description": "Qwen2.5는 더 강력한 이해 및 생성 능력을 가진 새로운 대형 언어 모델 시리즈입니다."
140
+ "Qwen/Qwen2.5-72B-Instruct-128K": {
141
+ "description": "Qwen2.5는 더 강력한 이해 및 생성 능력을 갖춘 새로운 대형 언어 모델 시리즈입니다."
142
+ },
143
+ "Qwen/Qwen2.5-72B-Instruct-Turbo": {
144
+ "description": "Qwen2.5는 명령형 작업 처리를 최적화하기 위해 설계된 새로운 대형 언어 모델 시리즈입니다."
124
145
  },
125
146
  "Qwen/Qwen2.5-7B-Instruct": {
126
147
  "description": "Qwen2.5는 지시형 작업 처리를 최적화하기 위해 설계된 새로운 대형 언어 모델 시리즈입니다."
127
148
  },
149
+ "Qwen/Qwen2.5-7B-Instruct-Turbo": {
150
+ "description": "Qwen2.5는 명령형 작업 처리를 최적화하기 위해 설계된 새로운 대형 언어 모델 시리즈입니다."
151
+ },
128
152
  "Qwen/Qwen2.5-Coder-7B-Instruct": {
129
153
  "description": "Qwen2.5-Coder는 코드 작성을 전문으로 합니다."
130
154
  },
@@ -158,9 +182,6 @@
158
182
  "accounts/fireworks/models/firellava-13b": {
159
183
  "description": "fireworks-ai/FireLLaVA-13b는 이미지와 텍스트 입력을 동시에 수용할 수 있는 비주얼 언어 모델로, 고품질 데이터로 훈련되어 다중 모달 작업에 적합합니다."
160
184
  },
161
- "accounts/fireworks/models/gemma2-9b-it": {
162
- "description": "Gemma 2 9B 지시 모델은 이전 Google 기술을 기반으로 하여 질문 응답, 요약 및 추론 등 다양한 텍스트 생성 작업에 적합합니다."
163
- },
164
185
  "accounts/fireworks/models/llama-v3-70b-instruct": {
165
186
  "description": "Llama 3 70B 지시 모델은 다국어 대화 및 자연어 이해를 위해 최적화되어 있으며, 대부분의 경쟁 모델보다 성능이 우수합니다."
166
187
  },
@@ -182,6 +203,18 @@
182
203
  "accounts/fireworks/models/llama-v3p1-8b-instruct": {
183
204
  "description": "Llama 3.1 8B 지시 모델은 다국어 대화를 위해 최적화되어 있으며, 일반 산업 기준에서 대부분의 오픈 소스 및 폐쇄 소스 모델을 초월합니다."
184
205
  },
206
+ "accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
207
+ "description": "Meta의 11B 파라미터 지시 조정 이미지 추론 모델입니다. 이 모델은 시각 인식, 이미지 추론, 이미지 설명 및 이미지에 대한 일반적인 질문에 답변하기 위해 최적화되었습니다. 이 모델은 차트 및 그래프와 같은 시각 데이터를 이해할 수 있으며, 이미지 세부 사항을 설명하는 텍스트를 생성하여 시각과 언어 간의 격차를 메웁니다."
208
+ },
209
+ "accounts/fireworks/models/llama-v3p2-1b-instruct": {
210
+ "description": "Llama 3.2 1B 지시 모델은 Meta가 출시한 경량 다국어 모델입니다. 이 모델은 효율성을 높이기 위해 설계되었으며, 더 큰 모델에 비해 지연 시간과 비용에서 상당한 개선을 제공합니다. 이 모델의 예시 사용 사례에는 검색 및 요약이 포함됩니다."
211
+ },
212
+ "accounts/fireworks/models/llama-v3p2-3b-instruct": {
213
+ "description": "Llama 3.2 3B 지시 모델은 Meta가 출시한 경량 다국어 모델입니다. 이 모델은 효율성을 높이기 위해 설계되었으며, 더 큰 모델에 비해 지연 시간과 비용에서 상당한 개선을 제공합니다. 이 모델의 예시 사용 사례에는 쿼리 및 프롬프트 재작성, 작문 지원이 포함됩니다."
214
+ },
215
+ "accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
216
+ "description": "Meta의 90B 파라미터 지시 조정 이미지 추론 모델입니다. 이 모델은 시각 인식, 이미지 추론, 이미지 설명 및 이미지에 대한 일반적인 질문에 답변하기 위해 최적화되었습니다. 이 모델은 차트 및 그래프와 같은 시각 데이터를 이해할 수 있으며, 이미지 세부 사항을 설명하는 텍스트를 생성하여 시각과 언어 간의 격차를 메웁니다."
217
+ },
185
218
  "accounts/fireworks/models/mixtral-8x22b-instruct": {
186
219
  "description": "Mixtral MoE 8x22B 지시 모델은 대규모 매개변수와 다수의 전문가 아키텍처를 통해 복잡한 작업의 효율적인 처리를 전방위적으로 지원합니다."
187
220
  },
@@ -197,6 +230,9 @@
197
230
  "accounts/fireworks/models/phi-3-vision-128k-instruct": {
198
231
  "description": "Phi 3 Vision 지시 모델은 경량 다중 모달 모델로, 복잡한 시각 및 텍스트 정보를 처리할 수 있으며, 강력한 추론 능력을 갖추고 있습니다."
199
232
  },
233
+ "accounts/fireworks/models/qwen2p5-72b-instruct": {
234
+ "description": "Qwen2.5는 Alibaba Cloud Qwen 팀이 개발한 일련의 디코더 전용 언어 모델입니다. 이러한 모델은 0.5B, 1.5B, 3B, 7B, 14B, 32B 및 72B와 같은 다양한 크기를 제공하며, 기본 버전과 지시 버전 두 가지 변형이 있습니다."
235
+ },
200
236
  "accounts/fireworks/models/starcoder-16b": {
201
237
  "description": "StarCoder 15.5B 모델은 고급 프로그래밍 작업을 지원하며, 다국어 능력이 강화되어 복잡한 코드 생성 및 이해에 적합합니다."
202
238
  },
@@ -212,9 +248,6 @@
212
248
  "ai21-jamba-1.5-mini": {
213
249
  "description": "52B 매개변수(12B 활성)의 다국어 모델로, 256K 긴 컨텍스트 창, 함수 호출, 구조화된 출력 및 기반 생성 기능을 제공합니다."
214
250
  },
215
- "ai21-jamba-instruct": {
216
- "description": "최고 수준의 성능, 품질 및 비용 효율성을 달성하기 위해 제작된 Mamba 기반 LLM 모델입니다."
217
- },
218
251
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
219
252
  "description": "Claude 3.5 Sonnet는 업계 표준을 향상시켜 경쟁 모델 및 Claude 3 Opus를 초월하며, 광범위한 평가에서 뛰어난 성능을 보이고, 중간 수준 모델의 속도와 비용을 갖추고 있습니다."
220
253
  },
@@ -592,9 +625,15 @@
592
625
  "llama-3.1-sonar-small-128k-online": {
593
626
  "description": "Llama 3.1 Sonar Small Online 모델은 8B 매개변수를 갖추고 있으며, 약 127,000개의 토큰의 컨텍스트 길이를 지원하여 온라인 채팅을 위해 설계되었습니다."
594
627
  },
628
+ "llama-3.2-11b-vision-instruct": {
629
+ "description": "고해상도 이미지에서 탁월한 이미지 추론 능력을 발휘하며, 시각 이해 응용 프로그램에 적합합니다."
630
+ },
595
631
  "llama-3.2-11b-vision-preview": {
596
632
  "description": "Llama 3.2는 시각 및 텍스트 데이터를 결합한 작업을 처리하기 위해 설계되었습니다. 이미지 설명 및 시각적 질문 응답과 같은 작업에서 뛰어난 성능을 보이며, 언어 생성과 시각적 추론 간의 간극을 넘습니다."
597
633
  },
634
+ "llama-3.2-90b-vision-instruct": {
635
+ "description": "시각 이해 에이전트 응용 프로그램에 적합한 고급 이미지 추론 능력입니다."
636
+ },
598
637
  "llama-3.2-90b-vision-preview": {
599
638
  "description": "Llama 3.2는 시각 및 텍스트 데이터를 결합한 작업을 처리하기 위해 설계되었습니다. 이미지 설명 및 시각적 질문 응답과 같은 작업에서 뛰어난 성능을 보이며, 언어 생성과 시각적 추론 간의 간극을 넘습니다."
600
639
  },
@@ -652,8 +691,8 @@
652
691
  "meta-llama/Llama-2-13b-chat-hf": {
653
692
  "description": "LLaMA-2 Chat (13B)는 뛰어난 언어 처리 능력과 우수한 상호작용 경험을 제공합니다."
654
693
  },
655
- "meta-llama/Llama-2-7b-chat-hf": {
656
- "description": "최고의 대화 모델 하나"
694
+ "meta-llama/Llama-2-70b-hf": {
695
+ "description": "LLaMA-2는 뛰어난 언어 처리 능력과 뛰어난 상호작용 경험을 제공합니다."
657
696
  },
658
697
  "meta-llama/Llama-3-70b-chat-hf": {
659
698
  "description": "LLaMA-3 Chat (70B)는 강력한 채팅 모델로, 복잡한 대화 요구를 지원합니다."
@@ -661,6 +700,18 @@
661
700
  "meta-llama/Llama-3-8b-chat-hf": {
662
701
  "description": "LLaMA-3 Chat (8B)는 다국어 지원을 제공하며, 풍부한 분야 지식을 포함합니다."
663
702
  },
703
+ "meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo": {
704
+ "description": "LLaMA 3.2는 시각 및 텍스트 데이터를 결합한 작업을 처리하도록 설계되었습니다. 이미지 설명 및 시각적 질문 응답과 같은 작업에서 뛰어난 성능을 발휘하며, 언어 생성과 시각 추론 간의 간극을 메웁니다."
705
+ },
706
+ "meta-llama/Llama-3.2-3B-Instruct-Turbo": {
707
+ "description": "LLaMA 3.2는 시각 및 텍스트 데이터를 결합한 작업을 처리하도록 설계되었습니다. 이미지 설명 및 시각적 질문 응답과 같은 작업에서 뛰어난 성능을 발휘하며, 언어 생성과 시각 추론 간의 간극을 메웁니다."
708
+ },
709
+ "meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo": {
710
+ "description": "LLaMA 3.2는 시각 및 텍스트 데이터를 결합한 작업을 처리하도록 설계되었습니다. 이미지 설명 및 시각적 질문 응답과 같은 작업에서 뛰어난 성능을 발휘하며, 언어 생성과 시각 추론 간의 간극을 메웁니다."
711
+ },
712
+ "meta-llama/Llama-Vision-Free": {
713
+ "description": "LLaMA 3.2는 시각 및 텍스트 데이터를 결합한 작업을 처리하도록 설계되었습니다. 이미지 설명 및 시각적 질문 응답과 같은 작업에서 뛰어난 성능을 발휘하며, 언어 생성과 시각 추론 간의 간극을 메웁니다."
714
+ },
664
715
  "meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
665
716
  "description": "Llama 3 70B Instruct Lite는 효율성과 낮은 지연 시간이 필요한 환경에 적합합니다."
666
717
  },
@@ -739,15 +790,18 @@
739
790
  "minicpm-v": {
740
791
  "description": "MiniCPM-V는 OpenBMB에서 출시한 차세대 다중 모달 대형 모델로, 뛰어난 OCR 인식 및 다중 모달 이해 능력을 갖추고 있으며, 다양한 응용 프로그램을 지원합니다."
741
792
  },
793
+ "ministral-3b-latest": {
794
+ "description": "Ministral 3B는 Mistral의 세계적 수준의 엣지 모델입니다."
795
+ },
796
+ "ministral-8b-latest": {
797
+ "description": "Ministral 8B는 Mistral의 뛰어난 가성비를 자랑하는 엣지 모델입니다."
798
+ },
742
799
  "mistral": {
743
800
  "description": "Mistral은 Mistral AI에서 출시한 7B 모델로, 변화하는 언어 처리 요구에 적합합니다."
744
801
  },
745
802
  "mistral-large": {
746
803
  "description": "Mixtral Large는 Mistral의 플래그십 모델로, 코드 생성, 수학 및 추론 능력을 결합하여 128k 컨텍스트 창을 지원합니다."
747
804
  },
748
- "mistral-large-2407": {
749
- "description": "Mistral Large (2407)는 최첨단 추론, 지식 및 코딩 능력을 갖춘 고급 대형 언어 모델(LLM)입니다."
750
- },
751
805
  "mistral-large-latest": {
752
806
  "description": "Mistral Large는 플래그십 대형 모델로, 다국어 작업, 복잡한 추론 및 코드 생성에 능숙하여 고급 응용 프로그램에 이상적인 선택입니다."
753
807
  },
@@ -769,12 +823,18 @@
769
823
  "mistralai/Mistral-7B-Instruct-v0.3": {
770
824
  "description": "Mistral (7B) Instruct v0.3는 효율적인 계산 능력과 자연어 이해를 제공하며, 광범위한 응용에 적합합니다."
771
825
  },
826
+ "mistralai/Mistral-7B-v0.1": {
827
+ "description": "Mistral 7B는 컴팩트하지만 높은 성능의 모델로, 분류 및 텍스트 생성과 같은 간단한 작업을 잘 처리하며, 좋은 추론 능력을 갖추고 있습니다."
828
+ },
772
829
  "mistralai/Mixtral-8x22B-Instruct-v0.1": {
773
830
  "description": "Mixtral-8x22B Instruct (141B)는 슈퍼 대형 언어 모델로, 극도의 처리 요구를 지원합니다."
774
831
  },
775
832
  "mistralai/Mixtral-8x7B-Instruct-v0.1": {
776
833
  "description": "Mixtral 8x7B는 일반 텍스트 작업을 위한 사전 훈련된 희소 혼합 전문가 모델입니다."
777
834
  },
835
+ "mistralai/Mixtral-8x7B-v0.1": {
836
+ "description": "Mixtral 8x7B는 여러 파라미터를 활용하여 추론 속도를 높이는 희소 전문가 모델입니다. 다국어 및 코드 생성 작업 처리에 적합합니다."
837
+ },
778
838
  "mistralai/mistral-7b-instruct": {
779
839
  "description": "Mistral 7B Instruct는 속도 최적화와 긴 컨텍스트 지원을 갖춘 고성능 산업 표준 모델입니다."
780
840
  },
@@ -802,6 +862,9 @@
802
862
  "nousresearch/hermes-2-pro-llama-3-8b": {
803
863
  "description": "Hermes 2 Pro Llama 3 8B는 Nous Hermes 2의 업그레이드 버전으로, 최신 내부 개발 데이터 세트를 포함하고 있습니다."
804
864
  },
865
+ "nvidia/Llama-3.1-Nemotron-70B-Instruct": {
866
+ "description": "Llama 3.1 Nemotron 70B는 NVIDIA가 맞춤 제작한 대형 언어 모델로, LLM 생성된 응답이 사용자 쿼리에 도움이 되는 정도를 높이기 위해 설계되었습니다."
867
+ },
805
868
  "o1-mini": {
806
869
  "description": "o1-mini는 프로그래밍, 수학 및 과학 응용 프로그램을 위해 설계된 빠르고 경제적인 추론 모델입니다. 이 모델은 128K의 컨텍스트와 2023년 10월의 지식 기준일을 가지고 있습니다."
807
870
  },
@@ -988,6 +1051,12 @@
988
1051
  "yi-large-turbo": {
989
1052
  "description": "초고성능, 뛰어난 성능. 성능과 추론 속도, 비용을 기준으로 균형 잡힌 고정밀 조정을 수행합니다."
990
1053
  },
1054
+ "yi-lightning": {
1055
+ "description": "최신 고성능 모델로, 고품질 출력을 보장하며, 추론 속도를 크게 향상시킵니다."
1056
+ },
1057
+ "yi-lightning-lite": {
1058
+ "description": "경량 버전으로, yi-lightning 사용을 권장합니다."
1059
+ },
991
1060
  "yi-medium": {
992
1061
  "description": "중형 모델 업그레이드 및 미세 조정으로, 능력이 균형 잡히고 가성비가 높습니다. 지시 따르기 능력을 깊이 최적화하였습니다."
993
1062
  },
@@ -47,8 +47,8 @@
47
47
  "ERNIE-4.0-8K-Preview": {
48
48
  "description": "Het door Baidu ontwikkelde vlaggenschip van een ultra-groot taalmodel, dat in vergelijking met ERNIE 3.5 een algehele upgrade van de modelcapaciteiten heeft gerealiseerd, en breed toepasbaar is in complexe taken in verschillende domeinen; ondersteunt automatische integratie met de Baidu-zoekplug-in om de actualiteit van vraag- en antwoordinformatie te waarborgen."
49
49
  },
50
- "ERNIE-4.0-Turbo-8K": {
51
- "description": "Het door Baidu ontwikkelde vlaggenschip van een ultra-groot taalmodel, dat uitstekende algehele prestaties levert en breed toepasbaar is in complexe taken in verschillende domeinen; ondersteunt automatische integratie met de Baidu-zoekplug-in om de actualiteit van vraag- en antwoordinformatie te waarborgen. In vergelijking met ERNIE 4.0 presteert het beter."
50
+ "ERNIE-4.0-Turbo-8K-Latest": {
51
+ "description": "De zelfontwikkelde vlaggenschip super-grote taalmodel van Baidu, dat uitmuntend presteert in diverse complexe taakscenario's in verschillende domeinen; ondersteunt automatische integratie met de Baidu-zoekplug-in, waarborgt de actualiteit van vraag-antwoordinformatie. Overtreft in performance ten opzichte van ERNIE 4.0."
52
52
  },
53
53
  "ERNIE-4.0-Turbo-8K-Preview": {
54
54
  "description": "Het door Baidu ontwikkelde vlaggenschip van een ultra-groot taalmodel, dat uitstekende algehele prestaties levert en breed toepasbaar is in complexe taken in verschillende domeinen; ondersteunt automatische integratie met de Baidu-zoekplug-in om de actualiteit van vraag- en antwoordinformatie te waarborgen. In vergelijking met ERNIE 4.0 presteert het beter."
@@ -80,8 +80,11 @@
80
80
  "NousResearch/Nous-Hermes-2-Yi-34B": {
81
81
  "description": "Nous Hermes-2 Yi (34B) biedt geoptimaliseerde taaloutput en diverse toepassingsmogelijkheden."
82
82
  },
83
- "Phi-3-5-mini-instruct": {
84
- "description": "Vernieuwing van het Phi-3-mini model."
83
+ "OpenGVLab/InternVL2-26B": {
84
+ "description": "InternVL2 toont uitstekende prestaties bij diverse visuele taaltaken, waaronder document- en grafiekbegrip, scène-tekstbegrip, OCR, en het oplossen van wetenschappelijke en wiskundige problemen."
85
+ },
86
+ "OpenGVLab/InternVL2-Llama3-76B": {
87
+ "description": "InternVL2 toont uitstekende prestaties bij diverse visuele taaltaken, waaronder document- en grafiekbegrip, scène-tekstbegrip, OCR, en het oplossen van wetenschappelijke en wiskundige problemen."
85
88
  },
86
89
  "Phi-3-medium-128k-instruct": {
87
90
  "description": "Hetzelfde Phi-3-medium model, maar met een grotere contextgrootte voor RAG of few shot prompting."
@@ -101,9 +104,21 @@
101
104
  "Phi-3-small-8k-instruct": {
102
105
  "description": "Een model met 7 miljard parameters, biedt betere kwaliteit dan Phi-3-mini, met een focus op hoogwaardige, redeneringsdichte gegevens."
103
106
  },
107
+ "Phi-3.5-mini-instruct": {
108
+ "description": "Een geüpdatete versie van het Phi-3-mini model."
109
+ },
110
+ "Phi-3.5-vision-instrust": {
111
+ "description": "Een geüpdatete versie van het Phi-3-vision model."
112
+ },
104
113
  "Pro-128k": {
105
114
  "description": "Spark Pro-128K is uitgerust met een enorme contextverwerkingscapaciteit, in staat om tot 128K contextinformatie te verwerken, bijzonder geschikt voor lange teksten die volledige analyse en langdurige logische verbanden vereisen, en biedt vloeiende en consistente logica met diverse referenties in complexe tekstcommunicatie."
106
115
  },
116
+ "Pro/OpenGVLab/InternVL2-8B": {
117
+ "description": "InternVL2 toont uitstekende prestaties bij diverse visuele taaltaken, waaronder document- en grafiekbegrip, scène-tekstbegrip, OCR, en het oplossen van wetenschappelijke en wiskundige problemen."
118
+ },
119
+ "Pro/Qwen/Qwen2-VL-7B-Instruct": {
120
+ "description": "Qwen2-VL is de nieuwste iteratie van het Qwen-VL-model, dat de toonaangevende prestaties behaalde in benchmarktests voor visueel begrip."
121
+ },
107
122
  "Qwen/Qwen1.5-110B-Chat": {
108
123
  "description": "Als testversie van Qwen2 biedt Qwen1.5 nauwkeurigere gespreksfunctionaliteit door gebruik te maken van grootschalige gegevens."
109
124
  },
@@ -113,18 +128,27 @@
113
128
  "Qwen/Qwen2-72B-Instruct": {
114
129
  "description": "Qwen2 is een geavanceerd algemeen taalmodel dat verschillende soorten instructies ondersteunt."
115
130
  },
131
+ "Qwen/Qwen2-VL-72B-Instruct": {
132
+ "description": "Qwen2-VL is de nieuwste iteratie van het Qwen-VL-model, dat de toonaangevende prestaties behaalde in benchmarktests voor visueel begrip."
133
+ },
116
134
  "Qwen/Qwen2.5-14B-Instruct": {
117
135
  "description": "Qwen2.5 is een geheel nieuwe serie van grote taalmodellen, ontworpen om de verwerking van instructietaken te optimaliseren."
118
136
  },
119
137
  "Qwen/Qwen2.5-32B-Instruct": {
120
138
  "description": "Qwen2.5 is een geheel nieuwe serie van grote taalmodellen, ontworpen om de verwerking van instructietaken te optimaliseren."
121
139
  },
122
- "Qwen/Qwen2.5-72B-Instruct": {
123
- "description": "Qwen2.5 is een geheel nieuwe serie van grote taalmodellen, met sterkere begrip- en generatiecapaciteiten."
140
+ "Qwen/Qwen2.5-72B-Instruct-128K": {
141
+ "description": "Qwen2.5 is een geheel nieuwe serie grote taalmodellen, met sterkere begrip- en generatiecapaciteiten."
142
+ },
143
+ "Qwen/Qwen2.5-72B-Instruct-Turbo": {
144
+ "description": "Qwen2.5 is een geheel nieuwe serie grote taalmodellen, ontworpen om de verwerking van instructietaken te optimaliseren."
124
145
  },
125
146
  "Qwen/Qwen2.5-7B-Instruct": {
126
147
  "description": "Qwen2.5 is een geheel nieuwe serie van grote taalmodellen, ontworpen om de verwerking van instructietaken te optimaliseren."
127
148
  },
149
+ "Qwen/Qwen2.5-7B-Instruct-Turbo": {
150
+ "description": "Qwen2.5 is een geheel nieuwe serie grote taalmodellen, ontworpen om de verwerking van instructietaken te optimaliseren."
151
+ },
128
152
  "Qwen/Qwen2.5-Coder-7B-Instruct": {
129
153
  "description": "Qwen2.5-Coder richt zich op het schrijven van code."
130
154
  },
@@ -158,9 +182,6 @@
158
182
  "accounts/fireworks/models/firellava-13b": {
159
183
  "description": "fireworks-ai/FireLLaVA-13b is een visueel taalmodel dat zowel afbeeldingen als tekstinvoer kan verwerken, getraind op hoogwaardige gegevens, geschikt voor multimodale taken."
160
184
  },
161
- "accounts/fireworks/models/gemma2-9b-it": {
162
- "description": "Gemma 2 9B instructiemodel, gebaseerd op eerdere Google-technologie, geschikt voor vraagbeantwoording, samenvattingen en redenering."
163
- },
164
185
  "accounts/fireworks/models/llama-v3-70b-instruct": {
165
186
  "description": "Llama 3 70B instructiemodel, speciaal geoptimaliseerd voor meertalige gesprekken en natuurlijke taalbegrip, presteert beter dan de meeste concurrerende modellen."
166
187
  },
@@ -182,6 +203,18 @@
182
203
  "accounts/fireworks/models/llama-v3p1-8b-instruct": {
183
204
  "description": "Llama 3.1 8B instructiemodel, geoptimaliseerd voor meertalige gesprekken, kan de meeste open-source en gesloten-source modellen overtreffen op gangbare industriestandaarden."
184
205
  },
206
+ "accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
207
+ "description": "Meta's 11B-parameter instructie-geoptimaliseerde beeldredeneringsmodel. Dit model is geoptimaliseerd voor visuele herkenning, beeldredenering, afbeeldingsbeschrijving en het beantwoorden van algemene vragen over afbeeldingen. Dit model kan visuele gegevens begrijpen, zoals diagrammen en grafieken, en overbrugt de kloof tussen visuele informatie en tekst door het genereren van tekstbeschrijvingen van afbeeldingsdetails."
208
+ },
209
+ "accounts/fireworks/models/llama-v3p2-1b-instruct": {
210
+ "description": "Llama 3.2 1B instructiemodel is een lichtgewicht meertalig model geïntroduceerd door Meta. Dit model is ontworpen om de efficiëntie te verhogen, met aanzienlijke verbeteringen in latentie en kosten in vergelijking met grotere modellen. Voorbeelden van gebruikssituaties van dit model zijn ophalen en samenvatten."
211
+ },
212
+ "accounts/fireworks/models/llama-v3p2-3b-instruct": {
213
+ "description": "Llama 3.2 3B instructiemodel is een lichtgewicht meertalig model geïntroduceerd door Meta. Dit model is ontworpen om de efficiëntie te verhogen, met aanzienlijke verbeteringen in latentie en kosten in vergelijking met grotere modellen. Voorbeelden van gebruikssituaties van dit model zijn het herformuleren van vragen en prompts, evenals schrijfondersteuning."
214
+ },
215
+ "accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
216
+ "description": "Meta's 90B-parameter instructie-geoptimaliseerde beeldredeneringsmodel. Dit model is geoptimaliseerd voor visuele herkenning, beeldredenering, afbeeldingsbeschrijving en het beantwoorden van algemene vragen over afbeeldingen. Dit model kan visuele gegevens begrijpen, zoals diagrammen en grafieken, en overbrugt de kloof tussen visuele informatie en tekst door het genereren van tekstbeschrijvingen van afbeeldingsdetails."
217
+ },
185
218
  "accounts/fireworks/models/mixtral-8x22b-instruct": {
186
219
  "description": "Mixtral MoE 8x22B instructiemodel, met een groot aantal parameters en een multi-expertarchitectuur, biedt uitgebreide ondersteuning voor de efficiënte verwerking van complexe taken."
187
220
  },
@@ -197,6 +230,9 @@
197
230
  "accounts/fireworks/models/phi-3-vision-128k-instruct": {
198
231
  "description": "Phi 3 Vision instructiemodel, een lichtgewicht multimodaal model dat complexe visuele en tekstuele informatie kan verwerken, met sterke redeneercapaciteiten."
199
232
  },
233
+ "accounts/fireworks/models/qwen2p5-72b-instruct": {
234
+ "description": "Qwen2.5 is een serie decoder-only taalmodellen ontwikkeld door het Alibaba Qwen-team. Deze modellen zijn beschikbaar in verschillende groottes, waaronder 0.5B, 1.5B, 3B, 7B, 14B, 32B en 72B, met zowel een basisversie als een instructieversie."
235
+ },
200
236
  "accounts/fireworks/models/starcoder-16b": {
201
237
  "description": "StarCoder 15.5B model, ondersteunt geavanceerde programmeertaken, met verbeterde meertalige capaciteiten, geschikt voor complexe codegeneratie en -begrip."
202
238
  },
@@ -212,9 +248,6 @@
212
248
  "ai21-jamba-1.5-mini": {
213
249
  "description": "Een meertalig model met 52 miljard parameters (12 miljard actief), biedt een contextvenster van 256K, functieaanroep, gestructureerde output en gegronde generatie."
214
250
  },
215
- "ai21-jamba-instruct": {
216
- "description": "Een productieklare Mamba-gebaseerde LLM-model om de beste prestaties, kwaliteit en kostenefficiëntie te bereiken."
217
- },
218
251
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
219
252
  "description": "Claude 3.5 Sonnet heeft de industrienormen verbeterd, met prestaties die de concurrentiemodellen en Claude 3 Opus overtreffen, en presteert uitstekend in brede evaluaties, met de snelheid en kosten van ons gemiddelde model."
220
253
  },
@@ -592,9 +625,15 @@
592
625
  "llama-3.1-sonar-small-128k-online": {
593
626
  "description": "Llama 3.1 Sonar Small Online model, met 8B parameters, ondersteunt een contextlengte van ongeveer 127.000 tokens, speciaal ontworpen voor online chat en kan efficiënt verschillende tekstinteracties verwerken."
594
627
  },
628
+ "llama-3.2-11b-vision-instruct": {
629
+ "description": "Uitstekende beeldredeneringscapaciteiten op hoge resolutie-afbeeldingen, geschikt voor visuele begrijptoepassingen."
630
+ },
595
631
  "llama-3.2-11b-vision-preview": {
596
632
  "description": "Llama 3.2 is ontworpen om taken te verwerken die visuele en tekstuele gegevens combineren. Het presteert uitstekend in taken zoals afbeeldingsbeschrijving en visuele vraag-en-antwoord, en overbrugt de kloof tussen taalgeneratie en visuele redeneervaardigheden."
597
633
  },
634
+ "llama-3.2-90b-vision-instruct": {
635
+ "description": "Geavanceerde beeldredeneringscapaciteiten voor visuele begrijppoort toepassingen."
636
+ },
598
637
  "llama-3.2-90b-vision-preview": {
599
638
  "description": "Llama 3.2 is ontworpen om taken te verwerken die visuele en tekstuele gegevens combineren. Het presteert uitstekend in taken zoals afbeeldingsbeschrijving en visuele vraag-en-antwoord, en overbrugt de kloof tussen taalgeneratie en visuele redeneervaardigheden."
600
639
  },
@@ -652,8 +691,8 @@
652
691
  "meta-llama/Llama-2-13b-chat-hf": {
653
692
  "description": "LLaMA-2 Chat (13B) biedt uitstekende taalverwerkingscapaciteiten en een geweldige interactie-ervaring."
654
693
  },
655
- "meta-llama/Llama-2-7b-chat-hf": {
656
- "description": "Een van de beste gespreksmodellen"
694
+ "meta-llama/Llama-2-70b-hf": {
695
+ "description": "LLaMA-2 biedt uitstekende taalverwerkingscapaciteiten en een geweldige interactieve ervaring."
657
696
  },
658
697
  "meta-llama/Llama-3-70b-chat-hf": {
659
698
  "description": "LLaMA-3 Chat (70B) is een krachtig chatmodel dat complexe gespreksbehoeften ondersteunt."
@@ -661,6 +700,18 @@
661
700
  "meta-llama/Llama-3-8b-chat-hf": {
662
701
  "description": "LLaMA-3 Chat (8B) biedt meertalige ondersteuning en dekt een breed scala aan domeinkennis."
663
702
  },
703
+ "meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo": {
704
+ "description": "LLaMA 3.2 is ontworpen voor taken die zowel visuele als tekstuele gegevens combineren. Het presteert uitstekend in taken zoals afbeeldingsbeschrijving en visuele vraagstukken, en overbrugt de kloof tussen taalgeneratie en visuele redenering."
705
+ },
706
+ "meta-llama/Llama-3.2-3B-Instruct-Turbo": {
707
+ "description": "LLaMA 3.2 is ontworpen voor taken die zowel visuele als tekstuele gegevens combineren. Het presteert uitstekend in taken zoals afbeeldingsbeschrijving en visuele vraagstukken, en overbrugt de kloof tussen taalgeneratie en visuele redenering."
708
+ },
709
+ "meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo": {
710
+ "description": "LLaMA 3.2 is ontworpen voor taken die zowel visuele als tekstuele gegevens combineren. Het presteert uitstekend in taken zoals afbeeldingsbeschrijving en visuele vraagstukken, en overbrugt de kloof tussen taalgeneratie en visuele redenering."
711
+ },
712
+ "meta-llama/Llama-Vision-Free": {
713
+ "description": "LLaMA 3.2 is ontworpen voor taken die zowel visuele als tekstuele gegevens combineren. Het presteert uitstekend in taken zoals afbeeldingsbeschrijving en visuele vraagstukken, en overbrugt de kloof tussen taalgeneratie en visuele redenering."
714
+ },
664
715
  "meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
665
716
  "description": "Llama 3 70B Instruct Lite is geschikt voor omgevingen die hoge prestaties en lage latentie vereisen."
666
717
  },
@@ -739,15 +790,18 @@
739
790
  "minicpm-v": {
740
791
  "description": "MiniCPM-V is de nieuwe generatie multimodale grote modellen van OpenBMB, met uitstekende OCR-herkenning en multimodaal begrip, geschikt voor een breed scala aan toepassingsscenario's."
741
792
  },
793
+ "ministral-3b-latest": {
794
+ "description": "Ministral 3B is het toonaangevende edge-model van Mistral."
795
+ },
796
+ "ministral-8b-latest": {
797
+ "description": "Ministral 8B is een zeer kosteneffectief edge-model van Mistral."
798
+ },
742
799
  "mistral": {
743
800
  "description": "Mistral is het 7B-model van Mistral AI, geschikt voor variabele taalverwerkingsbehoeften."
744
801
  },
745
802
  "mistral-large": {
746
803
  "description": "Mixtral Large is het vlaggenschipmodel van Mistral, dat de capaciteiten van codegeneratie, wiskunde en inferentie combineert, ondersteunt een contextvenster van 128k."
747
804
  },
748
- "mistral-large-2407": {
749
- "description": "Mistral Large (2407) is een geavanceerd Large Language Model (LLM) met state-of-the-art redenerings-, kennis- en coderingscapaciteiten."
750
- },
751
805
  "mistral-large-latest": {
752
806
  "description": "Mistral Large is het vlaggenschipmodel, dat uitblinkt in meertalige taken, complexe inferentie en codegeneratie, ideaal voor high-end toepassingen."
753
807
  },
@@ -769,12 +823,18 @@
769
823
  "mistralai/Mistral-7B-Instruct-v0.3": {
770
824
  "description": "Mistral (7B) Instruct v0.3 biedt efficiënte rekenkracht en natuurlijke taalbegrip, geschikt voor een breed scala aan toepassingen."
771
825
  },
826
+ "mistralai/Mistral-7B-v0.1": {
827
+ "description": "Mistral 7B is een compact maar hoogwaardig model, dat goed presteert in batchverwerking en eenvoudige taken zoals classificatie en tekstgeneratie, met goede redeneringscapaciteiten."
828
+ },
772
829
  "mistralai/Mixtral-8x22B-Instruct-v0.1": {
773
830
  "description": "Mixtral-8x22B Instruct (141B) is een supergroot taalmodel dat extreem hoge verwerkingsbehoeften ondersteunt."
774
831
  },
775
832
  "mistralai/Mixtral-8x7B-Instruct-v0.1": {
776
833
  "description": "Mixtral 8x7B is een voorgetraind spaarzaam mengexpertmodel, gebruikt voor algemene teksttaken."
777
834
  },
835
+ "mistralai/Mixtral-8x7B-v0.1": {
836
+ "description": "Mixtral 8x7B is een spaarzaam expert-model dat meerdere parameters gebruikt om de redeneringssnelheid te verhogen, ideaal voor meertalige en codegeneratietaken."
837
+ },
778
838
  "mistralai/mistral-7b-instruct": {
779
839
  "description": "Mistral 7B Instruct is een hoogwaardig industrieel standaardmodel met snelheidoptimalisatie en ondersteuning voor lange contexten."
780
840
  },
@@ -802,6 +862,9 @@
802
862
  "nousresearch/hermes-2-pro-llama-3-8b": {
803
863
  "description": "Hermes 2 Pro Llama 3 8B is een upgrade van Nous Hermes 2, met de nieuwste intern ontwikkelde datasets."
804
864
  },
865
+ "nvidia/Llama-3.1-Nemotron-70B-Instruct": {
866
+ "description": "Llama 3.1 Nemotron 70B is een op maat gemaakt groot taalmodel van NVIDIA, ontworpen om de hulp te verbeteren die LLM-gebaseerde reacties bieden op gebruikersvragen."
867
+ },
805
868
  "o1-mini": {
806
869
  "description": "o1-mini is een snel en kosteneffectief redeneermodel dat is ontworpen voor programmeer-, wiskunde- en wetenschappelijke toepassingen. Dit model heeft een context van 128K en een kennisafkapdatum van oktober 2023."
807
870
  },
@@ -988,6 +1051,12 @@
988
1051
  "yi-large-turbo": {
989
1052
  "description": "Biedt een uitstekende prijs-kwaliteitverhouding en prestaties. Voert een nauwkeurige afstemming uit op basis van prestaties, redeneersnelheid en kosten."
990
1053
  },
1054
+ "yi-lightning": {
1055
+ "description": "Het nieuwste high-performance model, dat zorgt voor hoogwaardige output met aanzienlijke versnelling van de redeneringssnelheid."
1056
+ },
1057
+ "yi-lightning-lite": {
1058
+ "description": "Lichte versie, aanbevolen voor gebruik met yi-lightning."
1059
+ },
991
1060
  "yi-medium": {
992
1061
  "description": "Gemiddeld formaat model met geoptimaliseerde afstemming, biedt een evenwichtige prijs-kwaliteitverhouding. Diep geoptimaliseerde instructievolgcapaciteiten."
993
1062
  },