@lobehub/chat 1.32.3 → 1.32.5

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (79) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/README.md +8 -8
  3. package/README.zh-CN.md +8 -8
  4. package/locales/ar/models.json +12 -0
  5. package/locales/ar/providers.json +3 -0
  6. package/locales/bg-BG/models.json +12 -0
  7. package/locales/bg-BG/providers.json +3 -0
  8. package/locales/de-DE/models.json +12 -0
  9. package/locales/de-DE/providers.json +3 -0
  10. package/locales/en-US/models.json +12 -0
  11. package/locales/en-US/providers.json +3 -0
  12. package/locales/es-ES/models.json +12 -0
  13. package/locales/es-ES/providers.json +3 -0
  14. package/locales/fa-IR/models.json +12 -0
  15. package/locales/fa-IR/providers.json +3 -0
  16. package/locales/fr-FR/models.json +12 -0
  17. package/locales/fr-FR/providers.json +3 -0
  18. package/locales/it-IT/models.json +12 -0
  19. package/locales/it-IT/providers.json +3 -0
  20. package/locales/ja-JP/models.json +12 -0
  21. package/locales/ja-JP/providers.json +3 -0
  22. package/locales/ko-KR/models.json +12 -0
  23. package/locales/ko-KR/providers.json +3 -0
  24. package/locales/nl-NL/models.json +12 -0
  25. package/locales/nl-NL/providers.json +3 -0
  26. package/locales/pl-PL/models.json +12 -0
  27. package/locales/pl-PL/providers.json +3 -0
  28. package/locales/pt-BR/models.json +12 -0
  29. package/locales/pt-BR/providers.json +3 -0
  30. package/locales/ru-RU/models.json +12 -0
  31. package/locales/ru-RU/providers.json +3 -0
  32. package/locales/tr-TR/models.json +12 -0
  33. package/locales/tr-TR/providers.json +3 -0
  34. package/locales/vi-VN/models.json +12 -0
  35. package/locales/vi-VN/providers.json +3 -0
  36. package/locales/zh-CN/models.json +12 -0
  37. package/locales/zh-CN/providers.json +3 -0
  38. package/locales/zh-TW/models.json +12 -0
  39. package/locales/zh-TW/providers.json +3 -0
  40. package/package.json +2 -2
  41. package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/ChatItem/index.tsx +39 -0
  42. package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/Content.tsx +20 -14
  43. package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/WelcomeMessage.tsx +44 -0
  44. package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/index.tsx +17 -0
  45. package/src/app/(main)/chat/(workspace)/@portal/features/Header.tsx +1 -13
  46. package/src/app/metadata.ts +2 -1
  47. package/src/components/BrandWatermark/index.tsx +1 -0
  48. package/src/const/message.ts +1 -1
  49. package/src/features/Conversation/components/ChatItem/ActionsBar.tsx +9 -13
  50. package/src/features/Conversation/components/ChatItem/index.tsx +183 -209
  51. package/src/features/Conversation/components/VirtualizedList/index.tsx +75 -84
  52. package/src/features/Conversation/index.ts +0 -1
  53. package/src/features/Portal/Artifacts/index.ts +1 -1
  54. package/src/features/Portal/FilePreview/index.ts +1 -1
  55. package/src/features/Portal/Home/{Header.tsx → Title.tsx} +2 -2
  56. package/src/features/Portal/Home/index.ts +1 -1
  57. package/src/features/Portal/MessageDetail/index.ts +1 -1
  58. package/src/features/Portal/Plugins/index.ts +1 -1
  59. package/src/features/Portal/components/Header.tsx +29 -0
  60. package/src/features/Portal/router.tsx +22 -3
  61. package/src/features/Portal/type.ts +3 -1
  62. package/src/features/{Conversation/components → ShareModal/ShareImage}/ChatList/index.tsx +3 -4
  63. package/src/features/ShareModal/ShareImage/Preview.tsx +1 -1
  64. package/src/features/ShareModal/ShareJSON/index.tsx +1 -1
  65. package/src/features/ShareModal/ShareText/index.tsx +1 -1
  66. package/src/layout/GlobalProvider/Debug.tsx +15 -0
  67. package/src/layout/GlobalProvider/index.tsx +4 -2
  68. package/src/locales/resources.ts +5 -2
  69. package/src/server/ld.ts +2 -2
  70. package/src/store/chat/slices/aiChat/actions/generateAIChat.ts +5 -5
  71. package/src/store/chat/slices/message/action.ts +2 -2
  72. package/src/store/chat/slices/message/selectors.test.ts +0 -86
  73. package/src/store/chat/slices/message/selectors.ts +55 -73
  74. package/src/store/chat/slices/plugin/action.test.ts +2 -2
  75. package/src/store/chat/slices/plugin/action.ts +1 -1
  76. package/src/store/chat/slices/topic/action.ts +2 -2
  77. /package/src/{features/Conversation/components → app/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem}/InboxWelcome/AgentsSuggest.tsx +0 -0
  78. /package/src/{features/Conversation/components → app/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem}/InboxWelcome/QuestionSuggest.tsx +0 -0
  79. /package/src/{features/Conversation/components → app/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem}/InboxWelcome/index.tsx +0 -0
@@ -610,6 +610,9 @@
610
610
  "grok-beta": {
611
611
  "description": "Biedt prestaties vergelijkbaar met Grok 2, maar met hogere efficiëntie, snelheid en functionaliteit."
612
612
  },
613
+ "grok-vision-beta": {
614
+ "description": "Het nieuwste model voor beeldbegrip, dat een breed scala aan visuele informatie kan verwerken, waaronder documenten, grafieken, screenshots en foto's."
615
+ },
613
616
  "gryphe/mythomax-l2-13b": {
614
617
  "description": "MythoMax l2 13B is een taalmodel dat creativiteit en intelligentie combineert door meerdere topmodellen te integreren."
615
618
  },
@@ -646,6 +649,12 @@
646
649
  "internlm/internlm2_5-7b-chat": {
647
650
  "description": "InternLM2.5 biedt intelligente gespreksoplossingen voor meerdere scenario's."
648
651
  },
652
+ "internlm2-pro-chat": {
653
+ "description": "Onze oudere modelversie die we nog steeds onderhouden, met opties voor 7B en 20B parameters."
654
+ },
655
+ "internlm2.5-latest": {
656
+ "description": "Onze nieuwste modelreeks met uitstekende redeneervaardigheden, ondersteunt een contextlengte van 1M en heeft verbeterde instructievolging en toolaanroepmogelijkheden."
657
+ },
649
658
  "jamba-1.5-large": {},
650
659
  "jamba-1.5-mini": {},
651
660
  "lite": {
@@ -969,6 +978,9 @@
969
978
  "pixtral-12b-2409": {
970
979
  "description": "Het Pixtral model toont sterke capaciteiten in taken zoals grafiek- en beeldbegrip, documentvraag-en-antwoord, multimodale redenering en instructievolging, en kan afbeeldingen met natuurlijke resolutie en beeldverhouding verwerken, evenals een onbeperkt aantal afbeeldingen in een lange contextvenster van maximaal 128K tokens."
971
980
  },
981
+ "pixtral-large-latest": {
982
+ "description": "Pixtral Large is een open-source multimodaal model met 124 miljard parameters, gebaseerd op Mistral Large 2. Dit is ons tweede model in de multimodale familie en toont geavanceerde beeldbegripcapaciteiten."
983
+ },
972
984
  "pro-128k": {
973
985
  "description": "Spark Pro 128K is uitgerust met een zeer grote contextverwerkingscapaciteit, in staat om tot 128K contextinformatie te verwerken. Het is bijzonder geschikt voor lange teksten die een volledige analyse en langdurige logische verbanden vereisen, en biedt een vloeiende en consistente logica met diverse ondersteuningen voor citaten in complexe tekstcommunicatie."
974
986
  },
@@ -37,6 +37,9 @@
37
37
  "hunyuan": {
38
38
  "description": "Een door Tencent ontwikkeld groot taalmodel, dat beschikt over krachtige Chinese creatiecapaciteiten, logische redeneervaardigheden in complexe contexten, en betrouwbare taakuitvoeringscapaciteiten."
39
39
  },
40
+ "internlm": {
41
+ "description": "Een open-source organisatie die zich richt op onderzoek en ontwikkeling van tools voor grote modellen. Biedt een efficiënt en gebruiksvriendelijk open-source platform voor alle AI-ontwikkelaars, zodat de meest geavanceerde modellen en algoritmische technologieën binnen handbereik zijn."
42
+ },
40
43
  "minimax": {
41
44
  "description": "MiniMax is een algemeen kunstmatige intelligentietechnologiebedrijf dat in 2021 is opgericht, en zich richt op co-creatie van intelligentie met gebruikers. MiniMax heeft verschillende multimodale algemene grote modellen ontwikkeld, waaronder een MoE-tekstgrootmodel met triljoenen parameters, een spraakgrootmodel en een afbeeldingsgrootmodel. Ze hebben ook toepassingen zoals Conch AI gelanceerd."
42
45
  },
@@ -610,6 +610,9 @@
610
610
  "grok-beta": {
611
611
  "description": "Oferuje wydajność porównywalną z Grok 2, ale z wyższą efektywnością, prędkością i funkcjonalnością."
612
612
  },
613
+ "grok-vision-beta": {
614
+ "description": "Najnowszy model rozumienia obrazów, który potrafi przetwarzać różnorodne informacje wizualne, w tym dokumenty, wykresy, zrzuty ekranu i zdjęcia."
615
+ },
613
616
  "gryphe/mythomax-l2-13b": {
614
617
  "description": "MythoMax l2 13B to model językowy łączący kreatywność i inteligencję, zintegrowany z wieloma wiodącymi modelami."
615
618
  },
@@ -646,6 +649,12 @@
646
649
  "internlm/internlm2_5-7b-chat": {
647
650
  "description": "InternLM2.5 oferuje inteligentne rozwiązania dialogowe w różnych scenariuszach."
648
651
  },
652
+ "internlm2-pro-chat": {
653
+ "description": "Starsza wersja modelu, którą nadal utrzymujemy, dostępna w różnych wariantach parametrów: 7B i 20B."
654
+ },
655
+ "internlm2.5-latest": {
656
+ "description": "Nasza najnowsza seria modeli, charakteryzująca się doskonałymi osiągami wnioskowania, obsługująca długość kontekstu do 1M oraz lepsze możliwości śledzenia instrukcji i wywoływania narzędzi."
657
+ },
649
658
  "jamba-1.5-large": {},
650
659
  "jamba-1.5-mini": {},
651
660
  "lite": {
@@ -969,6 +978,9 @@
969
978
  "pixtral-12b-2409": {
970
979
  "description": "Model Pixtral wykazuje silne zdolności w zadaniach związanych z analizą wykresów i zrozumieniem obrazów, pytaniami dokumentowymi, wielomodalnym rozumowaniem i przestrzeganiem instrukcji, zdolny do przyjmowania obrazów w naturalnej rozdzielczości i proporcjach, a także do przetwarzania dowolnej liczby obrazów w długim oknie kontekstowym o długości do 128K tokenów."
971
980
  },
981
+ "pixtral-large-latest": {
982
+ "description": "Pixtral Large to otwarty model wielomodalny z 124 miliardami parametrów, zbudowany na bazie Mistral Large 2. To nasz drugi model w rodzinie wielomodalnej, który wykazuje zaawansowane zdolności rozumienia obrazów."
983
+ },
972
984
  "pro-128k": {
973
985
  "description": "Spark Pro 128K jest wyposażony w wyjątkową zdolność przetwarzania kontekstu, mogąc obsługiwać do 128K informacji kontekstowych, co czyni go idealnym do analizy całościowej i długoterminowego przetwarzania logicznych powiązań w długich treściach, zapewniając płynność i spójność logiczną oraz różnorodne wsparcie cytatów w złożonej komunikacji tekstowej."
974
986
  },
@@ -37,6 +37,9 @@
37
37
  "hunyuan": {
38
38
  "description": "Model językowy opracowany przez Tencent, który posiada potężne zdolności twórcze w języku chińskim, umiejętność logicznego wnioskowania w złożonych kontekstach oraz niezawodne zdolności wykonawcze w zadaniach."
39
39
  },
40
+ "internlm": {
41
+ "description": "Organizacja open source poświęcona badaniom i rozwojowi narzędzi dla dużych modeli. Oferuje wszystkim deweloperom AI wydajną i łatwą w użyciu platformę open source, umożliwiającą dostęp do najnowocześniejszych technologii modeli i algorytmów."
42
+ },
40
43
  "minimax": {
41
44
  "description": "MiniMax to firma technologiczna zajmująca się ogólną sztuczną inteligencją, założona w 2021 roku, dążąca do współtworzenia inteligencji z użytkownikami. MiniMax opracowało różne modele dużych modeli o różnych modalnościach, w tym model tekstowy MoE z bilionem parametrów, model głosowy oraz model obrazowy. Wprowadziło również aplikacje takie jak Conch AI."
42
45
  },
@@ -610,6 +610,9 @@
610
610
  "grok-beta": {
611
611
  "description": "Apresenta desempenho equivalente ao Grok 2, mas com maior eficiência, velocidade e funcionalidades."
612
612
  },
613
+ "grok-vision-beta": {
614
+ "description": "O mais recente modelo de compreensão de imagem, capaz de lidar com uma variedade de informações visuais, incluindo documentos, gráficos, capturas de tela e fotos."
615
+ },
613
616
  "gryphe/mythomax-l2-13b": {
614
617
  "description": "MythoMax l2 13B é um modelo de linguagem que combina criatividade e inteligência, integrando vários modelos de ponta."
615
618
  },
@@ -646,6 +649,12 @@
646
649
  "internlm/internlm2_5-7b-chat": {
647
650
  "description": "InternLM2.5 oferece soluções de diálogo inteligente em múltiplos cenários."
648
651
  },
652
+ "internlm2-pro-chat": {
653
+ "description": "Modelo mais antigo que ainda estamos mantendo, disponível em opções de 7B e 20B de parâmetros."
654
+ },
655
+ "internlm2.5-latest": {
656
+ "description": "Nossa mais recente série de modelos, com desempenho de raciocínio excepcional, suportando um comprimento de contexto de 1M e capacidades aprimoradas de seguimento de instruções e chamadas de ferramentas."
657
+ },
649
658
  "jamba-1.5-large": {},
650
659
  "jamba-1.5-mini": {},
651
660
  "lite": {
@@ -969,6 +978,9 @@
969
978
  "pixtral-12b-2409": {
970
979
  "description": "O modelo Pixtral demonstra forte capacidade em tarefas de compreensão de gráficos e imagens, perguntas e respostas de documentos, raciocínio multimodal e seguimento de instruções, podendo ingerir imagens em resolução natural e proporções, além de processar um número arbitrário de imagens em uma janela de contexto longa de até 128K tokens."
971
980
  },
981
+ "pixtral-large-latest": {
982
+ "description": "Pixtral Large é um modelo multimodal de código aberto com 124 bilhões de parâmetros, baseado no Mistral Large 2. Este é o segundo modelo da nossa família multimodal, demonstrando capacidades de compreensão de imagem de nível avançado."
983
+ },
972
984
  "pro-128k": {
973
985
  "description": "Spark Pro 128K possui uma capacidade de processamento de contexto extremamente grande, capaz de lidar com até 128K de informações contextuais, especialmente adequado para análise completa e processamento de associações lógicas de longo prazo em conteúdos longos, podendo oferecer lógica fluida e consistente e suporte a diversas citações em comunicações textuais complexas."
974
986
  },
@@ -37,6 +37,9 @@
37
37
  "hunyuan": {
38
38
  "description": "Um modelo de linguagem desenvolvido pela Tencent, com forte capacidade de criação em chinês, habilidade de raciocínio lógico em contextos complexos e capacidade confiável de execução de tarefas."
39
39
  },
40
+ "internlm": {
41
+ "description": "Uma organização de código aberto dedicada à pesquisa e desenvolvimento de ferramentas para grandes modelos. Oferece uma plataforma de código aberto eficiente e fácil de usar para todos os desenvolvedores de IA, tornando as tecnologias e algoritmos de ponta acessíveis."
42
+ },
40
43
  "minimax": {
41
44
  "description": "MiniMax é uma empresa de tecnologia de inteligência artificial geral fundada em 2021, dedicada a co-criar inteligência com os usuários. A MiniMax desenvolveu internamente diferentes modelos gerais de grande escala, incluindo um modelo de texto MoE com trilhões de parâmetros, um modelo de voz e um modelo de imagem. Também lançou aplicações como Conch AI."
42
45
  },
@@ -610,6 +610,9 @@
610
610
  "grok-beta": {
611
611
  "description": "Обладает производительностью, сопоставимой с Grok 2, но с большей эффективностью, скоростью и функциональностью."
612
612
  },
613
+ "grok-vision-beta": {
614
+ "description": "Новейшая модель понимания изображений, способная обрабатывать разнообразную визуальную информацию, включая документы, графики, скриншоты и фотографии."
615
+ },
613
616
  "gryphe/mythomax-l2-13b": {
614
617
  "description": "MythoMax l2 13B — это языковая модель, объединяющая креативность и интеллект, основанная на нескольких ведущих моделях."
615
618
  },
@@ -646,6 +649,12 @@
646
649
  "internlm/internlm2_5-7b-chat": {
647
650
  "description": "InternLM2.5 предлагает интеллектуальные решения для диалогов в различных сценариях."
648
651
  },
652
+ "internlm2-pro-chat": {
653
+ "description": "Старая версия модели, которую мы все еще поддерживаем, доступная с параметрами 7B и 20B."
654
+ },
655
+ "internlm2.5-latest": {
656
+ "description": "Наша последняя серия моделей с выдающимися показателями вывода, поддерживающая длину контекста до 1M и обладающая улучшенными возможностями следования инструкциям и вызова инструментов."
657
+ },
649
658
  "jamba-1.5-large": {},
650
659
  "jamba-1.5-mini": {},
651
660
  "lite": {
@@ -969,6 +978,9 @@
969
978
  "pixtral-12b-2409": {
970
979
  "description": "Модель Pixtral демонстрирует мощные способности в задачах графиков и понимания изображений, вопросов и ответов по документам, многомодального вывода и соблюдения инструкций, способная обрабатывать изображения в естественном разрешении и соотношении сторон, а также обрабатывать произвольное количество изображений в контекстном окне длиной до 128K токенов."
971
980
  },
981
+ "pixtral-large-latest": {
982
+ "description": "Pixtral Large — это открытая многомодальная модель с 1240 миллиардами параметров, основанная на Mistral Large 2. Это вторая модель в нашей многомодальной семье, демонстрирующая передовые уровни понимания изображений."
983
+ },
972
984
  "pro-128k": {
973
985
  "description": "Spark Pro 128K оснащен огромной способностью обработки контекста, способной обрабатывать до 128K контекстной информации, что делает его особенно подходящим для анализа длинных текстов и обработки долгосрочных логических связей, обеспечивая плавную и последовательную логику и разнообразную поддержку ссылок в сложных текстовых коммуникациях."
974
986
  },
@@ -37,6 +37,9 @@
37
37
  "hunyuan": {
38
38
  "description": "Большая языковая модель, разработанная Tencent, обладающая мощными способностями к созданию текстов на китайском языке, логическим рассуждениям в сложных контекстах и надежным выполнением задач."
39
39
  },
40
+ "internlm": {
41
+ "description": "Открытая организация, занимающаяся исследованием и разработкой инструментов для больших моделей. Предоставляет всем разработчикам ИИ эффективную и удобную открытую платформу, позволяя получить доступ к самым современным технологиям больших моделей и алгоритмов."
42
+ },
40
43
  "minimax": {
41
44
  "description": "MiniMax — это компания по разработке универсального искусственного интеллекта, основанная в 2021 году, стремящаяся к совместному созданию интеллекта с пользователями. MiniMax самостоятельно разработала универсальные большие модели различных модальностей, включая текстовые модели с триллионом параметров, модели речи и модели изображений. Также были запущены приложения, такие как Conch AI."
42
45
  },
@@ -610,6 +610,9 @@
610
610
  "grok-beta": {
611
611
  "description": "Grok 2 ile karşılaştırılabilir performansa sahip, ancak daha yüksek verimlilik, hız ve işlevsellik sunar."
612
612
  },
613
+ "grok-vision-beta": {
614
+ "description": "En son görüntü anlama modeli, belgeler, grafikler, ekran görüntüleri ve fotoğraflar gibi çeşitli görsel bilgileri işleyebilir."
615
+ },
613
616
  "gryphe/mythomax-l2-13b": {
614
617
  "description": "MythoMax l2 13B, birden fazla üst düzey modelin birleşimiyle yaratıcı ve zeka odaklı bir dil modelidir."
615
618
  },
@@ -646,6 +649,12 @@
646
649
  "internlm/internlm2_5-7b-chat": {
647
650
  "description": "InternLM2.5, çoklu senaryolarda akıllı diyalog çözümleri sunar."
648
651
  },
652
+ "internlm2-pro-chat": {
653
+ "description": "Hala bakımını yaptığımız eski sürüm model, 7B ve 20B gibi çeşitli model parametreleri sunmaktadır."
654
+ },
655
+ "internlm2.5-latest": {
656
+ "description": "En son model serimiz, olağanüstü çıkarım performansına sahiptir, 1M bağlam uzunluğunu destekler ve daha güçlü talimat takibi ve araç çağırma yetenekleri sunar."
657
+ },
649
658
  "jamba-1.5-large": {},
650
659
  "jamba-1.5-mini": {},
651
660
  "lite": {
@@ -969,6 +978,9 @@
969
978
  "pixtral-12b-2409": {
970
979
  "description": "Pixtral modeli, grafik ve görüntü anlama, belge yanıtı, çok modlu akıl yürütme ve talimat takibi gibi görevlerde güçlü yetenekler sergiler, doğal çözünürlük ve en boy oranında görüntüleri alabilir ve 128K token uzunluğunda bir bağlam penceresinde herhangi bir sayıda görüntüyü işleyebilir."
971
980
  },
981
+ "pixtral-large-latest": {
982
+ "description": "Pixtral Large, 1240 milyar parametreye sahip açık kaynaklı çok modlu bir modeldir ve Mistral Large 2 üzerine inşa edilmiştir. Bu, çok modlu ailemizdeki ikinci modeldir ve öncü düzeyde görüntü anlama yetenekleri sergilemektedir."
983
+ },
972
984
  "pro-128k": {
973
985
  "description": "Spark Pro 128K, olağanüstü bağlam işleme yeteneği ile donatılmıştır ve 128K'ya kadar bağlam bilgilerini işleyebilir. Özellikle uzun metinlerin bütünsel analizi ve uzun vadeli mantıksal ilişkilerin işlenmesi gereken durumlar için uygundur ve karmaşık metin iletişiminde akıcı ve tutarlı bir mantık ile çeşitli alıntı desteği sunmaktadır."
974
986
  },
@@ -37,6 +37,9 @@
37
37
  "hunyuan": {
38
38
  "description": "Tencent tarafından geliştirilen büyük bir dil modeli, güçlü Çince yaratım yeteneklerine, karmaşık bağlamlarda mantıksal akıl yürütme yeteneğine ve güvenilir görev yerine getirme yeteneğine sahiptir."
39
39
  },
40
+ "internlm": {
41
+ "description": "Büyük model araştırma ve geliştirme araç zincirine adanmış bir açık kaynak organizasyonu. Tüm AI geliştiricilerine verimli ve kullanımı kolay bir açık kaynak platformu sunarak en son büyük model ve algoritma teknolojilerine erişimi kolaylaştırır."
42
+ },
40
43
  "minimax": {
41
44
  "description": "MiniMax, 2021 yılında kurulan genel yapay zeka teknolojisi şirketidir ve kullanıcılarla birlikte akıllı çözümler yaratmayı hedeflemektedir. MiniMax, farklı modlarda genel büyük modeller geliştirmiştir. Bunlar arasında trilyon parametreli MoE metin büyük modeli, ses büyük modeli ve görüntü büyük modeli bulunmaktadır. Ayrıca, Conch AI gibi uygulamalar da sunmaktadır."
42
45
  },
@@ -610,6 +610,9 @@
610
610
  "grok-beta": {
611
611
  "description": "Có hiệu suất tương đương với Grok 2, nhưng hiệu quả, tốc độ và tính năng cao hơn."
612
612
  },
613
+ "grok-vision-beta": {
614
+ "description": "Mô hình hiểu hình ảnh mới nhất, có khả năng xử lý nhiều loại thông tin hình ảnh khác nhau, bao gồm tài liệu, biểu đồ, ảnh chụp màn hình và ảnh."
615
+ },
613
616
  "gryphe/mythomax-l2-13b": {
614
617
  "description": "MythoMax l2 13B là mô hình ngôn ngữ kết hợp giữa sáng tạo và trí thông minh, kết hợp nhiều mô hình hàng đầu."
615
618
  },
@@ -646,6 +649,12 @@
646
649
  "internlm/internlm2_5-7b-chat": {
647
650
  "description": "InternLM2.5 cung cấp giải pháp đối thoại thông minh cho nhiều tình huống."
648
651
  },
652
+ "internlm2-pro-chat": {
653
+ "description": "Mô hình phiên bản cũ mà chúng tôi vẫn đang duy trì, có sẵn với nhiều tùy chọn tham số 7B và 20B."
654
+ },
655
+ "internlm2.5-latest": {
656
+ "description": "Dòng mô hình mới nhất của chúng tôi, có hiệu suất suy luận xuất sắc, hỗ trợ độ dài ngữ cảnh 1M và khả năng theo dõi chỉ dẫn và gọi công cụ mạnh mẽ hơn."
657
+ },
649
658
  "jamba-1.5-large": {},
650
659
  "jamba-1.5-mini": {},
651
660
  "lite": {
@@ -969,6 +978,9 @@
969
978
  "pixtral-12b-2409": {
970
979
  "description": "Mô hình Pixtral thể hiện khả năng mạnh mẽ trong các nhiệm vụ như hiểu biểu đồ và hình ảnh, hỏi đáp tài liệu, suy luận đa phương tiện và tuân thủ hướng dẫn, có khả năng tiếp nhận hình ảnh với độ phân giải và tỷ lệ khung hình tự nhiên, cũng như xử lý bất kỳ số lượng hình ảnh nào trong cửa sổ ngữ cảnh dài lên đến 128K token."
971
980
  },
981
+ "pixtral-large-latest": {
982
+ "description": "Pixtral Large là một mô hình đa phương thức mã nguồn mở với 1240 tỷ tham số, được xây dựng dựa trên Mistral Large 2. Đây là mô hình thứ hai trong gia đình đa phương thức của chúng tôi, thể hiện khả năng hiểu hình ảnh ở mức tiên tiến."
983
+ },
972
984
  "pro-128k": {
973
985
  "description": "Spark Pro 128K được cấu hình với khả năng xử lý ngữ cảnh cực lớn, có thể xử lý tới 128K thông tin ngữ cảnh, đặc biệt phù hợp cho việc phân tích toàn bộ và xử lý mối liên hệ logic lâu dài trong nội dung văn bản dài, có thể cung cấp logic mạch lạc và hỗ trợ trích dẫn đa dạng trong giao tiếp văn bản phức tạp."
974
986
  },
@@ -37,6 +37,9 @@
37
37
  "hunyuan": {
38
38
  "description": "Mô hình ngôn ngữ lớn được phát triển bởi Tencent, có khả năng sáng tạo tiếng Trung mạnh mẽ, khả năng suy luận logic trong các ngữ cảnh phức tạp, và khả năng thực hiện nhiệm vụ đáng tin cậy."
39
39
  },
40
+ "internlm": {
41
+ "description": "Tổ chức mã nguồn mở chuyên nghiên cứu và phát triển công cụ cho mô hình lớn. Cung cấp nền tảng mã nguồn mở hiệu quả, dễ sử dụng cho tất cả các nhà phát triển AI, giúp tiếp cận công nghệ mô hình lớn và thuật toán tiên tiến nhất."
42
+ },
40
43
  "minimax": {
41
44
  "description": "MiniMax là công ty công nghệ trí tuệ nhân tạo tổng quát được thành lập vào năm 2021, cam kết cùng người dùng sáng tạo trí thông minh. MiniMax đã tự phát triển nhiều mô hình lớn đa phương thức, bao gồm mô hình văn bản MoE với một triệu tham số, mô hình giọng nói và mô hình hình ảnh. Họ cũng đã phát hành các ứng dụng như AI Hải Lý."
42
45
  },
@@ -610,6 +610,9 @@
610
610
  "grok-beta": {
611
611
  "description": "拥有与 Grok 2 相当的性能,但具有更高的效率、速度和功能。"
612
612
  },
613
+ "grok-vision-beta": {
614
+ "description": "最新的图像理解模型,可以处理各种各样的视觉信息,包括文档、图表、截图和照片等。"
615
+ },
613
616
  "gryphe/mythomax-l2-13b": {
614
617
  "description": "MythoMax l2 13B 是一款合并了多个顶尖模型的创意与智能相结合的语言模型。"
615
618
  },
@@ -646,6 +649,12 @@
646
649
  "internlm/internlm2_5-7b-chat": {
647
650
  "description": "InternLM2.5 提供多场景下的智能对话解决方案。"
648
651
  },
652
+ "internlm2-pro-chat": {
653
+ "description": "我们仍在维护的老版本模型,有 7B、20B 多种模型参数量可选。"
654
+ },
655
+ "internlm2.5-latest": {
656
+ "description": "我们最新的模型系列,有着卓越的推理性能,支持 1M 的上下文长度以及更强的指令跟随和工具调用能力。"
657
+ },
649
658
  "jamba-1.5-large": {},
650
659
  "jamba-1.5-mini": {},
651
660
  "lite": {
@@ -969,6 +978,9 @@
969
978
  "pixtral-12b-2409": {
970
979
  "description": "Pixtral 模型在图表和图理解、文档问答、多模态推理和指令遵循等任务上表现出强大的能力,能够以自然分辨率和宽高比摄入图像,还能够在长达 128K 令牌的长上下文窗口中处理任意数量的图像。"
971
980
  },
981
+ "pixtral-large-latest": {
982
+ "description": "Pixtral Large 是一款拥有 1240 亿参数的开源多模态模型,基于 Mistral Large 2 构建。这是我们多模态家族中的第二款模型,展现了前沿水平的图像理解能力。"
983
+ },
972
984
  "pro-128k": {
973
985
  "description": "Spark Pro 128K 配置了特大上下文处理能力,能够处理多达128K的上下文信息,特别适合需通篇分析和长期逻辑关联处理的长文内容,可在复杂文本沟通中提供流畅一致的逻辑与多样的引用支持。"
974
986
  },
@@ -37,6 +37,9 @@
37
37
  "hunyuan": {
38
38
  "description": "由腾讯研发的大语言模型,具备强大的中文创作能力,复杂语境下的逻辑推理能力,以及可靠的任务执行能力"
39
39
  },
40
+ "internlm": {
41
+ "description": "致力于大模型研究与开发工具链的开源组织。为所有 AI 开发者提供高效、易用的开源平台,让最前沿的大模型与算法技术触手可及"
42
+ },
40
43
  "minimax": {
41
44
  "description": "MiniMax 是 2021 年成立的通用人工智能科技公司,致力于与用户共创智能。MiniMax 自主研发了不同模态的通用大模型,其中包括万亿参数的 MoE 文本大模型、语音大模型以及图像大模型。并推出了海螺 AI 等应用。"
42
45
  },
@@ -610,6 +610,9 @@
610
610
  "grok-beta": {
611
611
  "description": "擁有與 Grok 2 相當的性能,但具備更高的效率、速度和功能。"
612
612
  },
613
+ "grok-vision-beta": {
614
+ "description": "最新的圖像理解模型,可以處理各種各樣的視覺信息,包括文檔、圖表、截圖和照片等。"
615
+ },
613
616
  "gryphe/mythomax-l2-13b": {
614
617
  "description": "MythoMax l2 13B 是一款合併了多個頂尖模型的創意與智能相結合的語言模型。"
615
618
  },
@@ -646,6 +649,12 @@
646
649
  "internlm/internlm2_5-7b-chat": {
647
650
  "description": "InternLM2.5 提供多場景下的智能對話解決方案。"
648
651
  },
652
+ "internlm2-pro-chat": {
653
+ "description": "我們仍在維護的舊版本模型,有 7B、20B 多種模型參數量可選。"
654
+ },
655
+ "internlm2.5-latest": {
656
+ "description": "我們最新的模型系列,有著卓越的推理性能,支持 1M 的上下文長度以及更強的指令跟隨和工具調用能力。"
657
+ },
649
658
  "jamba-1.5-large": {},
650
659
  "jamba-1.5-mini": {},
651
660
  "lite": {
@@ -969,6 +978,9 @@
969
978
  "pixtral-12b-2409": {
970
979
  "description": "Pixtral模型在圖表和圖理解、文檔問答、多模態推理和指令遵循等任務上表現出強大的能力,能夠以自然分辨率和寬高比攝入圖像,還能夠在長達128K令牌的長上下文窗口中處理任意數量的圖像。"
971
980
  },
981
+ "pixtral-large-latest": {
982
+ "description": "Pixtral Large 是一款擁有 1240 億參數的開源多模態模型,基於 Mistral Large 2 構建。這是我們多模態家族中的第二款模型,展現了前沿水平的圖像理解能力。"
983
+ },
972
984
  "pro-128k": {
973
985
  "description": "Spark Pro 128K 配置了特大上下文處理能力,能夠處理多達128K的上下文信息,特別適合需通篇分析和長期邏輯關聯處理的長文內容,可在複雜文本溝通中提供流暢一致的邏輯與多樣的引用支持。"
974
986
  },
@@ -37,6 +37,9 @@
37
37
  "hunyuan": {
38
38
  "description": "由騰訊研發的大語言模型,具備強大的中文創作能力、複雜語境下的邏輯推理能力,以及可靠的任務執行能力"
39
39
  },
40
+ "internlm": {
41
+ "description": "致力於大模型研究與開發工具鏈的開源組織。為所有 AI 開發者提供高效、易用的開源平台,讓最前沿的大模型與算法技術觸手可及"
42
+ },
40
43
  "minimax": {
41
44
  "description": "MiniMax 是 2021 年成立的通用人工智慧科技公司,致力於與用戶共創智能。MiniMax 自主研發了不同模態的通用大模型,其中包括萬億參數的 MoE 文本大模型、語音大模型以及圖像大模型。並推出了海螺 AI 等應用。"
42
45
  },
package/package.json CHANGED
@@ -1,6 +1,6 @@
1
1
  {
2
2
  "name": "@lobehub/chat",
3
- "version": "1.32.3",
3
+ "version": "1.32.5",
4
4
  "description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
5
5
  "keywords": [
6
6
  "framework",
@@ -302,7 +302,7 @@
302
302
  "vitest": "~1.2.2",
303
303
  "vitest-canvas-mock": "^0.3.3"
304
304
  },
305
- "packageManager": "pnpm@9.13.2",
305
+ "packageManager": "pnpm@9.14.2",
306
306
  "publishConfig": {
307
307
  "access": "public",
308
308
  "registry": "https://registry.npmjs.org"
@@ -0,0 +1,39 @@
1
+ import React, { memo, useMemo } from 'react';
2
+
3
+ import { ChatItem } from '@/features/Conversation';
4
+ import ActionsBar from '@/features/Conversation/components/ChatItem/ActionsBar';
5
+ import { useAgentStore } from '@/store/agent';
6
+ import { agentSelectors } from '@/store/agent/selectors';
7
+ import { useChatStore } from '@/store/chat';
8
+ import { chatSelectors } from '@/store/chat/selectors';
9
+
10
+ export interface ThreadChatItemProps {
11
+ id: string;
12
+ index: number;
13
+ }
14
+
15
+ const MainChatItem = memo<ThreadChatItemProps>(({ id, index }) => {
16
+ const [historyLength] = useChatStore((s) => [chatSelectors.mainDisplayChatIDs(s).length]);
17
+
18
+ const enableHistoryDivider = useAgentStore((s) => {
19
+ const config = agentSelectors.currentAgentChatConfig(s);
20
+ return (
21
+ config.enableHistoryCount &&
22
+ historyLength > (config.historyCount ?? 0) &&
23
+ config.historyCount === historyLength - index
24
+ );
25
+ });
26
+
27
+ const actionBar = useMemo(() => <ActionsBar id={id} />, [id]);
28
+
29
+ return (
30
+ <ChatItem
31
+ actionBar={actionBar}
32
+ enableHistoryDivider={enableHistoryDivider}
33
+ id={id}
34
+ index={index}
35
+ />
36
+ );
37
+ });
38
+
39
+ export default MainChatItem;
@@ -1,35 +1,41 @@
1
1
  'use client';
2
2
 
3
- import isEqual from 'fast-deep-equal';
4
- import React, { memo } from 'react';
3
+ import React, { memo, useCallback } from 'react';
5
4
 
6
- import { InboxWelcome, VirtualizedList } from '@/features/Conversation';
5
+ import { SkeletonList, VirtualizedList } from '@/features/Conversation';
7
6
  import { useChatStore } from '@/store/chat';
8
7
  import { chatSelectors } from '@/store/chat/selectors';
9
8
  import { useSessionStore } from '@/store/session';
10
9
 
10
+ import MainChatItem from './ChatItem';
11
+ import Welcome from './WelcomeChatItem';
12
+
11
13
  interface ListProps {
12
14
  mobile?: boolean;
13
15
  }
14
16
 
15
17
  const Content = memo<ListProps>(({ mobile }) => {
16
- const [activeTopicId, useFetchMessages, showInboxWelcome, isCurrentChatLoaded] = useChatStore(
17
- (s) => [
18
- s.activeTopicId,
19
- s.useFetchMessages,
20
- chatSelectors.showInboxWelcome(s),
21
- chatSelectors.isCurrentChatLoaded(s),
22
- ],
23
- );
18
+ const [activeTopicId, useFetchMessages, isCurrentChatLoaded] = useChatStore((s) => [
19
+ s.activeTopicId,
20
+ s.useFetchMessages,
21
+ chatSelectors.isCurrentChatLoaded(s),
22
+ ]);
24
23
 
25
24
  const [sessionId] = useSessionStore((s) => [s.activeId]);
26
25
  useFetchMessages(sessionId, activeTopicId);
27
26
 
28
- const data = useChatStore(chatSelectors.currentChatIDsWithGuideMessage, isEqual);
27
+ const data = useChatStore(chatSelectors.mainDisplayChatIDs);
28
+
29
+ const itemContent = useCallback(
30
+ (index: number, id: string) => <MainChatItem id={id} index={index} />,
31
+ [mobile],
32
+ );
33
+
34
+ if (!isCurrentChatLoaded) return <SkeletonList mobile={mobile} />;
29
35
 
30
- if (showInboxWelcome && isCurrentChatLoaded) return <InboxWelcome />;
36
+ if (data.length === 0) return <Welcome />;
31
37
 
32
- return <VirtualizedList dataSource={data} mobile={mobile} />;
38
+ return <VirtualizedList dataSource={data} itemContent={itemContent} mobile={mobile} />;
33
39
  });
34
40
 
35
41
  Content.displayName = 'ChatListRender';
@@ -0,0 +1,44 @@
1
+ import { ChatItem } from '@lobehub/ui';
2
+ import isEqual from 'fast-deep-equal';
3
+ import React from 'react';
4
+ import { useTranslation } from 'react-i18next';
5
+
6
+ import { useAgentStore } from '@/store/agent';
7
+ import { agentSelectors } from '@/store/agent/selectors';
8
+ import { useChatStore } from '@/store/chat';
9
+ import { featureFlagsSelectors, useServerConfigStore } from '@/store/serverConfig';
10
+ import { useSessionStore } from '@/store/session';
11
+ import { sessionMetaSelectors } from '@/store/session/selectors';
12
+
13
+ const WelcomeMessage = () => {
14
+ const { t } = useTranslation('chat');
15
+ const [type = 'chat'] = useAgentStore((s) => {
16
+ const config = agentSelectors.currentAgentChatConfig(s);
17
+ return [config.displayMode];
18
+ });
19
+
20
+ const meta = useSessionStore(sessionMetaSelectors.currentAgentMeta, isEqual);
21
+ const { isAgentEditable } = useServerConfigStore(featureFlagsSelectors);
22
+ const activeId = useChatStore((s) => s.activeId);
23
+
24
+ const agentSystemRoleMsg = t('agentDefaultMessageWithSystemRole', {
25
+ name: meta.title || t('defaultAgent'),
26
+ systemRole: meta.description,
27
+ });
28
+
29
+ const agentMsg = t(isAgentEditable ? 'agentDefaultMessage' : 'agentDefaultMessageWithoutEdit', {
30
+ name: meta.title || t('defaultAgent'),
31
+ url: `/chat/settings?session=${activeId}`,
32
+ });
33
+
34
+ return (
35
+ <ChatItem
36
+ avatar={meta}
37
+ editing={false}
38
+ message={!!meta.description ? agentSystemRoleMsg : agentMsg}
39
+ placement={'left'}
40
+ type={type === 'chat' ? 'block' : 'pure'}
41
+ />
42
+ );
43
+ };
44
+ export default WelcomeMessage;
@@ -0,0 +1,17 @@
1
+ import React, { memo } from 'react';
2
+
3
+ import { useChatStore } from '@/store/chat';
4
+ import { chatSelectors } from '@/store/chat/selectors';
5
+
6
+ import InboxWelcome from './InboxWelcome';
7
+ import WelcomeMessage from './WelcomeMessage';
8
+
9
+ const WelcomeChatItem = memo(() => {
10
+ const showInboxWelcome = useChatStore(chatSelectors.showInboxWelcome);
11
+
12
+ if (showInboxWelcome) return <InboxWelcome />;
13
+
14
+ return <WelcomeMessage />;
15
+ });
16
+
17
+ export default WelcomeChatItem;
@@ -1,23 +1,11 @@
1
1
  'use client';
2
2
 
3
- import { ActionIcon } from '@lobehub/ui';
4
- import { XIcon } from 'lucide-react';
5
3
  import { memo } from 'react';
6
4
 
7
- import SidebarHeader from '@/components/SidebarHeader';
8
5
  import { PortalHeader } from '@/features/Portal/router';
9
- import { useChatStore } from '@/store/chat';
10
6
 
11
7
  const Header = memo(() => {
12
- const [toggleInspector] = useChatStore((s) => [s.togglePortal]);
13
-
14
- return (
15
- <SidebarHeader
16
- actions={<ActionIcon icon={XIcon} onClick={() => toggleInspector(false)} />}
17
- style={{ paddingBlock: 8, paddingInline: 8 }}
18
- title={<PortalHeader />}
19
- />
20
- );
8
+ return <PortalHeader />;
21
9
  });
22
10
 
23
11
  export default Header;
@@ -2,6 +2,7 @@ import { Metadata } from 'next';
2
2
 
3
3
  import { appEnv } from '@/config/app';
4
4
  import { BRANDING_LOGO_URL, BRANDING_NAME, ORG_NAME } from '@/const/branding';
5
+ import { DEFAULT_LANG } from '@/const/locale';
5
6
  import { OFFICIAL_URL, OG_URL } from '@/const/url';
6
7
  import { isCustomBranding, isCustomORG } from '@/const/version';
7
8
  import { translation } from '@/server/translation';
@@ -42,7 +43,7 @@ export const generateMetadata = async (): Promise<Metadata> => {
42
43
  width: 1200,
43
44
  },
44
45
  ],
45
- locale: 'en-US',
46
+ locale: DEFAULT_LANG,
46
47
  siteName: BRANDING_NAME,
47
48
  title: BRANDING_NAME,
48
49
  type: 'website',
@@ -26,6 +26,7 @@ const BrandWatermark = memo<Omit<FlexboxProps, 'children'>>(({ style, ...rest })
26
26
  return (
27
27
  <Flexbox
28
28
  align={'center'}
29
+ dir={'ltr'}
29
30
  flex={'none'}
30
31
  gap={4}
31
32
  horizontal
@@ -2,6 +2,6 @@ export const LOADING_FLAT = '...';
2
2
 
3
3
  export const MESSAGE_CANCEL_FLAT = 'canceled';
4
4
 
5
- export const MESSAGE_THREAD_DIVIDER_ID = 'thread-divider';
5
+ export const MESSAGE_THREAD_DIVIDER_ID = '__THREAD_DIVIDER__';
6
6
 
7
7
  export const MESSAGE_WELCOME_GUIDE_ID = 'welcome';