GPT4All : un client de modèle linguistique de grande taille fonctionnant sur des unités centrales, axé sur la localisation et la sécurité des données

GPT4All Introduction générale

GPT-4All est un projet open source développé par Nomic pour permettre aux utilisateurs d'exécuter de grands modèles linguistiques (LLM) sur des appareils locaux. En mettant l'accent sur la protection de la vie privée, le projet peut être utilisé sans connexion Internet et convient aussi bien aux particuliers qu'aux entreprises. GPT-4All prend en charge une large gamme de matériel, notamment les puces Mac série M, les GPU AMD et NVIDIA, et peut être facilement utilisé par les utilisateurs sur des ordinateurs de bureau et des ordinateurs portables. Le projet offre également un modèle open source riche et un soutien communautaire, permettant aux utilisateurs de personnaliser l'expérience du chatbot en fonction de leurs besoins.

 

GPT4All est un écosystème permettant d'exécuter des modèles de langage à grande échelle, puissants et personnalisés, qui fonctionnent nativement sur des processeurs grand public et n'importe quel GPU. Veuillez noter que votre processeur doit supporter les instructions AVX ou AVX2.

Le modèle GPT4All est un fichier de 3 à 8 Go que vous pouvez télécharger et insérer dans le logiciel de l'écosystème open source GPT4All. Nomic AI soutient et entretient cet écosystème logiciel afin d'en garantir la qualité et la sécurité et est le fer de lance des efforts visant à permettre à toute personne ou organisation de former et de déployer facilement ses propres modèles de langage à grande échelle.

Il ne nécessite pas de GPU ni de connexion internet et est capable de réaliser des inférences en temps réel sur le M1 Mac.

 

GPT4All:支持CPU运行的大型语言模型客户端,重视本地化与数据安全

 

GPT4All:支持CPU运行的大型语言模型客户端,重视本地化与数据安全

 

GPT4All:支持CPU运行的大型语言模型客户端,重视本地化与数据安全

 

caractérisation

Votre chat est privé et ne quitte jamais votre appareil !
La confidentialité et la sécurité sont les premières priorités de GPT4All. Utilisez LLM pour gérer vos données locales sensibles qui ne quittent jamais votre appareil.

Exécution de modèles linguistiques sur du matériel grand public
GPT4All vous permet d'exécuter LLM à la fois sur les CPU et les GPU, avec une prise en charge complète des puces Mac série M, des GPU AMD et NVIDIA.

Chat avec des fichiers locaux
Utilisez LocalDocs pour permettre à votre LLM local d'accéder à vos informations privées et sensibles. Il fonctionne sans Internet et aucune donnée ne quitte votre appareil.

Explorer plus de 1000 modèles linguistiques open source
GPT4All prend en charge LLaMa, Mistral, Nous-Hermes et des centaines d'autres modèles populaires.

 

Liste des fonctions

  • opération localeLes LLM : Exécutez les LLM sur votre appareil local sans connexion Internet.
  • Vie privéeLes données sont stockées localement afin de garantir la confidentialité de l'utilisateur.
  • Prise en charge de matériels multiplesCompatible avec les puces Mac série M, les GPU AMD et NVIDIA.
  • communauté open sourceLes modèles à code source ouvert et le soutien de la communauté sont riches.
  • PersonnalisationLes utilisateurs peuvent personnaliser les messages-guides du chatbot, la température, la durée du contexte et d'autres paramètres.
  • Édition EntrepriseLes services d'assistance et de fonctionnalité de l'entreprise pour les déploiements à grande échelle.

 

Utiliser l'aide

Processus d'installation

  1. Télécharger le dossier de candidature: :
    • entretiens Site officiel de Nomic Téléchargez le paquet d'installation pour Windows, macOS ou Ubuntu.
    • Les utilisateurs de Windows et de Linux doivent s'assurer que l'appareil est équipé d'un processeur Intel Core i3 2nd Gen / AMD Bulldozer ou supérieur.
    • Les utilisateurs de macOS doivent utiliser Monterey 12.6 ou une version ultérieure, qui fonctionne mieux sur les processeurs Apple Silicon M-series.
  2. Installation des applications: :
    • Utilisateurs de Windows : Exécutez le programme d'installation téléchargé et suivez les instructions pour terminer l'installation.
    • Utilisateurs de macOS : Faites glisser l'application téléchargée dans le dossier Applications.
    • Utilisateurs d'Ubuntu : Installez le fichier de paquetage téléchargé à l'aide de la ligne de commande.
  3. Lancer l'application: :
    • Une fois l'installation terminée, ouvrez l'application GPT-4All et suivez les instructions pour la configuration initiale.

Lignes directrices pour l'utilisation

  1. Exécution du modèle local: :
    • Après avoir ouvert l'application, sélectionnez le modèle linguistique souhaité pour le télécharger et le charger.
    • Un large éventail de modèles est pris en charge, notamment LLaMa, Mistral, Nous-Hermes et d'autres.
  2. Chatbots personnalisés: :
    • Ajustez les paramètres tels que les alertes système, la température et la durée du contexte dans les paramètres afin d'optimiser l'expérience de chat.
    • Utilisez la fonction LocalDocs pour permettre aux LLM locaux d'accéder à vos données privées sans connexion Internet.
  3. Caractéristiques de l'édition Enterprise: :
    • Les utilisateurs professionnels peuvent contacter Nomic pour obtenir une licence Enterprise Edition afin de bénéficier d'une assistance et de fonctionnalités supplémentaires.
    • L'édition Enterprise convient aux déploiements à grande échelle et offre une sécurité et une assistance accrues.
  4. Soutien communautaire: :
    • Rejoignez la communauté GPT-4All pour participer aux discussions et contribuer au code.
    • entretiens Dépôt GitHub Obtenir les dernières mises à jour et la documentation.

problèmes courants

  • Comment garantir la confidentialité des données ? GPT-4All Toutes les données sont stockées localement sur l'appareil, ce qui garantit le respect de la vie privée de l'utilisateur.
  • Une connexion internet est-elle nécessaire ? Non. Le GPT-4All peut être exécuté complètement hors ligne sur un appareil local.
  • Quel est le matériel pris en charge ? Prend en charge les puces Mac série M, les GPU AMD et NVIDIA, ainsi que les ordinateurs de bureau et portables courants.

 

Analyse comparative du modèle GPT4All

 

ModèleBoolQPIQAHellaSwagWinoGrandeARC-eARC-cOBQAMoyenne
GPT4All-J 6B v1.073.474.863.464.754.93640.258.2
GPT4All-J v1.1-breezy7475.163.263.655.434.938.457.8
GPT4All-J v1.2-jazzy74.874.963.663.856.635.34158.6
GPT4All-J v1.3-groovy73.674.363.863.557.73538.858.1
GPT4All-J Lora 6B68.675.866.263.556.435.740.258.1
GPT4All LLaMa Lora 7B73.177.672.167.851.140.440.260.3
GPT4All 13B snoozy83.379.27571.360.944.243.465.3
GPT4All Falcon77.679.874.970.167.943.442.665.2
Nous-Hermes79.578.98071.974.250.946.468.8
Nous-Hermes283.980.780.171.375.752.146.270.0
Nous-Puffin81.580.780.472.577.650.745.669.9
Dolly 6B68.877.367.663.962.938.741.260.1
Dolly 12B56.775.47162.264.638.540.458.4
Alpaga 7B73.977.273.966.159.843.343.462.5
Alpaca Lora 7B74.379.37468.856.643.942.662.8
GPT-J 6.7B65.476.266.264.162.236.638.258.4
LLama 7B73.177.47366.952.541.442.461.0
LLama 13B68.579.176.270.16044.642.263.0
Pythia 6.7B63.576.36461.161.335.237.256.9
Pythie 12B67.776.667.363.863.934.83858.9
Fastchat T581.564.646.361.849.333.339.453.7
Fastchat Vicuña 7B76.677.270.767.353.541.240.861.0
Fastchat Vicuña 13B81.576.873.366.757.442.743.663.1
StableVicuña RLHF82.378.674.170.96143.544.465.0
StableLM Tuned62.571.253.654.852.431.133.451.3
Base StableLM60.167.441.250.144.9273246.1
Koala 13B76.577.972.668.854.34142.862.0
Open Assistant Pythia 12B67.97868.16564.240.443.261.0
Mosaïque MPT7B74.879.376.368.67042.242.664.8
Mosaïque mpt-instruct74.380.477.267.872.244.64365.6
Mosaïque mpt-chat77.178.274.567.569.443.344.264.9
Magicien 7B78.477.269.966.556.840.542.661.7
Magicien 7B non censuré77.774.26865.253.538.741.659.8
Wizard 13B non censuré78.475.572.169.557.540.44462.5
GPT4-x-Vicuna-13b81.37575.26558.743.943.663.2
Falcon 7b73.680.776.367.37143.344.465.2
Instructeur Falcon 7b70.978.669.866.767.942.741.262.5
texte-davinci-00388.183.883.475.883.963.95175.7
© déclaration de droits d'auteur

Articles connexes

Pas de commentaires

Vous devez être connecté pour participer aux commentaires !
S'inscrire maintenant
aucun
Pas de commentaires...