Chat gpt model 3.5 self hosted en français (via argos translate) https://ai.legaragenumerique.xyz
You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
 
 
 
 
greg 944ce3eae8 push clean 1 year ago
app push clean 1 year ago
.dockerignore push clean 1 year ago
.env push clean 1 year ago
.gitignore push clean 1 year ago
Dockerfile push clean 1 year ago
README.md push main 1 year ago
docker-compose.yaml push clean 1 year ago
requirements.txt push clean 1 year ago

README.md

GARAGE GPT 👽

CHATGPT

Projet pour héberger un Chat-GPT local s'appuyant sur le projet LocalAI utilisant une simple flaskapp comme frontend.

⚠️ seulement le model ggml-gpt4all-j (gpt-3.5-turbo) est pris en charge pour le moment

PREREQUIS 📎

  • Docker 🐳

MODELS 🗿

CONFIGURATION 🔧

La configuration se fait dans le .env.local:

  • THREADS -> nombre de cores du CPU utilisés (privilègier le nombre de cores physiques au max)
  • DEFAULT_MODEL -> Le modèle chargé par défault (dans la RAM)
  • PRELOAD_MODELS -> Renseigner les adresses des modèles que l'on veux télécharger via l'adresse https://github.com/go-skynet/model-gallery/model.yaml

⚠️ L'image LocalAI fait un peu plus de 12Go et les modèles 7B ou 13B font en moyenne 4 à 6Go

UTILISATION 🏁

  • Premier lancement:
docker compose up -d

Attendre que la stack se build

  • L'interface est accessible à cette adresse:

http://localhost:5000

  • Après les premier lancement:
nano .env
REBUILD=false

A chaque modification des PRELOAD_MODELS, REBUILD=true

voir les logs

docker compose logs -f

OIDC 🔑

voir le README dans le projet flask-keycloak

MODELS OK

ggml-gpt4all-j.bin (= gpt-turbo-3.5)
stablediffusion (image generator)

  • wizardlm-13b-v1.1-superhot-8k.ggmlv3.q4_0.bin
  • open-llama-7b-q4_0.bin -> HS pour le moment
  • whisper (audio to text)
  • bloomz (traduction)
  • wizardcode (code) -> URL model HS

TEST HARDWARE 💻

MODEL PROMPT i5-8350U 16G RAM RYZEN 7 5800X 32G RAM TEMP
GPT-TURBO-3.5 WRITE JS FUNCTION 41S 16s 0.5
STABLEDIFFUSION BLUE FLOWER 90s 20S X

TO DO 📑

une page gpt / une page stablediffusion avec navbar dans base.html
Temperature bouton
formater code (js )
Flask app frontend
authentification Keycloak -> https://git.legaragenumerique.fr/GARAGENUM/flask-keycloak
wsgi.py for prod + DNS

  • ajouter config Nginx (ai.domaine.tld + image.domaine.tld)
  • bouton stop generating ?
  • bouton home
  • conserver context (sqlite / json / session ?)
  • Traduction via LibreTranslate 🇬🇧 -> 🇫🇷
  • restart container si timeout
  • utiliser GPU
  • entraîner avec big GPU

bugs 👻

permissions dossier models (root != user)
image url en prod