1. Home
  2. /
  3. Blog
  4. /
  5. Vi har pakket Open...
jan 29,2026 No comments yet By Origo

Vi har pakket Open WebUI til Origo OS

Vi har bygget og frigivet en Open WebUI-stack til Origo OS. Det betyder, at du nu kan installere en lokal AI-chat med en LLM efter eget valg på omkring et minut eller to (afhængigt af din downloadhastighed) i en Origo OS privat eller offentlig cloud. Nedenfor er der et par skærmbilleder af download, installation og brug af Open WebUI på Origo OS. Du kan naturligvis gøre præcis det samme ved hjælp af Origo Public Cloud Toolkit.

  • Stacken er konfigureret til at anmode om én GPU. Hvis du vil prøve den udelukkende med CPU (og er forberedt på en ret langsom oplevelse), skal du klikke på “Hide preconfigured settings” under installationen og sætte vGPUs til 0.
  • Vores Open WebUI-stack bruger Ollama som backend. Det betyder, at du kan installere alle modeller fra Ollama ved at skrive “sudo ollama pull ‘model-navn'” i en terminal.
  • Download the Stack to your Origo OS installation

Leave a Comment

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *

*

Dette site anvender Akismet til at reducere spam. Læs om hvordan din kommentar bliver behandlet.

origo