AnythingLLM: Die All-in-One KI-App, nach der du gesucht hast.
Chatte mit deinen Dokumenten, nutze KI-Agenten, hyper-konfigurierbar, Multi-User & keine frustrierende Einrichtung erforderlich.
|
|
Docs
|
Gehostete Instanz
👉 AnythingLLM für Desktop (Mac, Windows & Linux)! Jetzt herunterladen
Eine Full-Stack-Anwendung, mit der du jedes Dokument, jede Ressource oder jeden Inhalt in Kontext verwandeln kannst, den jedes LLM während eines Chats als Referenz nutzen kann. Diese Anwendung erlaubt es dir, auszuwählen, welches LLM oder welche Vektor-Datenbank du verwenden möchtest. Außerdem wird Multi-User-Management und Rechtevergabe unterstützt.
Demo ansehen!
Produktübersicht
AnythingLLM ist eine Full-Stack-Anwendung, mit der du handelsübliche LLMs oder beliebte Open-Source-LLMs und VectorDB-Lösungen verwenden kannst, um ein privates ChatGPT ohne Kompromisse zu erstellen, das du sowohl lokal als auch remote betreiben und mit jedem beliebigen Dokument intelligent chatten kannst.
AnythingLLM unterteilt deine Dokumente in Objekte, sogenannte Workspaces
. Ein Workspace funktioniert ähnlich wie ein Thread, bietet aber zusätzlich die Containerisierung deiner Dokumente. Workspaces können Dokumente teilen, kommunizieren aber nicht miteinander, sodass du für jeden Workspace einen sauberen Kontext behältst.
Coole Features von AnythingLLM
- 🆕 Volle MCP-Kompatibilität
- 🆕 No-Code KI-Agenten-Builder
- 🖼️ Multi-modale Unterstützung (sowohl Closed- als auch Open-Source-LLMs!)
- Eigene KI-Agenten
- 👤 Multi-User-Instanz-Unterstützung und Rechtevergabe _nur Docker-Version_
- 🦾 Agenten innerhalb deines Workspaces (im Web browsen, etc.)
- 💬 Individuelles einbettbares Chat-Widget für deine Webseite _nur Docker-Version_
- 📖 Unterstützung mehrerer Dokumenttypen (PDF, TXT, DOCX, usw.)
- Einfache Chat-UI mit Drag-n-Drop-Funktionalität und klaren Quellenangaben.
- 100% Cloud-Bereitstellung möglich.
- Funktioniert mit allen gängigen Closed- und Open-Source-LLM-Anbietern.
- Eingebaute Kosten- & Zeitersparnis bei der Verarbeitung sehr großer Dokumente im Vergleich zu anderen Chat-UIs.
- Vollständige Entwickler-API für eigene Integrationen!
- Und vieles mehr...installiere und finde es heraus!
Unterstützte LLMs, Embedder-Modelle, Sprachmodelle und Vektordatenbanken
Large Language Models (LLMs):
- Jedes Open-Source llama.cpp-kompatible Modell
- OpenAI
- OpenAI (Generisch)
- Azure OpenAI
- AWS Bedrock
- Anthropic
- NVIDIA NIM (Chat-Modelle)
- Google Gemini Pro
- Hugging Face (Chat-Modelle)
- Ollama (Chat-Modelle)
- LM Studio (alle Modelle)
- LocalAI (alle Modelle)
- Together AI (Chat-Modelle)
- Fireworks AI (Chat-Modelle)
- Perplexity (Chat-Modelle)
- OpenRouter (Chat-Modelle)
- DeepSeek (Chat-Modelle)
- Mistral
- Groq
- Cohere
- KoboldCPP
- LiteLLM
- Text Generation Web UI
- Apipie
- xAI
- Novita AI (Chat-Modelle)
- PPIO
- AnythingLLM Native Embedder (Standard)
- OpenAI
- Azure OpenAI
- LocalAI (alle)
- Ollama (alle)
- LM Studio (alle)
- Cohere
- AnythingLLM Integriert (Standard)
- OpenAI
- Browser-eigene Funktion (Standard)
- PiperTTSLocal – läuft im Browser
- OpenAI TTS
- ElevenLabs
- Jeder OpenAI-kompatible TTS-Dienst.
- Browser-eigene Funktion (Standard)
Technischer Überblick
Dieses Monorepo besteht aus sechs Hauptbereichen:
frontend
: Ein viteJS + React Frontend, mit dem du einfach alle Inhalte erstellen und verwalten kannst, die das LLM nutzen kann.server
: Ein NodeJS Express-Server, der alle Interaktionen abwickelt und das Management der VectorDBs und LLM-Interaktionen übernimmt.collector
: NodeJS Express-Server, der Dokumente aus der UI verarbeitet und parst.docker
: Docker-Anweisungen und Build-Prozess + Informationen für den Eigenbau aus dem Quellcode.embed
: Submodul zur Generierung & Erstellung des Web-Embed-Widgets.browser-extension
: Submodul für die Chrome-Browser-Erweiterung.
🛳 Selbst-Hosting
Mintplex Labs & die Community pflegen eine Reihe von Bereitstellungsmethoden, Skripten und Templates, mit denen du AnythingLLM lokal ausführen kannst. Sieh dir die Tabelle unten an, um zu erfahren, wie du auf deiner bevorzugten Umgebung bereitstellst oder automatisch deployen kannst. | Docker | AWS | GCP | Digital Ocean | Render.com | |----------------------------------------|----|-----|---------------|------------| | [![Deploy on Docker][docker-btn]][docker-deploy] | [![Deploy on AWS][aws-btn]][aws-deploy] | [![Deploy on GCP][gcp-btn]][gcp-deploy] | [![Deploy on DigitalOcean][do-btn]][do-deploy] | [![Deploy on Render.com][render-btn]][render-deploy] |
| Railway | RepoCloud | Elestio | | --- | --- | --- | | [![Deploy on Railway][railway-btn]][railway-deploy] | [![Deploy on RepoCloud][repocloud-btn]][repocloud-deploy] | [![Deploy on Elestio][elestio-btn]][elestio-deploy] |
oder richte eine Produktionsinstanz von AnythingLLM ohne Docker ein →
Einrichtung für die Entwicklung
yarn setup
Füllt die benötigten.env
-Dateien in jedem Anwendungsbereich aus (vom Wurzelverzeichnis des Repos aus).- Fülle diese Dateien vor dem Fortfahren aus. Stelle sicher, dass
server/.env.development
ausgefüllt ist, sonst funktioniert es nicht richtig. yarn dev:server
Startet den Server lokal (vom Wurzelverzeichnis des Repos aus).yarn dev:frontend
Startet das Frontend lokal (vom Wurzelverzeichnis des Repos aus).yarn dev:collector
Startet dann den Dokumentensammler (vom Wurzelverzeichnis des Repos aus).
Mehr über Vektor-Caching erfahren
Externe Apps & Integrationen
_Diese Apps werden nicht von Mintplex Labs gepflegt, sind aber mit AnythingLLM kompatibel. Eine Listung hier ist keine Empfehlung._
- Midori AI Subsystem Manager – Ein schlanker und effizienter Weg, KI-Systeme mit Docker-Container-Technologie bereitzustellen.
- Coolify – Stelle AnythingLLM mit einem Klick bereit.
- GPTLocalhost für Microsoft Word – Ein lokales Word Add-in, um AnythingLLM in Microsoft Word zu nutzen.
Telemetrie & Datenschutz
AnythingLLM von Mintplex Labs Inc enthält eine Telemetrie-Funktion, die anonyme Nutzungsdaten sammelt.
Mehr über Telemetrie & Datenschutz bei AnythingLLM
Warum?
Wir nutzen diese Informationen, um zu verstehen, wie AnythingLLM genutzt wird, um unsere Arbeit an neuen Funktionen und Fehlerbehebungen zu priorisieren und um die Performance und Stabilität von AnythingLLM zu verbessern.
Opt-Out
Setzen Sie DISABLE_TELEMETRY
in Ihren Server- oder Docker-.env-Einstellungen auf "true", um die Telemetrie zu deaktivieren. Sie können dies auch in der App tun, indem Sie in der Seitenleiste zu Datenschutz
gehen und die Telemetrie deaktivieren.
Was wird explizit erfasst?
Wir erfassen nur Nutzungsdetails, die uns helfen, Produkt- und Roadmap-Entscheidungen zu treffen, insbesondere:
- Typ Ihrer Installation (Docker oder Desktop)
- Wann ein Dokument hinzugefügt oder entfernt wird. Es werden keine Informationen _über_ das Dokument erfasst. Es wird nur das Eintreten des Ereignisses registriert. Dies gibt uns einen Eindruck über die Nutzung.
- Typ der verwendeten Vektordatenbank. Dies hilft uns, Änderungen zu priorisieren, wenn Updates für diesen Anbieter erscheinen.
- Typ des LLM-Anbieters & Modell-Tag in Verwendung. Dies hilft uns, Änderungen zu priorisieren, wenn Updates für diesen Anbieter oder das Modell erscheinen, oder für deren Kombination. Z.B.: Reasoning vs. regulär, multimodale Modelle usw.
- Wann ein Chat gesendet wird. Dies ist das häufigste "Ereignis" und gibt uns einen Eindruck von der täglichen Aktivität dieses Projekts über alle Installationen hinweg. Auch hier wird nur das Ereignis übermittelt – wir haben keine Informationen über Art oder Inhalt des Chats selbst.
Telemetry.sendTelemetry
aufgerufen wird. Zusätzlich werden diese Ereignisse im Ausgabelog protokolliert, sodass Sie auch die spezifischen Daten sehen können, die – sofern aktiviert – gesendet wurden. Es werden keine IP-Adressen oder andere identifizierende Informationen erfasst. Der Telemetrie-Anbieter ist PostHog – ein Open-Source-Telemetrie-Dienst.Wir nehmen Datenschutz sehr ernst und hoffen, Sie verstehen, dass wir erfahren möchten, wie unser Tool genutzt wird, ohne auf störende Pop-up-Umfragen zurückzugreifen, um so etwas Nützliches aufbauen zu können. Die anonymen Daten werden _niemals_ an Dritte weitergegeben.
Alle Telemetrie-Ereignisse im Quellcode ansehen
👋 Beitrag leisten
- Issue erstellen
- PR mit Branch-Namensformat
erstellen- - LGTM vom Kernteam
💖 Sponsoren
Premium-Sponsoren
Alle Sponsoren
🌟 Mitwirkende
🔗 Weitere Produkte
- [VectorAdmin][vector-admin]: Eine All-in-One-GUI & Tool-Suite zur Verwaltung von Vektordatenbanken.
- [OpenAI Assistant Swarm][assistant-swarm]: Verwandeln Sie Ihre gesamte Bibliothek von OpenAI-Assistenten in eine einzige Armee, gesteuert von einem einzigen Agenten.
[![][back-to-top]](#readme-top)
Copyright © 2025 [Mintplex Labs][profile-link].
Dieses Projekt ist unter der MIT-Lizenz lizenziert.
[back-to-top]: https://img.shields.io/badge/-BACK_TO_TOP-222628?style=flat-square [profile-link]: https://github.com/mintplex-labs [vector-admin]: https://github.com/mintplex-labs/vector-admin [assistant-swarm]: https://github.com/Mintplex-Labs/openai-assistant-swarm [docker-btn]: https://raw.githubusercontent.com/Mintplex-Labs/anything-llm/master/images/deployBtns/docker.png [docker-deploy]: https://raw.githubusercontent.com/Mintplex-Labs/anything-llm/master/docker/HOW_TO_USE_DOCKER.md [aws-btn]: https://raw.githubusercontent.com/Mintplex-Labs/anything-llm/master/images/deployBtns/aws.png [aws-deploy]: https://raw.githubusercontent.com/Mintplex-Labs/anything-llm/master/cloud-deployments/aws/cloudformation/DEPLOY.md [gcp-btn]: https://deploy.cloud.run/button.svg [gcp-deploy]: https://raw.githubusercontent.com/Mintplex-Labs/anything-llm/master/cloud-deployments/gcp/deployment/DEPLOY.md [do-btn]: https://www.deploytodo.com/do-btn-blue.svg [do-deploy]: https://raw.githubusercontent.com/Mintplex-Labs/anything-llm/master/cloud-deployments/digitalocean/terraform/DEPLOY.md [render-btn]: https://render.com/images/deploy-to-render-button.svg [render-deploy]: https://render.com/deploy?repo=https://github.com/Mintplex-Labs/anything-llm&branch=render [railway-btn]: https://railway.app/button.svg [railway-deploy]: https://railway.app/template/HNSCS1?referralCode=WFgJkn [repocloud-btn]: https://d16t0pc4846x52.cloudfront.net/deploylobe.svg [repocloud-deploy]: https://repocloud.io/details/?app_id=276 [elestio-btn]: https://elest.io/images/logos/deploy-to-elestio-btn.png [elestio-deploy]: https://elest.io/open-source/anythingllm --- Tranlated By Open Ai Tx | Last indexed: 2025-06-09 ---