AnythingLLM: La aplicación de IA todo en uno que estabas buscando.
Chatea con tus documentos, utiliza Agentes de IA, altamente configurable, multiusuario, y sin configuraciones frustrantes.
|
|
Docs
|
Instancia alojada
👉 ¡AnythingLLM para escritorio (Mac, Windows y Linux)! Descarga ahora
Una aplicación full-stack que te permite convertir cualquier documento, recurso o contenido en contexto que cualquier LLM pueda usar como referencia durante el chat. Esta aplicación te permite elegir qué LLM o Base de Datos Vectorial deseas usar, además de soportar la gestión multiusuario y permisos.
¡Mira la demo!
Descripción general del producto
AnythingLLM es una aplicación full-stack donde puedes usar LLMs comerciales o populares LLMs open source y soluciones vectorDB para construir un ChatGPT privado sin compromisos que puedes ejecutar localmente así como alojar de forma remota y poder chatear de forma inteligente con cualquier documento que le proporciones.
AnythingLLM divide tus documentos en objetos llamados workspaces (espacios de trabajo). Un Workspace funciona como un hilo, pero con la adición de la contenedorización de tus documentos. Los Workspaces pueden compartir documentos, pero no se comunican entre sí, por lo que puedes mantener el contexto de cada workspace limpio.
Funcionalidades destacadas de AnythingLLM
- 🆕 Total compatibilidad con MCP
- 🆕 Constructor de Agentes de IA sin código
- 🖼️ Soporte multimodal (¡LLMs cerrados y open source!)
- Agentes de IA personalizados
- 👤 Soporte multiusuario y permisos _solo versión Docker_
- 🦾 Agentes dentro de tu workspace (navega la web, etc)
- 💬 Widget de chat personalizable para tu sitio web _solo versión Docker_
- 📖 Soporte para múltiples tipos de documentos (PDF, TXT, DOCX, etc)
- Interfaz de chat simple con funcionalidad de arrastrar y soltar y citas claras.
- 100% lista para despliegue en la nube.
- Funciona con todos los proveedores de LLM populares, cerrados y open source.
- Medidas integradas de ahorro de costes y tiempo para gestionar documentos muy grandes, comparado con cualquier otra UI de chat.
- API de desarrollador completa para integraciones personalizadas.
- ¡Mucho más... instálalo y descúbrelo!
LLMs, modelos de embedding, modelos de voz y bases de datos vectoriales soportados
Modelos de Lenguaje Grande (LLMs):
- Cualquier modelo open source compatible con llama.cpp
- OpenAI
- OpenAI (Genérico)
- Azure OpenAI
- AWS Bedrock
- Anthropic
- NVIDIA NIM (modelos de chat)
- Google Gemini Pro
- Hugging Face (modelos de chat)
- Ollama (modelos de chat)
- LM Studio (todos los modelos)
- LocalAI (todos los modelos)
- Together AI (modelos de chat)
- Fireworks AI (modelos de chat)
- Perplexity (modelos de chat)
- OpenRouter (modelos de chat)
- DeepSeek (modelos de chat)
- Mistral
- Groq
- Cohere
- KoboldCPP
- LiteLLM
- Text Generation Web UI
- Apipie
- xAI
- Novita AI (modelos de chat)
- PPIO
- Embedder nativo de AnythingLLM (predeterminado)
- OpenAI
- Azure OpenAI
- LocalAI (todos)
- Ollama (todos)
- LM Studio (todos)
- Cohere
- Integrado en AnythingLLM (predeterminado)
- OpenAI
- Nativo del navegador (predeterminado)
- PiperTTSLocal - corre en el navegador
- OpenAI TTS
- ElevenLabs
- Cualquier servicio TTS compatible con OpenAI.
- Nativo del navegador (predeterminado)
Descripción técnica
Este monorepo consiste en seis secciones principales:
frontend: Un frontend viteJS + React que puedes ejecutar para crear y administrar fácilmente todo tu contenido que el LLM puede usar.server: Un servidor NodeJS express para manejar todas las interacciones y gestionar toda la administración de vectorDB e interacciones con LLM.collector: Servidor NodeJS express que procesa y analiza documentos desde la UI.docker: Instrucciones Docker y proceso de construcción + información para construir desde el código fuente.embed: Submódulo para la generación y creación del widget web embebible.browser-extension: Submódulo para la extensión de navegador Chrome.
🛳 Autoalojamiento
Mintplex Labs y la comunidad mantienen varios métodos de despliegue, scripts y plantillas que puedes usar para ejecutar AnythingLLM localmente. Consulta la siguiente tabla para ver cómo desplegar en tu entorno preferido o para desplegar automáticamente. | Docker | AWS | GCP | Digital Ocean | Render.com | |----------------------------------------|----|-----|---------------|------------| | [![Deploy on Docker][docker-btn]][docker-deploy] | [![Deploy on AWS][aws-btn]][aws-deploy] | [![Deploy on GCP][gcp-btn]][gcp-deploy] | [![Deploy on DigitalOcean][do-btn]][do-deploy] | [![Deploy on Render.com][render-btn]][render-deploy] |
| Railway | RepoCloud | Elestio | | --- | --- | --- | | [![Deploy on Railway][railway-btn]][railway-deploy] | [![Deploy on RepoCloud][repocloud-btn]][repocloud-deploy] | [![Deploy on Elestio][elestio-btn]][elestio-deploy] |
o configura una instancia de AnythingLLM en producción sin Docker →
Cómo configurar para desarrollo
yarn setupPara rellenar los archivos.envrequeridos que necesitarás en cada sección de la aplicación (desde la raíz del repositorio).- Rellénalos antes de continuar. Asegúrate de que
server/.env.developmentesté completo o las cosas no funcionarán bien. yarn dev:serverPara iniciar el servidor localmente (desde la raíz del repositorio).yarn dev:frontendPara iniciar el frontend localmente (desde la raíz del repositorio).yarn dev:collectorPara ejecutar el colector de documentos (desde la raíz del repositorio).
Aprende sobre el almacenamiento en caché vectorial
Apps e integraciones externas
_Estas son aplicaciones que no son mantenidas por Mintplex Labs, pero son compatibles con AnythingLLM. Una aparición aquí no implica respaldo._
- Midori AI Subsystem Manager - Una forma eficiente y simplificada de desplegar sistemas de IA usando tecnología de contenedores Docker.
- Coolify - Despliega AnythingLLM con un solo clic.
- GPTLocalhost para Microsoft Word - Un complemento local de Word para que uses AnythingLLM en Microsoft Word.
Telemetría y privacidad
AnythingLLM de Mintplex Labs Inc contiene una función de telemetría que recopila información de uso anónima.
Más sobre telemetría y privacidad en AnythingLLM
¿Por qué?
Usamos esta información para ayudarnos a entender cómo se usa AnythingLLM, para priorizar el trabajo en nuevas funcionalidades y corrección de errores, y para mejorar el rendimiento y la estabilidad de AnythingLLM.
Cómo desactivar
EstableceDISABLE_TELEMETRY en la configuración .env de tu servidor o docker a "true" para darte de baja de la telemetría. También puedes hacer esto en la aplicación yendo a la barra lateral > Privacidad y desactivando la telemetría.¿Qué rastreamos explícitamente?
Solo rastrearemos detalles de uso que nos ayuden a tomar decisiones sobre el producto y el roadmap, específicamente:
- Tipo de instalación (Docker o Escritorio)
- Cuando se añade o elimina un documento. Ninguna información _sobre_ el documento. Solo que el evento ocurrió. Esto nos da una idea del uso.
- Tipo de base de datos vectorial en uso. Esto nos ayuda a priorizar cambios cuando llegan actualizaciones para ese proveedor.
- Tipo de proveedor LLM y etiqueta del modelo en uso. Esto nos ayuda a priorizar cambios cuando llegan actualizaciones para ese proveedor o modelo, o combinación de ambos. Ej: modelos de razonamiento vs regulares, modelos multimodales, etc.
- Cuando se envía un chat. Este es el "evento" más habitual y nos da una idea de la actividad diaria del proyecto en todas las instalaciones. De nuevo, solo se envía el evento: no tenemos información sobre la naturaleza o el contenido del chat en sí.
Telemetry.sendTelemetry. Además, estos eventos se escriben en el registro de salida para que también puedas ver los datos específicos que se enviaron, si está habilitado. No se recolecta ninguna IP ni otra información identificativa. El proveedor de Telemetría es PostHog - un servicio de recolección de telemetría de código abierto.Nos tomamos la privacidad muy en serio y esperamos que comprendas que queremos aprender cómo se utiliza nuestra herramienta, sin usar molestas encuestas emergentes, para poder construir algo que valga la pena usar. Los datos anónimos _nunca_ se comparten con terceros, jamás.
Ver todos los eventos de telemetría en el código fuente
👋 Contribuir
- crear issue
- crear PR con formato de nombre de rama
- - LGTM del core-team
💖 Patrocinadores
Patrocinadores Premium
Todos los Patrocinadores
🌟 Contribuidores
🔗 Más Productos
- [VectorAdmin][vector-admin]: Una suite de herramientas y GUI todo en uno para administrar bases de datos vectoriales.
- [OpenAI Assistant Swarm][assistant-swarm]: Convierte toda tu biblioteca de asistentes de OpenAI en un solo ejército comandado desde un solo agente.
[![][back-to-top]](#readme-top)
Copyright © 2025 [Mintplex Labs][profile-link].
Este proyecto tiene licencia MIT.
[back-to-top]: https://img.shields.io/badge/-BACK_TO_TOP-222628?style=flat-square [profile-link]: https://github.com/mintplex-labs [vector-admin]: https://github.com/mintplex-labs/vector-admin [assistant-swarm]: https://github.com/Mintplex-Labs/openai-assistant-swarm [docker-btn]: ./images/deployBtns/docker.png [docker-deploy]: ./docker/HOW_TO_USE_DOCKER.md [aws-btn]: ./images/deployBtns/aws.png [aws-deploy]: ./cloud-deployments/aws/cloudformation/DEPLOY.md [gcp-btn]: https://deploy.cloud.run/button.svg [gcp-deploy]: ./cloud-deployments/gcp/deployment/DEPLOY.md [do-btn]: https://www.deploytodo.com/do-btn-blue.svg [do-deploy]: ./cloud-deployments/digitalocean/terraform/DEPLOY.md [render-btn]: https://render.com/images/deploy-to-render-button.svg [render-deploy]: https://render.com/deploy?repo=https://github.com/Mintplex-Labs/anything-llm&branch=render [render-btn]: https://render.com/images/deploy-to-render-button.svg [render-deploy]: https://render.com/deploy?repo=https://github.com/Mintplex-Labs/anything-llm&branch=render [railway-btn]: https://railway.app/button.svg [railway-deploy]: https://railway.app/template/HNSCS1?referralCode=WFgJkn [repocloud-btn]: https://d16t0pc4846x52.cloudfront.net/deploylobe.svg [repocloud-deploy]: https://repocloud.io/details/?app_id=276 [elestio-btn]: https://elest.io/images/logos/deploy-to-elestio-btn.png [elestio-deploy]: https://elest.io/open-source/anythingllm
--- Tranlated By Open Ai Tx | Last indexed: 2025-06-09 ---




































