Dify.ai
Überblick
Dify ist eine Open-Source-Plattform zum Erstellen von KI-Anwendungen, Agenten und automatisierten Workflows — ohne tiefes Programmier-Know-how. Per Drag-and-Drop lassen sich RAG-Pipelines, Agenten und komplexe Workflows zusammenstellen. Dify unterstützt alle großen LLMs (OpenAI, Anthropic, Llama, Mistral, Azure) und bietet als erste Plattform native MCP-Integration (Model Context Protocol 2025-03-26). Kunden wie Volvo Cars, Ricoh und andere Enterprise-Unternehmen setzen Dify produktiv ein.
Stärken
- Open Source + Cloud: Dify ist auf GitHub verfügbar — wer Datensouveränität braucht, betreibt es selbst. Die Cloud-Version ist für alle anderen sofort startklar.
- Native MCP-Integration: Als eine der ersten Plattformen unterstützt Dify das neue Model Context Protocol — externe APIs und Dienste werden ohne aufwändige Integration angebunden.
- Alle LLMs: OpenAI, Anthropic, Azure OpenAI, Llama, Hugging Face, Replicate — alle an einem Ort vergleichbar und austauschbar.
- RAG Pipeline: Eigene Dokumente, Datenbanken und Wissenquellen werden direkt in KI-Workflows eingebunden.
- Bewährt im Enterprise: Volvo Cars, Ricoh, und Unternehmen mit 19.000+ Mitarbeitern nutzen Dify produktiv.
Schwächen
- Sandkasten-Limits: Der Free-Tier (200 Message Credits gesamt) ist sehr begrenzt — kaum für ernsthaftes Testen geeignet.
- Self-Hosting erfordert DevOps-Kenntnisse — nicht für jeden sinnvoll.
- Community-Support statt dediziertem Support außer im Enterprise-Plan.
Preisübersicht
| Plan | Credits/Monat | Nutzer | Apps |
|---|---|---|---|
| Sandbox (Free) | 200 gesamt | 1 | 5 |
| Professional | 5.000 | 3 | 50 |
| Team | 10.000 | 50 | 200 |
| Enterprise | Custom | Unbegrenzt | Custom |
✅ Stärken
- Open Source
- Native MCP
- Alle LLMs
- RAG Pipelines
- Enterprise-ready
❌ Schwächen
- Sandbox-Tier sehr begrenzt
- Self-Hosting erfordert DevOps