OpenTicketAI für Zammad: KI-Warteschlangen-Routing und Klassifikation on-premise

OpenTicketAI für Zammad: KI-Warteschlangen-Routing und Klassifikation on-premise

Wie OpenTicketAI eigene Modelle auf Ihre Zammad-Gruppen trainiert, Inferenz vor Ort ausführt und mehr als nur die Zuweisung automatisiert — ohne Ticket-Inhalte aus Ihrer Infrastruktur zu senden.

ZammadOpenTicketAIKIAutomatisierungPrivatsphäre

Author

Softoft Team

Teams mit Zammad wünschen sich häufig KI für Routing und Klassifikation, ohne vollständige Nachrichtentexte an externe APIs zu übergeben. OpenTicketAI (OTAI) für Zammad zielt darauf ab: trainingsrelevante Metadaten in der EU, signierte Modell-Artefakte und On-Premise-Inferenz, damit die eigentliche Automatisierung innerhalb Ihres Netzes bleibt.

Problemstellung

Das Angebot fokussiert KI-gestütztes Queue-Routing, das an Ihre Gruppen in Zammad angebunden ist. Sie beschreiben diese über eine kurze QueueSpec mit Namen und Beschreibungen — ohne reale Produktions-Tickets für das Training bereitstellen zu müssen. OTAI Studio erzeugt daraus synthetische Trainingsdaten und trainiert einen passenden Adapter, typischerweise mit Bearbeitung am gleichen Tag.

Ablauf in vier Schritten

  1. Gruppen definieren — QueueSpec aus Zammad-Gruppennamen und Kurzbeschreibungen liefern.
  2. Trainieren — EU-gehostetes OTAI Studio erzeugt synthetische Daten und liefert ein trainiertes, signiertes Modell-Artefakt.
  3. On-Prem bereitstellenOTAI Runtime Core (etwa via Docker Compose) betreiben, Artefakt laden — Inferenz läuft vollständig bei Ihnen.
  4. AnbindungZammad-Connector-Plugin liest neue Tickets und schreibt Routing- und Feldentscheidungen zurück.

Architektonisch: Warteschlangen-Metadaten können für Studio/Training verwendet werden, Ticketinhalte für die Inferenz nicht verlassen Ihr Netz.

Über die reine Gruppenwahl hinaus

Laut Produktbeschreibung kann OTAI neben der Ziel-Gruppe weitere Dimensionen unterstützen — etwa Priorität, Status, Tags und Benutzerdefinierte Objektattribute, abhängig von Konfiguration und Lizenzmodell.

Technische Eckdaten

Für einen typischen Aufbau sind unter anderem Zammad 6.0+, Docker / Docker Compose für das Runtime-Core, API-Zugang (ggf. Admin-Token) sowie mindestens 2 CPU-Kerne und 4 GB RAM für die Runtime-Seite zu planen — siehe OTAI für Zammad.

Wann dieser Ansatz passt

Das Modell passt vor allem dort, wo Compliance oder Verträge Cloud-Inferenz über Ticket-Inhalte nicht zulassen, Sie aber moderne Klassifikation und Weiterleitung mit möglicher Confidence-Überwachung und Retrainingszyklen wollen.

Softoft bleibt gegenüber Fremdherstellern neutral; OTAI ist ein unabhängiger Anbieter. Lizenzierung, SLA und Datenflüsse sollten vor Produktionsentscheidungen dort verifiziert werden.

Wenn Sie bei API-Anbindungen, Plugins oder On-Prem-Integration neben Ihren bestehenden Zammad-Prozessen Unterstützung brauchen, kontaktieren Sie Softoft für Implementierung und Beratung.