capito digital

On Premises-Lösung für deine Anforderungen

Mit einer On Premises-Installation kannst du capito digital auf deinen eigenen Servern hosten.

On Premises Beispiel - capito digital
1

Voller Zugriff

Alle Services von capito digital sind als On Premises verfügbar. Du hast vollen Zugriff auf capito digital.

2

Einfaches Deployment, einfache Updates

Unser CI/CD-Prozess ist so gestaltet, dass die On Premises-Installation und Software-Updates möglichst einfach sind.

3

Volle Kontrolle

Mit einer On Premises-Installation kannst du selbst bestimmen, wo die Software gehostet wird. Du hast die volle Kontrolle über deine Daten.

Alle Funktionen auf einen Blick

Simplification API
capito digital vereinfacht Texte vollautomatisch für 3 leicht verständliche Sprachstufen.

Analysis API
capito digital überprüft Texte auf Verständlichkeit und zeigt, welche Vereinfachungen vorgenommen werden können.

Suggestions API
Bei schwierigen Wörtern schlägt capito digital leicht verständliche Alternativen vor.

Lexicon API
Leicht verständliche Begriffserklärungen können direkt angefragt werden.

Noch Fragen?

Weitere Informationen und Antworten auf häufig gestellte Fragen zu unseren On Premises-Lösungen findest du hier.

Diese Unternehmen vertrauen auf capito

Du hast Interesse?

Melde dich gerne.

Du hast Interesse?

Melde dich gerne.

Martin Gollegger
Produktmanager

Weitere Informationen und Antworten auf häufig gestellte Fragen zu unseren On Premises-Lösungen findest du hier.

Häufig gestellte Fragen

Hier findest du die häufigsten Fragen zu den On Premises-Lösungen

Welche Anforderungen gibt es für eine On Premises-Installation?

Du brauchst einen Kubernetes-Cluster mit mindestens 2 Knoten. Mindestens ein Knoten muss über eine CUDA-kompatible GPU mit mehr als 16 GB vRAM verfügen. Wenn zwei GPU-Knoten verwendet werden, muss der andere Knoten ebenfalls über mindestens 16 GB vRAM verfügen. Wenn zusätzlich ein CPU-Knoten verwendet wird, wird eine minimale Speicher-Ressource von 16 GB dringend empfohlen.

Müssen die NLP-Services auf einem GPU-Knoten gehostet werden?

Beide NLP-Services sollten auf CUDA-kompatiblen GPU-Knoten gehostet werden, um die Performance zu optimieren. Der Analysedienst kann entweder auf einem CPU- oder einem GPU-Knoten gehostet werden. Der Vereinfachungsdienst muss auf einem GPU-Knoten gehostet werden. Wenn der Vereinfachungs-Dienst auf einem CPU-Knoten ausgeführt werden soll, muss dies vorher mit uns abgestimmt werden, da Codeänderungen vorgenommen werden müssen.

Was sind die Anforderungen für die API?

Der API-Dienst hat geringe Systemanforderungen und kann entweder auf denselben Knoten oder auf anderen kleineren Knoten ausgeführt werden.

Die Systemanforderungen auf einen Blick:

Analyzer: 

Typ: CPU or Nvidia GPU 

Arbeitsspeicher: > 16 GB 

Speicher: > 50 GB

Simplifier: 

Typ: GPU 

Arbeitsspeicher: > 16 GB vRAM 

Speicher: > 400 GB

API-Dienst: 

Typ: CPU 

Arbeitsspeicher: > 2GB 

Speicher: > 20 GB

Datenbank Access Layer: 

Typ: CPU 

Arbeitsspeicher: > 2 GB 

Speicher: > 20 GB

Warum benötigt der Simplifier-Dienst so viel Speicherplatz?

Der Knoten für den Simplifier-Dienst benötigt viel Speicherplatz, weil auf ihm NLP-Modelle für die Durchführung der Vereinfachungen gespeichert werden müssen. Wir arbeiten hier an einer Optimierung.

Wie funktioniert der Deployment Prozess?

Im Allgemeinen wird der CI/CD-Prozess der Dienste in zwei Hauptschritten durchgeführt:

1. Ein Docker-Image wird erstellt und in eine Docker-Container-Registry gestellt.

2. Ein Kubernetes-Cluster-Update wird mit Helm Charts durchgeführt.

Wie funktioniert die Docker-Image Integration?

Da die Docker-Images im privaten DockerHub-Repository unserer Organisation gespeichert sind, ist das Image nicht öffentlich zugänglich. Fertige Images können aber an deine Docker-Registry übertragen werden. Um die Anmeldedaten der Registry geheim zu halten, hilft ein Secret Management-Tool die Anmeldedaten in unseren Deployment-Prozess zu integrieren, ohne dass jemand, auch wir, die Anmeldedaten sieht.

Wie funktioniert die Cluster Integration?

Wir bieten Helm Charts für das Deployment unserer Kundenlösungen an. Jeder Dienst (LPP, API und Datenbank) ist in einen eigenen Namespace integriert. Die Helm Charts enthalten keine sensiblen Daten und werden über einen sicheren Kanal bereitgestellt.

Wie kann man festlegen, welche Deployments auf welchen Knoten laufen sollen?

Um zu entscheiden, welche Pods auf welchem Knoten platziert werden sollen, kannst du Labels oder Toleranzen angeben. Um eine korrekte Planung zu ermöglichen, müssen die Knoten mit den richtigen Labels oder Toleranzen versehen werden.

Wie wird auf die Anwendungen zugegriffen?

Alle Dienste sind miteinander verbunden, können aber nur über den API-Dienst erreicht werden. Ingress- und Gateway-Konfigurationen können vom Kunden definiert und verwaltet werden.