Weitere Informationen und Antworten auf häufig gestellte Fragen zu unseren On Premises-Lösungen findest du hier.
Häufig gestellte Fragen
Hier findest du die häufigsten Fragen zu den On Premises-Lösungen
Welche Anforderungen gibt es für eine On Premises-Installation?
Du brauchst einen Kubernetes-Cluster mit mindestens 2 Knoten. Mindestens ein Knoten muss über eine CUDA-kompatible GPU mit mehr als 16 GB vRAM verfügen. Wenn zwei GPU-Knoten verwendet werden, muss der andere Knoten ebenfalls über mindestens 16 GB vRAM verfügen. Wenn zusätzlich ein CPU-Knoten verwendet wird, wird eine minimale Speicher-Ressource von 16 GB dringend empfohlen.
Müssen die NLP-Services auf einem GPU-Knoten gehostet werden?
Beide NLP-Services sollten auf CUDA-kompatiblen GPU-Knoten gehostet werden, um die Performance zu optimieren. Der Analysedienst kann entweder auf einem CPU- oder einem GPU-Knoten gehostet werden. Der Vereinfachungsdienst muss auf einem GPU-Knoten gehostet werden. Wenn der Vereinfachungs-Dienst auf einem CPU-Knoten ausgeführt werden soll, muss dies vorher mit uns abgestimmt werden, da Codeänderungen vorgenommen werden müssen.
Was sind die Anforderungen für die API?
Der API-Dienst hat geringe Systemanforderungen und kann entweder auf denselben Knoten oder auf anderen kleineren Knoten ausgeführt werden.
Die Systemanforderungen auf einen Blick:
Analyzer:
Typ: CPU or Nvidia GPU
Arbeitsspeicher: > 16 GB
Speicher: > 50 GB
Simplifier:
Typ: GPU
Arbeitsspeicher: > 16 GB vRAM
Speicher: > 400 GB
API-Dienst:
Typ: CPU
Arbeitsspeicher: > 2GB
Speicher: > 20 GB
Datenbank Access Layer:
Typ: CPU
Arbeitsspeicher: > 2 GB
Speicher: > 20 GB
Warum benötigt der Simplifier-Dienst so viel Speicherplatz?
Der Knoten für den Simplifier-Dienst benötigt viel Speicherplatz, weil auf ihm NLP-Modelle für die Durchführung der Vereinfachungen gespeichert werden müssen. Wir arbeiten hier an einer Optimierung.
Wie funktioniert der Deployment Prozess?
Im Allgemeinen wird der CI/CD-Prozess der Dienste in zwei Hauptschritten durchgeführt:
1. Ein Docker-Image wird erstellt und in eine Docker-Container-Registry gestellt.
2. Ein Kubernetes-Cluster-Update wird mit Helm Charts durchgeführt.
Wie funktioniert die Docker-Image Integration?
Da die Docker-Images im privaten DockerHub-Repository unserer Organisation gespeichert sind, ist das Image nicht öffentlich zugänglich. Fertige Images können aber an deine Docker-Registry übertragen werden. Um die Anmeldedaten der Registry geheim zu halten, hilft ein Secret Management-Tool die Anmeldedaten in unseren Deployment-Prozess zu integrieren, ohne dass jemand, auch wir, die Anmeldedaten sieht.
Wie funktioniert die Cluster Integration?
Wir bieten Helm Charts für das Deployment unserer Kundenlösungen an. Jeder Dienst (LPP, API und Datenbank) ist in einen eigenen Namespace integriert. Die Helm Charts enthalten keine sensiblen Daten und werden über einen sicheren Kanal bereitgestellt.
Wie kann man festlegen, welche Deployments auf welchen Knoten laufen sollen?
Um zu entscheiden, welche Pods auf welchem Knoten platziert werden sollen, kannst du Labels oder Toleranzen angeben. Um eine korrekte Planung zu ermöglichen, müssen die Knoten mit den richtigen Labels oder Toleranzen versehen werden.
Wie wird auf die Anwendungen zugegriffen?
Alle Dienste sind miteinander verbunden, können aber nur über den API-Dienst erreicht werden. Ingress- und Gateway-Konfigurationen können vom Kunden definiert und verwaltet werden.