Sie setzen bereits
Container-Lösungen ein, und möchten Ihre Systeme professionell
analysieren und optimieren lassen? Oder Sie erwägen den Einsatz von
skalierbaren Container-Clustern als Ablösung bestehender Umgebungen
und benötigen professionelle Beratung? Dann sind Sie hier richtig.
Ein paar Worte zum
Thema Container-Cluster und Orchestrierung:
Seit längerem zeichnet sich eine Trendwende
ab, welche vom Deployment kompletter virtueller Maschinen (VMs)
Abstand nimmt, und stattdessen auf leichtgewichtige Container mit
expliziten Applikationen setzt.
Auch wenn Container, und insbesondere Docker,
sehr schnell auf einer zum Teil künstlich stark gehypten Welle empor
getragen wurden, sind Container mittlerweile zu
einem festen Bestandteil einer neuen IT-Landschaft geworden. Diese
hat sich auch einem neuen Konzept verschrieben: Den so genannten
Microservices.
Ziel dabei ist es, vereinfacht ausgedrückt,
Server-Anwendungen zu entkoppeln, und diese so einfach und
unkompliziert wie möglich zu deployen,
hochverfügbar zu halten, und im Betrieb
nahtlos zu skalieren.
Container basieren aktuell noch zu einem großen Teil auf Docker. Als
alternative Container-Engine für erwachsene Orchestrierungslösungen
wie Kubernetes steht jedoch das vom Kubernetes-Projekt ins Leben
gerufene, und unter anderem von Red Hat, SUSE, IBM, Intel und
anderen Branchengrößen unterstützte CRI-O Projekt
(Container Runtime Interface
- OCI Standard) bereits in den Startlöchern. Bereits auf
kleinester Ebene bietet Kubernetes mit seinem Pod-Konzept ein
effizienteres Konzept als andere Anbieter mit
"Standalone"-Containern. Zudem bietet Docker (Swarm) im Vergleich zu
Kubernetes eher überschaubarere Orchestrierungs-Qualitäten. Ein
Grund mehr, warum sich Docker Ende 2017 entschieden hatte, Kubernetes
als alternativen Orchestrator für seine EE/DDC- Plattformen anstelle
von Swarm anzubieten.
Kubernetes (K8s), das Googles "Borg"-Orchestrierungsplatform
entstammt, und nun unter der Federführung der Cloud Native
Foundation weiter entwickelt wird, stellt eine der
leistungsfähigsten und verbreitetesten Orchestrierungsplattformen
weltweit dar.
In
Verbindung mit Kubernetes (K8s) können Container viele Aufgaben
erfüllen: komplette, sich selbst überwachende, hochverfüg- und
skalierbare Container Cluster mit intelligenten Key/Value Backends,
vollautomatischer Service Discovery, die selbst Rolling Upgrades /
Rollbacks im laufenden Betrieb, unbemerkt für die Anwender,
durchführen können. Features wie die Bereitstellung multipler
Release-Tracks, Multi-Tenancy-Fähigkeiten, Network Policies und
RBAC, sowie den intelligenten Operator-Ressourcen, welkche auch
geclusterte Stateful-Applikationen wie Datenbanken, Key/Value Stores
oder Sogar SDS-Lösungen im Cluster skalieren können, machen
Kubernetes zu einer der leistungsfähigsten
Container-Orchestrierungslösungen auf dem Markt.
Auch DC/OS, das leistungsfähige Cluster-Betriebsystem von
Mesosphere, setzt mittlerweile auf Kubernetes als
Orchestrierungslösung.
Flexible, aktuelle SDS
(Software Defined Storage)-Lösungen wie z. B. Ceph oder Gluster
können nahtlos mit Kubernetes Umgebungen zusammenarbeiten, um
optimale und Cluster-übergreifende, persistente Datenablagen zu
bieten. Storage Classes und Claims bieten sogar die Möglichkeiten,
Storage Tiering Modelle transparent zu integrieren.
Als Platform-as-a-Service (PaaS)-Lösung bietet Red Hats OpenShift,
welches in großen Teilen auf Kubernetes basiert (zudem ist Red Hat
Upstream-Contributor für Kubernetes), wiederum zahlreiche,
vordefinierte Ressourcen wie z. B. Router (Ingress-) Objekte, oder
die Möglichkeit von S2I (Source to Image Builds). Red Hats OpenShift
fügt, als eine der aktuell wenigen, "echten" All-in-One-Lösungen,
weitere Funktionen hinzu, um den kompletten Container-Lifecycle zu
managen, und stellt komplette Build-, CI/CD- (Continuous
Integration/Delivery) und Orchestrierungs-Verfahren bereit. Ab
OpenShift 4.x kümmern sich intelligente Operatoren um den kompletten
Lifecycle der Deployments, von der Bereitstellung, Monitoring,
automatischer Reparatur bis hin zu automatisierten Upgrades.
Auf
diese Weise entsteht eine Umgebung, die DevOps-Prinzipien wie
schnellere Markteinführung (Build-to-Market) und Continuous Delivery
für Dev wie Ops transparent und effizient unterstützt.
klicken Sie hier, wenn die Seite einzeln
über eine Suchmaschinenlink geladen wurde
|

Fotomaterial mit freundlicher Genehmigung der GFU Cyrus AG Köln
01/2020
|