Das Jahr 2020 wird uns sicher noch allen lange in Erinnerung bleiben. Zuviel hat sich in diesem vergangenen Jahr verändert und uns (hoffentlich) alle auch ein wenig zum Nachdenken angeregt.

Ein kleines Virus hat die ganze Welt auf den Kopft gestellt. Leider sind auch viele Menschen daran gestorben. Da wird die eigene Vergänglichkeit doch plötzlich greifbar. Regt das bei dem einen oder anderen ein Nachdenken über das „woher, warum und wohin?“ an, oder machen wir einfach so weiter wie bisher? Auch wenn dir doch so verständig und gebildet sind, kommt nicht doch manchmal der Gedanke auf „…und wenn es doch nach dem Tod weiter geht und am Ende doch ein Gott existiert, der mich fragt was ich mit meinem Leben gemacht habe und vor allem, wie ich zu IHM, meinem Schöpfer stehe?“

Ich habe diese Frage für mich beantwortet und kann sagen: Und ich, ich weiß, dass mein Erlöser lebt, und als der Letzte wird er auf der Erde stehen (Die Bibel: Hiob 19 Vers 25)
Jesus Christus – das Kind aus der Krippe, welches von vielen in den letzten Tagen gefeiert wurde ist dieser Erlöser geworden. Aber nicht durch die Krippe, sondern durch seinen Tod am Kreuz für die Sünde der Welt und seine Auferstehung!
Welcher „andere“ Gott hat für seine Geschöpfe so viel gegeben?

Auch wenn viele Menschen glauben, dass ihr „Heil“ (oder Rettung, Begnadigung, Erlösung etc.) in allen möglichen Dingen zu finden ist. Wissenschaft (Ein COVID Impfstoff!), Religion (welche auch immer)…

Fest steht nach Gottes Wort:
Und es ist in keinem anderen das Heil, denn es ist auch kein anderer Name unter dem Himmel, der unter [den] Menschen gegeben ist, in dem wir errettet werden müssen.
(Die Bibel: Apostelgeschichte 4 Vers 12)

Diese Zuversicht in einer sich schnell verändernden Welt wünsche ich jedem … und diese Zuversicht gibt es UMSONST!


Ich möchte mich an dieser Stelle auch bei allen Freunden, Kollegen und Vorgesetzten bedanken, die geholfen haben 2020 nicht nur erträglich, sondern sogar in vieler Hinsicht erfolgreich werden zu lassen. Sicher gehöre ich damit zu den priviligierteren Menschen, nicht nur in unserem Land. Menschen mit denen man vertrauensvoll zusammenarbeite kann, die helfen, unterstützen neu anspornen. Das macht für mich sehr viel aus. Trotz vieler Veränderungen in der ganzen Welt, in meiner Branche aber auch im Unternehmen.
Herzlichen Dank dafür!


Auch für 2021 habe ich den Wunsch hier wieder mehr zu schreiben. Mal sehen – vielleicht wird ja was draus 🙂

Nach längerer Zeit (ich glaube 2 Releases dieses Buches habe ich ausgelassen) habe ich wieder die aktuelle Ausgabe des deutschsprachigen Standardwerkes zu vSphere aus dem Hause Rheinwerk Verlag in den Händen.
VMware vSphere 7 , um es vorweg zu nehmen, ist ein echter „Klotz“ 7,5 cm breit, ~2,6kg schwer und 1348 Seiten stark! Also gewichtige Lektüre.

Bild 1: VMware vSphere 7 (und andere Lösungen drum herum)

In diesem Beitrag möchte ich eine kurze, persönliche Rezension wiedergeben. Also ganz subjektiv 😉

Inhalte

Zum Inhalt könnte ich jetzt ganze Seiten verfassen.
Folgende Themen werden angesprochen:

  • Was ist Virtualisierung – Server Virtualisierung, VMs etc.
  • vSphere Architektur inkl. aller wichtigen Funktionen und Organisationsmöglichkeiten
  • Anbindung an Netzwerk und Storage (braucht man das tatsächlich noch 😉 ?) inkl. einiger Storage Hersteller Kapitel.
  • Monitoring einer vSphere Umgebung (auch mit alternativen Tools!)
  • Backup und Ausfallsicherheit
  • Container & Kubernetes im Zusammenhang mit vSphere
  • Nutanix private Cloud als HCI Plattform für ESXi sowie der alternative Hypervisor AHV!

Besonders interessant

Trotz der Kürze der Zeit, die ich bisher hatte um diesen „dicken Schinken“ zu studieren, sind mir doch ein paar besonders interessante Kapitel aufgefallen.

Logischerweise ist dieses als erstes das Kapitel 13 „Die private Cloud mit Nutanix“. Hier beschreibt mein Freund und Kollege, Günter Baumgart, auf rund 100 Seiten was Nutanix als HCI Plattform so ausmacht und in welchem Zusammenhang der Nutanix- eigene (eigentlich aufgebohrte KVM) AHV als alternativer Hypervisor steht. Da der ESXi weiterhin ein unterstützter, und auch immer noch gern genutzter, Hypervisor auf dieser Plattform ist, freut es mich, dass diese Plattform nun auch hier zu finden ist.
Ich durfte dieses Kapitel im Vorfeld Review lesen und denke das es einen gute Einblick in eine moderne HCI Plattform (und darüber hinaus) gibt.

Desweiteren finde ich das Kapitel 16 sehr interessant. Es beschäftigt sich mit dem Thema Monitoring, welches ich selbst viele Jahre in diversen Rollen betrieben habe. Dabei hat mir besonders gut gefallen, dass hier verschiedene alternative bzw. ergänzende Lösungen zu den Vmware-Eigenen vorgestellt werden, wobei die Behandlung der „Bordmittel“ keineswegs zu kurz kommt. Logischerweise hat Dennis Zimmer als „Erfinder“ dieser Buchreihe auch ein recht ausführliches Kapitel zum Opvizor beigetragen.

Fast 100 Seiten zum Thema NSX stehen etwas weniger als 40 Seiten vSAN gegenüber. Interessant sind beide Abschnitte auf jeden Fall. Die werde ich mir sicher antun um zu lernen, wie komplex oder auch einfach das eine oder andere funktioniert.

Könnte besser sein

Direkt aufgefallen ist mir, schon bei der Durchsicht des Inhaltsverzeichnisses, dass eigentlich nur Veeam als externe Backup Lösung vorgestellt wird. Dieses geschieht lesenswert und ausführlich, hätte aber durch 2-3 Alternativen ergänzt werden sollen. Ruhig in kurzen Abschnitten als Übersicht, aber der Vollständigkeit halber schon. Da ist mir ein einziger Hersteller doch etwas wenig, auch wenn Veeam sicher im deutschsprachigen Raum sehr weit verbreitet ist.

Ob das Thema Kubernetes in solch einem Buch (zugegebenermassen recht rudimentär) angesprochen werden sollte, muss jeder für sich entscheiden. Dass vmware mit Blick auf „Tanzu“ sicher großen Wert darauf legt, glaube ich gern, denke aber, dass dieses Thema eher in einem separaten Buch Platz finden kann.

Fazit

Was bleibt nun als Fazit? Da ich dieses Buch sowohl in elektronischer als auch in Buchform vom Rheinwerkverlag zur Verfügung gestellt bekommen habe und mein Freund und Kollege Günter Baumgart zwei Kapitel dieses Buches verfasst hat, bin ich nicht unvoreingenommen.
Trotzdem denke ich, das alle die, welche mit Virtualisierungsplattformen beschäftigt sind, und hier im speziellen mit vmware vSphere, einen genaueren Blick auf diese Neuerscheinung werfen sollten. Ob Anfänger, Experte oder auch Entscheider. Hier werden sehr viele wichtige Informationen zusammengefasst dargestellt. Die Qualität der Kapitel ist, soweit ich das beurteilen kann, durchweg hochwertig.

Mein Empfehlung wäre die elektronische Form bzw. die hybride Form (Buch und elektronisch), da man nur dann in den Genuss von Ergänzungen, Verbesserungen etc. kommt. Ausserdem ist es leichter im elektronischen Format zu suchen und vor allem diese auf Tablet, Smartphone oder PC dabei zu haben.

Alle Welt (in der IT) redet von Objectstore oder S3-Storage (vom Erfinder AWS so genannt). Fast alle Storage Anbieter bieten mittlerweile auch einen, wie auch immer gestalteten, „Objectstore“ an. Mindestens als Addon zu den bisherigen Angeboten Blockstorage und klassische File Storage Dienste.

Was macht nun ein Objectstore anders als ein Block- oder File-store?
Dazu eine kurze Erklärung zu den einzelnen Storage Typen.
(Diese kann und will nicht in die Tiefe gehen, sondern nur die grundsätzlichen Unterschiede herausstellen)

Blockstorage
Alle Daten in einem Blockstorage werden in gleich große Blöcke (pro Volume) gespeichert und über diese Blöcke angesprochen. Je nach Daten die gespeichert werden, nutzt man, wenn möglich, auch unterschiedliche Blockgrößen. Typische Anbindung via iSCSI oder FibreChannel etc.

Filestorage
Der „Klassiker“ unter den Datenstorage Systemen. Kennt jeder vom heimischen PC, existiert aber durchaus auch im Enterprise Bereich mit Gesamtgrößen von mehreren Terra- oder sogar Peta-Byte.
Die Daten werden hier als Files gespeichert und in Verzeichnisstrukturen (Ordner) angelegt. Ausgefeilte Rechtestrukturen machen es den Administratoren nicht immer leicht, diese „Datei-Gräber“ zu verwalten.
Anbindung typischerweise via CIFS/SMB (Windows Welt) oder NFS (U*nix/Linux Welt).

Object- oder S3 Storage

Von Amazon AWS als S3 (Simple Storage Service) etabliert und via AWS Cloud Services bereitgestellt.
Im Gegensatz zu den vorher genannten Systemen, werden die Daten in einem Objectstore, wie der Name schon vermuten lässt, als Objecte gespeichert. Ein Object enthält dabei aber nicht nur Nutzdaten sondern vor allem Metadaten, die dieses Object beschreiben. Diese Metadaten werden nicht vorgegeben sondern je nach Anwendungsfall,vom „bearbeitenden“ System erzeugt. Zugriff erfolgt via HTTP/HTTPS. Somit ist Objectstore ein Kind des Webzeitalters!
Da die reinen Ablagestrukturen sehr einfach und flach gehalten sind, können Objectstores auf der einen Seite mit einfacheren Verwaltungsstrukturen angelegt werden, durch die Freiheit auf Seiten der Metadaten in den Objekten aber auch viel flexibler eingesetzt werden. Die Metadaten beschreiben, was diese Objekte können bzw. enthalten.


Als Organisationselement oder logische Speichereinheit gibt es sogenannte „Buckets“. Diese „Eimer“ oder „Behälter“ enthalten die Objecte einer Metadaten-Klasse (vereinfacht ausgedrückt)

Bild 1: Unterschiedliche Buckets für unterschiedliche Daten

Ein Zugriff via GUI, wie z.B. beim Filestorage typisch, ist hier nicht vorgesehen (obwohl es diese GUI’s durchaus gibt). API’s sind hier das Mittel der Wahl (bzw. RESTAPIs).
Vier grundlegende Funktionen bearbeiten einen Objectstore

  • PUT: erzeugt ein Objekt
  • GET: liest ein Objekt
  • DELETE: löscht ein Objekt
  • LIST: listet alle Objekte auf

Schauen wir nun etwas genauer hin: Was sind die Vorteile eines Objectstore (z.T. schon angesprochen) und was die möglichen Nachteile?

Vorteile:
Durch die flachen Strukturen und den eindeutigen Identifier (Object-ID) gestaltet sich der Zugriff auf Objecte im Objectstore sehr schnell.

Ebenso ist es sehr leicht möglich, einen Objectstore zu vergrößern ohne dass irgendwer erst neue LUNs, Volumes etc. anlegen muss und diese dann auch noch transparent verbinden sollte. Auch stellt die physikalische Größe eines Systems auf dem ein Objectstore liegt keine Grenze des Objectstores dar, denn es können völlig transparent mehrere neue Bereiche dazugebunden werden und das sowohl lokal als auch remote!
Durch einen Zugriff via HTTPS ist quasi die Verschlüsselung der Übertragung schon implementiert.
Objectstore Systeme können des weiteren im Hintergrund auch für Redundanz, Verschlüsselte Ablage usw. sorgen. Sogar eine „Scheib Only“ (WORM) Funktionalität ist meist möglich.
Riesige Datenmengen sind ebenfalls kein Problem, eben weil das System einfach skaliert, auch über mehrere Plattformen hinweg.

Daher sind statische Daten das Umfeld der S3- oder Objectstores. Gerade für große Datenmengen (z.B. aus IoT Systemen oder Backups) sind Objectstores sehr interessant.

Nachteile:
Wo Vorteile sind, sind leider auch oft ein paar Nachteile.
Wir haben gesehen, dass Objectstore sehr gut für große Datenmengen geeignet ist, da es leicht scaliert. Gerade im Bereich IoT oder auch Backup wird vermehrt mit Objectstores gearbeitet.
Sollen Objecte im Objectstore aber geändert werden, so wie z.B. eine Word- oder Excel Datei mit der gearbeitet wird, dann wird ein Objectstore eher zum Bottleneck, denn anders als z.B. in einem Filesystem kann die Datei nicht einfach in sich verändert werden (inkl. Locking Mechanismen etc.), sondern muß als neues Object komplett neu geschrieben werden.

Hier ein Tabelle mit einer guten Zusammenstellung der Vor- und Nachteile

Tabelle 1: Vor- und Nachteile der unterschiedlichen Storage Systeme ©by IONOS.de
Anwendungsfälle für Objectstores

Wie bereits unter den Vorteilen angesprochen, werden Objectstores immer interessanter wenn der Anwendungsfall stimmt!

Die wichtigsten Anwendungsfälle (Stand heute)

  • Ziel für Backups: Backup-Daten sind von Hause aus als statisch anzusehen, denn Backup-Daten sollen ja gerade nicht verändert werden. Sie können auf der anderen Seite sehr groß werden und sollen im Fall der Fälle schnell im Zugriff sein. Alles Dinge, die ein Backup Bucket im Objectstore sehr gut abbildet! Auch die Möglichkeit einer WORM Funktionalität spricht hier für sich. Daher bieten mittlerweile sehr viele Backup-Lösungen die Möglichkeit nach S3 bzw. anderem Objectstore zu sichern.
  • Archivierungslösungen wären hier, als „Long Term Retention“ durchaus weitere interessante Lösungen, zumal auch die einfache Erweiterung und Verteilung der Daten für diesen Anwendungsfall sehr interessant sind.
  • DevOps wird auch gerne im Zusammenhang mit Objectstores genannt. Als Versionsarchiv für den „Build, Release, Operate“ Prozess ist dieses sicher gut geeignet. Leider bin ich hier zu wenig in der Materie um dieses weiter ausführen zu können.
  • IoT Daten sind dagegen auch ein dankbarer Kandidat für Objectstores. Diese Daten fallen in Massen an, können gut via Metadaten klassifiziert werden und sollten für den nachgelagerten Analyseprozess auch schnell im Zugriff sein. Da diese Daten oft aus Remote Standorten kommen, ist das Befüllen via HTTPS als positiv zu werten.
  • Webseiten. Ja, auch die statischen Grundgerüste von großen Webseiten (Beispiel Amazon) werden heute gern in Objectstores abgelegt. Schneller Zugriff. Massen von Seiten (z.B. mit Bildern von Produkten etc.) sind durchaus gut auf dem Objectstore abzulegen. Alle „Dynamik“ in den Seiten macht der Webserver.

Anwendungsfall für das Eigene Rechenzentrum – Nutanix Objects

Nutanix als Anbieter einer etablierten Hyperconverged [HCI] Plattform bietet seit einiger Zeit die Möglichkeit, direkt aus der Plattform heraus Objectstore bereitzustellen. Nutanix Objects als integrierte Lösung profitiert dabei von allen Funktionen der HCI Plattform. Einfaches Bereitstellen mit wenigen Clicks, zentrales Management via HTML Oberfläche (Prism Pro), sowie der fantastisch einfachen Scalierung via neuer Nodes oder sogar über Nutanix Cluster hinweg.

Bild 2: Nutanix Objects – Architektur ©by Nutanix

Warum sollte ich mir nun einen S3 kompatiblen Objectstore ins eigene Rechenzentrum holen?

Datenverfügbarkeit und Zugriff: Daten im eigenen Rechenzentrum sind meist im deutlich schnelleren Zugriff als via Internet von der Public Cloud, ausserdem hilft die richtige Plattform auch, diese Daten hochverfügbar zu halten und dabei die Kosten im direkten Blick zu behalten.
Gerade im IoT Umfeld ist es weiterhin sehr sinnvoll alle Daten eines Standortes auch im ersten Schritt lokal abzulegen, vorzuverarbeiten und dann weiterzuleiten

Scalierbarkeit: Ja klar, jeder der Hyperscaler (wie der Name schon sagt) bietet die Möglichkeit Objectstores einfach zu vergrößern (verkleinern wird dann schon spannender ;-)).
Aber auch Nutanix mit seiner HCI Plattform bietet die Möglichkeit eines „pay as you grow“. Mit dem neuen Objects sogar über Nutanix Cluster hinweg.

Bild 3: Nutanix Objects Scalability ©by Nutanix

Sicherheit & Compliance: Was sollte sicherer sein als das eigene Rechenzentrum? Mancher darf auch gar nicht mit seinen Daten in die Public Cloud. Gerade Backups sollten mindestens einmal in der „Nähe das Geschehens“ vorhanden sein um im Fall der Fälle schnell und unkompliziert darauf zugreifen zu können.

Objects auf Nutanix: Einfach? – Einfach!

Anhand einiger Screenshots möchte ich gerne zeigen wie einfach sich Nutanix Objects auf einem Nutanix AHV Cluster via Prism Pro (der zentralen Management Oberfläche) installieren (oder besser aktivieren) lässt. Linzenzen für Objects vorausgesetzt, geht das so:

Bild 4: Prism Pro – Menü – Step1: Services – Step2:Objects

Via Prism Pro (Central) kommt man über das Hauptmenu > Services > Objects zum Objectstore Creation-Prozess

Bild 5: Object Store anlegen [Create Object Store]

Hier kommt jetzt ein Dialog der noch einmal alle Prerequistits (Vorbedingungen) auflistet.

Bild 6: Prerequistites für Objects

Sind alle Bedingungen erfüllt, kann der Objectstore mit seinen Randparametern angelegt werden (Name, Ausgangsgröße etc.)

Bild 7: Objectstore – Name und Domäne
Bild 8: : Objectstore – Performance, Ressoucen und Ausgangskapazität

Die hier angegebene Ausgangskapazität kann selbstverständlich jederzeit erweitert werden.

Bild 9: Auswählen auf welchen Nutanix AHV Cluster der Objectstore erzeugt wird.

Hier brauchen wir noch ein paar Parameter (Netzwerk etc.) und schon steht der Objectstore an sich bereit. Nun können Buckets angelegt und verwaltet werden. Diese dienen dann, wie am Anfang angesprochen, als „Speicherort“ der Objecte mit ihren Metadaten und ID’s.

Fazit

Objectstore als Datenspeicher bietet für bestimmte Anwendungsfälle sehr interessante Eigenschaften. Vor allem in der „Maschine zu Maschine“ Kommunikation sind Objectstores für statische Daten, Massendaten und auch große Dateien oft die beste Wahl.
Objectstores bieten aber nicht nur Public Cloud Anbieter, wie die großen Hyperscaler (S3 bei AWS usw.), sondern fast alle Storage Anbieter an. Eine besonders einfach zu handhabende Implementierung bietet Nutanix mit seiner Objects Lösung. Gerad beim Gedanken einer Hybried Cloud Strategie spielt das ein interessante Rolle.
Wichtig ist vor allem, sich vor dem Einsatz anzusehen welche S3 API Funktionen vom gewählten Anbieter unterstützt werden!

Übrigens, Nutanix Objects kann man live anfassen:

Nutanix TestDrive – 4Stunden Live geführt (wenn man will), viele Nutanix Lösungen ausprobieren „Nutanix TestDrive„. Kostenlos in Minuten verfügbar.

Ich hoffe, in der nächsten Zeit meinen Blog doch noch mal wiederbeleben zu können. Interessante Themen gibt es genug. Zeit ist das Problem, trotz Corona und allen Einschränkungen

Liebe „verbleibende“ Leser meines Bloggs ;-),

leider habe ich im vergangen Jahr nur sehr sehr wenig Artikel verfasst. Das Jahr war sehr turbulent mit vielen Veränderungen – hauptsächlich im beruflichen Umfeld.

Die Firma wuchs rasant, einige Veränderungen im Team haben hier und da Ihre Spuren hinterlassen. Im Großen und Ganzen muss ich aber sagen das mein Arbeitgeber sicher einer der besten in unserer Branche ist. Wir verändern viel im IT Umfeld und das erfordert schon mal spezielle Anstrengungen.
Vielen Dank dabei an meine Kollegen und auch meine Vorgesetzten!
Es macht viel Spaß mit Euch zusammen zu arbeiten.

Ich hoffe in 2020 wieder etwas mehr zum Schreiben zu kommen. Es sollen aber auch Artikel mit Gehalt, Ideen und Informationen sein. Das geht nicht immer so „… mal eben“.

Bei all dem möchte ich immer wieder auf meinen HERRN und Heiland Jesus Christus hinweisen. Ohne seine Hilfe könnte ich nicht voller Dankbarkeit zurückblicken und mit neuem Mut nach vorne sehen. Der Vers aus Hebräer 2V13 (die Bibel) gibt mir persönlich dabei neue Zuversicht, gerade in Zeiten großer Veränderungen. Mit „Ihm“ ist übrigens Gott bzw. Jesus Christus sein Sohn gemeint!

In diesem Sinn, ein gutes, gesundes und erfolgreiches 2020 an alle die mich kennen und diese Zeilen lesen.

Public-Cloud Dienste sind easy – Transparenz eher nicht

Endlich möchte ich mal wieder einen neuen Artikel vorstellen. Auf Grund der Anfragen und Diskussionen der letzten Wochen möchte ich heute gern eine Lösung vorstellen welches die fehlende Transparenz bei der Nutzung von Public-Cloud Diensten herstellt. Darüber hinaus kann ich mit dieser Lösung auch noch Compliance Richtlinien überprüfen.
Es handelt sich um das Nutanix Produkt „Xi Beam„.

Was ist Xi Beam?

Nutanix Xi Beam war die erste reine SaaS Lösung aus dem Hause Nutanix. Diese Lösung hat keine Abhängigkeit zur Nutanix HCI Plattform, kann diese aber in die Kosten- und Compliance Betrachtung mit einbinden.
Zur Zeit arbeitet Beam mit Amazone AWS und Microsoft Azure Cloud Konten zusammen. Im Laufe diesen Jahres soll die Google Cloud GCP dazukommen.
Als reine SaaS Lösung wird Xi Beam direkt via Browser aus der Cloud genutzt.

BeamDashboard

Bild 1: Xi Beam – Eingangsdashboard (aus demo.nutanix.com)

Vorbereitung

Um Xi Beam nutzen zu können müssen natürlich die Public Cloud Konten hinterlegt werden. Ausserdem müssen, je nach Cloud Anbieter, diverse Einstellung im Public Cloud Konto gemacht werden, damit der Cloud Anbieter die benötigten Daten überhaupt bereitstellt ;-). Wen das erfolgt ist, fängt Beam an die Daten zu sammeln, zu analysieren und aufzubereiten.

Das Kosten Modul

Schauen wir uns als erstes mal das Kosten Modul an. Dieses ist sicher das Modul mit dem man sofort Erfolge erzielen kann, indem man erstens sieht welche Kosten wo anfallen und zweitens an welchen Stellen Xi Beam Einsparungspotential sieht!

Cost-Dashboard1

Bild 2: Cost-Dashboard Ausschnitt (aus demo.nutanix.com)

Im Bild 2 sieht man z.B. für die AWS Aktivitäten auf einen Blick eine Kostenübersicht aufgesplittet auf die einzeln genutzten AWS Dienste (linke Seite), Rechts im Bild 2 sieht man dann die Kostenentwicklung der letzten Zeit.

Darüberhinaus kann man Reservierte Instanzen, Anomalien etc. auf einen Blick erkennen.

Geht man weiter auf „Analyse“ kann man sich immer detailierter über die anfallenden Kosten informieren und so geg. schnell gegensteuern.

Cost-Analysis

Bild 3: Cost Module – Analyse

Kosten aktiv optimieren!

Geht man über den Menüpunkt „Save“ bis zum ausgewählten Elementen die als „zu optimieren“ erkannt wurden, kann man z.B. direkt über Xi Beam verweiste alte Snapshots löschen. Das ist schon recht cool.

Cost-Optimizations

Bild 4: Kosten direkt aus Xi Beam optimieren

Sollte eine „Optimierung“ nicht direkt aus Xi Beam heraus möglich sein, wird in einem Dialogfenster genau erklärt wie man über das entsprechende Cloud Interface die Optimierung vornimmt! Damit hat mein ein äusserst effektives Werkzeug in der Hand um die laufenden Kosten von „Karteileichen“ zu befreien.

Das Compliance Modul

Im Compliance Modul können verschiedene Checks regelmässig durchgeführt werden. Dieses sind eine große Anzahl fertiger Compliance Regeln z.B. zu Security oder Performance Richtlinien.

SecurityCompliance

Bild 5: Security Compliance Dashboard über verschieden Regionen

Bild 5 zeigt solch ein Security Compliance Dashboard mit Weltweiten Cloud Regionen von AWS (sofern dort Workloads laufen) mit Ihren Compliance Verletzungen (hier im Demo natürlich einige :-))

Ebenso gibt es weitere Infos direkt auf dem Compliance Dashboard

CompliancDash2

Bild 6: Weitere Compliance Infos

Fix von Compliance Verletzungen

Viele detektierte Compliance Verletzungen (z.B. aus dem Security Bereich) lassen sich direkt aus Xi Beam heraus beheben (Bild 7)

SecurityComplianceFIX

Bild 7: Fix Compliance Probleme

Compliance Regeln erweitern und ändern

Wie bereits gesagt beinhaltet Xi Beam eine große (und ständig wachsende) Anzahl von Compliance Regeln. Diese können aber auch durch eigene Regeln ergänzt werden. Dazu kann man die bestehenden einsehen (Bild 8) und durch, in Phyton geschrieben ergänzen.

CustomAuidit

Bild 8: Eigene Compliance Regeln in Phyton erstellen oder vorhanden clonen und ändern

Damit stehen den Anwendern alle Möglichkeiten offen jede Art von Audit schnell, wiederholbar und verlässlich durchzuführen.

Nutanix im Eigenen RZ hinzufügen und Monitoren

Als Neuerung besteht die Möglichkeit auch Nutanix HCI Cluster in die Betrachtung durch Xi Beam mit einzubeziehen. Damit kann man schnell feststellen wo welcher Workload am kostengünstigsten zu betreiben ist.

Fazit

Nutanix Xi Beam bietet vielfältige Möglichkeiten „Licht ins Dunkel“ der eigenen Public Cloud Aktivitäten zu bringen und dabei in dem meisten Fällen richtig Geld einzusparen.
Beam Kunden möchten dieses Lösung nicht mehr missen und nutzen die Dashboards und Möglichkeiten regelmässig.

Auch im Jahr 2018 ging es beruflich turbulent aber sehr interessant und erfolgreich voran. Viele alte Kontakte konnten gepflegt werden, interessante neue kamen hinzu. Nette, kompetente und interessierte Menschen waren immer wieder Ansporn besser mit den Partnern und Menschen zusammenzuarbeiten. Auch die Kollegen im eigenen Unternehmen standen immer wieder hilfreich und unterstützend zur Seite. Damit machen dann selbst stressige Momente wieder Spaß. Danke an das Team Germany!

Mein herzlicher Dank geht daher aber auch an alle die, die mir auf die eine oder andere Weise geholfen haben und denen ich vielleicht auch ein wenig helfen konnte manches besser zu verstehen und auch einzusetzen.

Einer der mir aber immer zur Seite stand und steht ist Jesus Christus mein persönlicher Heiland. Er hat am Kreuz von Golgata für meine Schuld Gott gegenüber sein Leben gegeben

Dazu sagt die Bibel:
„Und es ist in keinem anderen das Heil, denn es ist auch kein anderer Name unter dem Himmel. der unter Menschen gegeben ist, in dem wir errettet werden müssen“ Apostelgeschichte 4 Vers 12

Ich wünschte das jeder diese Zuversicht besitzt und daher auch mit einer gewissen Ruhe in die Zukunft, die z.Z. alles andere als ruhig und gewiss ist, sondern massiven Veränderungen unterworfen ist, sehen kann. Manche Veränderungen sind sicher sehr positiv zu sehen, andere auch mit Skepsis und Vorsicht zu betrachten. Eine Sicherheit in Bezug auf die eigene Zukunft die über dieses Leben hinaus geht ist da ein großer Halt und eine Zuversicht.

Daher ist vielleicht auch dieses Wort aus der Bibel ein Hinweis und Trost:
„Glückselig der Mann, dem der HERR (Gott) Sünde nicht zurechnet!“ Römer 4 Vers 8

Allen Lesern wünsche ich an dieser Stelle ruhige und besinnliche Feiertage und ein gutes, gesundes, erfolgreiches Jahr 2019.

Leider waren 2018 meine Blogg Aktivitäten eher bescheiden. Vielleicht schaffe ich es ja in 2019 hier mehr zu schreiben und alle Leser an der spannenden Reise in neue (und alte) IT Welten teilhaben zu lassen. Gerade am Beginn einer „Multi-Cloud“ Epoche gibt es da viel zu tun und zu lernen.

( alle Bibel Stellen: Elberfelder Übersetzung CSV Edition)

Worum geht es?

In dieser kurzen Buchbesprechung möchte ich auf den Roman „Projekt PHOENIX“ eingehen, in welcher ich auf „Storyteller-WeiseDevOps Ideen vermittelt werden.

Projekt-Phoenix

Ich muss gestehen, dass ich seit Tom DeMarcos Roman „Der Termin“, zum Thema Projektmanagement, solche Art der Wissensvermittlung liebe.

Dieses Buch wurde von drei Autoren [Gene Kim, Kevin Behr und George Spafford] geschrieben. Die deutsche Ausgabe ist bei O’Reilly erschienen.

Inhalt

Ein IT Teamleiter aus dem Midrange Bereich (Bill) wird plötzlich zum neuen IT-Manager ernannt und rennt faktisch den Problemen der IT Abteilung nur so hinterher. Reines Reaktionsgeschäft.

Zu allem Überfluß arbeitet die Firma Parts Unlimited schon seit geraumer Zeit mit viel Geldeinsatz an einem neuen Web basierten All-You-can-eat System, welches nicht in die Gänge kommt und von Version zu Version eher schlechter als besser wird.

Als alles zu kollabieren scheint, bekommt Bill den Anruf von einem geheimnisvollen Dr. Reid. Dieser versucht Bill anhand den Arbeitsweisen im Fertigungbereich der Firma, Methoden zur effektiven IT Arbeit und Entwicklung beizubringen. Bill muss sich diese aber stückweise selbst erarbeiten. Er erhält immer nur Anhaltspunkte. So z.B. die „vier Arten von Arbeit/Aufgaben“ zu erkennen.

Anhand dieser Beispiele, versuchen die Autoren die Philosophie und Methodik von DevOps zu vermitteln.

Bill schafft es so, Stück für Stück die IT (Operations) und die Entwicklung (Development) zusammen zu bringen und mit modernen Tools (Cloud) aus dem Chaos zu führen.

Dazu erkennt er, dass neben der Bereitschaft Dinge völlig neu zu denken, auch ein hoher Grand an Automatisierung, gepaart mit einem sicheren Management, die Grundpfeiler der „neuen“ IT mit dem Schlagwort DevOps bilden.

Meine Meinung

Dieses Buch lässt sich auf Grund des Romanformates sehr flüssig lesen. Sicher wird man durch dieses Buch nicht zum DevOps Guru (gibt es das überhaupt?). Man erfährt aber viel über die Philosophie und die Vorgehensweise von DevOps.

Für mich war interessant, dass DevOps scheinbar die Überleitung von Methoden aus der Güter-Produktion auf die „Produktion“ von IT Leistungen im weiten Sinne ist. Besonders im Bereich der Entwicklung von anwendungsspezifischen Software Projekten macht die Zusammenarbeit von Entwicklern und IT Operations sehr viel Sinn. Ebenso die Bereitstellung von neuen Funktionen in „kleinen Häppchen“, wobei hier das Augenmerk auf Kontinuität liegt.

Keine Mega Arbeitspakete mit unzähligen Funktionen, sondern Stück für Stück zum nie fertig werdenden Produkt ;-). Nur, dass dieses Prinzip und kein Mangel ist. Heute arbeiten schon viele Unternehmen nach diesen Prinzipien und verändern und verbessern (hoffentlich) Ihre Produkte ohne riesige „Major-Releases“ zu schaffen.

Als Einstieg in das Thema DevOps daher aus meiner Sicht durchaus empfehlenswert, wenn man anschließend auch sicher ein oder mehrere echte Fachbücher braucht um DevOps tatsächlich umsetzen zu können.

Etwas einseitig fand ich den Eindruck, dass DevOps nur mit Kanban Board wirklich effektiv umzusetzen ist. Hier gibt es sicher unterschiedliche Meinungen, wobei ich selbst Kanban durchaus für eine einfache und gute Methode halte, um Dinge von der Idee zur Fertigstellung zu bringen.

DevOps + Nutanix

Veröffentlicht: 12. April 2018 in Uncategorized

Eine erste Annäherung an dieses interessante Thema

In diesem Artikel möchte ich, zugegeben recht oberflächlich, darauf eingehen was DevOps sein soll, wie es oft verstanden und umgesetzt wird und mit welchen Möglichkeiten Nutanix aufwartet um als eine ideale DevOps Plattform anzutreten.

Was ist DevOps ?

DevOps ist eine Zusammensetzung der Begriffe „Development“ und „Operations„. Wie man leicht schließen kann geht es um ein Zusammenrücken von Entwicklung und Betrieb. Einfache Idee: Die Entwicklung arbeitet so mit dem Betrieb zusammen das Lösungen frühzeitig, Step by Step im Betrieb geprüft werden und nicht erst nach Monaten als „fertiges“ Produkt welches dann gegebenenfalls in der Betriebsumgebung versagt da die Belange des Betriebes während der Entwicklung nie getestet wurden (Extremfall).

 

 

By Kharnagy - Own work, CC BY-SA 4.0,

Bild 1: DevOps – Prinzipbild (aus Wikipedia)

Wie wird es oft verstanden

Hier gibt es zwei konträre Sichtweisen. Der Betrieb sieht DevOps oft als eine Art Bevormundung durch die Entwicklung an. Dieses resultiert aus der Sichtweise der Entwickler, die selbst Systeme ausrollen möchten um Ihre Entwicklungen zu testen bzw. überhaupt zu entwickeln, den Betrieb dabei als viel zu träge empfinden und einfach via Selfservice eigenständig agieren wollen.

Dem Betrieb ist solch ein „Wildwuchs“ selbstverständlich suspekt und untragbar. Diese Einstellung führt dann zu einer gegenseitigen Blockade. Genau das Gegenteil will aber DevOps erreichen.

Also müssen alle an einen Tisch, entsprechende Prozesse und Tools müssen definiert werden um beiden Forderungen gerecht zu werden.
Auf der einen Seite die Kontrolle des Betriebes (Wer das was wo und wie lange ausrollen, nutzen etc.). und auf der anderen Seite die agile Entwicklung mit schnellen Entwicklungszyklen (VMs und Services Online beantragen, bewilligen und automatisch ausrollen bzw. nach def. Zeiträumen auch wieder aufräumen).

Der Nutanix Ansatz

Nutanix als Anbieter von Hyperconverged Lösungen mit seinen weiteren Tools kann viele der Anforderungen direkt erfüllen und so für einen Ganzheitlichen DevOps Ansatz bezgl. der Betriebsplattform sorgen.

Make it invisible – Die Infrastruktur

Durch die Zusammenführung der alten 3-Tier Landschaft (SAN, Network, Virtualisierung etc.) in einfach zu betreibende Blöcke (Cluster) wird die Infrastruktur sehr einfach zu managen, scaliert linear je nach Anforderung und stellt alles bereit um VMs oder ganze Services automatisch auszurollen, zu betreiben und auch wieder aufzuräumen.

 

Make it reusable – Die Laufzeitumgebung

Mit Hilfe der neuen Nutanix Application and Lifecycle Entwicklungsumgebung CALM ist es möglich einfach sogenannte Blueprints (Vorlagen) für einzelne Applikationen oder auch ganze Services zu erstellen und auszurollen.
Interessant dabei ist das diese Blueprints nicht nur auf Nutanix Plattformen mit unterschiedlichen Hypervisoren, sondern auch auf div. Cloud Plattformen wie AWS oder Google Cloud ausgerollt werden können.

Bild 1: CALM BluePrint Example

Bild 2: Nutanix CALM BluePrint Example

Durch die flexibel Gestaltung der Applicationsblueprints kann z.B. während des Rollout immer die aktuellste Programmversion von GitHub oder einem anderen Repository gezugen werden.

#Install Node.j
#Install the package
curl --silent --location https://raw.githubusercontent.com/nodesource/distributions/master/rpm/setup_9.x | bash
sudo yum install -y nodejs

Beispiel einer Node.J Installation mit einer spezifischen Version

Vorteil für den Enwickler: Alle Service Komponenten sind geprüft und passen, nur die eigene „Neuentwicklung“ wird immer neu ausgerollt. Das gleiche funktioniert natürlich auch mit Updates die so sehr einfach und schnell zum Testen bereitgestellt werden können.

Make it easy usable – Self Service Portal

Um das ganze dann auch für die Entwickler und das Operating einfach bedienbar und definierbar zu gestalten stellt Nutanix ein „Selfservice Portal“ zu Verfügung in dem Projekt- und rollenspezifisch definiert werden kann wer, was, wo ausrollen und betrieben darf.

SelfService2

Bild 3: Nutanix SelfService Portal

Fazit

Mit den richtigen Tool und einer flexiblen, scalierbaren Plattform wie sie Nutanix bietet kann man die Anforderungen die DevOps an die Infrastruktur stellt sehr leicht realisieren.

.NEXT ontour Wien

Veröffentlicht: 13. Februar 2018 in Virtualisierung

Nutanix Event in Österreich

Für alle unsere Partner und Interessenten in Österreich und auch in Süddeutschland hier der Hinweis und der Link zur Anmeldung (Klick auf die Grafik)

Wien 22. März 2018

Splash_Wien2018

Ich selbst werde auf diesem Event einen Vortrag zum Thema
„Machine Learning mit Nutanix“ halten. Sicher interessant für alle die etwas zum Thema Machine Learning und praktischen Anwendungen daraus hören wollen.

Vielleicht schaffe ich es ja in diesem Jahr etwas mehr zu schreiben.

An dieser Stelle möchte ich auch nochmal auf den Blogg meiner Kollegen invisible-IT hinweisen.

.NEXT ontour Frankfurt

Veröffentlicht: 26. Januar 2018 in Virtualisierung

Nutanix Event in Deutschland

Mit dieser kleinen Ankündigung (wenn auch etwas spät 🙂 ) möchte ich mich für das Jahr 2016 zurückmelden.

IntroNextontourFFM2018

Ich selbst werde auf diesem Event einen Vortrag zum Thema
„Machine Learning mit Nutanix“ halten. Sicher interessant für alle die etwas zum Thema Machine Learning und praktischen Anwendungen daraus hören wollen.

Vielleicht schaffe ich es ja in diesem Jahr etwas mehr zu schreiben.

An dieser Stelle möchte ich auch nochmal auf den Blogg meiner Kollegen „invisible-IT“ hinweisen.