Worum geht es?

In dieser kurzen Buchbesprechung möchte ich auf den Roman „Projekt PHOENIX“ eingehen, in welcher ich auf „Storyteller-WeiseDevOps Ideen vermittelt werden.

Projekt-Phoenix

Ich muss gestehen, dass ich seit Tom DeMarcos Roman „Der Termin“, zum Thema Projektmanagement, solche Art der Wissensvermittlung liebe.

Dieses Buch wurde von drei Autoren [Gene Kim, Kevin Behr und George Spafford] geschrieben. Die deutsche Ausgabe ist bei O’Reilly erschienen.

Inhalt

Ein IT Teamleiter aus dem Midrange Bereich (Bill) wird plötzlich zum neuen IT-Manager ernannt und rennt faktisch den Problemen der IT Abteilung nur so hinterher. Reines Reaktionsgeschäft.

Zu allem Überfluß arbeitet die Firma Parts Unlimited schon seit geraumer Zeit mit viel Geldeinsatz an einem neuen Web basierten All-You-can-eat System, welches nicht in die Gänge kommt und von Version zu Version eher schlechter als besser wird.

Als alles zu kollabieren scheint, bekommt Bill den Anruf von einem geheimnisvollen Dr. Reid. Dieser versucht Bill anhand den Arbeitsweisen im Fertigungbereich der Firma, Methoden zur effektiven IT Arbeit und Entwicklung beizubringen. Bill muss sich diese aber stückweise selbst erarbeiten. Er erhält immer nur Anhaltspunkte. So z.B. die „vier Arten von Arbeit/Aufgaben“ zu erkennen.

Anhand dieser Beispiele, versuchen die Autoren die Philosophie und Methodik von DevOps zu vermitteln.

Bill schafft es so, Stück für Stück die IT (Operations) und die Entwicklung (Development) zusammen zu bringen und mit modernen Tools (Cloud) aus dem Chaos zu führen.

Dazu erkennt er, dass neben der Bereitschaft Dinge völlig neu zu denken, auch ein hoher Grand an Automatisierung, gepaart mit einem sicheren Management, die Grundpfeiler der „neuen“ IT mit dem Schlagwort DevOps bilden.

Meine Meinung

Dieses Buch lässt sich auf Grund des Romanformates sehr flüssig lesen. Sicher wird man durch dieses Buch nicht zum DevOps Guru (gibt es das überhaupt?). Man erfährt aber viel über die Philosophie und die Vorgehensweise von DevOps.

Für mich war interessant, dass DevOps scheinbar die Überleitung von Methoden aus der Güter-Produktion auf die „Produktion“ von IT Leistungen im weiten Sinne ist. Besonders im Bereich der Entwicklung von anwendungsspezifischen Software Projekten macht die Zusammenarbeit von Entwicklern und IT Operations sehr viel Sinn. Ebenso die Bereitstellung von neuen Funktionen in „kleinen Häppchen“, wobei hier das Augenmerk auf Kontinuität liegt.

Keine Mega Arbeitspakete mit unzähligen Funktionen, sondern Stück für Stück zum nie fertig werdenden Produkt ;-). Nur, dass dieses Prinzip und kein Mangel ist. Heute arbeiten schon viele Unternehmen nach diesen Prinzipien und verändern und verbessern (hoffentlich) Ihre Produkte ohne riesige „Major-Releases“ zu schaffen.

Als Einstieg in das Thema DevOps daher aus meiner Sicht durchaus empfehlenswert, wenn man anschließend auch sicher ein oder mehrere echte Fachbücher braucht um DevOps tatsächlich umsetzen zu können.

Etwas einseitig fand ich den Eindruck, dass DevOps nur mit Kanban Board wirklich effektiv umzusetzen ist. Hier gibt es sicher unterschiedliche Meinungen, wobei ich selbst Kanban durchaus für eine einfache und gute Methode halte, um Dinge von der Idee zur Fertigstellung zu bringen.

Advertisements

DevOps + Nutanix

Veröffentlicht: 12. April 2018 in Uncategorized

Eine erste Annäherung an dieses interessante Thema

In diesem Artikel möchte ich, zugegeben recht oberflächlich, darauf eingehen was DevOps sein soll, wie es oft verstanden und umgesetzt wird und mit welchen Möglichkeiten Nutanix aufwartet um als eine ideale DevOps Plattform anzutreten.

Was ist DevOps ?

DevOps ist eine Zusammensetzung der Begriffe „Development“ und „Operations„. Wie man leicht schließen kann geht es um ein Zusammenrücken von Entwicklung und Betrieb. Einfache Idee: Die Entwicklung arbeitet so mit dem Betrieb zusammen das Lösungen frühzeitig, Step by Step im Betrieb geprüft werden und nicht erst nach Monaten als „fertiges“ Produkt welches dann gegebenenfalls in der Betriebsumgebung versagt da die Belange des Betriebes während der Entwicklung nie getestet wurden (Extremfall).

 

 

By Kharnagy - Own work, CC BY-SA 4.0,

Bild 1: DevOps – Prinzipbild (aus Wikipedia)

Wie wird es oft verstanden

Hier gibt es zwei konträre Sichtweisen. Der Betrieb sieht DevOps oft als eine Art Bevormundung durch die Entwicklung an. Dieses resultiert aus der Sichtweise der Entwickler, die selbst Systeme ausrollen möchten um Ihre Entwicklungen zu testen bzw. überhaupt zu entwickeln, den Betrieb dabei als viel zu träge empfinden und einfach via Selfservice eigenständig agieren wollen.

Dem Betrieb ist solch ein „Wildwuchs“ selbstverständlich suspekt und untragbar. Diese Einstellung führt dann zu einer gegenseitigen Blockade. Genau das Gegenteil will aber DevOps erreichen.

Also müssen alle an einen Tisch, entsprechende Prozesse und Tools müssen definiert werden um beiden Forderungen gerecht zu werden.
Auf der einen Seite die Kontrolle des Betriebes (Wer das was wo und wie lange ausrollen, nutzen etc.). und auf der anderen Seite die agile Entwicklung mit schnellen Entwicklungszyklen (VMs und Services Online beantragen, bewilligen und automatisch ausrollen bzw. nach def. Zeiträumen auch wieder aufräumen).

Der Nutanix Ansatz

Nutanix als Anbieter von Hyperconverged Lösungen mit seinen weiteren Tools kann viele der Anforderungen direkt erfüllen und so für einen Ganzheitlichen DevOps Ansatz bezgl. der Betriebsplattform sorgen.

Make it invisible – Die Infrastruktur

Durch die Zusammenführung der alten 3-Tier Landschaft (SAN, Network, Virtualisierung etc.) in einfach zu betreibende Blöcke (Cluster) wird die Infrastruktur sehr einfach zu managen, scaliert linear je nach Anforderung und stellt alles bereit um VMs oder ganze Services automatisch auszurollen, zu betreiben und auch wieder aufzuräumen.

 

Make it reusable – Die Laufzeitumgebung

Mit Hilfe der neuen Nutanix Application and Lifecycle Entwicklungsumgebung CALM ist es möglich einfach sogenannte Blueprints (Vorlagen) für einzelne Applikationen oder auch ganze Services zu erstellen und auszurollen.
Interessant dabei ist das diese Blueprints nicht nur auf Nutanix Plattformen mit unterschiedlichen Hypervisoren, sondern auch auf div. Cloud Plattformen wie AWS oder Google Cloud ausgerollt werden können.

Bild 1: CALM BluePrint Example

Bild 2: Nutanix CALM BluePrint Example

Durch die flexibel Gestaltung der Applicationsblueprints kann z.B. während des Rollout immer die aktuellste Programmversion von GitHub oder einem anderen Repository gezugen werden.

#Install Node.j
#Install the package
curl --silent --location https://raw.githubusercontent.com/nodesource/distributions/master/rpm/setup_9.x | bash
sudo yum install -y nodejs

Beispiel einer Node.J Installation mit einer spezifischen Version

Vorteil für den Enwickler: Alle Service Komponenten sind geprüft und passen, nur die eigene „Neuentwicklung“ wird immer neu ausgerollt. Das gleiche funktioniert natürlich auch mit Updates die so sehr einfach und schnell zum Testen bereitgestellt werden können.

Make it easy usable – Self Service Portal

Um das ganze dann auch für die Entwickler und das Operating einfach bedienbar und definierbar zu gestalten stellt Nutanix ein „Selfservice Portal“ zu Verfügung in dem Projekt- und rollenspezifisch definiert werden kann wer, was, wo ausrollen und betrieben darf.

SelfService2

Bild 3: Nutanix SelfService Portal

Fazit

Mit den richtigen Tool und einer flexiblen, scalierbaren Plattform wie sie Nutanix bietet kann man die Anforderungen die DevOps an die Infrastruktur stellt sehr leicht realisieren.

.NEXT ontour Wien

Veröffentlicht: 13. Februar 2018 in Virtualisierung

Nutanix Event in Österreich

Für alle unsere Partner und Interessenten in Österreich und auch in Süddeutschland hier der Hinweis und der Link zur Anmeldung (Klick auf die Grafik)

Wien 22. März 2018

Splash_Wien2018

Ich selbst werde auf diesem Event einen Vortrag zum Thema
„Machine Learning mit Nutanix“ halten. Sicher interessant für alle die etwas zum Thema Machine Learning und praktischen Anwendungen daraus hören wollen.

Vielleicht schaffe ich es ja in diesem Jahr etwas mehr zu schreiben.

An dieser Stelle möchte ich auch nochmal auf den Blogg meiner Kollegen invisible-IT hinweisen.

.NEXT ontour Frankfurt

Veröffentlicht: 26. Januar 2018 in Virtualisierung

Nutanix Event in Deutschland

Mit dieser kleinen Ankündigung (wenn auch etwas spät 🙂 ) möchte ich mich für das Jahr 2016 zurückmelden.

IntroNextontourFFM2018

Ich selbst werde auf diesem Event einen Vortrag zum Thema
„Machine Learning mit Nutanix“ halten. Sicher interessant für alle die etwas zum Thema Machine Learning und praktischen Anwendungen daraus hören wollen.

Vielleicht schaffe ich es ja in diesem Jahr etwas mehr zu schreiben.

An dieser Stelle möchte ich auch nochmal auf den Blogg meiner Kollegen „invisible-IT“ hinweisen.

Das Jahr 2017 hat für mich viele Veränderungen, aber auch die „Rückkehr“ in meinen alten Bereich der Data-Center zurückgebracht. Ich habe viel erlebt, war oft in der Welt unterwegs, habe viele alte und neue Bekannte und Kollegen getroffen und kennengelernt. Dafür bin ich sehr dankbar.

Die Bibel sagt dazu:

Preise den HERRN, meine Seele, und vergiß nicht alle seine Wohltaten!Psalm 103 Vers 2

Ich denke, dass die Dankbarkeit gegenüber Gott, dem Schöpfer, wichtig ist aber noch viel mehr die Dankbarkeit dafür, dass GOTT seinen Sohn Jesus Christus auf die Erde gesandt hat, um durch dessen Tod am Kreuz von Golgatha das Problem der Sünde zu lösen.

Glaube an den Herrn Jesus, und du wirst errettet werden, du und dein Haus. Apostelgeschichte  16 Vers 31

Dieses ist für mich immer wieder Ziel und Anker in meinem Leben. Die gleiche Zuversicht wünsche ich allen Lesern.

( alle Stellen: Elberfelder Übersetzung von 1905)


Vielleicht schaffe ich es ja, in 2018 wieder mehr Artikel zu interessanten Themen rund um die Zukunft der Data-Center und der Cloud in ihren vielfältigen Spielarten zu schreiben. Hier kommen sicher interessante und spannende Neuigkeiten und auch Umstellungen auf uns zu.

In diesem Sinne noch einmal „Alles Gute und viel Erfolg im neuen Jahr 2018

Machine Learning nutzen um mögliche Problemfälle automatisch zu erkennen

In diesem Artikel möchte ich eine interessante Anwendung des Machine Learnings vorstellen. Dazu ein paar Grundlagen „was ist und macht Machine Learning“ und eine kurze Erklärung dieses interessanten Ansatzes der z.Z. viel durch die Medien geistert vorstellen.

Abschließend ein Beispiel eines Usecases und einer Anwendung dieser Technik.

Machine Learning – was ist das?

Machine Learning gehört zu dem gesamten Umfeld der Künstlichen Intelligenz [KI]. Hierbei werden Maschinen darauf getrimmt bestimmte Dinge selbstständig zu erkennen und dann auch zu reagieren. Reaktionen können dabei auch einfache Benachrichtigungen über erkannte „Zustände“ sein.

Wikipedia schreibt dazu: „Ein künstliches System lernt aus Beispielen und kann diese nach Beendigung der Lernphase verallgemeinern. Das heißt, es werden nicht einfach die Beispiele auswendig gelernt, sondern es „erkennt“ Muster und Gesetzmäßigkeiten in den Lerndaten. So kann das System auch unbekannte Daten beurteilen (Lerntransfer) oder aber am Lernen unbekannter Daten scheitern (Überanpassung)“ © by Wikipedia 2017

NeuronaleNetze

Bild 1: Prinzipbild Neuronales Netz

Das bedeutet also das eine Erkennung immer erst nach einer Lernphase möglich ist. Perfomance Management Systeme arbeiten seit einiger Zeit gern mit solchen Methoden. Hier spricht man immer von „Einschwing oder Lernphasen“ die typischerweise mehrere Wochen andauern bis das System verlässliche Aussagen treffen kann. Will heißen, Aussagen können am Anfang durchaus falsch liegen, denn die Grundlage jedes lernenden Systems sind die Auswertung vieler Daten (Big Data).

Das Thema KI ist eng mit der Disziplin „Neuronale Netze“ etc. verbunden und hatte in den 1990er Jahren schon einmal eine Hochkonjunktur. Leider waren die damaligen Rechnersysteme nicht Leistungsstark genug um den Lernprozess schnell genug durchzuführen, ausserdem fehlte es oft an Datenpools die genug „Lermaterial“ bereitstellen konnten. In Zeiten von Big Data, IoT etc. haben wir genug Daten :-). Ausserdem sind unsere heutigen System in der Lage diese Datenmengen auch zu verarbeiten (auch Hyperconverged ist erst auf Basis der heutigen Systemleistungen machbar geworden!).

Anwendung IT Monitoring

Ein fantastischer Anwendungsfall für Machine Learning ist das Monitoring komplexer und großer IT Umgebungen.

Ein einfaches Beispiel: Früher mussten wir mühsam für „alle“ oder viele Systeme zulässige Schwellwerte ermitteln und konfigurieren. Diese waren dann Ober- bzw. Untergrenzen eines bestimmten Messwertes die bei Über- oder Unterschreitung zu Alarmen oder Notification geführt haben. Da zum Startzeitpunkt eines neuen Services diese Grenzwerte oft nur unzureichend bekannt waren gab es hier jede Menge Potenzial Dienstleistung über Wochen und Monate beim Kunden zu erbringen in denen diese Schwellwerte (thresholds) konfiguriert und mit Regelwerken verknüpft wurden.

Moderne Systeme gehen nun mehr und mehr dazu über auf Grund von Machine Learning Algorithmen selbst zu erkennen wann ein Messwert Anomalien zeigt. Diese hört sich vielleicht leichter an als es ist.

Ein paar Gedankenansätze:

  • Was ist normal?
  • Ab wann soll alarmiert werden?
  • Wie geht das System mit Peaks um?
  • Welche Anomalien können zu kritischen Zuständen führen
  • uvm.

Ziel ist es dabei das gesamte Operation und die Administratoren von der mühsamen Konfiguration und Anpassung bzw. Nachjustierung von Schwellwerten zu entlasten und statt dessen das System zu trainieren selbst zu erkennen wann etwas außerhalb des normalen (Anomalie) läuft.

Beispiel Usecase

Im Beispiel usecase haben wir eine VM deren CPU Usage über mehrere Woche gemonitort wird.

CPUUsage

Bild 2: CPU Usage einer fiktiven VM

Im Bild 2 betrachten wir eine fiktive VM und deren CPU Usage. Wie man sehen kann hat diese VM alle 4 Wochen eine höhere CPU Usage. Dieses scheint in der Anwendung begründet zu sein und wird vom System (grüne Linie) als „Normal“ betrachtet. Erst als die CPU Usage über den normalen Wert ansteigt (+kurzer Versatz) wird ein Alarm ausgelöst, obwohl für diese VM nie ein CPU Usage Schwellwert definiert wurde.

Anomaly Detection in der Praxis

Nutanix bringt ins seinem nächsten Release seiner Management Lösung Prism Pro genau diese Methode zum Einsatz. Prism Pro wird in Zukunft in der Lage sein Alarme auf Basis von „gelernten“ Regeln auszulösen und diese sogar automatisch nachzujustieren!

anomaly-detection.png

Bild 3: Anomaly Detection in Prism from .NEXT 2017 © by Nutanix 2017

Wie man im Bild 3 sehen kann zeigt der Graph der Messwerte einmal als dunkelblaue Line den Verlauf der tatsächlichen Messwerte. Die hellblaue „Wellenkurve“ zeigt dagegen den vom System selbst ermittelten „Normal-Bereich“ der über die Zeit durchaus schwanken kann! Erste eine Überschreitung dieses Bereichs führt zu einer Erkennung einer Anomalie die dann mit kurzem „Verifizierungszeitraum“ (zur Vermeidung von Alarmen auf Grund von Peaks) zu einem tatsächlichen Alarm führt.

Fazit

Mit Hilfe von Machine Learning und verlässlichen Daten können Administratoren ohne zeitaufwändige Beobachtung Ihrer Systeme und der manuellen Definition von Schwellwerten zuverlässig über „Unnormale“ Verhalten Ihrer VMs oder Applikationen informiert werden.
Gerade bei großen Umgebungen kann hier ein deutlicher Administrativer Aufwand eingespart werden ohne auf Alarmierungen von möglichen Problemfällen verzichten zu müssen.

Invisible IT

Dieser kurze Artikel soll allen interessierten zeigen welche Hilfen Nutanix bietet um ein korrektes Sizing einer Nutanix Umgebung, auch mit unterschiedlichen Workloads zu berechnen und durch zuspielen.

Qualität des Input schafft Qualität beim Output

Bevor wir und den „Nutanix Sizer“ ansehen, möchte ich ein paar Worte zu den Workload Daten verlieren. Ein altes Sprichwort sagt „Bullshit in = Bullshit out„, was soviel bedeutet wie. Schlechte Datenrecherche und schlechte Qualität der Eingangsdaten erzeugen auch eine schlechte Qualität der Ausgabe Daten.

Wenn man also bei der „Erhebung“ der Workload oder Leistungsdaten schlampt, kann selbst das beste Tool keine guten Ergebnisse daraus generieren. Daher, bitte für eine gute Datengrundlage sorgen. Die Workload oder Application Experten der Kunden sind hier die besten Informationsquellen. Existieren die Workload schon, dann kann man sicher reale Betriebsdaten aus den Systemen ziehen. Die bekannten „RV-Tools“ sollen hier nur als Beispiel dienen.

Der Nutanix…

Ursprünglichen Post anzeigen 789 weitere Wörter

Backup einfach und schnell – NAKIVO V7

Veröffentlicht: 31. März 2017 in Virtualisierung

NAKIVO released die Version 7 ihrer Backup-Lösung

NAKIVO hat am 28. März die 7te Version seiner Backup- und Replikation Lösung released. Nach sehr sehr langer Zeit 😉 möchte ich doch mal wieder einen Blick auf diese interessante Lösung werfen und kurz die Neuerungen vorstellen. Anschließend ein Blick auf die „immer noch“ einfache Installation.

Was ist neu in NAKIVO Backup & Replication V7?

Aus meiner Sicht sind die meisten Neuerungen erst mal Versionspflege, das heißt Unterstützung der neuen Version der Virtualisierungsplattformen. Dazu kommen aber auch ein paar Features die sicher von vielen lange gewünscht wurden.

Im Einzelnen sind das:

  • Hyper-V Unterstützung der Versionen 2016 und 2012 inkl. Incremental for ever, Image-based und Application-aware. Alle Daten werden somit Applikationskonsistent gesichert. Sowohl AWS als auch Hyper-V und vmware Backup Jobs können die gleichen Repositories nutzen.
  • Auch für Hyper-V existiert die Möglichkeit VMs auf andere Server zu replizieren um im Desasterfall schneller als mit einem Restore wieder „am Laufen“ zu sein.
  • NAKIVO V7 unterstützt nun auch vmware vSphere 6.5. Dabei werden auch verschlüsselte VMs gebackupt!
  • An allgemeinen Funktionen ist das überspringen (skip) von Swap Dateien und Partitionen in VMs. Dieses spart sicher viele GB an Backup Store.
  • Active Directory Gruppen können jetzt leicht auf NAKIVO User Rollen gemappt werden. Dadurch erhält man leicht ein einheitliches Usermanagement im Unternehmen.
  • Unter Active Management versteht NAKIVO eine Activity Tabelle die alle aktuellen Aktionen an einer Stelle auflistet. Für Administratoren sicher eine schöne Sache.
  • Ebenso die Möglichkeit Backups nach bestimmten Kriterien zu suchen und auch zu löschen 😉 . Klingt vielleicht komisch, aber mal ehrlich, wieviele alte und unnütze Backups schlummern auf irgendwelchen Repositories und fressen nur Platz?

Ich denke da ist eine gute Releasepflege in Bezug auf die Aktuellen Hypervisoren erfolgt plus ein paar nützliche neue Funktionen die diese Lösung abrunden.

Easy Installation

Da ich z.Z. zum lernen und testen einen NUTANIX Block in meinem HomeOffice habe (ersetzt jede Heizung und macht auch gut Krach 🙂 ) konnte ich „mal eben schnell“ die neue Version auf vmware testen. Hier die Installation bebildert.

I. Deployment der fertigen NAKIVO-OVA Appliance

NAKIVO bietet ein fertige OVA auf Linux Basis an. Diese habe ich früher auch schon bei meinen Tests genutzt. Nun wollte ich mal sehen was hier „verbessert“ wurde.

Der erste Schritt, das reine Deployment auf vmware vSphere muss sicher nicht erklärt werden. Zwei Screenshots zeigen das Depolyment.

NAKIVO7-01

Bild 1: Ausgabe der OVO Informationen

NAKIVO7-02

Bild 2: Speichern der Appliance auf dem NUTANIX Store

Da hab ich doch mal richtig Platz 🙂

II. Grundkonfiguration der Appliance

Startet man die frisch deployte Appliance und geht dann auf die Konsole, wird man direkt mit der Grundkonfiguration konfrontiert.

Conf-Appl-01

Bild 3: Konfigurationsmenü der Appliance

Hier habe ich erst mal den Hostname und die IP Adresse (bitte statisch!) konfiguriert. Die einzelnen Schritte zeige ich jetzt mal nicht, denke das bekommt jeder IT’ler hin.

Conf-Appl-08

Bild 4: Hostname und IP konfiguriert

Da die Appliance mit einem „embedded“ Backup Storage daherkommt habe ich hier nichts konfiguriert. Zusätzliche Repositories kann man als Virtuelle Disks anhängen oder via CIFS bzw. NFS hinzufügen.

Conf-Appl-10

Bild 5: Das „embeddet“ Repository mit 520GB

Anschließend bitte noch die Zeit und Zeitzone konfigurieren (Linux like).

Conf-Appl-12

Bild 6: Time und Time Zone

Fertig ist die Appliance!

III. Konfiguration von NAKIVO V7

Nach erfolgter Appliance Grundkonfiguration können wir die Web-Konsole im Browser starten:

https://<IP-Address&gt;:4443/

Hier müssen wir erst mal den „admin“ User mit einem Passwort versehen (bzw. einen anderen User als Admin anlegen) . Hierzu auf „configure“ klicken. Default user ist „admin“.

Conf-Appl-16

Bild 7: Erster Start Web-Konsole – Admin User konfigurieren!

Anschließend leitet NAKIVO durch die Erstkonfiguration in der z.B. ein vCenter eingebunden wird. Geg. verschiedenen Transporter und Repositories konfiguriert werden.

Conf-Appl-17

Bild 8: Erstkonfigurationsmenu

Der unübersehbare Button in der Mitte „Add New…“ stellt alle Unterstützten Systeme zur Auswahl bereit.

Conf-Appl-18

Bild 9: Unterstützte Plattformen

Wir wählen VMware mit einem vCenter Server aus.

Conf-Appl-19

Bild 10: vCenter Server koppeln

Es empfiehlt sich hier einen speziellen User im vCenter oder AD anzulegen der entsprechende Rechte im vCenter hat um VMs backuppen und restoren zu können.

Wenn alles passt haben wir schnell unsere vmware Umgebung in NAKIVO sichtbar gemacht.

Conf-Appl-20

Bild 11: vCenter Server Umgebung in NAKIVO

Anschließend könnten wir Transporter einbinden (z.B. bei abgesetzten Standorten oder großen Umgebungen um eine Lastverteilung zu erreichen. Transporter sind ein eigenes Thema. Ich erwähne sie hier nur kurz.

Conf-Appl-21

Bild 12: Transporter einbinden (ich nutze hier keine externen)

Und zum Schluß noch die Repositories

Conf-Appl-22

Bild 13: Repositories

Hier die Möglichkeiten für Repositories

Conf-Appl-28

Bild 14: Repositories

VMDK Erweiterung – Transporter – CIFS,NFS oder Amazon EBS, das sind die möglichen Repositories.

IV. Backup Jobs

Anschließend könnten erste Backup Jobs erstellt werden. Ich zeige einfach mal ein paar Screenshots. Denke die sind selbsterklärend.

Conf-Appl-23

Bild 15: Neuer Backup oder Replikations Job mit den Möglichkeiten

Conf-Appl-25

Bild 16: Der Scheduler

Conf-Appl-26

Bild 17: Retention Policies

Conf-Appl-27

Bild 18: Job Optionen

Damit wäre ich für heute am Ende dieser kurzen Betrachtung der neuen NAKIVO Version 7.

Fazit

Wenn ich an die Installation und Optik der Version 3.9.1 von 2014 zurückdenke, dann ist vieles einfach noch runder und besser geworden. Hyper-V wurde damals nicht unterstützt und besonders die OVA-App Grundkonfiguration war noch etwas „VI“ und Commandline lastiger. Alles in allem eine feine Lösung die sehr schnell zu implementieren ist (ich hab gerade mal 20 – 30 min. bis ready to run benötigt, dabei hab ich aber noch die ganzen Screenshots angefertigt und mir alles in Ruhe angesehen!).

Mein persönlicher Wunsch wäre natürlich eine native Unterstützung des NUTANIX Hypervisors AHV 🙂

Ich hoffe das ich demnächst einiges zu „unserer“ Plattform schreiben kann.

I am back – In eigener Sache

Veröffentlicht: 27. März 2017 in Virtualisierung

Zurück in die Welt der Virtualisierung

Heute gebe ich ein paar Infos in eigener Sache bekannt. Wie Ihr sicher mitbekommen habt war ich in den letzten 2,5 Jahren in etwas anderen Schwerpunkten beruflich unterwegs.

Als „Head of Training“ eines Software Herstellers mit einem extrem breitgefächerten Lösungsangebot (von Mainframe Tools über Metadata Management und Dokumenten Management zu Cloud Tools bis hin zu einer Backup Lösung). Begonnen hatte ich als Head of Training „nur“ für den Cloud-Bereich. Durch eine massive Umorganisation war ich pro forma plötzlich für alle Lösungen der „Trainings-Mensch“. Leider wurde das nicht so gelebt wie ich es mir gewünscht hätte. Trotzdem war es eine interessante und lehrreiche Zeit. Besonders der Aufbau und die Konzeptionierung eines Learning Management Systems [LMS] auf Basis eines Moodle-Derivates hat mir viel Freude bereitet.

Hier konnte ich viele Ideen umsetzten, doch leider hinkte die Erstellung der Inhalte, sprich eLearning Kurse durch fehlende Unterstützung von ganz oben nach.

Ebenfalls konnte ich meine Fähigkeiten im Bereich Video Tutorials weit ausbauen. Ich hoffe das ich diese nun in meiner neuen Position nutzbringend einsetzen kann.

Back in Hypervirtual World

Seit Februar 2017 bin ich nun beim Pionier der Hyperconvergenz NUTANIX als Sr. Channel SE wieder zurück in der virtuellen Welt. Vieles ist altbekannt, vieles hat sich extrem weiterentwickelt. Umbrüche und Neues gehen Hand in Hand.

Ich freue mich das ich nun wieder an den innovativen Entwicklungen die z.Z. in den Rechenzentren laufen teilhaben und mitwirken kann. Gerade die Hyperconvergenten Lösungen versprechen großes Potential. Vor einiger Zeit hatte ich mal ein paar Worte dazu geschrieben. Einiges ist sicher aus heutiger Sicht Überarbeitungsbedürftig 🙂

Da ich nun bei einem Hersteller von Hyperconvergenten Lösungen arbeite, bin ich sicher in Zukunft nicht ganz wertneutral. Ich möchte diesen Blog aber wiederbeleben und auch über den Tellerrand hinaus interessante Themen und Lösungen besprechen.

In diesem Sinn – Danke an alle die immer wieder mal „reingeschaut“ haben und mir die Treue gehalten haben. Herzlich willkommen an alle die neu hereinschauen und hoffentlich interessante Themen finden.

Daniel Baby im März 2017

Ein kurzer Überblick der Änderungen

In diesem kurzen Artikel möchte ich meine ganz persönliche Sichtweise auf die neue Version vSphere 6.5 darstellen. Viele Details bleiben dabei sicher aussen vor, zumal ich z.Z. auch keine Möglichkeit habe die Version selbst tiefer auszutesten.

Anmerkungen und Hinweise die mir wichtig erscheinen möchte ich aber kurz vorstellen. Vielleicht ergibt sich daraus auch eine interessante Diskussion.

Änderungen an den Editionen – Lizenzen

Wie bereits in meinem Artikel [vmware – neue Preise – Enterprise ist tot!] beschrieben hat vmware die Enterprise Edition gekippt. Es gibt nun nur noch vSphere Standard und vSphere Enterprise Plus als reine vSphere Lizenzen.

Ausmeiner Sicht versucht vmware die Kunden in Richtung der „vSphere with Operations Management“ Suiten zu locken. Aus rein betrieblicher Sicht macht es durchaus Sinn solch eine Plattform auch gleich mit einem geeigneten Tool zu überwachen und hier zusätzliche Überwachungsmöglichkeiten via Dashboards, Notifications und der Möglichkeit auch Applikationsüberwachung einzubeziehen. Für den Kunden der aber andere Überwachungstools besitzt und nutzt und der „nur“ vSphere benötigt ist das keine Alternative.

Für mich zeigt dieses Verhalten, dass vmware merkt das der reine Hypervisor Markt erstens „commodity“ und zweitens „multi-Hypervisor“ aufgestellt ist. Neben vmware vSphere und Microsoft Hyper-V gibt es eben auch verstärkt andere Mitspieler, die vom Funktionsumfang durchaus mitziehen können … und wer braucht wirklich jedes Feature das angeboten wird?

Wer braucht nun was? Was wird geboten?

Da der vmware Kunde nur noch die Wahl zwischen Standard und Enterprise Plus hat gebe ich hier mal mein „Empfinden“ über die beiden Editionen zum Besten, ohne jede einzelne Funktion anzusprechen.

  1. vSphere Standard

    Alle die, die den bewährten ESXi einsetzten wollen oder müssen erhalten all die bekannten Standardfunktionen wie vMotion, HA etc.
    vMotion: wird erweitert durch die sogenannte Cross-vSwitch Möglichkeit. Kurz und knapp – die vSwitche müssen nun nicht mehr gleich heißen.
    Fault Tolerance: ist nun für 2 vCPU VMs freigegeben. Wer mehr braucht braucht Enterprise Plus.
    Storage API etc.: Storage API und Multipathing sind enthalten ebenso vVOLs.

  2. vSphere Enterprise Plus

    Hier findet sich nun der „ganze Rest“ der netten Funktionen die manche brauchen, manche wollen und auf die sicher auch viele verzichten können.
    Ein paar Beispiele:
    Fault Tolerance: nun sind bis zu 4 vCPUs möglich. Bitte bedenken: Eure Infrastruktur sollte das auch mitmachen! Hosts mit genug Ressourcen und ein 10GB Netz „brauchts schon“.
    vMotion: nicht nur Cross-vSwitch, sondern auch Cross-vCenter, Long Distance und sogar Cross-Cloud sind möglich. Wenn ich nur ein vCenter betreibe interessiert mich das weniger. Alles andere würde ich sagen – ja wenn ich es brauche.
    VM-Encryption: Kann im Cloud Umfeld sicher interessant sein. In meinem lokalen und hoffentlich abgesicherten Rechenzentrum vielleicht weniger interessant. (siehe dazu das vmware Whitepaper zur VM Encryption performance ).
    DRS: Das ist das Feature was mich persönlich am ehesten reizen würde die Enterprise Plus zu kaufen. Hab ich mehrere ESXi Hosts und viele VMs arbeitet DRS diskret im Hintergrund und sorgt für ein gutes Load-Balancing meiner Umgebung, besonders nach einem HA Fall ein sehr nützliches Werkzeug!

Als kurzes Zwischen-Fazit fehlt mir DRS in der Standard Edition! Leider ist dieses altbewährte und nützliche Feature immer noch auch die Enterprise Plus beschränkt. Früher konnte man das über den Zwischen-Schritt Enterprise erhalten. Schade!

Erweiterte oder Neue Funktionen

Diese sind wie immer fast ausschließlich der Enterprise Plus Edition vorbehalten oder sogar nur mittels des erweiterten „Operations Management“ via vOps möglich.

Ein ganz wichtiger Punkt: Es gibt nur noch den WebClient! Das ist logisch und konsequent. Aus meiner Sicht gut und richtig und mit den Performance Verbesserungen wohl auch aus dieser Sicht akzeptabel. Der Update Manager ist nun auch vollständig intergiert und ebenso in der vCenter Appliance enthalten.

Hier ein paar weitere Beispiele:

OpenStack: Wer OpenStack nutzen will kann dieses nun tun, Enterprise Plus vorausgesetzt und extra zu bezahlen. Aus meiner Sicht vom Markt gefordert aber nicht wirklich gewollt.
Container: Auch hier – Ja ist möglich aber nur in der Enterprise Plus Edition (allerdings enthalten und nicht extra zu zahlen.
vCenter HA und Appliance Migration Tool: Gibt es für „Alle“ und zeigt mir das die Tage der Windows vCenter Version gezählt sind.
VM Encrytion: Hatte ich schon angesprochen. Gerade im Public Cloud Bereich eine wichtige zusätzliche Sicherheitsfunktion.
NVIDIA GRID vGPU: 2D oder 3D Performance in einer VM ist sicher im VDI Umfeld hier und da eine prima Sache. Auch wider nur für Enterprise Plus verfügbar aber auch sehr speziell.
Predictive DRS: Durch das Nutzen der erweiterten Performance Management Möglichkeiten von vOps eine tolle Idee! Das macht absolut Sinn und ist eine logische Folge aus einem guten System Management.
Proactive HA: Hier wird der „Gesundheitszustand“ des ESXi Hostes ausgewertet und im Falle bestimmter Events ein Proactives HA, das heißt eigentlich ein DRS angestoßen (deswegen auch nur in der Enterprise Plus mit DRS – meine Meinung). Hier bitte auf Hersteller CIM Agent achten, denn die liefern über die spezifischen Sensoren Infos über Wärme, Lüfter etc..

… und vieles mehr.

Fazit

Ich hoffe diese kurze Übersicht hilf dem einen oder anderen die Neuigkeiten von vSphere 6.5 einzusortieren und vor allem zu entscheiden welche Edition man anbietet oder nutzen will. Außerdem schadet es nichts auch mal zu schauen was andere Hersteller so anbieten 🙂 . vmware ist nicht mehr allein am Markt und viele ehemals alleinstehende Funktionen gibt es auch bei anderen Lösungsanbietern.

Mir fehlt der Schritt DRS auch in der Standard Edition anzubieten. Das ganze basiert auf dem bewährten vMotion und ist für IT Verhältnisse „steinalt“ aber sehr sehr nützlich.

Alles was ich aufgeführt habe kann man sehr schön auf der vmware Webseite nachsehen.