Machine Learning nutzen um mögliche Problemfälle automatisch zu erkennen

In diesem Artikel möchte ich eine interessante Anwendung des Machine Learnings vorstellen. Dazu ein paar Grundlagen „was ist und macht Machine Learning“ und eine kurze Erklärung dieses interessanten Ansatzes der z.Z. viel durch die Medien geistert vorstellen.

Abschließend ein Beispiel eines Usecases und einer Anwendung dieser Technik.

Machine Learning – was ist das?

Machine Learning gehört zu dem gesamten Umfeld der Künstlichen Intelligenz [KI]. Hierbei werden Maschinen darauf getrimmt bestimmte Dinge selbstständig zu erkennen und dann auch zu reagieren. Reaktionen können dabei auch einfache Benachrichtigungen über erkannte „Zustände“ sein.

Wikipedia schreibt dazu: „Ein künstliches System lernt aus Beispielen und kann diese nach Beendigung der Lernphase verallgemeinern. Das heißt, es werden nicht einfach die Beispiele auswendig gelernt, sondern es „erkennt“ Muster und Gesetzmäßigkeiten in den Lerndaten. So kann das System auch unbekannte Daten beurteilen (Lerntransfer) oder aber am Lernen unbekannter Daten scheitern (Überanpassung)“ © by Wikipedia 2017

NeuronaleNetze

Bild 1: Prinzipbild Neuronales Netz

Das bedeutet also das eine Erkennung immer erst nach einer Lernphase möglich ist. Perfomance Management Systeme arbeiten seit einiger Zeit gern mit solchen Methoden. Hier spricht man immer von „Einschwing oder Lernphasen“ die typischerweise mehrere Wochen andauern bis das System verlässliche Aussagen treffen kann. Will heißen, Aussagen können am Anfang durchaus falsch liegen, denn die Grundlage jedes lernenden Systems sind die Auswertung vieler Daten (Big Data).

Das Thema KI ist eng mit der Disziplin „Neuronale Netze“ etc. verbunden und hatte in den 1990er Jahren schon einmal eine Hochkonjunktur. Leider waren die damaligen Rechnersysteme nicht Leistungsstark genug um den Lernprozess schnell genug durchzuführen, ausserdem fehlte es oft an Datenpools die genug „Lermaterial“ bereitstellen konnten. In Zeiten von Big Data, IoT etc. haben wir genug Daten :-). Ausserdem sind unsere heutigen System in der Lage diese Datenmengen auch zu verarbeiten (auch Hyperconverged ist erst auf Basis der heutigen Systemleistungen machbar geworden!).

Anwendung IT Monitoring

Ein fantastischer Anwendungsfall für Machine Learning ist das Monitoring komplexer und großer IT Umgebungen.

Ein einfaches Beispiel: Früher mussten wir mühsam für „alle“ oder viele Systeme zulässige Schwellwerte ermitteln und konfigurieren. Diese waren dann Ober- bzw. Untergrenzen eines bestimmten Messwertes die bei Über- oder Unterschreitung zu Alarmen oder Notification geführt haben. Da zum Startzeitpunkt eines neuen Services diese Grenzwerte oft nur unzureichend bekannt waren gab es hier jede Menge Potenzial Dienstleistung über Wochen und Monate beim Kunden zu erbringen in denen diese Schwellwerte (thresholds) konfiguriert und mit Regelwerken verknüpft wurden.

Moderne Systeme gehen nun mehr und mehr dazu über auf Grund von Machine Learning Algorithmen selbst zu erkennen wann ein Messwert Anomalien zeigt. Diese hört sich vielleicht leichter an als es ist.

Ein paar Gedankenansätze:

  • Was ist normal?
  • Ab wann soll alarmiert werden?
  • Wie geht das System mit Peaks um?
  • Welche Anomalien können zu kritischen Zuständen führen
  • uvm.

Ziel ist es dabei das gesamte Operation und die Administratoren von der mühsamen Konfiguration und Anpassung bzw. Nachjustierung von Schwellwerten zu entlasten und statt dessen das System zu trainieren selbst zu erkennen wann etwas außerhalb des normalen (Anomalie) läuft.

Beispiel Usecase

Im Beispiel usecase haben wir eine VM deren CPU Usage über mehrere Woche gemonitort wird.

CPUUsage

Bild 2: CPU Usage einer fiktiven VM

Im Bild 2 betrachten wir eine fiktive VM und deren CPU Usage. Wie man sehen kann hat diese VM alle 4 Wochen eine höhere CPU Usage. Dieses scheint in der Anwendung begründet zu sein und wird vom System (grüne Linie) als „Normal“ betrachtet. Erst als die CPU Usage über den normalen Wert ansteigt (+kurzer Versatz) wird ein Alarm ausgelöst, obwohl für diese VM nie ein CPU Usage Schwellwert definiert wurde.

Anomaly Detection in der Praxis

Nutanix bringt ins seinem nächsten Release seiner Management Lösung Prism Pro genau diese Methode zum Einsatz. Prism Pro wird in Zukunft in der Lage sein Alarme auf Basis von „gelernten“ Regeln auszulösen und diese sogar automatisch nachzujustieren!

anomaly-detection.png

Bild 3: Anomaly Detection in Prism from .NEXT 2017 © by Nutanix 2017

Wie man im Bild 3 sehen kann zeigt der Graph der Messwerte einmal als dunkelblaue Line den Verlauf der tatsächlichen Messwerte. Die hellblaue „Wellenkurve“ zeigt dagegen den vom System selbst ermittelten „Normal-Bereich“ der über die Zeit durchaus schwanken kann! Erste eine Überschreitung dieses Bereichs führt zu einer Erkennung einer Anomalie die dann mit kurzem „Verifizierungszeitraum“ (zur Vermeidung von Alarmen auf Grund von Peaks) zu einem tatsächlichen Alarm führt.

Fazit

Mit Hilfe von Machine Learning und verlässlichen Daten können Administratoren ohne zeitaufwändige Beobachtung Ihrer Systeme und der manuellen Definition von Schwellwerten zuverlässig über „Unnormale“ Verhalten Ihrer VMs oder Applikationen informiert werden.
Gerade bei großen Umgebungen kann hier ein deutlicher Administrativer Aufwand eingespart werden ohne auf Alarmierungen von möglichen Problemfällen verzichten zu müssen.

Invisible IT

Dieser kurze Artikel soll allen interessierten zeigen welche Hilfen Nutanix bietet um ein korrektes Sizing einer Nutanix Umgebung, auch mit unterschiedlichen Workloads zu berechnen und durch zuspielen.

Qualität des Input schafft Qualität beim Output

Bevor wir und den „Nutanix Sizer“ ansehen, möchte ich ein paar Worte zu den Workload Daten verlieren. Ein altes Sprichwort sagt „Bullshit in = Bullshit out„, was soviel bedeutet wie. Schlechte Datenrecherche und schlechte Qualität der Eingangsdaten erzeugen auch eine schlechte Qualität der Ausgabe Daten.

Wenn man also bei der „Erhebung“ der Workload oder Leistungsdaten schlampt, kann selbst das beste Tool keine guten Ergebnisse daraus generieren. Daher, bitte für eine gute Datengrundlage sorgen. Die Workload oder Application Experten der Kunden sind hier die besten Informationsquellen. Existieren die Workload schon, dann kann man sicher reale Betriebsdaten aus den Systemen ziehen. Die bekannten „RV-Tools“ sollen hier nur als Beispiel dienen.

Der Nutanix…

Ursprünglichen Post anzeigen 789 weitere Wörter

Backup einfach und schnell – NAKIVO V7

Veröffentlicht: 31. März 2017 in Virtualisierung

NAKIVO released die Version 7 ihrer Backup-Lösung

NAKIVO hat am 28. März die 7te Version seiner Backup- und Replikation Lösung released. Nach sehr sehr langer Zeit 😉 möchte ich doch mal wieder einen Blick auf diese interessante Lösung werfen und kurz die Neuerungen vorstellen. Anschließend ein Blick auf die „immer noch“ einfache Installation.

Was ist neu in NAKIVO Backup & Replication V7?

Aus meiner Sicht sind die meisten Neuerungen erst mal Versionspflege, das heißt Unterstützung der neuen Version der Virtualisierungsplattformen. Dazu kommen aber auch ein paar Features die sicher von vielen lange gewünscht wurden.

Im Einzelnen sind das:

  • Hyper-V Unterstützung der Versionen 2016 und 2012 inkl. Incremental for ever, Image-based und Application-aware. Alle Daten werden somit Applikationskonsistent gesichert. Sowohl AWS als auch Hyper-V und vmware Backup Jobs können die gleichen Repositories nutzen.
  • Auch für Hyper-V existiert die Möglichkeit VMs auf andere Server zu replizieren um im Desasterfall schneller als mit einem Restore wieder „am Laufen“ zu sein.
  • NAKIVO V7 unterstützt nun auch vmware vSphere 6.5. Dabei werden auch verschlüsselte VMs gebackupt!
  • An allgemeinen Funktionen ist das überspringen (skip) von Swap Dateien und Partitionen in VMs. Dieses spart sicher viele GB an Backup Store.
  • Active Directory Gruppen können jetzt leicht auf NAKIVO User Rollen gemappt werden. Dadurch erhält man leicht ein einheitliches Usermanagement im Unternehmen.
  • Unter Active Management versteht NAKIVO eine Activity Tabelle die alle aktuellen Aktionen an einer Stelle auflistet. Für Administratoren sicher eine schöne Sache.
  • Ebenso die Möglichkeit Backups nach bestimmten Kriterien zu suchen und auch zu löschen 😉 . Klingt vielleicht komisch, aber mal ehrlich, wieviele alte und unnütze Backups schlummern auf irgendwelchen Repositories und fressen nur Platz?

Ich denke da ist eine gute Releasepflege in Bezug auf die Aktuellen Hypervisoren erfolgt plus ein paar nützliche neue Funktionen die diese Lösung abrunden.

Easy Installation

Da ich z.Z. zum lernen und testen einen NUTANIX Block in meinem HomeOffice habe (ersetzt jede Heizung und macht auch gut Krach 🙂 ) konnte ich „mal eben schnell“ die neue Version auf vmware testen. Hier die Installation bebildert.

I. Deployment der fertigen NAKIVO-OVA Appliance

NAKIVO bietet ein fertige OVA auf Linux Basis an. Diese habe ich früher auch schon bei meinen Tests genutzt. Nun wollte ich mal sehen was hier „verbessert“ wurde.

Der erste Schritt, das reine Deployment auf vmware vSphere muss sicher nicht erklärt werden. Zwei Screenshots zeigen das Depolyment.

NAKIVO7-01

Bild 1: Ausgabe der OVO Informationen

NAKIVO7-02

Bild 2: Speichern der Appliance auf dem NUTANIX Store

Da hab ich doch mal richtig Platz 🙂

II. Grundkonfiguration der Appliance

Startet man die frisch deployte Appliance und geht dann auf die Konsole, wird man direkt mit der Grundkonfiguration konfrontiert.

Conf-Appl-01

Bild 3: Konfigurationsmenü der Appliance

Hier habe ich erst mal den Hostname und die IP Adresse (bitte statisch!) konfiguriert. Die einzelnen Schritte zeige ich jetzt mal nicht, denke das bekommt jeder IT’ler hin.

Conf-Appl-08

Bild 4: Hostname und IP konfiguriert

Da die Appliance mit einem „embedded“ Backup Storage daherkommt habe ich hier nichts konfiguriert. Zusätzliche Repositories kann man als Virtuelle Disks anhängen oder via CIFS bzw. NFS hinzufügen.

Conf-Appl-10

Bild 5: Das „embeddet“ Repository mit 520GB

Anschließend bitte noch die Zeit und Zeitzone konfigurieren (Linux like).

Conf-Appl-12

Bild 6: Time und Time Zone

Fertig ist die Appliance!

III. Konfiguration von NAKIVO V7

Nach erfolgter Appliance Grundkonfiguration können wir die Web-Konsole im Browser starten:

https://<IP-Address&gt;:4443/

Hier müssen wir erst mal den „admin“ User mit einem Passwort versehen (bzw. einen anderen User als Admin anlegen) . Hierzu auf „configure“ klicken. Default user ist „admin“.

Conf-Appl-16

Bild 7: Erster Start Web-Konsole – Admin User konfigurieren!

Anschließend leitet NAKIVO durch die Erstkonfiguration in der z.B. ein vCenter eingebunden wird. Geg. verschiedenen Transporter und Repositories konfiguriert werden.

Conf-Appl-17

Bild 8: Erstkonfigurationsmenu

Der unübersehbare Button in der Mitte „Add New…“ stellt alle Unterstützten Systeme zur Auswahl bereit.

Conf-Appl-18

Bild 9: Unterstützte Plattformen

Wir wählen VMware mit einem vCenter Server aus.

Conf-Appl-19

Bild 10: vCenter Server koppeln

Es empfiehlt sich hier einen speziellen User im vCenter oder AD anzulegen der entsprechende Rechte im vCenter hat um VMs backuppen und restoren zu können.

Wenn alles passt haben wir schnell unsere vmware Umgebung in NAKIVO sichtbar gemacht.

Conf-Appl-20

Bild 11: vCenter Server Umgebung in NAKIVO

Anschließend könnten wir Transporter einbinden (z.B. bei abgesetzten Standorten oder großen Umgebungen um eine Lastverteilung zu erreichen. Transporter sind ein eigenes Thema. Ich erwähne sie hier nur kurz.

Conf-Appl-21

Bild 12: Transporter einbinden (ich nutze hier keine externen)

Und zum Schluß noch die Repositories

Conf-Appl-22

Bild 13: Repositories

Hier die Möglichkeiten für Repositories

Conf-Appl-28

Bild 14: Repositories

VMDK Erweiterung – Transporter – CIFS,NFS oder Amazon EBS, das sind die möglichen Repositories.

IV. Backup Jobs

Anschließend könnten erste Backup Jobs erstellt werden. Ich zeige einfach mal ein paar Screenshots. Denke die sind selbsterklärend.

Conf-Appl-23

Bild 15: Neuer Backup oder Replikations Job mit den Möglichkeiten

Conf-Appl-25

Bild 16: Der Scheduler

Conf-Appl-26

Bild 17: Retention Policies

Conf-Appl-27

Bild 18: Job Optionen

Damit wäre ich für heute am Ende dieser kurzen Betrachtung der neuen NAKIVO Version 7.

Fazit

Wenn ich an die Installation und Optik der Version 3.9.1 von 2014 zurückdenke, dann ist vieles einfach noch runder und besser geworden. Hyper-V wurde damals nicht unterstützt und besonders die OVA-App Grundkonfiguration war noch etwas „VI“ und Commandline lastiger. Alles in allem eine feine Lösung die sehr schnell zu implementieren ist (ich hab gerade mal 20 – 30 min. bis ready to run benötigt, dabei hab ich aber noch die ganzen Screenshots angefertigt und mir alles in Ruhe angesehen!).

Mein persönlicher Wunsch wäre natürlich eine native Unterstützung des NUTANIX Hypervisors AHV 🙂

Ich hoffe das ich demnächst einiges zu „unserer“ Plattform schreiben kann.

I am back – In eigener Sache

Veröffentlicht: 27. März 2017 in Virtualisierung

Zurück in die Welt der Virtualisierung

Heute gebe ich ein paar Infos in eigener Sache bekannt. Wie Ihr sicher mitbekommen habt war ich in den letzten 2,5 Jahren in etwas anderen Schwerpunkten beruflich unterwegs.

Als „Head of Training“ eines Software Herstellers mit einem extrem breitgefächerten Lösungsangebot (von Mainframe Tools über Metadata Management und Dokumenten Management zu Cloud Tools bis hin zu einer Backup Lösung). Begonnen hatte ich als Head of Training „nur“ für den Cloud-Bereich. Durch eine massive Umorganisation war ich pro forma plötzlich für alle Lösungen der „Trainings-Mensch“. Leider wurde das nicht so gelebt wie ich es mir gewünscht hätte. Trotzdem war es eine interessante und lehrreiche Zeit. Besonders der Aufbau und die Konzeptionierung eines Learning Management Systems [LMS] auf Basis eines Moodle-Derivates hat mir viel Freude bereitet.

Hier konnte ich viele Ideen umsetzten, doch leider hinkte die Erstellung der Inhalte, sprich eLearning Kurse durch fehlende Unterstützung von ganz oben nach.

Ebenfalls konnte ich meine Fähigkeiten im Bereich Video Tutorials weit ausbauen. Ich hoffe das ich diese nun in meiner neuen Position nutzbringend einsetzen kann.

Back in Hypervirtual World

Seit Februar 2017 bin ich nun beim Pionier der Hyperconvergenz NUTANIX als Sr. Channel SE wieder zurück in der virtuellen Welt. Vieles ist altbekannt, vieles hat sich extrem weiterentwickelt. Umbrüche und Neues gehen Hand in Hand.

Ich freue mich das ich nun wieder an den innovativen Entwicklungen die z.Z. in den Rechenzentren laufen teilhaben und mitwirken kann. Gerade die Hyperconvergenten Lösungen versprechen großes Potential. Vor einiger Zeit hatte ich mal ein paar Worte dazu geschrieben. Einiges ist sicher aus heutiger Sicht Überarbeitungsbedürftig 🙂

Da ich nun bei einem Hersteller von Hyperconvergenten Lösungen arbeite, bin ich sicher in Zukunft nicht ganz wertneutral. Ich möchte diesen Blog aber wiederbeleben und auch über den Tellerrand hinaus interessante Themen und Lösungen besprechen.

In diesem Sinn – Danke an alle die immer wieder mal „reingeschaut“ haben und mir die Treue gehalten haben. Herzlich willkommen an alle die neu hereinschauen und hoffentlich interessante Themen finden.

Daniel Baby im März 2017

Ein kurzer Überblick der Änderungen

In diesem kurzen Artikel möchte ich meine ganz persönliche Sichtweise auf die neue Version vSphere 6.5 darstellen. Viele Details bleiben dabei sicher aussen vor, zumal ich z.Z. auch keine Möglichkeit habe die Version selbst tiefer auszutesten.

Anmerkungen und Hinweise die mir wichtig erscheinen möchte ich aber kurz vorstellen. Vielleicht ergibt sich daraus auch eine interessante Diskussion.

Änderungen an den Editionen – Lizenzen

Wie bereits in meinem Artikel [vmware – neue Preise – Enterprise ist tot!] beschrieben hat vmware die Enterprise Edition gekippt. Es gibt nun nur noch vSphere Standard und vSphere Enterprise Plus als reine vSphere Lizenzen.

Ausmeiner Sicht versucht vmware die Kunden in Richtung der „vSphere with Operations Management“ Suiten zu locken. Aus rein betrieblicher Sicht macht es durchaus Sinn solch eine Plattform auch gleich mit einem geeigneten Tool zu überwachen und hier zusätzliche Überwachungsmöglichkeiten via Dashboards, Notifications und der Möglichkeit auch Applikationsüberwachung einzubeziehen. Für den Kunden der aber andere Überwachungstools besitzt und nutzt und der „nur“ vSphere benötigt ist das keine Alternative.

Für mich zeigt dieses Verhalten, dass vmware merkt das der reine Hypervisor Markt erstens „commodity“ und zweitens „multi-Hypervisor“ aufgestellt ist. Neben vmware vSphere und Microsoft Hyper-V gibt es eben auch verstärkt andere Mitspieler, die vom Funktionsumfang durchaus mitziehen können … und wer braucht wirklich jedes Feature das angeboten wird?

Wer braucht nun was? Was wird geboten?

Da der vmware Kunde nur noch die Wahl zwischen Standard und Enterprise Plus hat gebe ich hier mal mein „Empfinden“ über die beiden Editionen zum Besten, ohne jede einzelne Funktion anzusprechen.

  1. vSphere Standard

    Alle die, die den bewährten ESXi einsetzten wollen oder müssen erhalten all die bekannten Standardfunktionen wie vMotion, HA etc.
    vMotion: wird erweitert durch die sogenannte Cross-vSwitch Möglichkeit. Kurz und knapp – die vSwitche müssen nun nicht mehr gleich heißen.
    Fault Tolerance: ist nun für 2 vCPU VMs freigegeben. Wer mehr braucht braucht Enterprise Plus.
    Storage API etc.: Storage API und Multipathing sind enthalten ebenso vVOLs.

  2. vSphere Enterprise Plus

    Hier findet sich nun der „ganze Rest“ der netten Funktionen die manche brauchen, manche wollen und auf die sicher auch viele verzichten können.
    Ein paar Beispiele:
    Fault Tolerance: nun sind bis zu 4 vCPUs möglich. Bitte bedenken: Eure Infrastruktur sollte das auch mitmachen! Hosts mit genug Ressourcen und ein 10GB Netz „brauchts schon“.
    vMotion: nicht nur Cross-vSwitch, sondern auch Cross-vCenter, Long Distance und sogar Cross-Cloud sind möglich. Wenn ich nur ein vCenter betreibe interessiert mich das weniger. Alles andere würde ich sagen – ja wenn ich es brauche.
    VM-Encryption: Kann im Cloud Umfeld sicher interessant sein. In meinem lokalen und hoffentlich abgesicherten Rechenzentrum vielleicht weniger interessant. (siehe dazu das vmware Whitepaper zur VM Encryption performance ).
    DRS: Das ist das Feature was mich persönlich am ehesten reizen würde die Enterprise Plus zu kaufen. Hab ich mehrere ESXi Hosts und viele VMs arbeitet DRS diskret im Hintergrund und sorgt für ein gutes Load-Balancing meiner Umgebung, besonders nach einem HA Fall ein sehr nützliches Werkzeug!

Als kurzes Zwischen-Fazit fehlt mir DRS in der Standard Edition! Leider ist dieses altbewährte und nützliche Feature immer noch auch die Enterprise Plus beschränkt. Früher konnte man das über den Zwischen-Schritt Enterprise erhalten. Schade!

Erweiterte oder Neue Funktionen

Diese sind wie immer fast ausschließlich der Enterprise Plus Edition vorbehalten oder sogar nur mittels des erweiterten „Operations Management“ via vOps möglich.

Ein ganz wichtiger Punkt: Es gibt nur noch den WebClient! Das ist logisch und konsequent. Aus meiner Sicht gut und richtig und mit den Performance Verbesserungen wohl auch aus dieser Sicht akzeptabel. Der Update Manager ist nun auch vollständig intergiert und ebenso in der vCenter Appliance enthalten.

Hier ein paar weitere Beispiele:

OpenStack: Wer OpenStack nutzen will kann dieses nun tun, Enterprise Plus vorausgesetzt und extra zu bezahlen. Aus meiner Sicht vom Markt gefordert aber nicht wirklich gewollt.
Container: Auch hier – Ja ist möglich aber nur in der Enterprise Plus Edition (allerdings enthalten und nicht extra zu zahlen.
vCenter HA und Appliance Migration Tool: Gibt es für „Alle“ und zeigt mir das die Tage der Windows vCenter Version gezählt sind.
VM Encrytion: Hatte ich schon angesprochen. Gerade im Public Cloud Bereich eine wichtige zusätzliche Sicherheitsfunktion.
NVIDIA GRID vGPU: 2D oder 3D Performance in einer VM ist sicher im VDI Umfeld hier und da eine prima Sache. Auch wider nur für Enterprise Plus verfügbar aber auch sehr speziell.
Predictive DRS: Durch das Nutzen der erweiterten Performance Management Möglichkeiten von vOps eine tolle Idee! Das macht absolut Sinn und ist eine logische Folge aus einem guten System Management.
Proactive HA: Hier wird der „Gesundheitszustand“ des ESXi Hostes ausgewertet und im Falle bestimmter Events ein Proactives HA, das heißt eigentlich ein DRS angestoßen (deswegen auch nur in der Enterprise Plus mit DRS – meine Meinung). Hier bitte auf Hersteller CIM Agent achten, denn die liefern über die spezifischen Sensoren Infos über Wärme, Lüfter etc..

… und vieles mehr.

Fazit

Ich hoffe diese kurze Übersicht hilf dem einen oder anderen die Neuigkeiten von vSphere 6.5 einzusortieren und vor allem zu entscheiden welche Edition man anbietet oder nutzen will. Außerdem schadet es nichts auch mal zu schauen was andere Hersteller so anbieten 🙂 . vmware ist nicht mehr allein am Markt und viele ehemals alleinstehende Funktionen gibt es auch bei anderen Lösungsanbietern.

Mir fehlt der Schritt DRS auch in der Standard Edition anzubieten. Das ganze basiert auf dem bewährten vMotion und ist für IT Verhältnisse „steinalt“ aber sehr sehr nützlich.

Alles was ich aufgeführt habe kann man sehr schön auf der vmware Webseite nachsehen.

 

 

 

 

 

Dieses Jahr war turbulent und voller Veränderungen. Vieles ist nicht so eingetreten wie die Meinungsforscher es vorausgesagt haben. Was das neue Jahr bringt wissen wir nicht.

Die Bibel sagt zum Glück:

Jesus Christus ist derselbe gestern und heute und in EwigkeitHebräer 13 Vers 8

und wie weiter gesagt wird „Glaube an den HERRN Jesus, und du wirst errettet werden, du und dein Haus“ Apostelgeschichte 16 Vers 31

Das wünsche ich für jeden der diesen Abschnitt liest!  ( alle Stelllen: Elberfelder Übersetzung von 1905)

Ich für meinen Teil habe diese Sicherheit und freue mich jeden Tag darüber.


Trotzdem stehe ich mit beiden Beinen noch auf dieser Erde und werde mich daher im neuen Jahr beruflich verändern. Leider kann ich noch nichts dazu sagen, nur soviel: Es ist möglich und ich wünsche es mir, das dieser Blog wieder etwas belebter wird.

In diesem Sinn noch einmal „Alles Gute und viel Erfolg im neuen Jahr 2017

 

vmware Lizenzänderungen – Enterprise Edition verschwindet

In diesem kurzen Artikel möchte ich heute einmal eine weniger technische, aber für viele vmware Kunden und Partner wichtige Änderung besprechen. Ich möchte mich hier nicht auf alle Aspekte beziehen, das können die vmware Distributoren besser :-). Mir geht es eher um die technischen Auswirkungen die viele vmware Kunden nun bedenken müssen.

Das wichtigste für mich: vSphere Enterprise Edition verschwindet!

Soweit mir bekannt hat vmware zum 1. April 2016 die neuen Preise und somit auch den „Tot“ der vSphere Enterprise Edition umgesetzt.

Vor viel Jahren viel die Advanced Edition auch schon einmal dem Rotstift zum Opfer.

Was bedeutet das nun konkret? Schauen wir mal auf die Funktionen die nun in den verbleibenden Editionen Standard und Enterprise Plus enthalten sind und vergleichen das mit dem was die Enterprise Edition beinhaltet, gibt es doch wichtige, positive wie negative Auswirkungen.

Lizenzen_vSphere6_T1

© by vmware 2016: Funktionsvergleich- vSphere Editionen Teil 1

Lizenzen_vSphere6_T2

© by vmware 2016: Funktionsvergleich- vSphere Editionen Teil 2

Positiv

Alle Standard Kunden erhalten nun endlich auch die Storage APIs for Array Integration [VAAI] und das vmware Multipathing System (vmware Whitepaper). Das ist in Anbetracht der immer besseren Unterstützung durch die Storage Hersteller und der immer wichtigeren Funktionen auch für „kleinere Rechenzentren“ eine schöne Sache. Viele Funktionen können nun an das Storage ausgelagert werden und sollten damit auch schneller und effizienter ablaufen (z.B. Storage vMotion). Multipathing ist eigentlich in jedem produktiven Rechenzentrum ein Muss und daher ebenfalls zu begrüßen.

Negativ

Als persönlich negative empfinde ich den Verlust des „kostengünstigen“ Einsatzes von DRS (Distributed Resource Scheduler). Wenn ich als Kunde diese, wirklich stabile und tolle Funktion, haben will, muß ich auf Enterprise Plus umsteigen, obwohl ich vielleicht gar keinen Bedarf für den Distributed Switch oder Host Profiles habe. DRS dagegen ist in meinen Augen, gerade im Zusammenspiel mit HA, eine äusserst wichtige Funktion! (Siehe dazu HA Beispiel mit stretched Cluster)

Fazit

Meine persönliche Meinung zu diesem Schritt von vmware ist etwas gespalten. Wie schon erwähnt sehe ich die Erweiterung der Standard Edition um die Storage API for Array Integration und Multipathing mit den Anforderungen heutiger RZs und auch kleinerer Kunden als notwendig und sinnvoll. Aus meiner Zeit bei der Distribution hatte ich aber den Eindruck das, vielleicht gerade in Deutschland, viele Kunden auf die Entersprise Edition gesetzt haben und zwar genau aus dem Grunde „Distributed Resource Scheduler“ [DRS]. In allen meinen vSphere ICM Kursen habe ich diese Funktion als „wünschenswert“ im HA Fall vorgestellt, denn HA versucht willkürlich die VMs auf den verbleibenden Hosts zu restarten. Erst DRS sorgt wieder für geordnete Verhältnisse und geg. sogar dafür das Platz für größerer VMs durch Verschieben von anderen VM geschaffen wird. Also eine mehr als sinnvolle Funktion!

Jetzt müssen alle diese vmware Kunden auf Enterprise Plus oder eine der vSOM Editionen wechseln! Das ist mit nicht unerheblichen Kosten verbunden. Mir zeigt es, das vmware immer weniger mit der reinen Virtualisierung a la vSphere und ESXi verdient und daher die bestehenden Kunden „upgraten“ muß. Auf der anderen Seite werden jetzt natürlich auch die Operations Management Editionen [vSOM] immer interessanter.

Hier noch mal der „alte“ Funktionsvergleich:

OldVersions_onlyEditions

© by vmware (aus dem Lizensierungs Whitepaper)

 

Entscheiden Sie selbst was diese Änderung für Sie bedeutet. Meinungen und Feedback würden mich interessieren.

 

 

Konzepte, die entstehen – Konzepte, die vergehen

Nach längerer Abstinenz möchte ich heute ein Thema aufgreifen, welches mich schon einige Monate beschäftigt.

Nach dem Virtualisierungs- Hype reden nun alle von Microsegmentierung und Container a la Docker. Dabei bin ich alles andere als ein Docker Spezialist. Ich habe mir einfach einiges zum Thema Container angelesen und angesehen. Worum es mir in diesem Beitrag geht ist aber ein Nachdenken darüber, welche Konzepte wir im Rechenzentrum / DataCenter [RZ] schon so hinter uns haben und was dabei, vom Grundkonzept her, wieder auftaucht.

Container sind für mich so ein Phänomen. Doch am besten fange ich einfach mal ganz weit vorne an. Also nach IT Massstäben Steinzeit.

(Dieser Artikel erhebt dabei weder Anspruch auf Vollständigkeit, absolut korrekte Darstellung, sondern meine private Ansicht)

Wie das mit dem Großrechner so begann

Der gute alte Mainframe, bis heute in einigen Branchen immer noch die tragende Säule der IT im RZ. Sicher ist ein Mainframe von heute nicht mit dem von vor 20 oder mehr Jahren zu vergleichen aber vom Konzept funktioniert er immer noch so. Sehr effizient aufeinander abgestimmte Komponenten. Dauerbetrieb mit Wartung im Betrieb möglich. Hohe Ein- und Ausgabe Kapazität bei der Bearbeitung von Massendaten.

Sehr alter Mainframe

©pcmag.com – Sehr alter Mainframe

Heute hat der Mainframe sicher gelernt, ähnlich wie die x86 Server, virtuelle Maschinen auszuführen (z.B. Z-Linux auf IBM). Im Prinzip ist die Grundarchitektur aber gleich geblieben.

Nichts desto trotz wurden die Programme als einzelne „Jobs“ auf dem System ausgeführt, jedes in seiner Umgebung, geschedult und von den anderen, wenn gewünscht, abgeschottet.

Die Dezentralisierung des RZ beginnt

Mit dem Aufkommen immer leistungsfähiger Endgeräte (PC’s) kam nun die Idee auf, Aufgaben und Verarbeitung von Daten zu dezentralisieren und auf die PCs auszulagern. Windows™  sei Dank wurde die Bedienung nun auch für „angelernte“ Laien 😉 immer einfacher. Problem dabei – viele Dokumente und Daten wurden jetzt im Unternehmen verteilt und waren unter Umständen nur per „Turnschuh“ Transport erreichbar.

Zentrale Datenhalden und Druckdienste

Nun begann die Zeit der zentralen Datenhalden und Druckdienste. Bereitsteller wie NOVELL™ Banyan Vines™ (Wer kennt das noch?) sowie der Anfangs verschmähte Spät-Kommer Windows Advanced Server (später NT und noch später einfach Windows Server 2000 und folgende).

Banyan_Novell_NT

Banyan Vines – Novell Netware – Windows NT Advanced Server

Hier konnte man, wenigstens im Anfang, nur File und Druckdienste, sowie eine zentrale Userverwaltung beziehen. Später kamen dann Versuche dazu, z.B. eine Datenbank auch auf dem Server zu platzieren (Btrieve by Novell usw.). Diese „Dienste“ liefen auf den Servern mit und zwar meist „nicht dediziert“, also mit den File und Druckdiensten zusammen.

Bitte bedenken! Die zentrale Datenverarbeitung machte zu dieser Zeit immer noch der „Host“ im Hintergrund. Nur griff man jetzt nicht mehr per Grün- oder Amber-Terminal auf diesen zu, sondern per Terminalemulation. Davon lebten zu dieser Zeit ein paar Firmen recht gut (Hummingbird etc.).

Für spezielle Aufgaben gab es auch schon die verschiedenen UNIX Anbieter. Graphik war z.B. die Domäne von Silicon Graphics™ und SUN Microsystems™.

Spezialisierte Server Systeme

Nach dieser Phase der „einfachen zentralen Dienste“ starben die ersten Protagonisten dahin und Microsoft startete durch.

Gerade Microsoft schaffte auch eine Art Microsegmentierung ;-), denn bis heute ist es ratsam jede Serverfunktion auf eine oder mehrere separate Windows Server Maschinen(physikalisch oder heute VM) zu verteilen. Durch dieses Konzept entstanden plötzlich eine große Anzahl von Server Systemen im RZ. Statt einem großen Host und vielleicht einer Handvoll Peripherie Systemen explodierte die Anzahl der Server im RZ geradezu. Viele klassische IT Abteilungen hatten damit schwer zu kämpfen, zumal zentrale Management Tools noch eher rar waren.

Ausserdem entstand nun eine Art „Religionskrieg“ zwischen den Verfechtern der verschiedenen Systeme.

  • Auf der einen Seite die altvertrauten Host- Menschen mit ihren „Big Iron“ Systemen. Dicke, zuverlässige aber nicht im neuen Sinn flexible Systeme die zudem sehr teuer waren.
  • Auf der anderen Seite diverse UNIX Derivate (SUN Solaris, HP UX, IBM AIX usw.) die jeder den Alleinherrscher- Status beanspruchten (und schlußendlich daran scheiterten!). Alles irgendwie Unix, aber inkompatibel und jeder mit Eigenarten.
  • Und zuletzt Microsoft mit Windows Server, die im Hintergrund so langsam einen Service nach dem anderen übernahmen (sicher auch auf Grund der immer leistungsfähiger werdenden Intel Systeme an sich).
    Aber jeder Service und Dienst wollte hier gern ein eigenes System haben. Angefangen von AD, DHCP, DNS die man noch irgenwie zusammen betreiben kann über Exchange, MS SQL, SharePoint etc. Eben alles was so auf Windows Server lief und läuft.
  • … alle anderen Systeme mit weniger Verbreitung lasse ich hier mal weg. Dieses ist dabei meine private Einschätzung – ohne Wertung im Detail.

Die Virtualisierung beginnt

Durch die immer günstiger werdende Rechenleistung auf x86 Seite schafft es die Lösungsgemeinschaft Intel – Microsoft tatsächlich, daß viele Server Systeme eine nicht unerhebliche Zeit des Tages vor sich hin „ideln“, also mehr mit sich als mit der eigentlichen Aufgabe beschäftigt sind.

Das macht sich vor allem die Firma vmware™ zu eigen und baut einen Hypervisor der es schafft, vielen virtuellen Maschinen vorzugaukeln, sie würden auf dedizierter Handware laufen, obwohl sie zusammen mit anderen auf einem oder wenigen physikalischen Servern leben. Funktionen wie das Verschieben solcher VMs im laufenden Betrieb (vMotion) und vieles mehr räumen jetzt im RZ wieder etwas auf. Die Komplexität wird meiner Meinung nach aber nicht weniger, denn immer neue Services verlangen immer mehr neue VMs die z.T. mit 90% gleichem Basis Stack unterwegs sind.

Man muß bedenken, hier laufen immer noch separate Systeme mit hoher Redundanz, nur eben nicht auf einzelnen physikalischen Servern, sondern gepackt als VM auf mehrere Hypervisoren. Diese bringen selbstverständlich viele viele Vorteile mit sich. Die optimale Ausnutzung der Serverhardware tritt dabei immer mehr in den Hintergrund.

Gerade die immer weiter vordringenden Linux Systeme mit dem klassischen Software Stack (z.B. LAMP := Linux, Apache Webserver, MySQL DB und PHP) bringen uns auf neue „ALTE“ Ideen!

Der Container erscheint

So wie vmware im Virtualisierungs- Umfeld sicher als ein Pionier und Vorreiter gelten darf, kann man die Firma Docker™ für den Bereich Container sehen.

Dabei sind Container, wenigstens unter Unix/Linux eher ein alter Hut.Cgroups und Namespaces sind bekannte Linux Funktionen die hier aufgegriffen wurden und „abgerundet“ als Container Technologie der neue Hype sind.

Docker_und_Co

VMs versus Container

Was haben wir denn nun hier vor uns? Einfach abstrahiert haben wir den einzelnen Applikationen nur die für sie spezifischen System DDLs bzw. Libraries und Umgebungsanteile mitgegeben und führen diese auf EINEM Operating System aus. Also nicht 5 oder 10 vollständige Linux Systeme, sondern nur ein Linux System auf dessen Kernel und Ressource mehrere Applikationen mit Ihrem Applikationsstack laufen.

Gesteuert wird dieses durch die Container Engine. Riesen Vorteil. Die einzelnen Container sind kleine Pakete (im Gegensatz zu einer vollständigen VM) und durch verschiedene Techniken auch noch portabel zwischen mehreren Linux Hosts (bei entsprechender Vorbereitung sogar zwischen verschiedenen Distributionen!).

Haupt Punkt dabei: Das ganze ist aktuell hauptsächlich für Linux Applikationen vorhanden, aber auch Microsoft schraubt an diesem Konzept. Hyper-V 2016 soll es z.B. ermöglichen Docker Container auszuführen.

(Linked Clones verbinden nur Storageseitig mehrere gleichartige Systeme mit einer „Systemplatte“, das ist eine Verbesserung, aber keine vollständige wie Container)

Zusammenfassung

Was macht nun das „Hatten wir schon“ aus? Nach meinem Empfinden haben unsere IT Urgroßväter ihre Programme für den Mainframe (Host) schon damals, ähnlich wie wir heute Container, geplant und betrieben. Alles was Ein- und Ausgabe, Zugriffe auf Netz etc. betraf, lieferte der Host. Die Programme liefen in Ihrer Umgebung als einzelne Jobs die man schedulen und priorisieren konnte und die von Host zu Host, bzw. Hostbereich zu Hostbereich, portabel waren. Genau das Konzept findet man bei Containern wieder.

Für Container spricht die höhere Packungsdichte als bei VMs und das schnelle Starten der Container, da das OS ja schon läuft. Das Thema Sicherheit bedarf dagegen sicher einer separaten Betrachtung. Falls ich mal Zeit finde dazu vielleicht irgendwann mehr.

Somit sind wir vom RZ und dem Host über die Dezentralisierung wieder zurück ins RZ und wenn wir einen „Container-Cluster“ als Host betrachten, auch wieder bei unseren „Jobs“ die nun Applikationen in Containern darstellen. Hochflexibel, schnell zu deployen und in Massen zu betreiben. Alte Host-Hasen werden sich da doch gleich zuhause fühlen (wenigstens vom Konzept her).

Fazit

Diese, zugegeben, mit wenig technischer Tiefe aber dafür mehr Humor dargestellte Evolution vom Host zum Container, hilft vielleicht doch das eine oder andere Neue leichter zu verstehen und durchaus über neue Konzepte im Licht von Bekanntem nachzudenken.

Neben Docker gibt es übrigens auch noch weitere Anbieter solcher Lösungen, wie Kubernetes (Google), LXD (Canonical) oder Rocket/rkt (CoreOS). Auch vmware hat einen“Docker-Basis VM“ im Angebot (Project Photon).

 

 

 

Wahrlich, wahrlich, ich sage euch: Wer mein Wort hört und dem glaubt, der mich gesandt hat, hat ewiges Leben und kommt nicht ins Gericht, sondern ist aus dem Tod in das Leben übergegangen.

Die Bibel (Johannes Evangelium Kapitel 5 Vers 24) Elberfelder Übersetzung – CSV Edition

An dieser Stelle, wie jedes Jahr, möchte ich allen Lesern, Freunden und Kollegen ein paar besinnliche und ruhige Stunden zum Ausklang des Jahres wünschen. Ebenso ein erfolgreiches und gesundes 2016.

Den oben angeführten Vers aus der Bibel, GOTTES WORT an uns Menschen, spricht mein HERR Jesus. ER wurde von Gott gesandt, um durch seinen Opfertod Versöhnung mit einem heiligen Gott zu ermöglichen, und so uns Menschen vor dem ewigen Gericht Gottes zu bewahren.

Auch wenn dieses in den Augen vieler Mitmenschen alt, unglaubwürdig und nicht mehr zeitgemäss erscheint, Gott ändert sich NIE! Sein Wort bleibt bestehen, ob wir Menschen das glauben wollen oder nicht. (siehe dazu Römer 3 Vers 23: „..denn alle haben gesündigt…“)

Wenn wir nun den HERRN Jesus als von GOTT gesandt annehmen und uns unter seine wunderbare Rettungstat stellen, finden wir Frieden und Errettung vor Gottes Gericht. Wir werden von Gott sogar kostenlos und ohne Vorbehalte angenommen und  dürfen uns nun Kinder Gottes nennen. (siehe 1. Johannes 3 Vers 1: „Seht, welch eine Liebe uns der Vater (Gott selbst) gegeben hat, dass wir Kinder Gottes heißen sollen!“)

Gott rechnet dann keine Sünde mehr zu, denn Jesus Christus hat diese getragen und gesühnt. (siehe Römer 4 Vers 8: „Glückselig der Mann, dem der HERR (Gott) Sünde nicht zurechnet!“) Kommen Sie daher noch heute zu Jesus Christus, bekennen Sie Ihre Schuld vor Gott und bitten Sie um Vergebung.

Bitte denken Sie darüber nach und lesen Sie die Bibel – Gottes Wort!

In diesem Sinne wünsche ich allen Lesern ein paar ruhige und besinnliche freie Tage und ein erfolgreiches 2016!

 

Erfahrungsbericht: vmware VCP6-DCV Delta Exam

Veröffentlicht: 14. Dezember 2015 in Virtualisierung

vmware VCP6-DCV Delta Exam – ein paar Eindrücke

Mir ist es tatsächlich gelungen ein wenig Zeit zu finden meine Rezertifizierung für den vmware VCP durchzuziehen ;-). Auf Grund der gemachten Erfahrungen möchte ich heute einfach mal ein paar Eindrücke weitergeben. Vielleicht hilft es ja dem einen oder anderen der auch noch vor diesem Examen steht.

Die Zeiten des „vmware VCP“ sind ja schon einige Zeit vorbei. Seit ein paar Jahren gibt es verschiedene VCP’s. Ich beziehen mich hier auf den DCV oder „Data Center Virtualization“ VCP. Für mich immer noch die Mutter aller VCP’s, denn hier wird die Virtualisierungsplattform an sich abgefragt. Also vSphere V6 mit ESXi, vCenter, Storage (vSAN!), Netzwerk Anbindung (auch etwas NSX) sowie den Grundlagen des Resourcemanagements. Es schadet nichts noch mal einen Blick in meinen alten Artikel „vmware Resource Management – Shares was ist das?“ zu werfen :-).

Voraussetzungen

Kurz zu den Voraussetzungen. Wer noch einen bestehenden VCP5 oder VCP5.5 hat, kann z.Z. noch das sogenannte VCP6-Delta Exam machen. Ich habe dieses gemacht, muß allerdings sagen, das mir der wirkliche Vorteil nicht so recht klar wurde. Im Gegenteil, ich hatte eher den Eindruck das dieses Exam keineswegs leichter war, sondern das es sogar wirklich für Leute gedacht ist die schon Erfahrung mit älteren vmware vSphere Versionen haben. Die Zeit ist genauso lang, die Anzahl der Fragen ebenfalls und der „Schweregrade“ eher angehoben.

Alles weitere zu den Vorbedingungen findet Ihr hier „Certification Path: Data Center Virtualization„.

Ach ja, noch ein wichtiger Hinweis: um das Delta Exam machen zu können braucht Ihr eine Autorisierung von vmware Education. Die könnt Ihr online anfordern und benötigt dazu Eure „Candidate ID„. Die wiederum  findet Ihr im MyLearn Portal. Die Autorisierung hat bei mir max. 1 Stunde gedauert. 

vmware Education Infos zum VCP6 DCV Delta Exam © by vmware

vmware Education Infos zum VCP6 DCV Delta Exam © by vmware

Quellen zur Vorbereitung

Quellen zur Vorbereitung sind ja immer gern gesehen. Als „noch“ VCI natürlich der Hinweis auf den „Blueprint“ den man online auf der Web Seite des Exams  unter

ExamTopics

findet. Diese Infos sind sehr sehr wichtig! Bitte genau beachten! Hier steht welche Themenbereiche im Exam abgedeckt werden und welche nicht.

Des weiteren habe ich die Dokumente „What’s New in the VMware VSphere 6.0 Platform“ und „What’s New in VMware vSphere 6 – Performance“ für hilfreich empfunden.

Wer noch nie mit vSAN gearbeitet hat, dem kann ich nur wärmsten den Blog von Duncan Epping „Yellow-Bricks.com/virtual-san“ empfehlen. Für NSX eher den vmware Blog Bereich zum Thema „The Network Virtualization Blog„.

Ich hatte das Glück von vmware einen Voucher für die „Learning Zone“ und zwar die Premium Subskription zu erhalten. Hier gibt es ein spezielles eLearning (mehrere Video Tutorials) die zum großen Teil sehr gut gemacht sind und viele Tipps zum Exam beinhalten. Vielleicht ja ein Anlass mit dem Chef mal über einen „spezial Bonus“ mit Nutzen für die Firma zu sprechen ;-).

Unautorisierte Quellen wie die allseits diskutierten „Braindumps“ können Hinweise geben wo Schwerpunkte liegen sind aber immer kritisch zu sehen.

Ich empfehle hier immer offizielle Hilfen, wie z.B. das Practice Exam „2V0-621D Practice Exam “ eine Art Vortest um einfach unverbindlich mal zu sehen ob man schon gut vorbereitet ist. Hier werden im Ergebnis nicht nur gezeigt was falsch beantwortet wurde, sondern es werden auch Hinweise auf entsprechenden Unterlagen gegeben (inkl. Links). Ihr findet dieses unter „How to prepare„.

Hinweise

Nun noch ein paar Hinweise aus eigener Erfahrung mit dem Exam. Diese sind natürlich individuell und beziehen sich ausschließlich auf die Fragen die ich im meiner Prüfung zu beantworten hatte.

  • vCenter Installation: Hier wurde auf den neuen Konstrukt mit dem PSC eingegangen. Gerade die verschiedenen Installationsmöglichkeiten des vCenter Servers mit dem „Platform Service Controller [PSC]“ und allen anderen Komponenten solltet Ihr Euch ansehen. Auch was nicht mehr unterstützt wird (OpenSSL!). Hier war das Video aus der Learning Zone ein echter Glücksfall, denn genau solche Fragen kamen dran. Die vCenter Appliance tritt auch immer mehr in Erscheinung, auch in Form von Upgrade und Installationsfragen.
  • Security: Der gesamte Bereich Security mit User und AD Abbindung ist sehr wichtig, denn auch hier sind ein paar Änderungen zur 5.x da. AD User und die Integration von ESXi Host in das AD mit entsprechenden Auswirkungen auf User und Rechte waren mit mehreren Fragen vertreten.
  • vSAN war nur mit ein paar grundlegenden Fragen vertreten, die eigentlich jeder VCP wissen sollte. vSAN Fault Domains z.B. sollte man vom Prinzip verstanden haben. Duncan Epping sei dank ist das aber gut zu lernen.
  • Szenarien: Ich fand, das in meinem Exam aussergewöhnlich viele „Exhibits“ vorkamen, also Screenshots oder Grafiken welche die Frage unterstützen, bzw. auf welche die Frage aufbaut.
    Der vSphere Client ist hierbei TOT! Es ist also wirklich Zeit sich mit dem WebClient zu befassen.
  • Deep Dive: Es gab ein paar wenige Fragen in denen Commandline Ausdrücke oder Schalter abgefragt wurden. Dieses finde ich immer recht fies, da alle „Nicht täglich Administrierer“, so wie ich hier durchaus Probleme bekommen können. Das kann man schließlich nicht alles auswendig lernen. Wer täglich in größeren Umgebungen Arbeitet hat da weniger Probleme, es sei den Er hasst die Command-Line (was in meinen Augen grundsätzlich ein Fehler ist ;-)).

Fazit

Wer sich von diesem Artikel die 100% Erfolgstipps erwartet hat, den muß ich enttäuschen. Wer ein paar praktische Erfahrungen und Hinweise sucht, hat die sicher erhalten. Ich denke das mit ein wenig Vorbereitung und etwas Mut das Exam zu schaffen ist. Ob man nun das Delta Exam oder das „Normale“ VCP6 DCV Exam macht muß jeder Berechtigte selbst entscheiden. Wer im Daily Businsess aktiv mit vSphere 6 arbeitet sollte eigentlich keine unüberwindlichen Probleme habe. Die vmware Learning Zone wir immer interessanter, besonders wenn kein „Kurszwang“ vorliegt. Hier kann man schön individuell das ansehen was man braucht, oder meint zu brauchen.

In diesem Sinn – VIEL ERFOLG!!!