Archiv für die Kategorie ‘Virtualisierung’

Backup einfach und schnell – NAKIVO V7

Veröffentlicht: 31. März 2017 in Virtualisierung

NAKIVO released die Version 7 ihrer Backup-Lösung

NAKIVO hat am 28. März die 7te Version seiner Backup- und Replikation Lösung released. Nach sehr sehr langer Zeit 😉 möchte ich doch mal wieder einen Blick auf diese interessante Lösung werfen und kurz die Neuerungen vorstellen. Anschließend ein Blick auf die „immer noch“ einfache Installation.

Was ist neu in NAKIVO Backup & Replication V7?

Aus meiner Sicht sind die meisten Neuerungen erst mal Versionspflege, das heißt Unterstützung der neuen Version der Virtualisierungsplattformen. Dazu kommen aber auch ein paar Features die sicher von vielen lange gewünscht wurden.

Im Einzelnen sind das:

  • Hyper-V Unterstützung der Versionen 2016 und 2012 inkl. Incremental for ever, Image-based und Application-aware. Alle Daten werden somit Applikationskonsistent gesichert. Sowohl AWS als auch Hyper-V und vmware Backup Jobs können die gleichen Repositories nutzen.
  • Auch für Hyper-V existiert die Möglichkeit VMs auf andere Server zu replizieren um im Desasterfall schneller als mit einem Restore wieder „am Laufen“ zu sein.
  • NAKIVO V7 unterstützt nun auch vmware vSphere 6.5. Dabei werden auch verschlüsselte VMs gebackupt!
  • An allgemeinen Funktionen ist das überspringen (skip) von Swap Dateien und Partitionen in VMs. Dieses spart sicher viele GB an Backup Store.
  • Active Directory Gruppen können jetzt leicht auf NAKIVO User Rollen gemappt werden. Dadurch erhält man leicht ein einheitliches Usermanagement im Unternehmen.
  • Unter Active Management versteht NAKIVO eine Activity Tabelle die alle aktuellen Aktionen an einer Stelle auflistet. Für Administratoren sicher eine schöne Sache.
  • Ebenso die Möglichkeit Backups nach bestimmten Kriterien zu suchen und auch zu löschen 😉 . Klingt vielleicht komisch, aber mal ehrlich, wieviele alte und unnütze Backups schlummern auf irgendwelchen Repositories und fressen nur Platz?

Ich denke da ist eine gute Releasepflege in Bezug auf die Aktuellen Hypervisoren erfolgt plus ein paar nützliche neue Funktionen die diese Lösung abrunden.

Easy Installation

Da ich z.Z. zum lernen und testen einen NUTANIX Block in meinem HomeOffice habe (ersetzt jede Heizung und macht auch gut Krach 🙂 ) konnte ich „mal eben schnell“ die neue Version auf vmware testen. Hier die Installation bebildert.

I. Deployment der fertigen NAKIVO-OVA Appliance

NAKIVO bietet ein fertige OVA auf Linux Basis an. Diese habe ich früher auch schon bei meinen Tests genutzt. Nun wollte ich mal sehen was hier „verbessert“ wurde.

Der erste Schritt, das reine Deployment auf vmware vSphere muss sicher nicht erklärt werden. Zwei Screenshots zeigen das Depolyment.

NAKIVO7-01

Bild 1: Ausgabe der OVO Informationen

NAKIVO7-02

Bild 2: Speichern der Appliance auf dem NUTANIX Store

Da hab ich doch mal richtig Platz 🙂

II. Grundkonfiguration der Appliance

Startet man die frisch deployte Appliance und geht dann auf die Konsole, wird man direkt mit der Grundkonfiguration konfrontiert.

Conf-Appl-01

Bild 3: Konfigurationsmenü der Appliance

Hier habe ich erst mal den Hostname und die IP Adresse (bitte statisch!) konfiguriert. Die einzelnen Schritte zeige ich jetzt mal nicht, denke das bekommt jeder IT’ler hin.

Conf-Appl-08

Bild 4: Hostname und IP konfiguriert

Da die Appliance mit einem „embedded“ Backup Storage daherkommt habe ich hier nichts konfiguriert. Zusätzliche Repositories kann man als Virtuelle Disks anhängen oder via CIFS bzw. NFS hinzufügen.

Conf-Appl-10

Bild 5: Das „embeddet“ Repository mit 520GB

Anschließend bitte noch die Zeit und Zeitzone konfigurieren (Linux like).

Conf-Appl-12

Bild 6: Time und Time Zone

Fertig ist die Appliance!

III. Konfiguration von NAKIVO V7

Nach erfolgter Appliance Grundkonfiguration können wir die Web-Konsole im Browser starten:

https://<IP-Address&gt;:4443/

Hier müssen wir erst mal den „admin“ User mit einem Passwort versehen (bzw. einen anderen User als Admin anlegen) . Hierzu auf „configure“ klicken. Default user ist „admin“.

Conf-Appl-16

Bild 7: Erster Start Web-Konsole – Admin User konfigurieren!

Anschließend leitet NAKIVO durch die Erstkonfiguration in der z.B. ein vCenter eingebunden wird. Geg. verschiedenen Transporter und Repositories konfiguriert werden.

Conf-Appl-17

Bild 8: Erstkonfigurationsmenu

Der unübersehbare Button in der Mitte „Add New…“ stellt alle Unterstützten Systeme zur Auswahl bereit.

Conf-Appl-18

Bild 9: Unterstützte Plattformen

Wir wählen VMware mit einem vCenter Server aus.

Conf-Appl-19

Bild 10: vCenter Server koppeln

Es empfiehlt sich hier einen speziellen User im vCenter oder AD anzulegen der entsprechende Rechte im vCenter hat um VMs backuppen und restoren zu können.

Wenn alles passt haben wir schnell unsere vmware Umgebung in NAKIVO sichtbar gemacht.

Conf-Appl-20

Bild 11: vCenter Server Umgebung in NAKIVO

Anschließend könnten wir Transporter einbinden (z.B. bei abgesetzten Standorten oder großen Umgebungen um eine Lastverteilung zu erreichen. Transporter sind ein eigenes Thema. Ich erwähne sie hier nur kurz.

Conf-Appl-21

Bild 12: Transporter einbinden (ich nutze hier keine externen)

Und zum Schluß noch die Repositories

Conf-Appl-22

Bild 13: Repositories

Hier die Möglichkeiten für Repositories

Conf-Appl-28

Bild 14: Repositories

VMDK Erweiterung – Transporter – CIFS,NFS oder Amazon EBS, das sind die möglichen Repositories.

IV. Backup Jobs

Anschließend könnten erste Backup Jobs erstellt werden. Ich zeige einfach mal ein paar Screenshots. Denke die sind selbsterklärend.

Conf-Appl-23

Bild 15: Neuer Backup oder Replikations Job mit den Möglichkeiten

Conf-Appl-25

Bild 16: Der Scheduler

Conf-Appl-26

Bild 17: Retention Policies

Conf-Appl-27

Bild 18: Job Optionen

Damit wäre ich für heute am Ende dieser kurzen Betrachtung der neuen NAKIVO Version 7.

Fazit

Wenn ich an die Installation und Optik der Version 3.9.1 von 2014 zurückdenke, dann ist vieles einfach noch runder und besser geworden. Hyper-V wurde damals nicht unterstützt und besonders die OVA-App Grundkonfiguration war noch etwas „VI“ und Commandline lastiger. Alles in allem eine feine Lösung die sehr schnell zu implementieren ist (ich hab gerade mal 20 – 30 min. bis ready to run benötigt, dabei hab ich aber noch die ganzen Screenshots angefertigt und mir alles in Ruhe angesehen!).

Mein persönlicher Wunsch wäre natürlich eine native Unterstützung des NUTANIX Hypervisors AHV 🙂

Ich hoffe das ich demnächst einiges zu „unserer“ Plattform schreiben kann.

I am back – In eigener Sache

Veröffentlicht: 27. März 2017 in Virtualisierung

Zurück in die Welt der Virtualisierung

Heute gebe ich ein paar Infos in eigener Sache bekannt. Wie Ihr sicher mitbekommen habt war ich in den letzten 2,5 Jahren in etwas anderen Schwerpunkten beruflich unterwegs.

Als „Head of Training“ eines Software Herstellers mit einem extrem breitgefächerten Lösungsangebot (von Mainframe Tools über Metadata Management und Dokumenten Management zu Cloud Tools bis hin zu einer Backup Lösung). Begonnen hatte ich als Head of Training „nur“ für den Cloud-Bereich. Durch eine massive Umorganisation war ich pro forma plötzlich für alle Lösungen der „Trainings-Mensch“. Leider wurde das nicht so gelebt wie ich es mir gewünscht hätte. Trotzdem war es eine interessante und lehrreiche Zeit. Besonders der Aufbau und die Konzeptionierung eines Learning Management Systems [LMS] auf Basis eines Moodle-Derivates hat mir viel Freude bereitet.

Hier konnte ich viele Ideen umsetzten, doch leider hinkte die Erstellung der Inhalte, sprich eLearning Kurse durch fehlende Unterstützung von ganz oben nach.

Ebenfalls konnte ich meine Fähigkeiten im Bereich Video Tutorials weit ausbauen. Ich hoffe das ich diese nun in meiner neuen Position nutzbringend einsetzen kann.

Back in Hypervirtual World

Seit Februar 2017 bin ich nun beim Pionier der Hyperconvergenz NUTANIX als Sr. Channel SE wieder zurück in der virtuellen Welt. Vieles ist altbekannt, vieles hat sich extrem weiterentwickelt. Umbrüche und Neues gehen Hand in Hand.

Ich freue mich das ich nun wieder an den innovativen Entwicklungen die z.Z. in den Rechenzentren laufen teilhaben und mitwirken kann. Gerade die Hyperconvergenten Lösungen versprechen großes Potential. Vor einiger Zeit hatte ich mal ein paar Worte dazu geschrieben. Einiges ist sicher aus heutiger Sicht Überarbeitungsbedürftig 🙂

Da ich nun bei einem Hersteller von Hyperconvergenten Lösungen arbeite, bin ich sicher in Zukunft nicht ganz wertneutral. Ich möchte diesen Blog aber wiederbeleben und auch über den Tellerrand hinaus interessante Themen und Lösungen besprechen.

In diesem Sinn – Danke an alle die immer wieder mal „reingeschaut“ haben und mir die Treue gehalten haben. Herzlich willkommen an alle die neu hereinschauen und hoffentlich interessante Themen finden.

Daniel Baby im März 2017

Ein kurzer Überblick der Änderungen

In diesem kurzen Artikel möchte ich meine ganz persönliche Sichtweise auf die neue Version vSphere 6.5 darstellen. Viele Details bleiben dabei sicher aussen vor, zumal ich z.Z. auch keine Möglichkeit habe die Version selbst tiefer auszutesten.

Anmerkungen und Hinweise die mir wichtig erscheinen möchte ich aber kurz vorstellen. Vielleicht ergibt sich daraus auch eine interessante Diskussion.

Änderungen an den Editionen – Lizenzen

Wie bereits in meinem Artikel [vmware – neue Preise – Enterprise ist tot!] beschrieben hat vmware die Enterprise Edition gekippt. Es gibt nun nur noch vSphere Standard und vSphere Enterprise Plus als reine vSphere Lizenzen.

Ausmeiner Sicht versucht vmware die Kunden in Richtung der „vSphere with Operations Management“ Suiten zu locken. Aus rein betrieblicher Sicht macht es durchaus Sinn solch eine Plattform auch gleich mit einem geeigneten Tool zu überwachen und hier zusätzliche Überwachungsmöglichkeiten via Dashboards, Notifications und der Möglichkeit auch Applikationsüberwachung einzubeziehen. Für den Kunden der aber andere Überwachungstools besitzt und nutzt und der „nur“ vSphere benötigt ist das keine Alternative.

Für mich zeigt dieses Verhalten, dass vmware merkt das der reine Hypervisor Markt erstens „commodity“ und zweitens „multi-Hypervisor“ aufgestellt ist. Neben vmware vSphere und Microsoft Hyper-V gibt es eben auch verstärkt andere Mitspieler, die vom Funktionsumfang durchaus mitziehen können … und wer braucht wirklich jedes Feature das angeboten wird?

Wer braucht nun was? Was wird geboten?

Da der vmware Kunde nur noch die Wahl zwischen Standard und Enterprise Plus hat gebe ich hier mal mein „Empfinden“ über die beiden Editionen zum Besten, ohne jede einzelne Funktion anzusprechen.

  1. vSphere Standard

    Alle die, die den bewährten ESXi einsetzten wollen oder müssen erhalten all die bekannten Standardfunktionen wie vMotion, HA etc.
    vMotion: wird erweitert durch die sogenannte Cross-vSwitch Möglichkeit. Kurz und knapp – die vSwitche müssen nun nicht mehr gleich heißen.
    Fault Tolerance: ist nun für 2 vCPU VMs freigegeben. Wer mehr braucht braucht Enterprise Plus.
    Storage API etc.: Storage API und Multipathing sind enthalten ebenso vVOLs.

  2. vSphere Enterprise Plus

    Hier findet sich nun der „ganze Rest“ der netten Funktionen die manche brauchen, manche wollen und auf die sicher auch viele verzichten können.
    Ein paar Beispiele:
    Fault Tolerance: nun sind bis zu 4 vCPUs möglich. Bitte bedenken: Eure Infrastruktur sollte das auch mitmachen! Hosts mit genug Ressourcen und ein 10GB Netz „brauchts schon“.
    vMotion: nicht nur Cross-vSwitch, sondern auch Cross-vCenter, Long Distance und sogar Cross-Cloud sind möglich. Wenn ich nur ein vCenter betreibe interessiert mich das weniger. Alles andere würde ich sagen – ja wenn ich es brauche.
    VM-Encryption: Kann im Cloud Umfeld sicher interessant sein. In meinem lokalen und hoffentlich abgesicherten Rechenzentrum vielleicht weniger interessant. (siehe dazu das vmware Whitepaper zur VM Encryption performance ).
    DRS: Das ist das Feature was mich persönlich am ehesten reizen würde die Enterprise Plus zu kaufen. Hab ich mehrere ESXi Hosts und viele VMs arbeitet DRS diskret im Hintergrund und sorgt für ein gutes Load-Balancing meiner Umgebung, besonders nach einem HA Fall ein sehr nützliches Werkzeug!

Als kurzes Zwischen-Fazit fehlt mir DRS in der Standard Edition! Leider ist dieses altbewährte und nützliche Feature immer noch auch die Enterprise Plus beschränkt. Früher konnte man das über den Zwischen-Schritt Enterprise erhalten. Schade!

Erweiterte oder Neue Funktionen

Diese sind wie immer fast ausschließlich der Enterprise Plus Edition vorbehalten oder sogar nur mittels des erweiterten „Operations Management“ via vOps möglich.

Ein ganz wichtiger Punkt: Es gibt nur noch den WebClient! Das ist logisch und konsequent. Aus meiner Sicht gut und richtig und mit den Performance Verbesserungen wohl auch aus dieser Sicht akzeptabel. Der Update Manager ist nun auch vollständig intergiert und ebenso in der vCenter Appliance enthalten.

Hier ein paar weitere Beispiele:

OpenStack: Wer OpenStack nutzen will kann dieses nun tun, Enterprise Plus vorausgesetzt und extra zu bezahlen. Aus meiner Sicht vom Markt gefordert aber nicht wirklich gewollt.
Container: Auch hier – Ja ist möglich aber nur in der Enterprise Plus Edition (allerdings enthalten und nicht extra zu zahlen.
vCenter HA und Appliance Migration Tool: Gibt es für „Alle“ und zeigt mir das die Tage der Windows vCenter Version gezählt sind.
VM Encrytion: Hatte ich schon angesprochen. Gerade im Public Cloud Bereich eine wichtige zusätzliche Sicherheitsfunktion.
NVIDIA GRID vGPU: 2D oder 3D Performance in einer VM ist sicher im VDI Umfeld hier und da eine prima Sache. Auch wider nur für Enterprise Plus verfügbar aber auch sehr speziell.
Predictive DRS: Durch das Nutzen der erweiterten Performance Management Möglichkeiten von vOps eine tolle Idee! Das macht absolut Sinn und ist eine logische Folge aus einem guten System Management.
Proactive HA: Hier wird der „Gesundheitszustand“ des ESXi Hostes ausgewertet und im Falle bestimmter Events ein Proactives HA, das heißt eigentlich ein DRS angestoßen (deswegen auch nur in der Enterprise Plus mit DRS – meine Meinung). Hier bitte auf Hersteller CIM Agent achten, denn die liefern über die spezifischen Sensoren Infos über Wärme, Lüfter etc..

… und vieles mehr.

Fazit

Ich hoffe diese kurze Übersicht hilf dem einen oder anderen die Neuigkeiten von vSphere 6.5 einzusortieren und vor allem zu entscheiden welche Edition man anbietet oder nutzen will. Außerdem schadet es nichts auch mal zu schauen was andere Hersteller so anbieten 🙂 . vmware ist nicht mehr allein am Markt und viele ehemals alleinstehende Funktionen gibt es auch bei anderen Lösungsanbietern.

Mir fehlt der Schritt DRS auch in der Standard Edition anzubieten. Das ganze basiert auf dem bewährten vMotion und ist für IT Verhältnisse „steinalt“ aber sehr sehr nützlich.

Alles was ich aufgeführt habe kann man sehr schön auf der vmware Webseite nachsehen.

 

 

 

 

 

Dieses Jahr war turbulent und voller Veränderungen. Vieles ist nicht so eingetreten wie die Meinungsforscher es vorausgesagt haben. Was das neue Jahr bringt wissen wir nicht.

Die Bibel sagt zum Glück:

Jesus Christus ist derselbe gestern und heute und in EwigkeitHebräer 13 Vers 8

und wie weiter gesagt wird „Glaube an den HERRN Jesus, und du wirst errettet werden, du und dein Haus“ Apostelgeschichte 16 Vers 31

Das wünsche ich für jeden der diesen Abschnitt liest!  ( alle Stelllen: Elberfelder Übersetzung von 1905)

Ich für meinen Teil habe diese Sicherheit und freue mich jeden Tag darüber.


Trotzdem stehe ich mit beiden Beinen noch auf dieser Erde und werde mich daher im neuen Jahr beruflich verändern. Leider kann ich noch nichts dazu sagen, nur soviel: Es ist möglich und ich wünsche es mir, das dieser Blog wieder etwas belebter wird.

In diesem Sinn noch einmal „Alles Gute und viel Erfolg im neuen Jahr 2017

 

vmware Lizenzänderungen – Enterprise Edition verschwindet

In diesem kurzen Artikel möchte ich heute einmal eine weniger technische, aber für viele vmware Kunden und Partner wichtige Änderung besprechen. Ich möchte mich hier nicht auf alle Aspekte beziehen, das können die vmware Distributoren besser :-). Mir geht es eher um die technischen Auswirkungen die viele vmware Kunden nun bedenken müssen.

Das wichtigste für mich: vSphere Enterprise Edition verschwindet!

Soweit mir bekannt hat vmware zum 1. April 2016 die neuen Preise und somit auch den „Tot“ der vSphere Enterprise Edition umgesetzt.

Vor viel Jahren viel die Advanced Edition auch schon einmal dem Rotstift zum Opfer.

Was bedeutet das nun konkret? Schauen wir mal auf die Funktionen die nun in den verbleibenden Editionen Standard und Enterprise Plus enthalten sind und vergleichen das mit dem was die Enterprise Edition beinhaltet, gibt es doch wichtige, positive wie negative Auswirkungen.

Lizenzen_vSphere6_T1

© by vmware 2016: Funktionsvergleich- vSphere Editionen Teil 1

Lizenzen_vSphere6_T2

© by vmware 2016: Funktionsvergleich- vSphere Editionen Teil 2

Positiv

Alle Standard Kunden erhalten nun endlich auch die Storage APIs for Array Integration [VAAI] und das vmware Multipathing System (vmware Whitepaper). Das ist in Anbetracht der immer besseren Unterstützung durch die Storage Hersteller und der immer wichtigeren Funktionen auch für „kleinere Rechenzentren“ eine schöne Sache. Viele Funktionen können nun an das Storage ausgelagert werden und sollten damit auch schneller und effizienter ablaufen (z.B. Storage vMotion). Multipathing ist eigentlich in jedem produktiven Rechenzentrum ein Muss und daher ebenfalls zu begrüßen.

Negativ

Als persönlich negative empfinde ich den Verlust des „kostengünstigen“ Einsatzes von DRS (Distributed Resource Scheduler). Wenn ich als Kunde diese, wirklich stabile und tolle Funktion, haben will, muß ich auf Enterprise Plus umsteigen, obwohl ich vielleicht gar keinen Bedarf für den Distributed Switch oder Host Profiles habe. DRS dagegen ist in meinen Augen, gerade im Zusammenspiel mit HA, eine äusserst wichtige Funktion! (Siehe dazu HA Beispiel mit stretched Cluster)

Fazit

Meine persönliche Meinung zu diesem Schritt von vmware ist etwas gespalten. Wie schon erwähnt sehe ich die Erweiterung der Standard Edition um die Storage API for Array Integration und Multipathing mit den Anforderungen heutiger RZs und auch kleinerer Kunden als notwendig und sinnvoll. Aus meiner Zeit bei der Distribution hatte ich aber den Eindruck das, vielleicht gerade in Deutschland, viele Kunden auf die Entersprise Edition gesetzt haben und zwar genau aus dem Grunde „Distributed Resource Scheduler“ [DRS]. In allen meinen vSphere ICM Kursen habe ich diese Funktion als „wünschenswert“ im HA Fall vorgestellt, denn HA versucht willkürlich die VMs auf den verbleibenden Hosts zu restarten. Erst DRS sorgt wieder für geordnete Verhältnisse und geg. sogar dafür das Platz für größerer VMs durch Verschieben von anderen VM geschaffen wird. Also eine mehr als sinnvolle Funktion!

Jetzt müssen alle diese vmware Kunden auf Enterprise Plus oder eine der vSOM Editionen wechseln! Das ist mit nicht unerheblichen Kosten verbunden. Mir zeigt es, das vmware immer weniger mit der reinen Virtualisierung a la vSphere und ESXi verdient und daher die bestehenden Kunden „upgraten“ muß. Auf der anderen Seite werden jetzt natürlich auch die Operations Management Editionen [vSOM] immer interessanter.

Hier noch mal der „alte“ Funktionsvergleich:

OldVersions_onlyEditions

© by vmware (aus dem Lizensierungs Whitepaper)

 

Entscheiden Sie selbst was diese Änderung für Sie bedeutet. Meinungen und Feedback würden mich interessieren.

 

 

Konzepte, die entstehen – Konzepte, die vergehen

Nach längerer Abstinenz möchte ich heute ein Thema aufgreifen, welches mich schon einige Monate beschäftigt.

Nach dem Virtualisierungs- Hype reden nun alle von Microsegmentierung und Container a la Docker. Dabei bin ich alles andere als ein Docker Spezialist. Ich habe mir einfach einiges zum Thema Container angelesen und angesehen. Worum es mir in diesem Beitrag geht ist aber ein Nachdenken darüber, welche Konzepte wir im Rechenzentrum / DataCenter [RZ] schon so hinter uns haben und was dabei, vom Grundkonzept her, wieder auftaucht.

Container sind für mich so ein Phänomen. Doch am besten fange ich einfach mal ganz weit vorne an. Also nach IT Massstäben Steinzeit.

(Dieser Artikel erhebt dabei weder Anspruch auf Vollständigkeit, absolut korrekte Darstellung, sondern meine private Ansicht)

Wie das mit dem Großrechner so begann

Der gute alte Mainframe, bis heute in einigen Branchen immer noch die tragende Säule der IT im RZ. Sicher ist ein Mainframe von heute nicht mit dem von vor 20 oder mehr Jahren zu vergleichen aber vom Konzept funktioniert er immer noch so. Sehr effizient aufeinander abgestimmte Komponenten. Dauerbetrieb mit Wartung im Betrieb möglich. Hohe Ein- und Ausgabe Kapazität bei der Bearbeitung von Massendaten.

Sehr alter Mainframe

©pcmag.com – Sehr alter Mainframe

Heute hat der Mainframe sicher gelernt, ähnlich wie die x86 Server, virtuelle Maschinen auszuführen (z.B. Z-Linux auf IBM). Im Prinzip ist die Grundarchitektur aber gleich geblieben.

Nichts desto trotz wurden die Programme als einzelne „Jobs“ auf dem System ausgeführt, jedes in seiner Umgebung, geschedult und von den anderen, wenn gewünscht, abgeschottet.

Die Dezentralisierung des RZ beginnt

Mit dem Aufkommen immer leistungsfähiger Endgeräte (PC’s) kam nun die Idee auf, Aufgaben und Verarbeitung von Daten zu dezentralisieren und auf die PCs auszulagern. Windows™  sei Dank wurde die Bedienung nun auch für „angelernte“ Laien 😉 immer einfacher. Problem dabei – viele Dokumente und Daten wurden jetzt im Unternehmen verteilt und waren unter Umständen nur per „Turnschuh“ Transport erreichbar.

Zentrale Datenhalden und Druckdienste

Nun begann die Zeit der zentralen Datenhalden und Druckdienste. Bereitsteller wie NOVELL™ Banyan Vines™ (Wer kennt das noch?) sowie der Anfangs verschmähte Spät-Kommer Windows Advanced Server (später NT und noch später einfach Windows Server 2000 und folgende).

Banyan_Novell_NT

Banyan Vines – Novell Netware – Windows NT Advanced Server

Hier konnte man, wenigstens im Anfang, nur File und Druckdienste, sowie eine zentrale Userverwaltung beziehen. Später kamen dann Versuche dazu, z.B. eine Datenbank auch auf dem Server zu platzieren (Btrieve by Novell usw.). Diese „Dienste“ liefen auf den Servern mit und zwar meist „nicht dediziert“, also mit den File und Druckdiensten zusammen.

Bitte bedenken! Die zentrale Datenverarbeitung machte zu dieser Zeit immer noch der „Host“ im Hintergrund. Nur griff man jetzt nicht mehr per Grün- oder Amber-Terminal auf diesen zu, sondern per Terminalemulation. Davon lebten zu dieser Zeit ein paar Firmen recht gut (Hummingbird etc.).

Für spezielle Aufgaben gab es auch schon die verschiedenen UNIX Anbieter. Graphik war z.B. die Domäne von Silicon Graphics™ und SUN Microsystems™.

Spezialisierte Server Systeme

Nach dieser Phase der „einfachen zentralen Dienste“ starben die ersten Protagonisten dahin und Microsoft startete durch.

Gerade Microsoft schaffte auch eine Art Microsegmentierung ;-), denn bis heute ist es ratsam jede Serverfunktion auf eine oder mehrere separate Windows Server Maschinen(physikalisch oder heute VM) zu verteilen. Durch dieses Konzept entstanden plötzlich eine große Anzahl von Server Systemen im RZ. Statt einem großen Host und vielleicht einer Handvoll Peripherie Systemen explodierte die Anzahl der Server im RZ geradezu. Viele klassische IT Abteilungen hatten damit schwer zu kämpfen, zumal zentrale Management Tools noch eher rar waren.

Ausserdem entstand nun eine Art „Religionskrieg“ zwischen den Verfechtern der verschiedenen Systeme.

  • Auf der einen Seite die altvertrauten Host- Menschen mit ihren „Big Iron“ Systemen. Dicke, zuverlässige aber nicht im neuen Sinn flexible Systeme die zudem sehr teuer waren.
  • Auf der anderen Seite diverse UNIX Derivate (SUN Solaris, HP UX, IBM AIX usw.) die jeder den Alleinherrscher- Status beanspruchten (und schlußendlich daran scheiterten!). Alles irgendwie Unix, aber inkompatibel und jeder mit Eigenarten.
  • Und zuletzt Microsoft mit Windows Server, die im Hintergrund so langsam einen Service nach dem anderen übernahmen (sicher auch auf Grund der immer leistungsfähiger werdenden Intel Systeme an sich).
    Aber jeder Service und Dienst wollte hier gern ein eigenes System haben. Angefangen von AD, DHCP, DNS die man noch irgenwie zusammen betreiben kann über Exchange, MS SQL, SharePoint etc. Eben alles was so auf Windows Server lief und läuft.
  • … alle anderen Systeme mit weniger Verbreitung lasse ich hier mal weg. Dieses ist dabei meine private Einschätzung – ohne Wertung im Detail.

Die Virtualisierung beginnt

Durch die immer günstiger werdende Rechenleistung auf x86 Seite schafft es die Lösungsgemeinschaft Intel – Microsoft tatsächlich, daß viele Server Systeme eine nicht unerhebliche Zeit des Tages vor sich hin „ideln“, also mehr mit sich als mit der eigentlichen Aufgabe beschäftigt sind.

Das macht sich vor allem die Firma vmware™ zu eigen und baut einen Hypervisor der es schafft, vielen virtuellen Maschinen vorzugaukeln, sie würden auf dedizierter Handware laufen, obwohl sie zusammen mit anderen auf einem oder wenigen physikalischen Servern leben. Funktionen wie das Verschieben solcher VMs im laufenden Betrieb (vMotion) und vieles mehr räumen jetzt im RZ wieder etwas auf. Die Komplexität wird meiner Meinung nach aber nicht weniger, denn immer neue Services verlangen immer mehr neue VMs die z.T. mit 90% gleichem Basis Stack unterwegs sind.

Man muß bedenken, hier laufen immer noch separate Systeme mit hoher Redundanz, nur eben nicht auf einzelnen physikalischen Servern, sondern gepackt als VM auf mehrere Hypervisoren. Diese bringen selbstverständlich viele viele Vorteile mit sich. Die optimale Ausnutzung der Serverhardware tritt dabei immer mehr in den Hintergrund.

Gerade die immer weiter vordringenden Linux Systeme mit dem klassischen Software Stack (z.B. LAMP := Linux, Apache Webserver, MySQL DB und PHP) bringen uns auf neue „ALTE“ Ideen!

Der Container erscheint

So wie vmware im Virtualisierungs- Umfeld sicher als ein Pionier und Vorreiter gelten darf, kann man die Firma Docker™ für den Bereich Container sehen.

Dabei sind Container, wenigstens unter Unix/Linux eher ein alter Hut.Cgroups und Namespaces sind bekannte Linux Funktionen die hier aufgegriffen wurden und „abgerundet“ als Container Technologie der neue Hype sind.

Docker_und_Co

VMs versus Container

Was haben wir denn nun hier vor uns? Einfach abstrahiert haben wir den einzelnen Applikationen nur die für sie spezifischen System DDLs bzw. Libraries und Umgebungsanteile mitgegeben und führen diese auf EINEM Operating System aus. Also nicht 5 oder 10 vollständige Linux Systeme, sondern nur ein Linux System auf dessen Kernel und Ressource mehrere Applikationen mit Ihrem Applikationsstack laufen.

Gesteuert wird dieses durch die Container Engine. Riesen Vorteil. Die einzelnen Container sind kleine Pakete (im Gegensatz zu einer vollständigen VM) und durch verschiedene Techniken auch noch portabel zwischen mehreren Linux Hosts (bei entsprechender Vorbereitung sogar zwischen verschiedenen Distributionen!).

Haupt Punkt dabei: Das ganze ist aktuell hauptsächlich für Linux Applikationen vorhanden, aber auch Microsoft schraubt an diesem Konzept. Hyper-V 2016 soll es z.B. ermöglichen Docker Container auszuführen.

(Linked Clones verbinden nur Storageseitig mehrere gleichartige Systeme mit einer „Systemplatte“, das ist eine Verbesserung, aber keine vollständige wie Container)

Zusammenfassung

Was macht nun das „Hatten wir schon“ aus? Nach meinem Empfinden haben unsere IT Urgroßväter ihre Programme für den Mainframe (Host) schon damals, ähnlich wie wir heute Container, geplant und betrieben. Alles was Ein- und Ausgabe, Zugriffe auf Netz etc. betraf, lieferte der Host. Die Programme liefen in Ihrer Umgebung als einzelne Jobs die man schedulen und priorisieren konnte und die von Host zu Host, bzw. Hostbereich zu Hostbereich, portabel waren. Genau das Konzept findet man bei Containern wieder.

Für Container spricht die höhere Packungsdichte als bei VMs und das schnelle Starten der Container, da das OS ja schon läuft. Das Thema Sicherheit bedarf dagegen sicher einer separaten Betrachtung. Falls ich mal Zeit finde dazu vielleicht irgendwann mehr.

Somit sind wir vom RZ und dem Host über die Dezentralisierung wieder zurück ins RZ und wenn wir einen „Container-Cluster“ als Host betrachten, auch wieder bei unseren „Jobs“ die nun Applikationen in Containern darstellen. Hochflexibel, schnell zu deployen und in Massen zu betreiben. Alte Host-Hasen werden sich da doch gleich zuhause fühlen (wenigstens vom Konzept her).

Fazit

Diese, zugegeben, mit wenig technischer Tiefe aber dafür mehr Humor dargestellte Evolution vom Host zum Container, hilft vielleicht doch das eine oder andere Neue leichter zu verstehen und durchaus über neue Konzepte im Licht von Bekanntem nachzudenken.

Neben Docker gibt es übrigens auch noch weitere Anbieter solcher Lösungen, wie Kubernetes (Google), LXD (Canonical) oder Rocket/rkt (CoreOS). Auch vmware hat einen“Docker-Basis VM“ im Angebot (Project Photon).

 

 

 

Wahrlich, wahrlich, ich sage euch: Wer mein Wort hört und dem glaubt, der mich gesandt hat, hat ewiges Leben und kommt nicht ins Gericht, sondern ist aus dem Tod in das Leben übergegangen.

Die Bibel (Johannes Evangelium Kapitel 5 Vers 24) Elberfelder Übersetzung – CSV Edition

An dieser Stelle, wie jedes Jahr, möchte ich allen Lesern, Freunden und Kollegen ein paar besinnliche und ruhige Stunden zum Ausklang des Jahres wünschen. Ebenso ein erfolgreiches und gesundes 2016.

Den oben angeführten Vers aus der Bibel, GOTTES WORT an uns Menschen, spricht mein HERR Jesus. ER wurde von Gott gesandt, um durch seinen Opfertod Versöhnung mit einem heiligen Gott zu ermöglichen, und so uns Menschen vor dem ewigen Gericht Gottes zu bewahren.

Auch wenn dieses in den Augen vieler Mitmenschen alt, unglaubwürdig und nicht mehr zeitgemäss erscheint, Gott ändert sich NIE! Sein Wort bleibt bestehen, ob wir Menschen das glauben wollen oder nicht. (siehe dazu Römer 3 Vers 23: „..denn alle haben gesündigt…“)

Wenn wir nun den HERRN Jesus als von GOTT gesandt annehmen und uns unter seine wunderbare Rettungstat stellen, finden wir Frieden und Errettung vor Gottes Gericht. Wir werden von Gott sogar kostenlos und ohne Vorbehalte angenommen und  dürfen uns nun Kinder Gottes nennen. (siehe 1. Johannes 3 Vers 1: „Seht, welch eine Liebe uns der Vater (Gott selbst) gegeben hat, dass wir Kinder Gottes heißen sollen!“)

Gott rechnet dann keine Sünde mehr zu, denn Jesus Christus hat diese getragen und gesühnt. (siehe Römer 4 Vers 8: „Glückselig der Mann, dem der HERR (Gott) Sünde nicht zurechnet!“) Kommen Sie daher noch heute zu Jesus Christus, bekennen Sie Ihre Schuld vor Gott und bitten Sie um Vergebung.

Bitte denken Sie darüber nach und lesen Sie die Bibel – Gottes Wort!

In diesem Sinne wünsche ich allen Lesern ein paar ruhige und besinnliche freie Tage und ein erfolgreiches 2016!

 

Erfahrungsbericht: vmware VCP6-DCV Delta Exam

Veröffentlicht: 14. Dezember 2015 in Virtualisierung

vmware VCP6-DCV Delta Exam – ein paar Eindrücke

Mir ist es tatsächlich gelungen ein wenig Zeit zu finden meine Rezertifizierung für den vmware VCP durchzuziehen ;-). Auf Grund der gemachten Erfahrungen möchte ich heute einfach mal ein paar Eindrücke weitergeben. Vielleicht hilft es ja dem einen oder anderen der auch noch vor diesem Examen steht.

Die Zeiten des „vmware VCP“ sind ja schon einige Zeit vorbei. Seit ein paar Jahren gibt es verschiedene VCP’s. Ich beziehen mich hier auf den DCV oder „Data Center Virtualization“ VCP. Für mich immer noch die Mutter aller VCP’s, denn hier wird die Virtualisierungsplattform an sich abgefragt. Also vSphere V6 mit ESXi, vCenter, Storage (vSAN!), Netzwerk Anbindung (auch etwas NSX) sowie den Grundlagen des Resourcemanagements. Es schadet nichts noch mal einen Blick in meinen alten Artikel „vmware Resource Management – Shares was ist das?“ zu werfen :-).

Voraussetzungen

Kurz zu den Voraussetzungen. Wer noch einen bestehenden VCP5 oder VCP5.5 hat, kann z.Z. noch das sogenannte VCP6-Delta Exam machen. Ich habe dieses gemacht, muß allerdings sagen, das mir der wirkliche Vorteil nicht so recht klar wurde. Im Gegenteil, ich hatte eher den Eindruck das dieses Exam keineswegs leichter war, sondern das es sogar wirklich für Leute gedacht ist die schon Erfahrung mit älteren vmware vSphere Versionen haben. Die Zeit ist genauso lang, die Anzahl der Fragen ebenfalls und der „Schweregrade“ eher angehoben.

Alles weitere zu den Vorbedingungen findet Ihr hier „Certification Path: Data Center Virtualization„.

Ach ja, noch ein wichtiger Hinweis: um das Delta Exam machen zu können braucht Ihr eine Autorisierung von vmware Education. Die könnt Ihr online anfordern und benötigt dazu Eure „Candidate ID„. Die wiederum  findet Ihr im MyLearn Portal. Die Autorisierung hat bei mir max. 1 Stunde gedauert. 

vmware Education Infos zum VCP6 DCV Delta Exam © by vmware

vmware Education Infos zum VCP6 DCV Delta Exam © by vmware

Quellen zur Vorbereitung

Quellen zur Vorbereitung sind ja immer gern gesehen. Als „noch“ VCI natürlich der Hinweis auf den „Blueprint“ den man online auf der Web Seite des Exams  unter

ExamTopics

findet. Diese Infos sind sehr sehr wichtig! Bitte genau beachten! Hier steht welche Themenbereiche im Exam abgedeckt werden und welche nicht.

Des weiteren habe ich die Dokumente „What’s New in the VMware VSphere 6.0 Platform“ und „What’s New in VMware vSphere 6 – Performance“ für hilfreich empfunden.

Wer noch nie mit vSAN gearbeitet hat, dem kann ich nur wärmsten den Blog von Duncan Epping „Yellow-Bricks.com/virtual-san“ empfehlen. Für NSX eher den vmware Blog Bereich zum Thema „The Network Virtualization Blog„.

Ich hatte das Glück von vmware einen Voucher für die „Learning Zone“ und zwar die Premium Subskription zu erhalten. Hier gibt es ein spezielles eLearning (mehrere Video Tutorials) die zum großen Teil sehr gut gemacht sind und viele Tipps zum Exam beinhalten. Vielleicht ja ein Anlass mit dem Chef mal über einen „spezial Bonus“ mit Nutzen für die Firma zu sprechen ;-).

Unautorisierte Quellen wie die allseits diskutierten „Braindumps“ können Hinweise geben wo Schwerpunkte liegen sind aber immer kritisch zu sehen.

Ich empfehle hier immer offizielle Hilfen, wie z.B. das Practice Exam „2V0-621D Practice Exam “ eine Art Vortest um einfach unverbindlich mal zu sehen ob man schon gut vorbereitet ist. Hier werden im Ergebnis nicht nur gezeigt was falsch beantwortet wurde, sondern es werden auch Hinweise auf entsprechenden Unterlagen gegeben (inkl. Links). Ihr findet dieses unter „How to prepare„.

Hinweise

Nun noch ein paar Hinweise aus eigener Erfahrung mit dem Exam. Diese sind natürlich individuell und beziehen sich ausschließlich auf die Fragen die ich im meiner Prüfung zu beantworten hatte.

  • vCenter Installation: Hier wurde auf den neuen Konstrukt mit dem PSC eingegangen. Gerade die verschiedenen Installationsmöglichkeiten des vCenter Servers mit dem „Platform Service Controller [PSC]“ und allen anderen Komponenten solltet Ihr Euch ansehen. Auch was nicht mehr unterstützt wird (OpenSSL!). Hier war das Video aus der Learning Zone ein echter Glücksfall, denn genau solche Fragen kamen dran. Die vCenter Appliance tritt auch immer mehr in Erscheinung, auch in Form von Upgrade und Installationsfragen.
  • Security: Der gesamte Bereich Security mit User und AD Abbindung ist sehr wichtig, denn auch hier sind ein paar Änderungen zur 5.x da. AD User und die Integration von ESXi Host in das AD mit entsprechenden Auswirkungen auf User und Rechte waren mit mehreren Fragen vertreten.
  • vSAN war nur mit ein paar grundlegenden Fragen vertreten, die eigentlich jeder VCP wissen sollte. vSAN Fault Domains z.B. sollte man vom Prinzip verstanden haben. Duncan Epping sei dank ist das aber gut zu lernen.
  • Szenarien: Ich fand, das in meinem Exam aussergewöhnlich viele „Exhibits“ vorkamen, also Screenshots oder Grafiken welche die Frage unterstützen, bzw. auf welche die Frage aufbaut.
    Der vSphere Client ist hierbei TOT! Es ist also wirklich Zeit sich mit dem WebClient zu befassen.
  • Deep Dive: Es gab ein paar wenige Fragen in denen Commandline Ausdrücke oder Schalter abgefragt wurden. Dieses finde ich immer recht fies, da alle „Nicht täglich Administrierer“, so wie ich hier durchaus Probleme bekommen können. Das kann man schließlich nicht alles auswendig lernen. Wer täglich in größeren Umgebungen Arbeitet hat da weniger Probleme, es sei den Er hasst die Command-Line (was in meinen Augen grundsätzlich ein Fehler ist ;-)).

Fazit

Wer sich von diesem Artikel die 100% Erfolgstipps erwartet hat, den muß ich enttäuschen. Wer ein paar praktische Erfahrungen und Hinweise sucht, hat die sicher erhalten. Ich denke das mit ein wenig Vorbereitung und etwas Mut das Exam zu schaffen ist. Ob man nun das Delta Exam oder das „Normale“ VCP6 DCV Exam macht muß jeder Berechtigte selbst entscheiden. Wer im Daily Businsess aktiv mit vSphere 6 arbeitet sollte eigentlich keine unüberwindlichen Probleme habe. Die vmware Learning Zone wir immer interessanter, besonders wenn kein „Kurszwang“ vorliegt. Hier kann man schön individuell das ansehen was man braucht, oder meint zu brauchen.

In diesem Sinn – VIEL ERFOLG!!!

 

Hyperconvergence – der neue Hype?

Nach längerer Pause möchte ich heute mal wieder ein aktuelles Thema aufgreifen und ein paar Grundlagen und Gedanke dazu vorstellen.

Es geht um das Thema Hyper-konvergente Systeme. Was ist das? Was machen diese Systeme? Wie sind sie aufgebaut?  und was bringt mir das?

Was sind Hyper-konvergente Systeme?

Hyper-konvergente Systeme sind im ersten Ansatz x86 basierte Hardware die verschiedene Komponenten aus einem Rechenzentrum vereinen. Hier werden, simpel ausgedrückt, Computing Leistung (CPU und RAM) mit Netzwerkfunktion und Storage verbunden. Dieses alles in einer Box.

Ziel ist es IT Infrastruktur zu vereinfachen und so auf Administrativer Seite einfachere Strukturen zu etablieren, Man könnte es mit „Alles aus einer Hand“ umschreiben. Dieses greift, für die doch komplexe Idee natürlich als einzelnes Schlagwort, zu kurz.

In einem älteren Artikel habe ich das Thema im Prinzip schon einmal angesprochen (Zukunft der Ressourcen im RZ). Hier ging es zwar primär um die Last am Hypervisor, aber wir werden sehen das ein Hyper-konvergentes System nicht so viel anders zu betrachten ist.

Abbildung 1: Hyper-konvergente Systeme - OHNE und MIT Management Funktionalität

Abbildung 1: Hyper-konvergente Systeme – OHNE und MIT Management Funktionalität

Was machen diese Systeme ?

Hyper-konvergente Systeme sind DIE Verwirklichung des Software defined Data Centers [SDDC]. Hier wird vor allem Storage und Netzwerk in Software gegossen und realisiert. Grundlage dafür sind (z.B. im vmware Jargon) vSAN und NSX bzw. allgemein Software defined Network [SDN]. Erst diese Lösungen ermöglichen es die ehemaligen RZ Bereiche Storage und Netzwerk auch in die Hyper-konvergente Appliance zu packen. Das ganze wird vom Hypervisor „zusammengehalten“, dieser sorgt für die Ressourcenverteilung und die Orchestrierung.

Nun gibt es Hyper-konvergente Systeme die „nur“ die einzelnen Silos in einer Box zusammenfassen und alles weiter weitgehend der Virtualisierungsplattform überlassen. Andere bieten spezielle Management Lösungen auf, oder für das entsprechende System. Anbieter sind hier z.B. Simplivity, Nutanix oder vmware EVO:RAIL um nur einige zu nennen.

Wie sind sie aufgebaut?

Wie bereits angedeutet machen echte Hyper-konvergente Systeme nicht einfach eine Zusammenfassung der RZ Silos: Computing, Storage und Networking in eine Box oder Appliance aus. Diese Funktionen werden sehr oft auch durch spezielle physikalische Einschübe und Karten unterstützt und ergänzt. So sind eingebaute Switche, Karten zur Hardware unterstützten Deduplizierung, Replikation usw. anzufinden.

Gerade die Funktionen des eingebauten Managements sind die tatsächlichen Plus Punkte welche die Systeme einerseits unterscheiden, andererseits aber auch erst zu den Hyper-konvergenten Lösungen machen.

Problem hierbei ist, das meines Wissens nach nur Lösungen eines Anbieters miteinander kompatibel sind! Hier gilt es zu prüfen ob man die Abhängigkeit von einem Anbieter will und ob dieser auch das anbietet was man braucht. Bitte daran denken, das Sie vielleicht in einem  ½ oder 1 Jahr größere oder andere Systeme brauchen die der gewählte Anbieter so vielleicht nicht bereitstellen kann. Ein Anbieterwechsel wird dann aufwendig und unter Umständen auch sehr teuer.

vmware EVO:RAIL ist hier eine kleine Ausnahme, da hier verschiedene Anbieter vorhanden sind, die diese „Definition“ unterstützen.

Was bringt mir das?

Tja, was bringt mir nun der Einsatz einer Hyper-konvergenten Plattform? Vor allem eine Vereinfachung der Systemlandschaft im RZ. Wenn denn alle mitspielen ;-). Denn typischerweise reissen Sie vorhandene Team- und Aufgabenstrukturen auseinander bzw. ein. Mit einer Hyper-konvergenten Plattform haben plötzlich Netzwerkadministratoren oder Storageexperten keine, bzw. andere Aufgaben. Also bitte dieses vorher in Betracht ziehen und sehen wie die Kollegen eingebunden bzw. „verändert“ werden können.

Die Hersteller sprechen oft davon, das Hyper-konvergente Systeme eben keine „Spezialisten“ mehr benötigen. Dieses ist zweischneidig (siehe oben) und nicht ganz so einfach wie dargestellt. Sicher lässt sich ein vSAN mit wenigen Mausklicks und Konfigurationen auch von Storage „Laien“ erstellen. Brauche ich daher keine „Kenner der Materie“ mehr? Ich denke nicht. Gerade im virtuellen Netzwerkbereich hilft mir z.B. NSX dabei schnell und konsistent auf Anforderungen zu reagieren, aber ohne Netzwerkkenntnisse geht es nicht. Ausserdem – was mache ich im Falle eines Fehlers oder Problems? Fachwissen ist immer noch mehr als nützlich und notwendig. Nur werden mit diesen Systemen die „KnowHow Silos“ aufgebrochen. Gut ist es wenn ein Team nun sowohl Netzwerker, als auch Storage Spezialisten und Kenner der Hypervisor Plattformen beinhalten.

Wenn alles passt gewinnen Sie tatsächlich eine höhere Dynamik bei Erweiterungen und Änderungen im RZ. Wie so oft werden hier wieder die OPEX Kosten in der Fokus geraten.

Ausserdem eigenen sich Hyper-konvergente Lösungen nicht für jede Art von Workload und Anforderung. Daher muß sicher „noch“ nicht jeder Storageexperte um seinen Job bangen, Weiterbildung kann aber nie schaden ;-).

Vorteile

Hyper-konvergente Syteme sind Lösungen für virtuelle Umgebungen. In virtuellen Umgebungen steht die VM im Mittelpunkt, der Workload der einzelnen VM ist mit klassischen Lösungen aber nicht, oder nur sehr schwer zu messen und zu steuern.

Beispiel Storage: Früher hatte jeder physikalische Server seine entsprechenden Storage Anbindungen. Der Datenbank Server eher schnelle LUNs für die Logpartitionen. Der Fileserver dagegen eher mehr „Masse“ als Geschwindigkeit. Packt man virtuellen Load auf „klassische“ physikalische Umgebungen geht viel Potential verloren. Eine LUN die 5-10 VMs hostet kann entweder für die einen gut und die anderen schlecht konfiguriert werden, oder ein Mittelmass für alle bereitstellen.

Policie driven ist hier der Ansatz den Hyper-konvergente Lösungen fahren. Je nach VM und „Leistungs- oder Anforderungsparametern“ werden diese optimiert platziert und betrieben (Netzwerkbandbreite, Storage IOPS usw.) je nachdem was die Lösung bereitstellen kann.

Welche Szenarien sind gut für Hyper-konvergente Lösungen?

Aus meiner Sicht vor allem zwei Bereiche:

  1. Unternehmen mit vielen kleineren Standorten: Hier bieten die meisten Hersteller eine deutliche Vereinfachung in den Rechnerräumen (vom RZ zu sprechen ist hier oft übertrieben) der Zweigstellen oder kleinen Standorte. Nun stehen ein oder zwei 2U Systeme statt mehrere Hosts, Switche und Storage Systeme im Rack. Auch bestehen oft Funktionen um die Aussenstellen mit einer Zentrale oder untereinander zu backupen oder zu synchronisieren. Die Management Funktionen der Systeme sind hier besonders zu betrachten. Wir alles einfacher zu administrieren und zu monitoren?
    Hier kommen auch die gern genannten „einfach zu installierenden“ Systeme zum Tragen. Gerade in abgesetzten Standorten gibt es eben nicht das Spezialisten-Team. Hier sind diese Systeme oft im Vorteil.
  2. Mal wieder die oft strapazierten VDI (Virtual Desktop Infrastructure) Umgebungen, denn meist ist es simpel zusätzliche Ressourcen in Form von weiteren Appliances in einen bestehenden Verbund Hyper-konvergenter Systeme einzubinden (natürlich nur vom gleichen Hersteller!). Somit ist eine Skalierung recht einfach durchzuführen. Auch hier gehört wieder ein kritischer Blick auf die Management Lösungen der Appliances.

Knackpunkte

Wie jede Lösung haben auch die Hyper-konvergenten Systeme einige Knackpunkte die vor der Anschaffung genau untersucht und bedacht werden müssen. Einige habe ich schon angesprochen.

  • Prüfen Sie die Zuständigkeiten und Strukturen ihrer IT! Nichts macht mehr Probleme als Mitarbeiter oder Kollegen die um Ihre Position oder gar Stelle bangen. Der Storage Kollege der sich überflüssig fühlt oder der Netzwerker der sich übergangen fühlt machen Ihnen spätestens im Nachgang große Probleme.
  • Die Anforderungen an die unterschiedlichen Workloads Ihrer IT Systeme sollten im Vorfeld bekannt oder ermittelt werden. Leistet die angedachte Lösung alles was Sie benötigen? Oder ist die Hyper-konvergente Lösung nur für einen bestimmten Bereich sinnvoll (warum auch nicht, nicht immer muß man alles auf einmal ändern).
  • Erweiterung der Infrastruktur! Haben Sie bereits 10GB Netzwerke in allen Standorten? SDN und virtual SAN funktionieren nur sinnvoll mit dieser Bandbreite. Also zur Investition auch gegebenenfalls neue 10GB Switche + Kabel + Zubehör hinzurechnen. (Manche Hyper-konvergenten Systeme beinhalten echte physikalische Switche, die ersetzten aber keine redundanten separaten Switche!)
  • Redundanz: Auch Hyper-konvergente Systeme arbeiten erst ab min. zwei Systemen redundant! Also „mal ein System anschaffen und sehen was es bringt“ ist nicht möglich.
  • Wie passen die Hyper-konvergenten Systeme grundsätzlich in die Systemlandschaft (Backuplösungen, Administration und Management, Monitoring etc.)

Fazit

Wie man vielleicht aus diesem kurzen Beitrag entnehmen kann, bieten die Hyper-konvergenten Systeme im gut geplanten und richtigen Umfeld viele entscheidende Vorteile. Um diese zu nutzen gibt es aber doch eine ganze Menge zu beachten und zu planen. Wie immer ist eine gute Vorarbeit das halbe Projekt. Vergleichen Sie nicht nur stumpf Funktionen, versuchen Sie vielmehr Anbieterlösungen an Hand von konkreten Anforderungsliste zu vergleichen und durchaus auch den einen oder anderen PoC (Proof of Concept) anzufragen.

Applikationen zum Anwender – was ist was in der Cloud?

In diesem Beitrag möchte ich ein Thema, welches z.Z. sehr viele IT-Verantwortlich beschäftigt etwas näher betrachten. Es geht um die Themen Desktop as a Service [DaaS] bzw. Software as a Service [SaaS].

Dabei geht es mir nicht um spezielle Herstellerlösungen, sondern um die unterschiedlichen Ansätze, Ziele und Bereitstellungen von Anwendungen. Viele IT „Menschen“ sind sich einig, das die klassische PC Architektur mit Applikationsinstallationen auf jedem Arbeitsplatz PC veraltet, aufwändig und teuer ist. Spätestens seit den klassischen Terminalserver Lösungen gibt es (auch für Windows Anwendungen) andere, vielleicht bessere Lösungen. Mit dem Aufkommen der VDI (Virtual Desktop Infrastucture) ist die Diskussion scheinbar omnipräsent.

Unterschiede DaaS – SaaS

Lasst uns kurz die beiden unterschiedlichen Ansätze betrachten, die sich heute nicht gegenseitig ausschließen, sondern durchaus ergänzen können.

DaaS

Desktop as a Service wird von vielen als die Weiterentwicklung des VDI Gedanken in die Cloud verstanden. Wenn wir hier aber von der Cloud als Private-, Public- und Hypride-Cloud sprechen, dann ist eine VDI Umgebung eine DaaS Lösung.

VDI bzw. DaaS bedeutet im ersten Schritt nichts anderes, als das man den Klassischen Windows Arbeitsplatz PC als Virtuelle Maschine im Rechenzentrum betreibt und auf diesen per RDP, ICA, oder den „High End“ Protokollen HDX bzw. PCoIP zugreift. Komplett umgesetzt haben die Anwender auch keinen PC mehr, sondern einen Thin- oder Zero-Client welcher sehr einfach aufgebaut, zu warten und zu supporten ist. Die Komplexität wandert vom Arbeitsplatz ins Rechenzentrum (Terminals lassen herzlich grüßen ;-)). Natürlich bieten die verschiedenen VDI Plattformen weitere Möglichkeite um den Betrieb der Virtuellen Desktops zu optimieren, zu managen (updates etc.) und den Zugriff zu steuern. Stichworte sind hier: Sessionbroker, Linked Clones, Deployment Groups usw.). Diese soll ja kein VDI Lernartikel werden 😉

Somit haben wir bei DaaS einen kompletten Desktop der „nur“ als VM im Rechenzentrum oder bei einem DaaS Provider läuft. Applikations Deployment ist erst einmal aussen vor.

Normalerweise werden VDs schon aus einem Template mit allen Standardapplikationen deployed (Golden Image). VMware’s „App Volumes“ sind da eine konsequente Weiterentwicklung. Virtuelle Platten mit installierten Applikationen!

Abbildung 1: Desktop as a Service DaaS

Abbildung 1: Desktop as a Service DaaS

SaaS

Software as a Service ist im Gegensatz zu DaaS aber „nur“ die Bereitstellung von einzelnen Applikationen über verschiedene Wege. Das kann eine reine WebApplikation (Web-Mail, Salesforce usw.) sein, oder auch eine Applikation die von einem Applikationsserver (Microsoft RDSH oder Citrix XenApp) bereitgestellt werden.

Hier arbeitet der Anwender z.B. an seinem „normalen“ PC oder Notebook und bekommt gewisse Anwendungen eben nicht lokal installiert, sondern Remote per Web-Browser, ICA- oder RDP Client bereitgestellt. Eigentlich ein alter Hut, denn das klassische Terminalprogramm welches Host Applikationen am PC bearbeitbar macht ist erst mal nichts anderes.

Abbildung 2: Software as a Service SaaS

Abbildung 2: Software as a Service SaaS

In Zeiten von WebMail, Google-Apps, Salesforce und vielen anderen Anbietern von Software die direkt im Browser läuft ist der SaaS Gedanke Realität, wird nur von vielen nicht als solcher wahrgenommen. Die lokal installierte Anwendung unter Windows (oder auch Linux) ist nur eine von vielen Möglichkeiten und nicht mehr die einzige massentaugliche. Gerade Web-basierte Anwendungen lassen sich auch am einfachsten an mobile Endgeräte wie z.B. Smartphones anpassen. Hier stehen oft die taktilen Fähigkeiten von uns Menschen im Konflikt mit Applikationen die nicht für dieses Format erstellt wurden.

Zusammenfassung

Somit unterscheiden sich DaaS und SaaS dadurch, das bei DaaS ein kompletter (typischerweise Windows) Desktop pro Anwender betrieben wird, während bei SaaS nur Applikationen aus dem Rechenzentrum bzw. der Cloud bezogen werden. Eine Mischung aus beiden ist daher eine durchaus interessante Überlegung.

Der Dynamische Arbeitsplatz – aus dem RZ bzw. der Cloud

Nach der kurzen Einführung möchte ich nun das Szenario aus DaaS und SaaS ein wenig weiter betrachte. Schauen wir uns doch erst einmal an um was des bei den ganzen Entwicklungen geht.

Da sind verschieden „Mitspieler“ und deren Wünsche und Ziele:

A: Der Anwender
Der Anwender möchte seine Arbeit erledigen, sein bekannten oder neuen Applikationen im schnellen Zugriff haben und sich einen Arbeitsplatz ein wenig (oder auch etwas mehr 😉 ) individualisieren. Man denke nur an die netten Hindergrundbilder usw. Möglicherweise möchte der Anwender auch eigene Applikationen nutzen (dieses sind oft Freeware Tools an die mach sich gewöhnt hat, da diese das Leben wirklich oder scheinbar erleichtern). Dieses natürlich nur soweit erlaubt.
Woher eine Anwendung kommt interessiert den Anwender, wenn überhaupt, dann nur zweitrangig. Sie muß eben verfügbar sein, schnell starten und sich „sehr lokal“ anfühlen.

B: Die IT Abteilung und das Unternehmen
Die IT Abteilung und das Unternehmen haben selbstverständlich etwas andere Ziele. Applikationen die den Anwendern eine effiziente und gute Erledigung der Aufgaben ermöglichen sind sicher auch ein Aspekt. Darüberhinaus stehen aber, wie immer, zwei wichtige weitere Faktoren im Raum.
Der erste ist wie immer – das Geld – hier geht es um Betriebskosten und Support der bereitgestellten Anwendungen. Der zweite Punk ist in den meisten Fällen das Thema – Sicherheit. Wer darf was, wer bekommt welche Anwendungen und vor allem, welche Daten müssen auf alle Fälle im Unternehmen bleiben und welche müssen mit Partnern, Kunden, Lieferanten usw. ausgetauscht werden. Bezogen auf den IT Arbeitsplatz gilt hier auch der Punkt: Wie können Supportkosten für den Anwendersupport, Ausfallzeiten usw. möglichst klein gehalten werden. Es gibt hier sicher noch mehr wichtige Aspekte, die Aufzählung erhebt keinen Anspruch auf Vollständigkeit!

Möglichkeiten die DaaS und SaaS bieten

Was haben wir nun für Möglichkeiten durch die Nutzung von DaaS und SaaS Lösungen?

Ein virtueller Desktop, der im Rechenzentrum läuft, überträgt zum Endanwender erst mal nur seinen Bildschirm. Daher kann dieser sehr leicht sicher gemacht werden. Wenn es keine Möglichkeit gibt z.B. USB-Sticks in die VM zu reichen ist dieser Desktop recht dicht. Allerdings ist diese Lösung nicht für alle Anwender praktikabel. Der sogenannte „PowerUser“ braucht geg. auch mehr Freiheiten und nicht jede Applikation läuft schon zufriedenstellend „Remote“. Auch in Zeiten von PCoIP und HDX ist nicht jedes Netzwerk in der Lage die entsprechende „Userexperience“ für z.B. ein Photoshop oder ein CAD/CAM System bereitzustellen. Hier spielt das Thema Latenzen eine große Rolle, ausserdem müssen die Endgeräte z.B. Grfikseitig in der Lage sein mehrere Monitore zu bedienen. Das „schmalbrüstige“ Low-End Gerät fällt hier flach. Die Thin-Client Hersteller habe aber auch hier wartungsfreundliche und trotzdem leistungsfähige Geräte im Angebot (z.B. IGEL, DELL/WySE, HP und viele andere). Somit landen wir beim oben genannten „Dynamischen Arbeitsplatz„.

Ein Anwender nutzt dabei z.B. wie gehabt einen Windows Arbeitsplatzrechner, bezieht aber alle Standard Office Anwendungen via ICA/RDSH, einige weitere Anwendungen via Browser aus der „Cloud“. Spezielle Sicherheitskritische Anwendungen über einen VDI Desktop usw.

Zentrale Problem dabei: Wer verwaltet den Zugriff auf diese unterschiedlichen „Darreichungsformen“ und wie kann man den Anwender davon befreien viele viele Logins durchzuführen? Für letzteres werden nun viele rufen „Nutz doch einfach Single Sign On [SSO]“ aber SSO ist weder einfach noch für alles verfügbar. Wäre da ein Web basierter dynamischer „Arbeitsplatz“ der alle benötigten Anwendungen anbietet, dabei einen „Individualisierung Freiraum“ bietet und SSO inkl. verschiedener Authentifizierungen anbieten keine gute Idee?

Wenn diesem dann auch noch ein Self-Service Shop zur Seite gestellt wird, in dem man zusätzliche Anwendungen und Services einfach und transparent zu buchen kann, kämen wir der Ideallösung doch schon ziemlich nahe. Themen wir Genehmigung und Abrechnung dürfen dabei natürlich nicht fehlen.

Viele der global Player wie Citrix (Workspace Suite) und VMware (Workspace Suite) sind gerade dabei solche Lösungen zu entwickeln, weiterzuentwickeln und anzubieten. Wie man sieht haben beide „Großen“ sogar die gleiche Namensidee ;-).

Auch kleinere Anbieter, wie z.B. ASG Software Solutions (Dynamic Hybrid Workspace) haben solche Lösungen im Angebot. Hier wird der Ansatz „alles aus einem dynamischen Arbeitsplatz“ konsequent umgesetzt. Egal ob VDIs von Citrix, VMware, SaaS via Web (Cloud) oder Citrix ICA, MS RDSH oder dem eigenen AppMirror. Alles ist für den Anwender über einen „Workplace“ erreichbar. Selbstverständlich inkl. SSO zu den entsprechenden Anwendungslieferanten. Einmal anmelden – alles nutzen was bereitgestellt wird. Fehlt einmal etwas, dann via CloudStore schauen ob die entsprechende Lösung angeboten wird, online bestellen und (je nachdem) nach Genehmigung direkt in Workspace erhalten.

Abbildung 3: ASG CloudCockpit © by ASG Software Solutions 2015

Abbildung 3: ASG CloudCockpit © by ASG Software Solutions 2015

Everywhere

Was wir nur am Rande betrachtet haben ist das Thema „Mobility“. Heute ist der Applikationszugriff nicht mehr auf den Arbeitsplatz im Unternehmen beschränkt. Themen wie Bring Your Own Device [BYOD], Tablets und nicht zuletzt Smartphones erlangen einen immer höheren Stellenwert. Dort möchte man vielleicht nicht mal mit den Anwendungen aktiv arbeiten, aber min. Daten sichten, präsentieren oder Informationen abrufen. Also sollte der Dynamische Arbeitsplatz auch hier funktionieren. Ebenso im HomeOffice und vielleicht sogar im Internet Cafe. Es ist somit notwendig im Dynamischen Arbeitsplatz zu erkennen von wo der Kollege zugreift und gegebenenfalls dynamisch bestimmte Anwendungen zu sperren bzw. nicht anzubieten.

Wenn dann die lokal installierten Anwendungen auch noch dynamisch im „Workplace“ sichtbar sind haben wir eine neue Art von „dynamsischem Workspace“ erreicht. Stellt sich dann die Frage „Für was brauche ich noch ein fettes Windows?“ Reicht nicht auch ein schmales „Irgendwas“? – Und schon sind wir beim Begriff APP der durch Tablets und Smartphones allgegenwärtig geworden ist. Der Anwender will nichts lange installieren, sondern einfach das nutzen was Er braucht – On demand. Administratoren wollen ebenfalls nicht immer prüfen müssen ob diese Software nun auf jenem Endgerät läuft. Ganz verschwinden wird dieses sicher so schnell nicht, aber immer unbedeutender für jede Art von „normal“ oder „standard“ Software.

Fazit

Ich persönlich nutze ständig solch einen dynamischen Arbeitsplatz und ich muß sagen, das dieses eine feine Sache ist. Sicher gibt es noch viele Wünsche und Verbesserungen, aber auch sehr positive Aspekte. So gibt es bestimmte Anwendungen die ich nur selten benötige und auch nicht auf meinem Notbook installieren möchte. Aus der Cloud, via dynamischen Arbeitsplatz ist das aber kein Problem. Auch von verschiedenen Standorten auf eine – und zwar meine – individuell eingestellte Umgebung zuzugreifen hat was für sich.

Wie seht Ihr dieses Thema? Selbst schon damit beschäftigt oder geplant? Diskussionen werden gern „angenommen“. Sicher bin ich durch meine Arbeit und meinen Arbeitgeber vorbelastet und nicht Wertfrei, aber wer ist das schon 🙂

Anmerkung: Die genannten Hersteller sind rein Exemplarisch gemeint. Ich werde von diesen weder unterstützt noch gesponsort. Es gibt sicher viele weitere Anbieter in diesem Bereich.