vmware Lizenzänderungen – Enterprise Edition verschwindet

In diesem kurzen Artikel möchte ich heute einmal eine weniger technische, aber für viele vmware Kunden und Partner wichtige Änderung besprechen. Ich möchte mich hier nicht auf alle Aspekte beziehen, das können die vmware Distributoren besser🙂. Mir geht es eher um die technischen Auswirkungen die viele vmware Kunden nun bedenken müssen.

Das wichtigste für mich: vSphere Enterprise Edition verschwindet!

Soweit mir bekannt hat vmware zum 1. April 2016 die neuen Preise und somit auch den „Tot“ der vSphere Enterprise Edition umgesetzt.

Vor viel Jahren viel die Advanced Edition auch schon einmal dem Rotstift zum Opfer.

Was bedeutet das nun konkret? Schauen wir mal auf die Funktionen die nun in den verbleibenden Editionen Standard und Enterprise Plus enthalten sind und vergleichen das mit dem was die Enterprise Edition beinhaltet, gibt es doch wichtige, positive wie negative Auswirkungen.

Lizenzen_vSphere6_T1

© by vmware 2016: Funktionsvergleich- vSphere Editionen Teil 1

Lizenzen_vSphere6_T2

© by vmware 2016: Funktionsvergleich- vSphere Editionen Teil 2

Positiv

Alle Standard Kunden erhalten nun endlich auch die Storage APIs for Array Integration [VAAI] und das vmware Multipathing System (vmware Whitepaper). Das ist in Anbetracht der immer besseren Unterstützung durch die Storage Hersteller und der immer wichtigeren Funktionen auch für „kleinere Rechenzentren“ eine schöne Sache. Viele Funktionen können nun an das Storage ausgelagert werden und sollten damit auch schneller und effizienter ablaufen (z.B. Storage vMotion). Multipathing ist eigentlich in jedem produktiven Rechenzentrum ein Muss und daher ebenfalls zu begrüßen.

Negativ

Als persönlich negative empfinde ich den Verlust des „kostengünstigen“ Einsatzes von DRS (Distributed Resource Scheduler). Wenn ich als Kunde diese, wirklich stabile und tolle Funktion, haben will, muß ich auf Enterprise Plus umsteigen, obwohl ich vielleicht gar keinen Bedarf für den Distributed Switch oder Host Profiles habe. DRS dagegen ist in meinen Augen, gerade im Zusammenspiel mit HA, eine äusserst wichtige Funktion! (Siehe dazu HA Beispiel mit stretched Cluster)

Fazit

Meine persönliche Meinung zu diesem Schritt von vmware ist etwas gespalten. Wie schon erwähnt sehe ich die Erweiterung der Standard Edition um die Storage API for Array Integration und Multipathing mit den Anforderungen heutiger RZs und auch kleinerer Kunden als notwendig und sinnvoll. Aus meiner Zeit bei der Distribution hatte ich aber den Eindruck das, vielleicht gerade in Deutschland, viele Kunden auf die Entersprise Edition gesetzt haben und zwar genau aus dem Grunde „Distributed Resource Scheduler“ [DRS]. In allen meinen vSphere ICM Kursen habe ich diese Funktion als „wünschenswert“ im HA Fall vorgestellt, denn HA versucht willkürlich die VMs auf den verbleibenden Hosts zu restarten. Erst DRS sorgt wieder für geordnete Verhältnisse und geg. sogar dafür das Platz für größerer VMs durch Verschieben von anderen VM geschaffen wird. Also eine mehr als sinnvolle Funktion!

Jetzt müssen alle diese vmware Kunden auf Enterprise Plus oder eine der vSOM Editionen wechseln! Das ist mit nicht unerheblichen Kosten verbunden. Mir zeigt es, das vmware immer weniger mit der reinen Virtualisierung a la vSphere und ESXi verdient und daher die bestehenden Kunden „upgraten“ muß. Auf der anderen Seite werden jetzt natürlich auch die Operations Management Editionen [vSOM] immer interessanter.

Hier noch mal der „alte“ Funktionsvergleich:

OldVersions_onlyEditions

© by vmware (aus dem Lizensierungs Whitepaper)

 

Entscheiden Sie selbst was diese Änderung für Sie bedeutet. Meinungen und Feedback würden mich interessieren.

 

 

Konzepte, die entstehen – Konzepte, die vergehen

Nach längerer Abstinenz möchte ich heute ein Thema aufgreifen, welches mich schon einige Monate beschäftigt.

Nach dem Virtualisierungs- Hype reden nun alle von Microsegmentierung und Container a la Docker. Dabei bin ich alles andere als ein Docker Spezialist. Ich habe mir einfach einiges zum Thema Container angelesen und angesehen. Worum es mir in diesem Beitrag geht ist aber ein Nachdenken darüber, welche Konzepte wir im Rechenzentrum / DataCenter [RZ] schon so hinter uns haben und was dabei, vom Grundkonzept her, wieder auftaucht.

Container sind für mich so ein Phänomen. Doch am besten fange ich einfach mal ganz weit vorne an. Also nach IT Massstäben Steinzeit.

(Dieser Artikel erhebt dabei weder Anspruch auf Vollständigkeit, absolut korrekte Darstellung, sondern meine private Ansicht)

Wie das mit dem Großrechner so begann

Der gute alte Mainframe, bis heute in einigen Branchen immer noch die tragende Säule der IT im RZ. Sicher ist ein Mainframe von heute nicht mit dem von vor 20 oder mehr Jahren zu vergleichen aber vom Konzept funktioniert er immer noch so. Sehr effizient aufeinander abgestimmte Komponenten. Dauerbetrieb mit Wartung im Betrieb möglich. Hohe Ein- und Ausgabe Kapazität bei der Bearbeitung von Massendaten.

Sehr alter Mainframe

©pcmag.com – Sehr alter Mainframe

Heute hat der Mainframe sicher gelernt, ähnlich wie die x86 Server, virtuelle Maschinen auszuführen (z.B. Z-Linux auf IBM). Im Prinzip ist die Grundarchitektur aber gleich geblieben.

Nichts desto trotz wurden die Programme als einzelne „Jobs“ auf dem System ausgeführt, jedes in seiner Umgebung, geschedult und von den anderen, wenn gewünscht, abgeschottet.

Die Dezentralisierung des RZ beginnt

Mit dem Aufkommen immer leistungsfähiger Endgeräte (PC’s) kam nun die Idee auf, Aufgaben und Verarbeitung von Daten zu dezentralisieren und auf die PCs auszulagern. Windows™  sei Dank wurde die Bedienung nun auch für „angelernte“ Laien😉 immer einfacher. Problem dabei – viele Dokumente und Daten wurden jetzt im Unternehmen verteilt und waren unter Umständen nur per „Turnschuh“ Transport erreichbar.

Zentrale Datenhalden und Druckdienste

Nun begann die Zeit der zentralen Datenhalden und Druckdienste. Bereitsteller wie NOVELL™ Banyan Vines™ (Wer kennt das noch?) sowie der Anfangs verschmähte Spät-Kommer Windows Advanced Server (später NT und noch später einfach Windows Server 2000 und folgende).

Banyan_Novell_NT

Banyan Vines – Novell Netware – Windows NT Advanced Server

Hier konnte man, wenigstens im Anfang, nur File und Druckdienste, sowie eine zentrale Userverwaltung beziehen. Später kamen dann Versuche dazu, z.B. eine Datenbank auch auf dem Server zu platzieren (Btrieve by Novell usw.). Diese „Dienste“ liefen auf den Servern mit und zwar meist „nicht dediziert“, also mit den File und Druckdiensten zusammen.

Bitte bedenken! Die zentrale Datenverarbeitung machte zu dieser Zeit immer noch der „Host“ im Hintergrund. Nur griff man jetzt nicht mehr per Grün- oder Amber-Terminal auf diesen zu, sondern per Terminalemulation. Davon lebten zu dieser Zeit ein paar Firmen recht gut (Hummingbird etc.).

Für spezielle Aufgaben gab es auch schon die verschiedenen UNIX Anbieter. Graphik war z.B. die Domäne von Silicon Graphics™ und SUN Microsystems™.

Spezialisierte Server Systeme

Nach dieser Phase der „einfachen zentralen Dienste“ starben die ersten Protagonisten dahin und Microsoft startete durch.

Gerade Microsoft schaffte auch eine Art Microsegmentierung😉, denn bis heute ist es ratsam jede Serverfunktion auf eine oder mehrere separate Windows Server Maschinen(physikalisch oder heute VM) zu verteilen. Durch dieses Konzept entstanden plötzlich eine große Anzahl von Server Systemen im RZ. Statt einem großen Host und vielleicht einer Handvoll Peripherie Systemen explodierte die Anzahl der Server im RZ geradezu. Viele klassische IT Abteilungen hatten damit schwer zu kämpfen, zumal zentrale Management Tools noch eher rar waren.

Ausserdem entstand nun eine Art „Religionskrieg“ zwischen den Verfechtern der verschiedenen Systeme.

  • Auf der einen Seite die altvertrauten Host- Menschen mit ihren „Big Iron“ Systemen. Dicke, zuverlässige aber nicht im neuen Sinn flexible Systeme die zudem sehr teuer waren.
  • Auf der anderen Seite diverse UNIX Derivate (SUN Solaris, HP UX, IBM AIX usw.) die jeder den Alleinherrscher- Status beanspruchten (und schlußendlich daran scheiterten!). Alles irgendwie Unix, aber inkompatibel und jeder mit Eigenarten.
  • Und zuletzt Microsoft mit Windows Server, die im Hintergrund so langsam einen Service nach dem anderen übernahmen (sicher auch auf Grund der immer leistungsfähiger werdenden Intel Systeme an sich).
    Aber jeder Service und Dienst wollte hier gern ein eigenes System haben. Angefangen von AD, DHCP, DNS die man noch irgenwie zusammen betreiben kann über Exchange, MS SQL, SharePoint etc. Eben alles was so auf Windows Server lief und läuft.
  • … alle anderen Systeme mit weniger Verbreitung lasse ich hier mal weg. Dieses ist dabei meine private Einschätzung – ohne Wertung im Detail.

Die Virtualisierung beginnt

Durch die immer günstiger werdende Rechenleistung auf x86 Seite schafft es die Lösungsgemeinschaft Intel – Microsoft tatsächlich, daß viele Server Systeme eine nicht unerhebliche Zeit des Tages vor sich hin „ideln“, also mehr mit sich als mit der eigentlichen Aufgabe beschäftigt sind.

Das macht sich vor allem die Firma vmware™ zu eigen und baut einen Hypervisor der es schafft, vielen virtuellen Maschinen vorzugaukeln, sie würden auf dedizierter Handware laufen, obwohl sie zusammen mit anderen auf einem oder wenigen physikalischen Servern leben. Funktionen wie das Verschieben solcher VMs im laufenden Betrieb (vMotion) und vieles mehr räumen jetzt im RZ wieder etwas auf. Die Komplexität wird meiner Meinung nach aber nicht weniger, denn immer neue Services verlangen immer mehr neue VMs die z.T. mit 90% gleichem Basis Stack unterwegs sind.

Man muß bedenken, hier laufen immer noch separate Systeme mit hoher Redundanz, nur eben nicht auf einzelnen physikalischen Servern, sondern gepackt als VM auf mehrere Hypervisoren. Diese bringen selbstverständlich viele viele Vorteile mit sich. Die optimale Ausnutzung der Serverhardware tritt dabei immer mehr in den Hintergrund.

Gerade die immer weiter vordringenden Linux Systeme mit dem klassischen Software Stack (z.B. LAMP := Linux, Apache Webserver, MySQL DB und PHP) bringen uns auf neue „ALTE“ Ideen!

Der Container erscheint

So wie vmware im Virtualisierungs- Umfeld sicher als ein Pionier und Vorreiter gelten darf, kann man die Firma Docker™ für den Bereich Container sehen.

Dabei sind Container, wenigstens unter Unix/Linux eher ein alter Hut.Cgroups und Namespaces sind bekannte Linux Funktionen die hier aufgegriffen wurden und „abgerundet“ als Container Technologie der neue Hype sind.

Docker_und_Co

VMs versus Container

Was haben wir denn nun hier vor uns? Einfach abstrahiert haben wir den einzelnen Applikationen nur die für sie spezifischen System DDLs bzw. Libraries und Umgebungsanteile mitgegeben und führen diese auf EINEM Operating System aus. Also nicht 5 oder 10 vollständige Linux Systeme, sondern nur ein Linux System auf dessen Kernel und Ressource mehrere Applikationen mit Ihrem Applikationsstack laufen.

Gesteuert wird dieses durch die Container Engine. Riesen Vorteil. Die einzelnen Container sind kleine Pakete (im Gegensatz zu einer vollständigen VM) und durch verschiedene Techniken auch noch portabel zwischen mehreren Linux Hosts (bei entsprechender Vorbereitung sogar zwischen verschiedenen Distributionen!).

Haupt Punkt dabei: Das ganze ist aktuell hauptsächlich für Linux Applikationen vorhanden, aber auch Microsoft schraubt an diesem Konzept. Hyper-V 2016 soll es z.B. ermöglichen Docker Container auszuführen.

(Linked Clones verbinden nur Storageseitig mehrere gleichartige Systeme mit einer „Systemplatte“, das ist eine Verbesserung, aber keine vollständige wie Container)

Zusammenfassung

Was macht nun das „Hatten wir schon“ aus? Nach meinem Empfinden haben unsere IT Urgroßväter ihre Programme für den Mainframe (Host) schon damals, ähnlich wie wir heute Container, geplant und betrieben. Alles was Ein- und Ausgabe, Zugriffe auf Netz etc. betraf, lieferte der Host. Die Programme liefen in Ihrer Umgebung als einzelne Jobs die man schedulen und priorisieren konnte und die von Host zu Host, bzw. Hostbereich zu Hostbereich, portabel waren. Genau das Konzept findet man bei Containern wieder.

Für Container spricht die höhere Packungsdichte als bei VMs und das schnelle Starten der Container, da das OS ja schon läuft. Das Thema Sicherheit bedarf dagegen sicher einer separaten Betrachtung. Falls ich mal Zeit finde dazu vielleicht irgendwann mehr.

Somit sind wir vom RZ und dem Host über die Dezentralisierung wieder zurück ins RZ und wenn wir einen „Container-Cluster“ als Host betrachten, auch wieder bei unseren „Jobs“ die nun Applikationen in Containern darstellen. Hochflexibel, schnell zu deployen und in Massen zu betreiben. Alte Host-Hasen werden sich da doch gleich zuhause fühlen (wenigstens vom Konzept her).

Fazit

Diese, zugegeben, mit wenig technischer Tiefe aber dafür mehr Humor dargestellte Evolution vom Host zum Container, hilft vielleicht doch das eine oder andere Neue leichter zu verstehen und durchaus über neue Konzepte im Licht von Bekanntem nachzudenken.

Neben Docker gibt es übrigens auch noch weitere Anbieter solcher Lösungen, wie Kubernetes (Google), LXD (Canonical) oder Rocket/rkt (CoreOS). Auch vmware hat einen“Docker-Basis VM“ im Angebot (Project Photon).

 

 

 

Wahrlich, wahrlich, ich sage euch: Wer mein Wort hört und dem glaubt, der mich gesandt hat, hat ewiges Leben und kommt nicht ins Gericht, sondern ist aus dem Tod in das Leben übergegangen.

Die Bibel (Johannes Evangelium Kapitel 5 Vers 24) Elberfelder Übersetzung – CSV Edition

An dieser Stelle, wie jedes Jahr, möchte ich allen Lesern, Freunden und Kollegen ein paar besinnliche und ruhige Stunden zum Ausklang des Jahres wünschen. Ebenso ein erfolgreiches und gesundes 2016.

Den oben angeführten Vers aus der Bibel, GOTTES WORT an uns Menschen, spricht mein HERR Jesus. ER wurde von Gott gesandt, um durch seinen Opfertod Versöhnung mit einem heiligen Gott zu ermöglichen, und so uns Menschen vor dem ewigen Gericht Gottes zu bewahren.

Auch wenn dieses in den Augen vieler Mitmenschen alt, unglaubwürdig und nicht mehr zeitgemäss erscheint, Gott ändert sich NIE! Sein Wort bleibt bestehen, ob wir Menschen das glauben wollen oder nicht. (siehe dazu Römer 3 Vers 23: „..denn alle haben gesündigt…“)

Wenn wir nun den HERRN Jesus als von GOTT gesandt annehmen und uns unter seine wunderbare Rettungstat stellen, finden wir Frieden und Errettung vor Gottes Gericht. Wir werden von Gott sogar kostenlos und ohne Vorbehalte angenommen und  dürfen uns nun Kinder Gottes nennen. (siehe 1. Johannes 3 Vers 1: „Seht, welch eine Liebe uns der Vater (Gott selbst) gegeben hat, dass wir Kinder Gottes heißen sollen!“)

Gott rechnet dann keine Sünde mehr zu, denn Jesus Christus hat diese getragen und gesühnt. (siehe Römer 4 Vers 8: „Glückselig der Mann, dem der HERR (Gott) Sünde nicht zurechnet!“) Kommen Sie daher noch heute zu Jesus Christus, bekennen Sie Ihre Schuld vor Gott und bitten Sie um Vergebung.

Bitte denken Sie darüber nach und lesen Sie die Bibel – Gottes Wort!

In diesem Sinne wünsche ich allen Lesern ein paar ruhige und besinnliche freie Tage und ein erfolgreiches 2016!

 

Erfahrungsbericht: vmware VCP6-DCV Delta Exam

Veröffentlicht: 14. Dezember 2015 in Virtualisierung

vmware VCP6-DCV Delta Exam – ein paar Eindrücke

Mir ist es tatsächlich gelungen ein wenig Zeit zu finden meine Rezertifizierung für den vmware VCP durchzuziehen😉. Auf Grund der gemachten Erfahrungen möchte ich heute einfach mal ein paar Eindrücke weitergeben. Vielleicht hilft es ja dem einen oder anderen der auch noch vor diesem Examen steht.

Die Zeiten des „vmware VCP“ sind ja schon einige Zeit vorbei. Seit ein paar Jahren gibt es verschiedene VCP’s. Ich beziehen mich hier auf den DCV oder „Data Center Virtualization“ VCP. Für mich immer noch die Mutter aller VCP’s, denn hier wird die Virtualisierungsplattform an sich abgefragt. Also vSphere V6 mit ESXi, vCenter, Storage (vSAN!), Netzwerk Anbindung (auch etwas NSX) sowie den Grundlagen des Resourcemanagements. Es schadet nichts noch mal einen Blick in meinen alten Artikel „vmware Resource Management – Shares was ist das?“ zu werfen🙂.

Voraussetzungen

Kurz zu den Voraussetzungen. Wer noch einen bestehenden VCP5 oder VCP5.5 hat, kann z.Z. noch das sogenannte VCP6-Delta Exam machen. Ich habe dieses gemacht, muß allerdings sagen, das mir der wirkliche Vorteil nicht so recht klar wurde. Im Gegenteil, ich hatte eher den Eindruck das dieses Exam keineswegs leichter war, sondern das es sogar wirklich für Leute gedacht ist die schon Erfahrung mit älteren vmware vSphere Versionen haben. Die Zeit ist genauso lang, die Anzahl der Fragen ebenfalls und der „Schweregrade“ eher angehoben.

Alles weitere zu den Vorbedingungen findet Ihr hier „Certification Path: Data Center Virtualization„.

Ach ja, noch ein wichtiger Hinweis: um das Delta Exam machen zu können braucht Ihr eine Autorisierung von vmware Education. Die könnt Ihr online anfordern und benötigt dazu Eure „Candidate ID„. Die wiederum  findet Ihr im MyLearn Portal. Die Autorisierung hat bei mir max. 1 Stunde gedauert. 

vmware Education Infos zum VCP6 DCV Delta Exam © by vmware

vmware Education Infos zum VCP6 DCV Delta Exam © by vmware

Quellen zur Vorbereitung

Quellen zur Vorbereitung sind ja immer gern gesehen. Als „noch“ VCI natürlich der Hinweis auf den „Blueprint“ den man online auf der Web Seite des Exams  unter

ExamTopics

findet. Diese Infos sind sehr sehr wichtig! Bitte genau beachten! Hier steht welche Themenbereiche im Exam abgedeckt werden und welche nicht.

Des weiteren habe ich die Dokumente „What’s New in the VMware VSphere 6.0 Platform“ und „What’s New in VMware vSphere 6 – Performance“ für hilfreich empfunden.

Wer noch nie mit vSAN gearbeitet hat, dem kann ich nur wärmsten den Blog von Duncan Epping „Yellow-Bricks.com/virtual-san“ empfehlen. Für NSX eher den vmware Blog Bereich zum Thema „The Network Virtualization Blog„.

Ich hatte das Glück von vmware einen Voucher für die „Learning Zone“ und zwar die Premium Subskription zu erhalten. Hier gibt es ein spezielles eLearning (mehrere Video Tutorials) die zum großen Teil sehr gut gemacht sind und viele Tipps zum Exam beinhalten. Vielleicht ja ein Anlass mit dem Chef mal über einen „spezial Bonus“ mit Nutzen für die Firma zu sprechen😉.

Unautorisierte Quellen wie die allseits diskutierten „Braindumps“ können Hinweise geben wo Schwerpunkte liegen sind aber immer kritisch zu sehen.

Ich empfehle hier immer offizielle Hilfen, wie z.B. das Practice Exam „2V0-621D Practice Exam “ eine Art Vortest um einfach unverbindlich mal zu sehen ob man schon gut vorbereitet ist. Hier werden im Ergebnis nicht nur gezeigt was falsch beantwortet wurde, sondern es werden auch Hinweise auf entsprechenden Unterlagen gegeben (inkl. Links). Ihr findet dieses unter „How to prepare„.

Hinweise

Nun noch ein paar Hinweise aus eigener Erfahrung mit dem Exam. Diese sind natürlich individuell und beziehen sich ausschließlich auf die Fragen die ich im meiner Prüfung zu beantworten hatte.

  • vCenter Installation: Hier wurde auf den neuen Konstrukt mit dem PSC eingegangen. Gerade die verschiedenen Installationsmöglichkeiten des vCenter Servers mit dem „Platform Service Controller [PSC]“ und allen anderen Komponenten solltet Ihr Euch ansehen. Auch was nicht mehr unterstützt wird (OpenSSL!). Hier war das Video aus der Learning Zone ein echter Glücksfall, denn genau solche Fragen kamen dran. Die vCenter Appliance tritt auch immer mehr in Erscheinung, auch in Form von Upgrade und Installationsfragen.
  • Security: Der gesamte Bereich Security mit User und AD Abbindung ist sehr wichtig, denn auch hier sind ein paar Änderungen zur 5.x da. AD User und die Integration von ESXi Host in das AD mit entsprechenden Auswirkungen auf User und Rechte waren mit mehreren Fragen vertreten.
  • vSAN war nur mit ein paar grundlegenden Fragen vertreten, die eigentlich jeder VCP wissen sollte. vSAN Fault Domains z.B. sollte man vom Prinzip verstanden haben. Duncan Epping sei dank ist das aber gut zu lernen.
  • Szenarien: Ich fand, das in meinem Exam aussergewöhnlich viele „Exhibits“ vorkamen, also Screenshots oder Grafiken welche die Frage unterstützen, bzw. auf welche die Frage aufbaut.
    Der vSphere Client ist hierbei TOT! Es ist also wirklich Zeit sich mit dem WebClient zu befassen.
  • Deep Dive: Es gab ein paar wenige Fragen in denen Commandline Ausdrücke oder Schalter abgefragt wurden. Dieses finde ich immer recht fies, da alle „Nicht täglich Administrierer“, so wie ich hier durchaus Probleme bekommen können. Das kann man schließlich nicht alles auswendig lernen. Wer täglich in größeren Umgebungen Arbeitet hat da weniger Probleme, es sei den Er hasst die Command-Line (was in meinen Augen grundsätzlich ein Fehler ist ;-)).

Fazit

Wer sich von diesem Artikel die 100% Erfolgstipps erwartet hat, den muß ich enttäuschen. Wer ein paar praktische Erfahrungen und Hinweise sucht, hat die sicher erhalten. Ich denke das mit ein wenig Vorbereitung und etwas Mut das Exam zu schaffen ist. Ob man nun das Delta Exam oder das „Normale“ VCP6 DCV Exam macht muß jeder Berechtigte selbst entscheiden. Wer im Daily Businsess aktiv mit vSphere 6 arbeitet sollte eigentlich keine unüberwindlichen Probleme habe. Die vmware Learning Zone wir immer interessanter, besonders wenn kein „Kurszwang“ vorliegt. Hier kann man schön individuell das ansehen was man braucht, oder meint zu brauchen.

In diesem Sinn – VIEL ERFOLG!!!

 

Hyperconvergence – der neue Hype?

Nach längerer Pause möchte ich heute mal wieder ein aktuelles Thema aufgreifen und ein paar Grundlagen und Gedanke dazu vorstellen.

Es geht um das Thema Hyper-konvergente Systeme. Was ist das? Was machen diese Systeme? Wie sind sie aufgebaut?  und was bringt mir das?

Was sind Hyper-konvergente Systeme?

Hyper-konvergente Systeme sind im ersten Ansatz x86 basierte Hardware die verschiedene Komponenten aus einem Rechenzentrum vereinen. Hier werden, simpel ausgedrückt, Computing Leistung (CPU und RAM) mit Netzwerkfunktion und Storage verbunden. Dieses alles in einer Box.

Ziel ist es IT Infrastruktur zu vereinfachen und so auf Administrativer Seite einfachere Strukturen zu etablieren, Man könnte es mit „Alles aus einer Hand“ umschreiben. Dieses greift, für die doch komplexe Idee natürlich als einzelnes Schlagwort, zu kurz.

In einem älteren Artikel habe ich das Thema im Prinzip schon einmal angesprochen (Zukunft der Ressourcen im RZ). Hier ging es zwar primär um die Last am Hypervisor, aber wir werden sehen das ein Hyper-konvergentes System nicht so viel anders zu betrachten ist.

Abbildung 1: Hyper-konvergente Systeme - OHNE und MIT Management Funktionalität

Abbildung 1: Hyper-konvergente Systeme – OHNE und MIT Management Funktionalität

Was machen diese Systeme ?

Hyper-konvergente Systeme sind DIE Verwirklichung des Software defined Data Centers [SDDC]. Hier wird vor allem Storage und Netzwerk in Software gegossen und realisiert. Grundlage dafür sind (z.B. im vmware Jargon) vSAN und NSX bzw. allgemein Software defined Network [SDN]. Erst diese Lösungen ermöglichen es die ehemaligen RZ Bereiche Storage und Netzwerk auch in die Hyper-konvergente Appliance zu packen. Das ganze wird vom Hypervisor „zusammengehalten“, dieser sorgt für die Ressourcenverteilung und die Orchestrierung.

Nun gibt es Hyper-konvergente Systeme die „nur“ die einzelnen Silos in einer Box zusammenfassen und alles weiter weitgehend der Virtualisierungsplattform überlassen. Andere bieten spezielle Management Lösungen auf, oder für das entsprechende System. Anbieter sind hier z.B. Simplivity, Nutanix oder vmware EVO:RAIL um nur einige zu nennen.

Wie sind sie aufgebaut?

Wie bereits angedeutet machen echte Hyper-konvergente Systeme nicht einfach eine Zusammenfassung der RZ Silos: Computing, Storage und Networking in eine Box oder Appliance aus. Diese Funktionen werden sehr oft auch durch spezielle physikalische Einschübe und Karten unterstützt und ergänzt. So sind eingebaute Switche, Karten zur Hardware unterstützten Deduplizierung, Replikation usw. anzufinden.

Gerade die Funktionen des eingebauten Managements sind die tatsächlichen Plus Punkte welche die Systeme einerseits unterscheiden, andererseits aber auch erst zu den Hyper-konvergenten Lösungen machen.

Problem hierbei ist, das meines Wissens nach nur Lösungen eines Anbieters miteinander kompatibel sind! Hier gilt es zu prüfen ob man die Abhängigkeit von einem Anbieter will und ob dieser auch das anbietet was man braucht. Bitte daran denken, das Sie vielleicht in einem  ½ oder 1 Jahr größere oder andere Systeme brauchen die der gewählte Anbieter so vielleicht nicht bereitstellen kann. Ein Anbieterwechsel wird dann aufwendig und unter Umständen auch sehr teuer.

vmware EVO:RAIL ist hier eine kleine Ausnahme, da hier verschiedene Anbieter vorhanden sind, die diese „Definition“ unterstützen.

Was bringt mir das?

Tja, was bringt mir nun der Einsatz einer Hyper-konvergenten Plattform? Vor allem eine Vereinfachung der Systemlandschaft im RZ. Wenn denn alle mitspielen😉. Denn typischerweise reissen Sie vorhandene Team- und Aufgabenstrukturen auseinander bzw. ein. Mit einer Hyper-konvergenten Plattform haben plötzlich Netzwerkadministratoren oder Storageexperten keine, bzw. andere Aufgaben. Also bitte dieses vorher in Betracht ziehen und sehen wie die Kollegen eingebunden bzw. „verändert“ werden können.

Die Hersteller sprechen oft davon, das Hyper-konvergente Systeme eben keine „Spezialisten“ mehr benötigen. Dieses ist zweischneidig (siehe oben) und nicht ganz so einfach wie dargestellt. Sicher lässt sich ein vSAN mit wenigen Mausklicks und Konfigurationen auch von Storage „Laien“ erstellen. Brauche ich daher keine „Kenner der Materie“ mehr? Ich denke nicht. Gerade im virtuellen Netzwerkbereich hilft mir z.B. NSX dabei schnell und konsistent auf Anforderungen zu reagieren, aber ohne Netzwerkkenntnisse geht es nicht. Ausserdem – was mache ich im Falle eines Fehlers oder Problems? Fachwissen ist immer noch mehr als nützlich und notwendig. Nur werden mit diesen Systemen die „KnowHow Silos“ aufgebrochen. Gut ist es wenn ein Team nun sowohl Netzwerker, als auch Storage Spezialisten und Kenner der Hypervisor Plattformen beinhalten.

Wenn alles passt gewinnen Sie tatsächlich eine höhere Dynamik bei Erweiterungen und Änderungen im RZ. Wie so oft werden hier wieder die OPEX Kosten in der Fokus geraten.

Ausserdem eigenen sich Hyper-konvergente Lösungen nicht für jede Art von Workload und Anforderung. Daher muß sicher „noch“ nicht jeder Storageexperte um seinen Job bangen, Weiterbildung kann aber nie schaden😉.

Vorteile

Hyper-konvergente Syteme sind Lösungen für virtuelle Umgebungen. In virtuellen Umgebungen steht die VM im Mittelpunkt, der Workload der einzelnen VM ist mit klassischen Lösungen aber nicht, oder nur sehr schwer zu messen und zu steuern.

Beispiel Storage: Früher hatte jeder physikalische Server seine entsprechenden Storage Anbindungen. Der Datenbank Server eher schnelle LUNs für die Logpartitionen. Der Fileserver dagegen eher mehr „Masse“ als Geschwindigkeit. Packt man virtuellen Load auf „klassische“ physikalische Umgebungen geht viel Potential verloren. Eine LUN die 5-10 VMs hostet kann entweder für die einen gut und die anderen schlecht konfiguriert werden, oder ein Mittelmass für alle bereitstellen.

Policie driven ist hier der Ansatz den Hyper-konvergente Lösungen fahren. Je nach VM und „Leistungs- oder Anforderungsparametern“ werden diese optimiert platziert und betrieben (Netzwerkbandbreite, Storage IOPS usw.) je nachdem was die Lösung bereitstellen kann.

Welche Szenarien sind gut für Hyper-konvergente Lösungen?

Aus meiner Sicht vor allem zwei Bereiche:

  1. Unternehmen mit vielen kleineren Standorten: Hier bieten die meisten Hersteller eine deutliche Vereinfachung in den Rechnerräumen (vom RZ zu sprechen ist hier oft übertrieben) der Zweigstellen oder kleinen Standorte. Nun stehen ein oder zwei 2U Systeme statt mehrere Hosts, Switche und Storage Systeme im Rack. Auch bestehen oft Funktionen um die Aussenstellen mit einer Zentrale oder untereinander zu backupen oder zu synchronisieren. Die Management Funktionen der Systeme sind hier besonders zu betrachten. Wir alles einfacher zu administrieren und zu monitoren?
    Hier kommen auch die gern genannten „einfach zu installierenden“ Systeme zum Tragen. Gerade in abgesetzten Standorten gibt es eben nicht das Spezialisten-Team. Hier sind diese Systeme oft im Vorteil.
  2. Mal wieder die oft strapazierten VDI (Virtual Desktop Infrastructure) Umgebungen, denn meist ist es simpel zusätzliche Ressourcen in Form von weiteren Appliances in einen bestehenden Verbund Hyper-konvergenter Systeme einzubinden (natürlich nur vom gleichen Hersteller!). Somit ist eine Skalierung recht einfach durchzuführen. Auch hier gehört wieder ein kritischer Blick auf die Management Lösungen der Appliances.

Knackpunkte

Wie jede Lösung haben auch die Hyper-konvergenten Systeme einige Knackpunkte die vor der Anschaffung genau untersucht und bedacht werden müssen. Einige habe ich schon angesprochen.

  • Prüfen Sie die Zuständigkeiten und Strukturen ihrer IT! Nichts macht mehr Probleme als Mitarbeiter oder Kollegen die um Ihre Position oder gar Stelle bangen. Der Storage Kollege der sich überflüssig fühlt oder der Netzwerker der sich übergangen fühlt machen Ihnen spätestens im Nachgang große Probleme.
  • Die Anforderungen an die unterschiedlichen Workloads Ihrer IT Systeme sollten im Vorfeld bekannt oder ermittelt werden. Leistet die angedachte Lösung alles was Sie benötigen? Oder ist die Hyper-konvergente Lösung nur für einen bestimmten Bereich sinnvoll (warum auch nicht, nicht immer muß man alles auf einmal ändern).
  • Erweiterung der Infrastruktur! Haben Sie bereits 10GB Netzwerke in allen Standorten? SDN und virtual SAN funktionieren nur sinnvoll mit dieser Bandbreite. Also zur Investition auch gegebenenfalls neue 10GB Switche + Kabel + Zubehör hinzurechnen. (Manche Hyper-konvergenten Systeme beinhalten echte physikalische Switche, die ersetzten aber keine redundanten separaten Switche!)
  • Redundanz: Auch Hyper-konvergente Systeme arbeiten erst ab min. zwei Systemen redundant! Also „mal ein System anschaffen und sehen was es bringt“ ist nicht möglich.
  • Wie passen die Hyper-konvergenten Systeme grundsätzlich in die Systemlandschaft (Backuplösungen, Administration und Management, Monitoring etc.)

Fazit

Wie man vielleicht aus diesem kurzen Beitrag entnehmen kann, bieten die Hyper-konvergenten Systeme im gut geplanten und richtigen Umfeld viele entscheidende Vorteile. Um diese zu nutzen gibt es aber doch eine ganze Menge zu beachten und zu planen. Wie immer ist eine gute Vorarbeit das halbe Projekt. Vergleichen Sie nicht nur stumpf Funktionen, versuchen Sie vielmehr Anbieterlösungen an Hand von konkreten Anforderungsliste zu vergleichen und durchaus auch den einen oder anderen PoC (Proof of Concept) anzufragen.

Applikationen zum Anwender – was ist was in der Cloud?

In diesem Beitrag möchte ich ein Thema, welches z.Z. sehr viele IT-Verantwortlich beschäftigt etwas näher betrachten. Es geht um die Themen Desktop as a Service [DaaS] bzw. Software as a Service [SaaS].

Dabei geht es mir nicht um spezielle Herstellerlösungen, sondern um die unterschiedlichen Ansätze, Ziele und Bereitstellungen von Anwendungen. Viele IT „Menschen“ sind sich einig, das die klassische PC Architektur mit Applikationsinstallationen auf jedem Arbeitsplatz PC veraltet, aufwändig und teuer ist. Spätestens seit den klassischen Terminalserver Lösungen gibt es (auch für Windows Anwendungen) andere, vielleicht bessere Lösungen. Mit dem Aufkommen der VDI (Virtual Desktop Infrastucture) ist die Diskussion scheinbar omnipräsent.

Unterschiede DaaS – SaaS

Lasst uns kurz die beiden unterschiedlichen Ansätze betrachten, die sich heute nicht gegenseitig ausschließen, sondern durchaus ergänzen können.

DaaS

Desktop as a Service wird von vielen als die Weiterentwicklung des VDI Gedanken in die Cloud verstanden. Wenn wir hier aber von der Cloud als Private-, Public- und Hypride-Cloud sprechen, dann ist eine VDI Umgebung eine DaaS Lösung.

VDI bzw. DaaS bedeutet im ersten Schritt nichts anderes, als das man den Klassischen Windows Arbeitsplatz PC als Virtuelle Maschine im Rechenzentrum betreibt und auf diesen per RDP, ICA, oder den „High End“ Protokollen HDX bzw. PCoIP zugreift. Komplett umgesetzt haben die Anwender auch keinen PC mehr, sondern einen Thin- oder Zero-Client welcher sehr einfach aufgebaut, zu warten und zu supporten ist. Die Komplexität wandert vom Arbeitsplatz ins Rechenzentrum (Terminals lassen herzlich grüßen ;-)). Natürlich bieten die verschiedenen VDI Plattformen weitere Möglichkeite um den Betrieb der Virtuellen Desktops zu optimieren, zu managen (updates etc.) und den Zugriff zu steuern. Stichworte sind hier: Sessionbroker, Linked Clones, Deployment Groups usw.). Diese soll ja kein VDI Lernartikel werden😉

Somit haben wir bei DaaS einen kompletten Desktop der „nur“ als VM im Rechenzentrum oder bei einem DaaS Provider läuft. Applikations Deployment ist erst einmal aussen vor.

Normalerweise werden VDs schon aus einem Template mit allen Standardapplikationen deployed (Golden Image). VMware’s „App Volumes“ sind da eine konsequente Weiterentwicklung. Virtuelle Platten mit installierten Applikationen!

Abbildung 1: Desktop as a Service DaaS

Abbildung 1: Desktop as a Service DaaS

SaaS

Software as a Service ist im Gegensatz zu DaaS aber „nur“ die Bereitstellung von einzelnen Applikationen über verschiedene Wege. Das kann eine reine WebApplikation (Web-Mail, Salesforce usw.) sein, oder auch eine Applikation die von einem Applikationsserver (Microsoft RDSH oder Citrix XenApp) bereitgestellt werden.

Hier arbeitet der Anwender z.B. an seinem „normalen“ PC oder Notebook und bekommt gewisse Anwendungen eben nicht lokal installiert, sondern Remote per Web-Browser, ICA- oder RDP Client bereitgestellt. Eigentlich ein alter Hut, denn das klassische Terminalprogramm welches Host Applikationen am PC bearbeitbar macht ist erst mal nichts anderes.

Abbildung 2: Software as a Service SaaS

Abbildung 2: Software as a Service SaaS

In Zeiten von WebMail, Google-Apps, Salesforce und vielen anderen Anbietern von Software die direkt im Browser läuft ist der SaaS Gedanke Realität, wird nur von vielen nicht als solcher wahrgenommen. Die lokal installierte Anwendung unter Windows (oder auch Linux) ist nur eine von vielen Möglichkeiten und nicht mehr die einzige massentaugliche. Gerade Web-basierte Anwendungen lassen sich auch am einfachsten an mobile Endgeräte wie z.B. Smartphones anpassen. Hier stehen oft die taktilen Fähigkeiten von uns Menschen im Konflikt mit Applikationen die nicht für dieses Format erstellt wurden.

Zusammenfassung

Somit unterscheiden sich DaaS und SaaS dadurch, das bei DaaS ein kompletter (typischerweise Windows) Desktop pro Anwender betrieben wird, während bei SaaS nur Applikationen aus dem Rechenzentrum bzw. der Cloud bezogen werden. Eine Mischung aus beiden ist daher eine durchaus interessante Überlegung.

Der Dynamische Arbeitsplatz – aus dem RZ bzw. der Cloud

Nach der kurzen Einführung möchte ich nun das Szenario aus DaaS und SaaS ein wenig weiter betrachte. Schauen wir uns doch erst einmal an um was des bei den ganzen Entwicklungen geht.

Da sind verschieden „Mitspieler“ und deren Wünsche und Ziele:

A: Der Anwender
Der Anwender möchte seine Arbeit erledigen, sein bekannten oder neuen Applikationen im schnellen Zugriff haben und sich einen Arbeitsplatz ein wenig (oder auch etwas mehr😉 ) individualisieren. Man denke nur an die netten Hindergrundbilder usw. Möglicherweise möchte der Anwender auch eigene Applikationen nutzen (dieses sind oft Freeware Tools an die mach sich gewöhnt hat, da diese das Leben wirklich oder scheinbar erleichtern). Dieses natürlich nur soweit erlaubt.
Woher eine Anwendung kommt interessiert den Anwender, wenn überhaupt, dann nur zweitrangig. Sie muß eben verfügbar sein, schnell starten und sich „sehr lokal“ anfühlen.

B: Die IT Abteilung und das Unternehmen
Die IT Abteilung und das Unternehmen haben selbstverständlich etwas andere Ziele. Applikationen die den Anwendern eine effiziente und gute Erledigung der Aufgaben ermöglichen sind sicher auch ein Aspekt. Darüberhinaus stehen aber, wie immer, zwei wichtige weitere Faktoren im Raum.
Der erste ist wie immer – das Geld – hier geht es um Betriebskosten und Support der bereitgestellten Anwendungen. Der zweite Punk ist in den meisten Fällen das Thema – Sicherheit. Wer darf was, wer bekommt welche Anwendungen und vor allem, welche Daten müssen auf alle Fälle im Unternehmen bleiben und welche müssen mit Partnern, Kunden, Lieferanten usw. ausgetauscht werden. Bezogen auf den IT Arbeitsplatz gilt hier auch der Punkt: Wie können Supportkosten für den Anwendersupport, Ausfallzeiten usw. möglichst klein gehalten werden. Es gibt hier sicher noch mehr wichtige Aspekte, die Aufzählung erhebt keinen Anspruch auf Vollständigkeit!

Möglichkeiten die DaaS und SaaS bieten

Was haben wir nun für Möglichkeiten durch die Nutzung von DaaS und SaaS Lösungen?

Ein virtueller Desktop, der im Rechenzentrum läuft, überträgt zum Endanwender erst mal nur seinen Bildschirm. Daher kann dieser sehr leicht sicher gemacht werden. Wenn es keine Möglichkeit gibt z.B. USB-Sticks in die VM zu reichen ist dieser Desktop recht dicht. Allerdings ist diese Lösung nicht für alle Anwender praktikabel. Der sogenannte „PowerUser“ braucht geg. auch mehr Freiheiten und nicht jede Applikation läuft schon zufriedenstellend „Remote“. Auch in Zeiten von PCoIP und HDX ist nicht jedes Netzwerk in der Lage die entsprechende „Userexperience“ für z.B. ein Photoshop oder ein CAD/CAM System bereitzustellen. Hier spielt das Thema Latenzen eine große Rolle, ausserdem müssen die Endgeräte z.B. Grfikseitig in der Lage sein mehrere Monitore zu bedienen. Das „schmalbrüstige“ Low-End Gerät fällt hier flach. Die Thin-Client Hersteller habe aber auch hier wartungsfreundliche und trotzdem leistungsfähige Geräte im Angebot (z.B. IGEL, DELL/WySE, HP und viele andere). Somit landen wir beim oben genannten „Dynamischen Arbeitsplatz„.

Ein Anwender nutzt dabei z.B. wie gehabt einen Windows Arbeitsplatzrechner, bezieht aber alle Standard Office Anwendungen via ICA/RDSH, einige weitere Anwendungen via Browser aus der „Cloud“. Spezielle Sicherheitskritische Anwendungen über einen VDI Desktop usw.

Zentrale Problem dabei: Wer verwaltet den Zugriff auf diese unterschiedlichen „Darreichungsformen“ und wie kann man den Anwender davon befreien viele viele Logins durchzuführen? Für letzteres werden nun viele rufen „Nutz doch einfach Single Sign On [SSO]“ aber SSO ist weder einfach noch für alles verfügbar. Wäre da ein Web basierter dynamischer „Arbeitsplatz“ der alle benötigten Anwendungen anbietet, dabei einen „Individualisierung Freiraum“ bietet und SSO inkl. verschiedener Authentifizierungen anbieten keine gute Idee?

Wenn diesem dann auch noch ein Self-Service Shop zur Seite gestellt wird, in dem man zusätzliche Anwendungen und Services einfach und transparent zu buchen kann, kämen wir der Ideallösung doch schon ziemlich nahe. Themen wir Genehmigung und Abrechnung dürfen dabei natürlich nicht fehlen.

Viele der global Player wie Citrix (Workspace Suite) und VMware (Workspace Suite) sind gerade dabei solche Lösungen zu entwickeln, weiterzuentwickeln und anzubieten. Wie man sieht haben beide „Großen“ sogar die gleiche Namensidee😉.

Auch kleinere Anbieter, wie z.B. ASG Software Solutions (Dynamic Hybrid Workspace) haben solche Lösungen im Angebot. Hier wird der Ansatz „alles aus einem dynamischen Arbeitsplatz“ konsequent umgesetzt. Egal ob VDIs von Citrix, VMware, SaaS via Web (Cloud) oder Citrix ICA, MS RDSH oder dem eigenen AppMirror. Alles ist für den Anwender über einen „Workplace“ erreichbar. Selbstverständlich inkl. SSO zu den entsprechenden Anwendungslieferanten. Einmal anmelden – alles nutzen was bereitgestellt wird. Fehlt einmal etwas, dann via CloudStore schauen ob die entsprechende Lösung angeboten wird, online bestellen und (je nachdem) nach Genehmigung direkt in Workspace erhalten.

Abbildung 3: ASG CloudCockpit © by ASG Software Solutions 2015

Abbildung 3: ASG CloudCockpit © by ASG Software Solutions 2015

Everywhere

Was wir nur am Rande betrachtet haben ist das Thema „Mobility“. Heute ist der Applikationszugriff nicht mehr auf den Arbeitsplatz im Unternehmen beschränkt. Themen wie Bring Your Own Device [BYOD], Tablets und nicht zuletzt Smartphones erlangen einen immer höheren Stellenwert. Dort möchte man vielleicht nicht mal mit den Anwendungen aktiv arbeiten, aber min. Daten sichten, präsentieren oder Informationen abrufen. Also sollte der Dynamische Arbeitsplatz auch hier funktionieren. Ebenso im HomeOffice und vielleicht sogar im Internet Cafe. Es ist somit notwendig im Dynamischen Arbeitsplatz zu erkennen von wo der Kollege zugreift und gegebenenfalls dynamisch bestimmte Anwendungen zu sperren bzw. nicht anzubieten.

Wenn dann die lokal installierten Anwendungen auch noch dynamisch im „Workplace“ sichtbar sind haben wir eine neue Art von „dynamsischem Workspace“ erreicht. Stellt sich dann die Frage „Für was brauche ich noch ein fettes Windows?“ Reicht nicht auch ein schmales „Irgendwas“? – Und schon sind wir beim Begriff APP der durch Tablets und Smartphones allgegenwärtig geworden ist. Der Anwender will nichts lange installieren, sondern einfach das nutzen was Er braucht – On demand. Administratoren wollen ebenfalls nicht immer prüfen müssen ob diese Software nun auf jenem Endgerät läuft. Ganz verschwinden wird dieses sicher so schnell nicht, aber immer unbedeutender für jede Art von „normal“ oder „standard“ Software.

Fazit

Ich persönlich nutze ständig solch einen dynamischen Arbeitsplatz und ich muß sagen, das dieses eine feine Sache ist. Sicher gibt es noch viele Wünsche und Verbesserungen, aber auch sehr positive Aspekte. So gibt es bestimmte Anwendungen die ich nur selten benötige und auch nicht auf meinem Notbook installieren möchte. Aus der Cloud, via dynamischen Arbeitsplatz ist das aber kein Problem. Auch von verschiedenen Standorten auf eine – und zwar meine – individuell eingestellte Umgebung zuzugreifen hat was für sich.

Wie seht Ihr dieses Thema? Selbst schon damit beschäftigt oder geplant? Diskussionen werden gern „angenommen“. Sicher bin ich durch meine Arbeit und meinen Arbeitgeber vorbelastet und nicht Wertfrei, aber wer ist das schon🙂

Anmerkung: Die genannten Hersteller sind rein Exemplarisch gemeint. Ich werde von diesen weder unterstützt noch gesponsort. Es gibt sicher viele weitere Anbieter in diesem Bereich.

 

Dieser kurze Beitrag ist eine Art Demo um interaktive MAPs oder Bilder zu testen.

ASG CloudFactory 8.x Mini Architekturbild

ASG CloudFactory 8.x Mini Architekturbild

EInfach auf das Bild klicken und die interaktive Ansicht ausprobieren.

Modernes Lernen – Lern-Management-Systeme [LMS]

Heute möchte ich mal über etwas ganz anderes als die klassische Virtualisierung schreiben, wobei ich selbst eLearning auch als eine Art „virtuelles“ lernen betrachte. Wie einige ja mitbekommen haben ist die Entwicklung und Beratung innerhalb meines Arbeitgebers für alle Fragen zu Trainings und Workshops mein Aufgabengebiet. LMS System haben mich aber schon länger interessiert, da ich selbst glaube das heute vieles (nicht alles!) interaktive und online vermittelt werden kann. Die klassischen Classroom Trainings gehen deutlich zurück. Schaut man sich zum Beispiel die neuen Angebote von vmware, Citrix und Microsoft an, dann sieht man wohin die Reise geht. Live Online mal gar nicht eingerechnet.

Um was geht es mir in diesem Artikel?

eLearning – Online @Home oder im Office

eLearning in Form von YouTube etc. Videos kennt mittlerweile sicher jeder (zumindest in der IT). Warum für jedes neue Thema einen Kurs besuchen? Mit all den Dingen die dazugehören. Kurs suchen – wo wird welcher angeboten? Kurs buchen – findet der auch statt? Gibt es ein passendes Hotel in der Nähe und wie komme ich dort hin (Auto, Bahn, Flugzeug)? Außerdem findet der Chef es vielleicht nicht so gut wenn ich gerade dann für ein paar Tage ausfalle und auch noch Kosten erzeuge statt zu kontieren.

Wer kennt das nicht. Wieviel einfacher ist es doch sich online, direkt vom Schreibtisch aus weiterzubilden? Das dazu aber auch Zeit, Ruhe und ein gehöriges Mass an Selbstdisziplin gehört lassen wir mal aussen vor.

Anforderungen an Online Learning / eLearning

Sowohl als Anbieter, als auch als Teilnehmer (Student) habe ich gewisse Anforderungen an Online Learning. Ich lasse jetzt mal kostenlose Video Schnippsel als Tutorials aussen vor. Hier geht es um professionelle Lernangebote die auch entsprechende Umgebungen für Lernende und solche die Trainings erstelle bereithalten.

Aus Sicht des Lernenden

Als Lernender möchte ich natürlich vor allem exzellentes Material vorgesetzt bekommen, diese betrifft Aktualität, Darstellung und Verständlichkeit. Ich möchte aber auch die Möglichkeit haben die einzelnen Module oder Abschnitte des Trainings/Kurses im Auge zu haben. Anmerkungen festhalten, Fragen stellen und mit anderen die das gleiche Training besuchen oder besucht haben diskutieren usw. Rund herum also eine gute und leicht zu bedienende Trainingsumgebung. (Ich erhebe keinen Anspruch auf die Vollständigkeit aller Wünsche von lernenden ;-))

Aus Sicht der Trainers (Erstellers von Lerninhalten/Trainings)

Aus Sicht des Trainers gibt es sicher zwei grundlegende Aspekte.

1. Erstellen und Pflegen von Trainingsangeboten

2. Tracken der Teilnehmer sowie Unterstützung beim Lernen

Zu Punkt 1. bieten moderne LMS System eine ganze Reihe von Möglichkeiten. Von der Einbindung von Power Point Slides über reine Text Abschnitte, Videos und selbstverständlich auch Frage- Antwort Spiel bis zu ganzen Tests ist vieles möglich. Ebenso gibt es die Möglichkeit ganze Lernmodule extern zu erstelle und direkt in das LMS System zu importieren. SCORM ist solch ein Standard der von vielen Systemen unterstützt wird. Doch dazu später mehr.

Zu Punkt 2. möchte man natürlich einmal eine Kursorganisation abbilden. So z.B. verschiedene Zertifizierungpfade oder Trainings zu unterschiedlichen Produkten, aber auch für unterschiedliche Zielgruppen. Gerade bei firmenintern Angeboten möchte man vielleicht bestimme Angebote auch nur bestimmten Personen oder Personengruppen sichtbar machen. Vielleicht soll aber auch ein Vorgesetzter die Möglichkeit haben zu sehen wie weit seine Mitarbeiter in Ihrer Weiterbildung sind, oder bei Herstellerschulungen welche Zertifizierung erreicht wurden, was noch fehlt oder welche auslaufen und erneuert werden müssen. Also auch ein umfangreiches Tracking. Ganz abgesehen von monetären Aspekten wir Buchungen, Stornierungen und Rechnungsstellung.

Beispiel Moodle

Moodle (moodle.org) mit all seinen Ablegern stellt solch ein LMS System dar. Es ist OpernSource und kann somit von jedem beliebig genutzt werden. Ob nun im eigenen RZ oder als SaaS Angebot. Von Moodle gibt es ein paar „kommerzielle“ Anbieter die, wie bei OpenSource üblich mit Service und speziellen Erweiterungen Ihr Geld verdienen. Gerade die Gesamteinrichtung solch eines System will geplant, überdacht und systematisch implementiert sein. Von den Lernpfaden über Trainingsgruppen und Untergruppen über die verschiedenen Rollen vom Trainingsersteller bis zum Student gibt es ein breites Feld.

Moodle stellt sich streckenweise wie eine Art Spezial CMS dar. In meinen Augen ist es dieses auch, aber mit dem Schwerpunkt Interaktion. Entweder mit dem Ersteller oder dem Konsumenten.

Bild 1: Moodle-Sandbox

Bild 1: Moodle-Sandbox

Bild 1 zeigt den Main-Screen wenn man sich als Teacher an der Moodle-Sandbox (Demoumgebung) anmeldet. In der Mitte ist ein Training/Kurs zum Bearbeiten geöffnet. Man sieht die einzelnen Topics einen Beispieltraining. Links die Leiste mit der Naviagtion und rechts verschiedene Infos.

Nu Beispiel für mögliche Inhalte innerhalb eines Topics:

Bild 2: Activities in Moodle

Bild 2: Activities in Moodle

Bild 3: Resources in Moodle

Bild 3: Resources in Moodle

Bild 2 und Bild 3 gehören zu einem Dialog. Wie man sieht wird eine Menge geboten. Unter den Activities sind die mehr interaktiven Element und unter Ressourcen die Statischen Inhalte gelistet. Vom Quiz über ein Forum zum Kurs bis zu einem Chat System oder einem Wiki wird sehr vieles unterstützt. Ressourcen sind üblicherweise Zusatz- und Trainings begleitende Unterlagen. Dateien, URLs usw.

Für einen Teilnehmer/Student könnte das Haupt Dashbord z.B. so aussehen:

Bild 4: Moodle - Student Dashboard

Bild 4: Moodle – Student Dashboard

Hier findet man in der Mitte alle gebuchten Kurse, links die Navigationsleiste und rechts im Beispiel einen Kalender, Private Dateien (ja auch das kann erlaubt werden eigene Dateien abzulegen) usw.

SCORM Packages

SCORM (Sharable Content Object Reference Model) ist ein Referenzmodell für austauschbare elektronische Lerninhalte der Advanced Distributed Learning Initiative (aus Wikipedia).

SCORM Pakete sind komplette Lerneinheiten (oft mit Interaktion) die zwischen allen SCORM unterstützenden LMS Systemen ausgetauscht werden können. SCORM Pakete können von vielen Tools erzeugt werden. So zum Beispiel auch von den von mir genutzten: Camtasia von TechSmith und Captivate von Adobe.

Am Beispiel Camtasia möchte ich kurz zeigen was ein SCORM Paket beinhalten kann:

Camtasia ist ein Screenrecording und Video-Schnitt Programm speziell für das Erstellen von Trainings Videos gerade im Softwarebereich. Es gibt hier die Möglichkeit mittels des sogenannten „Smartplayers“ interaktive Video mit Inhaltsverzeichnis, Quiz Module und ähnlichem zu erstellen. Diese laufen normalerweise von einem WebServer und das ganze „Projekt“ beinhaltet nicht nur das Video ansich, sondern eben auch die JavaScript und Flash basierten Interaktiven Elemente. Diese kann man nun als SCORM Paket exportieren (wird eine ZIP Datei) und genau so in Moodle unter einem Topic des Trainings importieren. Gerade Funktionen wir das Tracken eines Video Tutorials wird somit erst einfach und sinnvoll möglich. Der Student kann dann z.B. dort weitermachen wo Er das letzte mal aufgehört hat.

 Fazit

Für alle die sich für eLearning und entsprechende Plattformen dafür interessieren ist dieses sicher nur ein kurzer Einstieg mit ein paar Infos für was ein LMS gut sein kann und was es leisten sollte. Aus meiner Sicht ist Moodle wieder ein Beispiel für ein gelungenes OpenSourc Projekt, welches auch kommerziell erfolgreich eingesetzt werden kann. Es gibt spezielle „Distritutionen“ wie z.B. totara LMS die sich auf den Einsatzt von Moodle in Unternehmen, statt im universitären Bereich spezialisiert haben. Hier ist Moodle einfach schon an bestimmte Anforderungen aus dem Business Bereich angepasst.

Wenn Salesforce wirklich verkauft wird geht einer der, für mich ersten und erfolgreichsten SaaS Anbieter an eine IT

„Oldcompany“. Ich hätte auch vmware ins Spiel gebracht. Die kooperieren schon lange.

Fortune

Salesforce.com stock was halted on Wednesday afternoon, following a Bloomberg report that the company „is working with financial advisers to help it field takeover offers after being approached by a potential acquirer.“ The cloud software giant’s shares had spiked 12% prior to the circuit breaker being tripped.

There were no details on the suitor’s identity, although speculation is already running rampant that this could be the first game-changing move for Satya Nadella since taking over last year as CEO of Microsoft [fortune-stock symbol=“MSFT“]. It’s also worth remembering that prior to being named CEO, Nadella led Azure, Microsoft’s cloud business.

A deal for Salesforce [fortune-stock symbol=“CRM“], whose market value is approaching $50 billion, would be among the largest tech acquisitions ever. Microsoft, worth just over $400 billion, is one of the few companies that could pull off such a deal, with $95 billion in cash (although much of that is offshore)…

Ursprünglichen Post anzeigen 757 weitere Wörter

vMotion 6 – die neuen Möglichkeiten etwas näher betrachtet

vmware hat mit vSphere 6 das alt bekannte vMotion deutlich erweitert. Viele neue Möglichkeiten stehen ab der Standad-Edition zur Verfügung, einige erst mit Enterprise Plus.

In diesem Beitrag möchte ich die neuen Möglichkeiten kurz vorstellen und beschreiben. Ich denke das viele Interesse an diesen Infos haben. Ein „DeepDive“ soll dieser Beitrag aber nicht werden😉

Alle Infos stammen aus verschiedenen vmware Dokumenten sowie den bekannten Blogs.

Eine der wichtigsten technischen Änderungen vMotion 6 betreffend ist die Einführung eines eigenen TCP-Stacks nur für vMotion! In früheren Versionen wurde min. eine VMKernet-Portgruppe mit dem Flag „Für vMotion Traffic“ versehen. Es wurde aber der gleiche TCP-Stack wir für allen anderen Traffic verwendet. Ab vSphere 6 wird nun min. ein weiterer TCP-Stack nur für vMotion angelegt.

Cross vSwitch – vMotion

Cross vSwitch – vMotion bedeutet, das es nun möglich ist eine VM von einem vSwitch auf einen anderen vSwitch zu verschieben. Das darunter liegende „Netzwerk“ (Layer 2) muss natürlich weiterhin eine ungehinderte Verbindung zum gwünschten physikalichen oder logischen Netzwerk ermöglichen. Im Prinzip könnte man sage das in der ersten Näherung die Prüfung auf das Label (den Namen) des vSwitches toleranter ist. Wir erinnern uns, das vorher die Label der vSwitche auf allen ESXi Hosts übereinstimmen mussten (Casesensitiv!).

Bild 1: Cross vSwitch vMotion

Bild 1: Cross vSwitch vMotion

Nun kann auch auf andere vSwitche migiriert werden. Dieses ist gerade für Cross vCenter und Long Distance Migrationen wichtig.

Erlaubt ist die Migration von einem virtual Standard Switch (vSS) zu einem anderen vSwitch oder auch zu einen virtual Distributed Switch (vDS). Ebenso natürlich vom vDS zum vDS, nicht aber vom vDS zum vSS (Danke an Duncan Epping für die Info).

IP Adressen der VM werden dabei NICHT geändert!

Diese Funktionserweiterung steht ab vSphere 6 Standard zur Verfügung.

Cross vCenter – vMotion

Eine weiter Funktionserweiterung ermöglicht es nun VMs zwischen verschiedenen vCenter Server Umgebungen zu verschieben. Grundlage dafür ist, das die beteiligten vCenter Server zu einer vmware Security Domäne gehören! Hier kommt das neue vCenter Konzept des „Platform Service Controllers“ zum Einsatz. Dieser beinhaltet SSO, Lizenzierung und Zertifikatsmanagement. Der PSC stellt eine Security Domäne bereit an die mehrere vCenter Server angeschlossen sein können (mehr dazu vielleicht ein andermal).

Mit dieser Funktion ist es nun möglich, z.B. eine VM an einen anderen Standort bei gleichzeitiger Änderung des vCenters, Hostes, Storages und Netzwerkes (vSS oder vDS) zu verschieben. Für Unternehmen mit entsprechender Infrastruktur eine tolle Sache. Ebenso für all die, die eine weitere vSphere Umgebung in der „Cloud“ betreiben. Hier kommt dann unter Umständen noch Long Distance – vMotion zu Einsatz.

Bild 2: Cross vCenter Server vMotion

Bild 2: Cross vCenter Server vMotion

Eine prima Sache bei Cross vCenter – vMotion ist die Tatsache, das sowohl Alarme, Events, Ressource Einstellungen, die Task History, HA und DRS Einstellung sowie (bei vDS to vDS) Performance Werte mit migriert werden (in die vCenter DB des Target vCenter Servers).

Die IPs der VM bleiden gleich – hier ist darauf zu achten das, genau wie beim Cross vSwitch – vMotion die Layer 2 Netze passen. Um Konflikte mit später erstellten VMs auf dem Ursprungs vCenter zu vermeiden wird die MAC Adresse in eine Art „Blacklist“ eingetragen, so das diese MAC nicht neu generiert werden darf.

Long Distance – vMotion

Kernerweiterung der Long Distance – vMotion Möglichkeit ist die Erhöhung der RTT (Round Trip Time := Paketumlaufzeit/Latenz) von 10ms auf 150ms. Dadurch können nun auch weitere Strecken überwunden werden (Wikipedia zeigt eine schöne Tabelle mit typischen RTTs für verschieden Verbindungen. So z.B. innerhalb Deutschlands meist < 50ms).

Bild 3: Long Distance vMotion

Bild 3: Long Distance vMotion

Sowohl VMFS als auch NFS werden supported.

Weitere Erweiterungen in vMotion 6

vMotion 6 kann wird nun auch für Layer 3 Verbindungen supported. Wie schon am Anfang beschrieben kann vSphere 6 mit mehreren TCP Stacks aufwarten. Einer davon ist für vMotion Traffic reserviert.

Die Unterstützung von Windows Server Failover Clustering (WSFC) ermöglicht es nun auch den vollen Support für Windows 2012 R2 und MS SQL 2012 Cluster mit RDMs.
Long Distance vMotion unterstütz auch Virtual Volumes, diese sind aber KEINE Voraussetzung.

Fazit

Mit vSphere 6 vMotion hat vmware die Messlatte mal wieder ein ganzes Stück nach oben gelegt. Die Konkurrenz schläft ja nicht😉 . Sicher sind einige der Funktionen und Möglichkeiten nicht für alle vmware Kunden praxisrelevant, Dinge wie höhere Latenz-Verträglichkeit oder Cross vSwitch vMotion ist aber unter Umständen schon einen Blick wert.

Wer mehr als eine vCenter Server Umgebung betreibt sollte sich über das Konzept seiner vmware Security Domäne Gedanken machen. Diese spielt keine Unbedeutende Rolle – siehe Cross vCenter vMotion.

Für mich würde das bedeuten, das man mit der Migration auf vSphere 6 durchaus auch einmal seine gesamte vmware Landschaft neu bewertet und betrachtet. Gerade in Großen Umgebungen wird sicher das Thema „Software Defined Network“ [SDN] und vielleicht auch die Virtual Volumes interessant.

Damit bin ich mit meinen „Osterurlaub Überlegungen“ am Ende. Viel Spass mit vSphere 6.