Das Jahr 2021 war sicher für viele kein normales Jahr. Corona / COVID-19 hält uns weiter in Atem. Die Gesellschaft droht sich zu spalten. Was die neue Bundesregierung bringt, wissen wir auch nicht, trotzdem dürfen wir in Deutschland dankbar sein, dass wir in einem der sichersten und wohlhabendsten Land der Erde leben.
Es gibt aber einen der gesagt hat „Ich, der Herr, bin der Erste, und bei den Letzten bin ich derselbe(Die Bibel Jesaja 41,4) Für mich ist es beruhigend diesen Gott als meinen persönlichen Gott und Vater zu kennen und zu wissen, dass ER mein Leben und das aller Menschen in seinen Händen hält.
Auf dieses kann sich jeder stützen der den Ausspruch der Bibel in 1. Timotheus 1,15 glaubt „Das Wort ist gewiss und aller Annahme wert, dass Christus Jesus in die Welt gekommen ist, um Sünder zu erretten, von denen ich [der] erste bin.“ Einfach, kostenlos aber für die Ewigkeit! Nur leider haben wir Menschen mit dem Eingestehen des „…von denen ich der erste bin“ ein großes Problem. Der Apostel Paulus ist übrigens der, der dieses von sich sagt.

Gerade in Zeiten wie diesen ist es gut, einen Halt und ein Ziel zu haben. Hat das jeder von Euch?

Ich muss offen zugeben, dass mir dieses Hin und Her mit allen Corona Beschränkungen auch ganz schön zugesetzt hat. Keine oder minimale persönliche Kontakte mit Freunden, Bekannten und natürlich Kunden/Partnern – das war hart. Ebenso der Verlust meiner Mutter, aber mit dem Trost, sie eines Tages wiederzusehen!
Auch mein Vorsatz, etwas mehr in diesem Blog zu schreiben habe ich nicht umgesetzt. Leider 😦


Trotzdem wünsche ich allen, die ab und an noch hier vorbeischauen, ein paar ruhige Feiertage (auch wenn selbst die dieses Jahr auf ein Wochenende fallen 😦 ) und ein gutes, erfolgreiches und hoffentlich gesundes 2022.

Wer oder was ist „disruptiv“?

Dieses Mal möchte ich den Begriff „disruptiv“ besprechen. Wo kommt der Begriff her, was bedeutet disruptive Technologie und welche Risiken entstehen durch disruptive Technologien.

Als erstes Mal eine Begriffserklärung: Disruptiv bedeutet laut Wikipedia „sind Innovationen, die die Erfolgsserie einer bereits bestehenden Technologie, eines bestehenden Produkts oder einer bestehenden Dienstleistung ersetzen oder diese vollständig vom Markt verdrängen und die Investitionen der bisher beherrschenden Marktteilnehmer obsolet machen.“

Im Jahr 1997 prägte Clayton M. Christensen (Professor für Business Administration an der Harvard Business School) in seinem Buch „The Innovator’s Dilemma“ den Begriff der disruptiven Technologien.
Diese Technologien „ersetzen“ etablierte Technologien und verdrängen diese manchmal sogar fast vollständig vom Markt. Daher stellen diese Technologien für bestehende oft ein massives Risiko dar. Meist beginnen die disruptiven Technologien allerdings in Nischen und speziellen Anwendungsfällen und werden von den etablierten Herstellern oder Anbietern zu spät erkannt.

Beispiele sind:

  • Die Audio CD, welche die Langspielplatte [LP] mehr oder weniger verdrängt hat und dann selbst Opfer der MP3 Player, bzw. der Musik Streaming Dienste wurde.
  • Die Digitalfotografie, die analoge Filme fast vollständig verdrängt hat und nun selbst mit den Smartphones kämpft.

Ich denke hieran sieht man, was „disruptiv“ grundsätzlich bedeutet und ausmacht. Daher sollte jedes Management und jede Entwicklung immer ein Auge auf Technologien haben die neu in einem Marktsegment auftauchen. Auch wenn diese zu Beginn nicht als Risiko des eigenen Marktes wahrgenommen werden!

Vieles habe ich selbst aus der deutschen Ausgabe des Buches „THE INNOVATOR’S DILEMMA“ in der Übersetzung (und Ergänzung) von Kurt Matzler und Stephan Friedrich von den Eichen [ISBN-13978-3800637911]

Bild 1: Buch „The Innovator’s Dilemma“

Wo liegen die Risiken – und für wen?

Im ersten Absatz habe ich schon das Thema Risiken angesprochen. Wo liegen denn nun die Risiken der disruptiven Technologien und für wen sind es Risiken?

Im Grunde genommen könnte man jede etablierte Technologie als mögliches „Opfer“ einer disruptiven Technologie ansehen. Meine zwei Beispiele der LP/CD und der analogen Fotografie zeigen dieses, glaube ich, sehr deutlich.

Jedes Mal gab es Technologien und Märkte die stabil und fest erschienen und dann sukzessive in einen Auflösungsprozess übergegangen sind.

LP Werke verschwanden fast vollständig und wurden durch CD’s ersetzt. Diese wiederum durch MP3 Files verbunden mit Internet Downloads bzw. Streaming Dienste.

Die Digitale Fotografie fing in Nischen mit unhandlichen Geräten an und hat heute die analoge Fotografie im Alltag mehr oder weniger verdrängt.

Wer waren nun die „Opfer“? Immer die Unternehmen, die den Trend „verpennt“ hatten!
Leider ist es aber nicht immer so leicht für führende Unternehmen zu erkennen, welche neue Technologie das Potential zu einer Disruption hat, sprich, wer meine Technologie verdrängen könnte und mir daher gefährlich werden kann.

Viele sagen heute, dass die Musikindustrie selbst Schuld an ihrem Markverlust hatte, da man so sehr damit beschäftigt war, seine Pfründe durch z.T. kundenunfreundliche Schutzmechanismen zu sichern anstatt zu erkennen, welches Potential durch das aufkommende Internet in Musik Downloads und „Access everyware“ liegt. So lange, bis plötzlich neue Player den Markt für sich erschließen konnten und die alten Marktbeherrscher nur noch erfolglos hinterher laufen konnten oder ihre Rechte am Content (Musiker, Musikstücke etc.) an diese neuen Anbieter lizensieren mussten.

Bei der analogen Fotografie konnte man ähnliches beobachten. Arrogant auf die ersten digitalen Fotoapparate mit geringer Auflösung blickend, den Markt unterschätzt und dann gestorben oder gerade so noch die „Kurve gekratzt“ (siehe das Beispiel Leica im Buch)

Wo beginnen disruptive Technologien?

Tja, das ist leider, besonders für die Marktplayer, nicht immer so leicht zu erkennen. Disruptive Technologien beginnen sehr oft in kleinen Nischen die von den Marktführern als unwichtig angesehen werden.
Ein aktuelles Beispiel aus der IT Infrastruktur sind z.B. Hyperconvergente Systeme [HCI]. Diese wurden vor über 10 Jahren von der Firma Nutanix an den Start gebracht und vereinten alles, was man für den virtualisierten Rechenzentrums Betrieb braucht, in Software gegossen auf Standard x86 Hardware.
Waren diese Systeme von Anfang an für alle Anwendungsfälle [Workloads] geeignet? – Sicher nicht.
Ein Hauptanwendungsfall waren „Virtual Desktop Umgebungen“ [VDI]. Hier spielten diese Systeme ihre Vorteile (Scalierung etc.) als erstes aus.
Die etablierten Storage Anbieter z.B. belächelten sicher diese neuen Systeme und glänzten mit Unmengen von Funktionen und komplexen Architekturen. Gleichzeitig baute man auf die super ausgebildeten Storage und SAN Experten, die müde lächelnd auf die neuen HCI Appliances schauten.
Einige Jahre später, gerade im Zuge der Public Cloud Erfolge, sieht die Situation völlig anders aus. EMC2 z.B., der Rolls Roys unter den Storage Anbietern, verkaufte sich 2015 an die Firma DELL! Ein paar Jahre vorher sicher für viele in der IT undenkbar. Andere Storage Anbieter kämpfen nun gegen HCI und Public Cloud.

Kommen disruptive Technologien allein?

Diese Frage kann man sicher mit NEIN beantworten. Meist spielen vielen Dinge zusammen. Wir haben gesehen, dass z.B. begleitende Technologien Helfer sein können, ebenso aber auch geänderte Markterscheinungen.
Oft entstehen disruptive Technologien durch die Übertragung von Technologien einer anderen Branche oder Anwendung in diesen Markt.

Fotosensoren mit höherer Auflösung in Massen zu günstigeren Preisen, gepaart mit der rasanten Entwicklung kleiner und kleinster Speicherchips mit immer größeren Kapazität zu attraktiven Preisen haben die digitale Fotografie beflügelt. Nur Profis hielten lange an teuren analogen Fotoapparaten und Filmen fest.

Ohne immer leistungsfähigere x86 Prozessoren und Server Systeme sowie rasante Fortschritte in der Software Technologie wären HCI Systeme nicht möglich gewesen. Jahre vorher brauchte man eben spezielle Controller Chips und Storage Betriebssysteme sowie Übertragungstechniken um die gewünschten Leistungsmerkmale zu erreichen.
Im Zuge der Public Cloud Erfolge mit einfach skalierenden Ressourcen, immer dynamischeren Systemlandschaften in den Rechenzentren und nicht zuletzt dem anhaltenden Fachkräfte Mangel in der IT, konnten die Hyperconverged Systeme ihre Vorteile ausspielen.

Der Kundenwunsch nach einfachem Musikgenuss „überall“ setzte den klassischen Medien LP und später Audio CD zu. Aber erst die Erfindung eine gut komprimierenden Musikformates via MP3 setzte den Niedergang des alten Marktführer in Gang.

Sicher verschwinden dabei „alte, etablierte“ Technologien selten vollständig (es gibt immer noch Liebhaber analoger Fotografie und ebenso der analogen Langspielplatte). Sie verlieren aber eindeutig ihre markbeherrschende Position, mit z.T. fatalen Folgen für die dahinter stehenden Unternehmen.

Dilemma der „etablierten“ Unternehmen gegenüber „disruptiven“

Einige Aspekte dieses Dilemmas habe ich schon angesprochen.

Wie erkenne ich eine aufkommende Technologie als disruptiv?
Wie kann ich darauf reagieren oder was macht mir Probleme dabei?

Diese sind nur ein paar Beispiele die im angegebenen Buch ausführlich behandelt werden. Ein wichtiger Blocker für etablierte System ist laut der Autoren das „Wertesystem“ des Herstellers und die „Kundennähe“!

Wertesystem

Was ist nun das Wertesystem eines Herstellers? Zitat aus dem Buch „Ein Wertesystem bildet den Kontext, innerhalb dessen ein Unternehmen Kundenbedürfnisse identifiziert (und diese versucht zu befriedigen), Probleme löst, Ressourcen beschafft, auf Konkurrenz reagiert und nach Erfolg strebt.
The Innovator’s Dilemma (Business Essentials) (German Edition) (S.86). Vahlen. Kindle-Version.

Da disruptive Technologien oft in Nischenbereichen/Märkten beginnen, ist der zu erwartende Gewinn im Vergleich zum bestehenden Geschäft zu gering um dafür Ressourcen und Geld bereitzustellen. Niemand in meinem Kernmarkt hat Bedarf an den am Anfang oft begrenzten Leistungen der neuen Technologie.

Kundennähe

Es wird oft angenommen, dass die Verlierer gegen disruptive Technologien über ein schlechtes Management mit fehlender Kundennähe verfügten. Dieses trifft in den wenigsten Fällen tatsächlich zu. Viele dieser Unternehmen hören viel zu sehr ausschließlich auf Ihre Kunden!

Am Beispiel der Firma Leica kann man das sicher gut darstellen. Leica stellte schon immer hochpreisige und hochwertige Fotoapparate für Profis her. Diese wollten natürlich am Anfang keine Digitalkameras, da diese eine viel zu geringe Auflösung etc. boten. Man hörte auf diese Profis (die eigenen Kunden!!!) und übersah, wie die Technologie von „Gelegenheits Knipsern“ dankend angenommen wurde. Deren Ansprüche waren andere. Schnell ein Bild machen, gleich ansehen ohne auf eine Entwicklung zu warten. Mehr Bilder als die 36 Aufnahmen auf einem Standard Dia Film etc. Später dann noch das einfache teilen der Bilder mit Freunden und Familie etc. Schon war man im eigenen Wertesystem und der guten Kundennähe gefangen.

Ist es im Storage Bereich nicht ähnlich? Welcher Kunde will tatsächlich hochkomplexe Systeme betreiben für die man „studiert“ haben muss um sie richtig zu konfigurieren? Cloud ähnliche Einfachheit ist stand der Dinge und aus der VDI Ecke sind die HCI Systeme auch lange entwachsen.

Resümee

Somit haben wir eine Menge über die Eigenarten von disruptiven Technologien und auch Unternehmen erfahren. Auf der einen Seite stehen die etablierten Unternehmen, die in ihren Wertesystemen und z.T. auch in ihrer Kundennähe mit dem gesamten Wertesystem gefangen sind. Diese können eigentlich nur, soweit die Autoren des Buches, mit separaten Tochterunternehmen und einer größtmöglichen Trennung vom alten Kern des Unternehmens auf erkannte disruptive Technologien reagieren.

Disruptive Unternehmen dagegen müssen erkennen das „Zitat: Eine disruptive Innovation ist eine Marketing- und keine Technologieherausforderung.
The Innovator’s Dilemma (Business Essentials) (German Edition) (S.327). Vahlen.

  • Wie lange bin ich denn noch disruptiv?
  • Ist meine Marketing Strategie ausreichend?
  • Kann ich in neue Marktsegmente wachsen?

Auch ein Innovator kann einer weiteren Disruption oder auch schnellen Followern zum Opfer fallen! Nicht der bessere gewinnt immer den Markt. Nicht die besseren Manager führen ein Unternehmen zu Erfolg. Sehr viele, sehr fähige Manager haben trotzdem ihr Unternehmen in den Abgrund geführt.

  1. Technologischer Fortschritt muss nicht mit Kundenwünschen konform gehen. Technologische Entwicklungen laufen oft andere Pfade als die „aktuellen“ Kundenanforderungen. Meine Kunden haben vielleicht noch gar keinen Bedarf für die nächste Innovation!
  2. Wenn eine Innovation keine Ressoucen und keine Aufmerksamkeit erfährt, wird sie scheitern. Leider haben disruptive Innovationen am Anfang nicht die Aussicht, die Gewinne einzufahren welche die etablierten bieten. Manager arbeiten (und müssen das in gewissem Maß auch) gewinnorientiert denken – Nur sollte dabei weiter als „morgen“ geschaut werden 😉
  3. Passt mein aktueller Markt zur Innovation oder sollte ich hier vielleicht nach neuen Märkten Ausschau halten? Nur auf bestehende Kunden zu hören kann zu kurz gedacht sein. – Siehe das obige Zitat.
  4. Können „meine“ Unternehmens- Fähigkeiten die innovative disruptive Technologie überhaupt unterstützen? Hier spielen viele Faktoren eine Rolle. Produktion, Sales, Marketing etc.
  5. Vielen Informationen, die das klassische Management wünscht, fehlen am Anfang einer disruptiven Technologie Entwicklung und Einführung.
  6. Der Erfolg der disruptiven liegt oft darin, dass sie etwas machen was zu diesem Zeitpunkt für die etablierten keinen Sinne macht (sowohl business- als auch technologisch)

Mit diesem Artikel möchte und kann ich weder das gesamte Buch noch die Ideen und Fakten wiedergeben. Mir geht es vielmehr darum, einfach darzustellen was disruptive Technologie bedeutet, welche Gefahren, Herausforderungen aber vor allem auch Chancen sich in solchen Innovationen verbergen.

Gebt gerne Eure Kommentare und Anmerkungen dazu weiter!

Worum geht es?

Da ich vor einiger Zeit das Buch „Projekt PHOENIX“ gelesen und besprochen habe, dachte ich mir, dass es an der Zeit ist, auch das Buch „Projekt UNICORN“ zu lesen und anschließend hier zu besprechen. Diese Buch stammt aus der Feder von Gene Kim, der Mitautor des „Projekt PHOENIX“ war.

Im Projekt UNICORN geht es um einen Parallelstrang, der ebenfalls im fiktiven Unternehmen Parts Unlimited wie auch Projekt PHOENIX spielt.

Inhalt

Hauptfigur ist Maxine Chambers, eine Software Entwicklerin, die sehr erfolgreich ein MRP System entwickelt hat (MRP ist ein ERP System für die Fertigung).
Nach einer missglückten Gehaltsabrechnung bei Parts Unlimited, wird Maxine als „Bauernopfer“ zum gehassten Projekt PHOENIX versetzt.
Hier stößt sie auf die gleichen Probleme wie im Buch Projekt PHOENIX beschrieben. Alles ist komplex miteinander verwoben. Entwickler warten ewig auf Ergebnisse, Schnittstellen etc. – einfach alles.
Maxine versucht sich eine PHOENIX Build Umgebung zu erstellen, stößt aber an allen Ecken auf fehlende und unvollständige Dokumentation, fehlende Zugänge und Schnittstellen, einfach alles was man braucht um einmal einen Build Prozess durchlaufen zu lassen.

Sara Moulton (SVP Retail Operations) kündigt zu allem Überfluss den Launch von PHOENIX an. Alle erstarren und natürlich endet dieser Launch im Fiasko. Sara Moulton entwickelt sich zum Feindbild, das Sie die Firma am liebsten aufteilen würde und auch die IT outsourcen will.
In Kurt Reznick, einem QA-Manager findet sie einen Revoluzzer, der sich mit ein paar Gleichgesinnten im Dockside, einer Kneipe, die scheinbar Erik Reid einem Kandidaten für das Board of Directors bei Parts Unlimited gehört, trifft. Die Kollegen aus verschiedenen IT Bereichen gründen die Rebellion um Dinge grundlegend zu verändern.

Nach dem PHOENIX Rollout Desaster fangen die Mitglieder der Rebellion an, verschieden Komponenten der IT auf neue und moderne Füße zu stellen und dabei Komplexität in einfachere Komponenten zu verwandeln, APIs zu definieren und „natürlich“ DevOps Konzepte umzusetzen. So können sie eine zentrale Komponente, den Data-Hub, sicherer und effizienter umbauen.

Natürlich läuft nicht alles glatt und viele Dinge laufen anders als gewünscht. Zuviel möchte ich hier aber nicht verraten.

Meine Meinung

Idealerweise liest man diese Buch zeitnah zum Buch Projekt PHOENIX 😉 Allerdings ist es nicht zwingend nötig, Projekt PHOENIX gelesen zu haben.

Im Gegensatz zum „DevOps“ High-Level Erklärbuch Projekt PHOENIX, bescheibt Projekt UNICORN eher den Disruptiven Wandel, dem heute fast alle Firmen ausgesetzt sind. Schlagworte wie Digitalisierung, Digitale Transformation etc. zeigen meist genau die Probleme auf, die in diesem Buch anschaulich, aber z.T. auch zu „nerdig“ dargestellt werden. Hier geht es nicht nur um Technik, sondern auch um das gesamte Arbeitsfeld und die Zusammenarbeit verschiedener Silos, die so in Zukunft nicht mehr funktionieren. Auch die gesamte Hierarchie muss umdenken.

Schnelligkeit und Kundenorientierung, gepaart mit überdurchschnittlichem Service (der sich am Kundenbedürfnis orientiert) siegt.

Dieses, hier in Romanform gefasste Disruptive Verändern, kann ich in meinem beruflichen Umfeld nur bestätigen. Viel zu oft verpassen Kunden die Chance, wirkliche Veränderungen zu bewirken, in dem man eben nicht immer an alten Zöpfen und „liebgewordenen“ Infrastrukturen und Prozessen (Arbeitsweisen) festhält. Gerade die „Cloud“ (was auch immer der einzelne darunter versteht ;-)) schaffen Veränderungen. Nur Mitmachen reicht allerdings nicht. Auch diese Disruption will mit einem Plan, wenn auch agil und dynamisch, angegangen werden.

Gerade die im Buch angesprochenen 5 Ideale finde ich sehr interessant:

  1. Erstes Ideal: Lokalität und Einfachheit
  2. Zweites Ideal: Fokus, Flow und Freude
  3. Drittes Ideal: Verbesserung der täglichen Arbeit
  4. Viertes Ideal: Psychologische Sicherheit
  5. Fünftes Ideal: Kundenorientierung

Hier könnte ich zu jedem Punkt eine eigene Abhandlung schreiben. Das würde hier natürlich zu weit führen.

Das Buch ist aus meiner Sicht lesenswert und interessant. Allerdings ist es mir an einigen Stellen zu „nerdig“ und „langatmig“. Es werden zu oft und für meinen Geschmack zuviele und unnötig Begriffe, Tools und Entwicklungsschritte langatmig besprochen. Wer kein Software Entwickler ist (wie ich zum Beispiel) tut sich da ab und an schwer.
Manches scheint auch zu radikal, das kann ich aber nur teilweise bewerten, da ich eben kein Entwickler bin.

Mit etwas Fleiß und Interesse kann man aber eine ganze Menge aus dem Buch ziehen. Demzufolge kann ich das Buch Interessierten durchaus empfehlen.

Gebt mir gerne Euer Feedback via Kommentare oder auch per Mail.


Das Jahr 2020 wird uns sicher noch allen lange in Erinnerung bleiben. Zuviel hat sich in diesem vergangenen Jahr verändert und uns (hoffentlich) alle auch ein wenig zum Nachdenken angeregt.

Ein kleines Virus hat die ganze Welt auf den Kopft gestellt. Leider sind auch viele Menschen daran gestorben. Da wird die eigene Vergänglichkeit doch plötzlich greifbar. Regt das bei dem einen oder anderen ein Nachdenken über das „woher, warum und wohin?“ an, oder machen wir einfach so weiter wie bisher? Auch wenn dir doch so verständig und gebildet sind, kommt nicht doch manchmal der Gedanke auf „…und wenn es doch nach dem Tod weiter geht und am Ende doch ein Gott existiert, der mich fragt was ich mit meinem Leben gemacht habe und vor allem, wie ich zu IHM, meinem Schöpfer stehe?“

Ich habe diese Frage für mich beantwortet und kann sagen: Und ich, ich weiß, dass mein Erlöser lebt, und als der Letzte wird er auf der Erde stehen (Die Bibel: Hiob 19 Vers 25)
Jesus Christus – das Kind aus der Krippe, welches von vielen in den letzten Tagen gefeiert wurde ist dieser Erlöser geworden. Aber nicht durch die Krippe, sondern durch seinen Tod am Kreuz für die Sünde der Welt und seine Auferstehung!
Welcher „andere“ Gott hat für seine Geschöpfe so viel gegeben?

Auch wenn viele Menschen glauben, dass ihr „Heil“ (oder Rettung, Begnadigung, Erlösung etc.) in allen möglichen Dingen zu finden ist. Wissenschaft (Ein COVID Impfstoff!), Religion (welche auch immer)…

Fest steht nach Gottes Wort:
Und es ist in keinem anderen das Heil, denn es ist auch kein anderer Name unter dem Himmel, der unter [den] Menschen gegeben ist, in dem wir errettet werden müssen.
(Die Bibel: Apostelgeschichte 4 Vers 12)

Diese Zuversicht in einer sich schnell verändernden Welt wünsche ich jedem … und diese Zuversicht gibt es UMSONST!


Ich möchte mich an dieser Stelle auch bei allen Freunden, Kollegen und Vorgesetzten bedanken, die geholfen haben 2020 nicht nur erträglich, sondern sogar in vieler Hinsicht erfolgreich werden zu lassen. Sicher gehöre ich damit zu den priviligierteren Menschen, nicht nur in unserem Land. Menschen mit denen man vertrauensvoll zusammenarbeite kann, die helfen, unterstützen neu anspornen. Das macht für mich sehr viel aus. Trotz vieler Veränderungen in der ganzen Welt, in meiner Branche aber auch im Unternehmen.
Herzlichen Dank dafür!


Auch für 2021 habe ich den Wunsch hier wieder mehr zu schreiben. Mal sehen – vielleicht wird ja was draus 🙂

Nach längerer Zeit (ich glaube 2 Releases dieses Buches habe ich ausgelassen) habe ich wieder die aktuelle Ausgabe des deutschsprachigen Standardwerkes zu vSphere aus dem Hause Rheinwerk Verlag in den Händen.
VMware vSphere 7 , um es vorweg zu nehmen, ist ein echter „Klotz“ 7,5 cm breit, ~2,6kg schwer und 1348 Seiten stark! Also gewichtige Lektüre.

Bild 1: VMware vSphere 7 (und andere Lösungen drum herum)

In diesem Beitrag möchte ich eine kurze, persönliche Rezension wiedergeben. Also ganz subjektiv 😉

Inhalte

Zum Inhalt könnte ich jetzt ganze Seiten verfassen.
Folgende Themen werden angesprochen:

  • Was ist Virtualisierung – Server Virtualisierung, VMs etc.
  • vSphere Architektur inkl. aller wichtigen Funktionen und Organisationsmöglichkeiten
  • Anbindung an Netzwerk und Storage (braucht man das tatsächlich noch 😉 ?) inkl. einiger Storage Hersteller Kapitel.
  • Monitoring einer vSphere Umgebung (auch mit alternativen Tools!)
  • Backup und Ausfallsicherheit
  • Container & Kubernetes im Zusammenhang mit vSphere
  • Nutanix private Cloud als HCI Plattform für ESXi sowie der alternative Hypervisor AHV!

Besonders interessant

Trotz der Kürze der Zeit, die ich bisher hatte um diesen „dicken Schinken“ zu studieren, sind mir doch ein paar besonders interessante Kapitel aufgefallen.

Logischerweise ist dieses als erstes das Kapitel 13 „Die private Cloud mit Nutanix“. Hier beschreibt mein Freund und Kollege, Günter Baumgart, auf rund 100 Seiten was Nutanix als HCI Plattform so ausmacht und in welchem Zusammenhang der Nutanix- eigene (eigentlich aufgebohrte KVM) AHV als alternativer Hypervisor steht. Da der ESXi weiterhin ein unterstützter, und auch immer noch gern genutzter, Hypervisor auf dieser Plattform ist, freut es mich, dass diese Plattform nun auch hier zu finden ist.
Ich durfte dieses Kapitel im Vorfeld Review lesen und denke das es einen gute Einblick in eine moderne HCI Plattform (und darüber hinaus) gibt.

Desweiteren finde ich das Kapitel 16 sehr interessant. Es beschäftigt sich mit dem Thema Monitoring, welches ich selbst viele Jahre in diversen Rollen betrieben habe. Dabei hat mir besonders gut gefallen, dass hier verschiedene alternative bzw. ergänzende Lösungen zu den Vmware-Eigenen vorgestellt werden, wobei die Behandlung der „Bordmittel“ keineswegs zu kurz kommt. Logischerweise hat Dennis Zimmer als „Erfinder“ dieser Buchreihe auch ein recht ausführliches Kapitel zum Opvizor beigetragen.

Fast 100 Seiten zum Thema NSX stehen etwas weniger als 40 Seiten vSAN gegenüber. Interessant sind beide Abschnitte auf jeden Fall. Die werde ich mir sicher antun um zu lernen, wie komplex oder auch einfach das eine oder andere funktioniert.

Könnte besser sein

Direkt aufgefallen ist mir, schon bei der Durchsicht des Inhaltsverzeichnisses, dass eigentlich nur Veeam als externe Backup Lösung vorgestellt wird. Dieses geschieht lesenswert und ausführlich, hätte aber durch 2-3 Alternativen ergänzt werden sollen. Ruhig in kurzen Abschnitten als Übersicht, aber der Vollständigkeit halber schon. Da ist mir ein einziger Hersteller doch etwas wenig, auch wenn Veeam sicher im deutschsprachigen Raum sehr weit verbreitet ist.

Ob das Thema Kubernetes in solch einem Buch (zugegebenermassen recht rudimentär) angesprochen werden sollte, muss jeder für sich entscheiden. Dass vmware mit Blick auf „Tanzu“ sicher großen Wert darauf legt, glaube ich gern, denke aber, dass dieses Thema eher in einem separaten Buch Platz finden kann.

Fazit

Was bleibt nun als Fazit? Da ich dieses Buch sowohl in elektronischer als auch in Buchform vom Rheinwerkverlag zur Verfügung gestellt bekommen habe und mein Freund und Kollege Günter Baumgart zwei Kapitel dieses Buches verfasst hat, bin ich nicht unvoreingenommen.
Trotzdem denke ich, das alle die, welche mit Virtualisierungsplattformen beschäftigt sind, und hier im speziellen mit vmware vSphere, einen genaueren Blick auf diese Neuerscheinung werfen sollten. Ob Anfänger, Experte oder auch Entscheider. Hier werden sehr viele wichtige Informationen zusammengefasst dargestellt. Die Qualität der Kapitel ist, soweit ich das beurteilen kann, durchweg hochwertig.

Mein Empfehlung wäre die elektronische Form bzw. die hybride Form (Buch und elektronisch), da man nur dann in den Genuss von Ergänzungen, Verbesserungen etc. kommt. Ausserdem ist es leichter im elektronischen Format zu suchen und vor allem diese auf Tablet, Smartphone oder PC dabei zu haben.

Alle Welt (in der IT) redet von Objectstore oder S3-Storage (vom Erfinder AWS so genannt). Fast alle Storage Anbieter bieten mittlerweile auch einen, wie auch immer gestalteten, „Objectstore“ an. Mindestens als Addon zu den bisherigen Angeboten Blockstorage und klassische File Storage Dienste.

Was macht nun ein Objectstore anders als ein Block- oder File-store?
Dazu eine kurze Erklärung zu den einzelnen Storage Typen.
(Diese kann und will nicht in die Tiefe gehen, sondern nur die grundsätzlichen Unterschiede herausstellen)

Blockstorage
Alle Daten in einem Blockstorage werden in gleich große Blöcke (pro Volume) gespeichert und über diese Blöcke angesprochen. Je nach Daten die gespeichert werden, nutzt man, wenn möglich, auch unterschiedliche Blockgrößen. Typische Anbindung via iSCSI oder FibreChannel etc.

Filestorage
Der „Klassiker“ unter den Datenstorage Systemen. Kennt jeder vom heimischen PC, existiert aber durchaus auch im Enterprise Bereich mit Gesamtgrößen von mehreren Terra- oder sogar Peta-Byte.
Die Daten werden hier als Files gespeichert und in Verzeichnisstrukturen (Ordner) angelegt. Ausgefeilte Rechtestrukturen machen es den Administratoren nicht immer leicht, diese „Datei-Gräber“ zu verwalten.
Anbindung typischerweise via CIFS/SMB (Windows Welt) oder NFS (U*nix/Linux Welt).

Object- oder S3 Storage

Von Amazon AWS als S3 (Simple Storage Service) etabliert und via AWS Cloud Services bereitgestellt.
Im Gegensatz zu den vorher genannten Systemen, werden die Daten in einem Objectstore, wie der Name schon vermuten lässt, als Objecte gespeichert. Ein Object enthält dabei aber nicht nur Nutzdaten sondern vor allem Metadaten, die dieses Object beschreiben. Diese Metadaten werden nicht vorgegeben sondern je nach Anwendungsfall,vom „bearbeitenden“ System erzeugt. Zugriff erfolgt via HTTP/HTTPS. Somit ist Objectstore ein Kind des Webzeitalters!
Da die reinen Ablagestrukturen sehr einfach und flach gehalten sind, können Objectstores auf der einen Seite mit einfacheren Verwaltungsstrukturen angelegt werden, durch die Freiheit auf Seiten der Metadaten in den Objekten aber auch viel flexibler eingesetzt werden. Die Metadaten beschreiben, was diese Objekte können bzw. enthalten.


Als Organisationselement oder logische Speichereinheit gibt es sogenannte „Buckets“. Diese „Eimer“ oder „Behälter“ enthalten die Objecte einer Metadaten-Klasse (vereinfacht ausgedrückt)

Bild 1: Unterschiedliche Buckets für unterschiedliche Daten

Ein Zugriff via GUI, wie z.B. beim Filestorage typisch, ist hier nicht vorgesehen (obwohl es diese GUI’s durchaus gibt). API’s sind hier das Mittel der Wahl (bzw. RESTAPIs).
Vier grundlegende Funktionen bearbeiten einen Objectstore

  • PUT: erzeugt ein Objekt
  • GET: liest ein Objekt
  • DELETE: löscht ein Objekt
  • LIST: listet alle Objekte auf

Schauen wir nun etwas genauer hin: Was sind die Vorteile eines Objectstore (z.T. schon angesprochen) und was die möglichen Nachteile?

Vorteile:
Durch die flachen Strukturen und den eindeutigen Identifier (Object-ID) gestaltet sich der Zugriff auf Objecte im Objectstore sehr schnell.

Ebenso ist es sehr leicht möglich, einen Objectstore zu vergrößern ohne dass irgendwer erst neue LUNs, Volumes etc. anlegen muss und diese dann auch noch transparent verbinden sollte. Auch stellt die physikalische Größe eines Systems auf dem ein Objectstore liegt keine Grenze des Objectstores dar, denn es können völlig transparent mehrere neue Bereiche dazugebunden werden und das sowohl lokal als auch remote!
Durch einen Zugriff via HTTPS ist quasi die Verschlüsselung der Übertragung schon implementiert.
Objectstore Systeme können des weiteren im Hintergrund auch für Redundanz, Verschlüsselte Ablage usw. sorgen. Sogar eine „Scheib Only“ (WORM) Funktionalität ist meist möglich.
Riesige Datenmengen sind ebenfalls kein Problem, eben weil das System einfach skaliert, auch über mehrere Plattformen hinweg.

Daher sind statische Daten das Umfeld der S3- oder Objectstores. Gerade für große Datenmengen (z.B. aus IoT Systemen oder Backups) sind Objectstores sehr interessant.

Nachteile:
Wo Vorteile sind, sind leider auch oft ein paar Nachteile.
Wir haben gesehen, dass Objectstore sehr gut für große Datenmengen geeignet ist, da es leicht scaliert. Gerade im Bereich IoT oder auch Backup wird vermehrt mit Objectstores gearbeitet.
Sollen Objecte im Objectstore aber geändert werden, so wie z.B. eine Word- oder Excel Datei mit der gearbeitet wird, dann wird ein Objectstore eher zum Bottleneck, denn anders als z.B. in einem Filesystem kann die Datei nicht einfach in sich verändert werden (inkl. Locking Mechanismen etc.), sondern muß als neues Object komplett neu geschrieben werden.

Hier ein Tabelle mit einer guten Zusammenstellung der Vor- und Nachteile

Tabelle 1: Vor- und Nachteile der unterschiedlichen Storage Systeme ©by IONOS.de
Anwendungsfälle für Objectstores

Wie bereits unter den Vorteilen angesprochen, werden Objectstores immer interessanter wenn der Anwendungsfall stimmt!

Die wichtigsten Anwendungsfälle (Stand heute)

  • Ziel für Backups: Backup-Daten sind von Hause aus als statisch anzusehen, denn Backup-Daten sollen ja gerade nicht verändert werden. Sie können auf der anderen Seite sehr groß werden und sollen im Fall der Fälle schnell im Zugriff sein. Alles Dinge, die ein Backup Bucket im Objectstore sehr gut abbildet! Auch die Möglichkeit einer WORM Funktionalität spricht hier für sich. Daher bieten mittlerweile sehr viele Backup-Lösungen die Möglichkeit nach S3 bzw. anderem Objectstore zu sichern.
  • Archivierungslösungen wären hier, als „Long Term Retention“ durchaus weitere interessante Lösungen, zumal auch die einfache Erweiterung und Verteilung der Daten für diesen Anwendungsfall sehr interessant sind.
  • DevOps wird auch gerne im Zusammenhang mit Objectstores genannt. Als Versionsarchiv für den „Build, Release, Operate“ Prozess ist dieses sicher gut geeignet. Leider bin ich hier zu wenig in der Materie um dieses weiter ausführen zu können.
  • IoT Daten sind dagegen auch ein dankbarer Kandidat für Objectstores. Diese Daten fallen in Massen an, können gut via Metadaten klassifiziert werden und sollten für den nachgelagerten Analyseprozess auch schnell im Zugriff sein. Da diese Daten oft aus Remote Standorten kommen, ist das Befüllen via HTTPS als positiv zu werten.
  • Webseiten. Ja, auch die statischen Grundgerüste von großen Webseiten (Beispiel Amazon) werden heute gern in Objectstores abgelegt. Schneller Zugriff. Massen von Seiten (z.B. mit Bildern von Produkten etc.) sind durchaus gut auf dem Objectstore abzulegen. Alle „Dynamik“ in den Seiten macht der Webserver.

Anwendungsfall für das Eigene Rechenzentrum – Nutanix Objects

Nutanix als Anbieter einer etablierten Hyperconverged [HCI] Plattform bietet seit einiger Zeit die Möglichkeit, direkt aus der Plattform heraus Objectstore bereitzustellen. Nutanix Objects als integrierte Lösung profitiert dabei von allen Funktionen der HCI Plattform. Einfaches Bereitstellen mit wenigen Clicks, zentrales Management via HTML Oberfläche (Prism Pro), sowie der fantastisch einfachen Scalierung via neuer Nodes oder sogar über Nutanix Cluster hinweg.

Bild 2: Nutanix Objects – Architektur ©by Nutanix

Warum sollte ich mir nun einen S3 kompatiblen Objectstore ins eigene Rechenzentrum holen?

Datenverfügbarkeit und Zugriff: Daten im eigenen Rechenzentrum sind meist im deutlich schnelleren Zugriff als via Internet von der Public Cloud, ausserdem hilft die richtige Plattform auch, diese Daten hochverfügbar zu halten und dabei die Kosten im direkten Blick zu behalten.
Gerade im IoT Umfeld ist es weiterhin sehr sinnvoll alle Daten eines Standortes auch im ersten Schritt lokal abzulegen, vorzuverarbeiten und dann weiterzuleiten

Scalierbarkeit: Ja klar, jeder der Hyperscaler (wie der Name schon sagt) bietet die Möglichkeit Objectstores einfach zu vergrößern (verkleinern wird dann schon spannender ;-)).
Aber auch Nutanix mit seiner HCI Plattform bietet die Möglichkeit eines „pay as you grow“. Mit dem neuen Objects sogar über Nutanix Cluster hinweg.

Bild 3: Nutanix Objects Scalability ©by Nutanix

Sicherheit & Compliance: Was sollte sicherer sein als das eigene Rechenzentrum? Mancher darf auch gar nicht mit seinen Daten in die Public Cloud. Gerade Backups sollten mindestens einmal in der „Nähe das Geschehens“ vorhanden sein um im Fall der Fälle schnell und unkompliziert darauf zugreifen zu können.

Objects auf Nutanix: Einfach? – Einfach!

Anhand einiger Screenshots möchte ich gerne zeigen wie einfach sich Nutanix Objects auf einem Nutanix AHV Cluster via Prism Pro (der zentralen Management Oberfläche) installieren (oder besser aktivieren) lässt. Linzenzen für Objects vorausgesetzt, geht das so:

Bild 4: Prism Pro – Menü – Step1: Services – Step2:Objects

Via Prism Pro (Central) kommt man über das Hauptmenu > Services > Objects zum Objectstore Creation-Prozess

Bild 5: Object Store anlegen [Create Object Store]

Hier kommt jetzt ein Dialog der noch einmal alle Prerequistits (Vorbedingungen) auflistet.

Bild 6: Prerequistites für Objects

Sind alle Bedingungen erfüllt, kann der Objectstore mit seinen Randparametern angelegt werden (Name, Ausgangsgröße etc.)

Bild 7: Objectstore – Name und Domäne
Bild 8: : Objectstore – Performance, Ressoucen und Ausgangskapazität

Die hier angegebene Ausgangskapazität kann selbstverständlich jederzeit erweitert werden.

Bild 9: Auswählen auf welchen Nutanix AHV Cluster der Objectstore erzeugt wird.

Hier brauchen wir noch ein paar Parameter (Netzwerk etc.) und schon steht der Objectstore an sich bereit. Nun können Buckets angelegt und verwaltet werden. Diese dienen dann, wie am Anfang angesprochen, als „Speicherort“ der Objecte mit ihren Metadaten und ID’s.

Fazit

Objectstore als Datenspeicher bietet für bestimmte Anwendungsfälle sehr interessante Eigenschaften. Vor allem in der „Maschine zu Maschine“ Kommunikation sind Objectstores für statische Daten, Massendaten und auch große Dateien oft die beste Wahl.
Objectstores bieten aber nicht nur Public Cloud Anbieter, wie die großen Hyperscaler (S3 bei AWS usw.), sondern fast alle Storage Anbieter an. Eine besonders einfach zu handhabende Implementierung bietet Nutanix mit seiner Objects Lösung. Gerad beim Gedanken einer Hybried Cloud Strategie spielt das ein interessante Rolle.
Wichtig ist vor allem, sich vor dem Einsatz anzusehen welche S3 API Funktionen vom gewählten Anbieter unterstützt werden!

Übrigens, Nutanix Objects kann man live anfassen:

Nutanix TestDrive – 4Stunden Live geführt (wenn man will), viele Nutanix Lösungen ausprobieren „Nutanix TestDrive„. Kostenlos in Minuten verfügbar.

Ich hoffe, in der nächsten Zeit meinen Blog doch noch mal wiederbeleben zu können. Interessante Themen gibt es genug. Zeit ist das Problem, trotz Corona und allen Einschränkungen

Liebe „verbleibende“ Leser meines Bloggs ;-),

leider habe ich im vergangen Jahr nur sehr sehr wenig Artikel verfasst. Das Jahr war sehr turbulent mit vielen Veränderungen – hauptsächlich im beruflichen Umfeld.

Die Firma wuchs rasant, einige Veränderungen im Team haben hier und da Ihre Spuren hinterlassen. Im Großen und Ganzen muss ich aber sagen das mein Arbeitgeber sicher einer der besten in unserer Branche ist. Wir verändern viel im IT Umfeld und das erfordert schon mal spezielle Anstrengungen.
Vielen Dank dabei an meine Kollegen und auch meine Vorgesetzten!
Es macht viel Spaß mit Euch zusammen zu arbeiten.

Ich hoffe in 2020 wieder etwas mehr zum Schreiben zu kommen. Es sollen aber auch Artikel mit Gehalt, Ideen und Informationen sein. Das geht nicht immer so „… mal eben“.

Bei all dem möchte ich immer wieder auf meinen HERRN und Heiland Jesus Christus hinweisen. Ohne seine Hilfe könnte ich nicht voller Dankbarkeit zurückblicken und mit neuem Mut nach vorne sehen. Der Vers aus Hebräer 2V13 (die Bibel) gibt mir persönlich dabei neue Zuversicht, gerade in Zeiten großer Veränderungen. Mit „Ihm“ ist übrigens Gott bzw. Jesus Christus sein Sohn gemeint!

In diesem Sinn, ein gutes, gesundes und erfolgreiches 2020 an alle die mich kennen und diese Zeilen lesen.

Public-Cloud Dienste sind easy – Transparenz eher nicht

Endlich möchte ich mal wieder einen neuen Artikel vorstellen. Auf Grund der Anfragen und Diskussionen der letzten Wochen möchte ich heute gern eine Lösung vorstellen welches die fehlende Transparenz bei der Nutzung von Public-Cloud Diensten herstellt. Darüber hinaus kann ich mit dieser Lösung auch noch Compliance Richtlinien überprüfen.
Es handelt sich um das Nutanix Produkt „Xi Beam„.

Was ist Xi Beam?

Nutanix Xi Beam war die erste reine SaaS Lösung aus dem Hause Nutanix. Diese Lösung hat keine Abhängigkeit zur Nutanix HCI Plattform, kann diese aber in die Kosten- und Compliance Betrachtung mit einbinden.
Zur Zeit arbeitet Beam mit Amazone AWS und Microsoft Azure Cloud Konten zusammen. Im Laufe diesen Jahres soll die Google Cloud GCP dazukommen.
Als reine SaaS Lösung wird Xi Beam direkt via Browser aus der Cloud genutzt.

BeamDashboard

Bild 1: Xi Beam – Eingangsdashboard (aus demo.nutanix.com)

Vorbereitung

Um Xi Beam nutzen zu können müssen natürlich die Public Cloud Konten hinterlegt werden. Ausserdem müssen, je nach Cloud Anbieter, diverse Einstellung im Public Cloud Konto gemacht werden, damit der Cloud Anbieter die benötigten Daten überhaupt bereitstellt ;-). Wen das erfolgt ist, fängt Beam an die Daten zu sammeln, zu analysieren und aufzubereiten.

Das Kosten Modul

Schauen wir uns als erstes mal das Kosten Modul an. Dieses ist sicher das Modul mit dem man sofort Erfolge erzielen kann, indem man erstens sieht welche Kosten wo anfallen und zweitens an welchen Stellen Xi Beam Einsparungspotential sieht!

Cost-Dashboard1

Bild 2: Cost-Dashboard Ausschnitt (aus demo.nutanix.com)

Im Bild 2 sieht man z.B. für die AWS Aktivitäten auf einen Blick eine Kostenübersicht aufgesplittet auf die einzeln genutzten AWS Dienste (linke Seite), Rechts im Bild 2 sieht man dann die Kostenentwicklung der letzten Zeit.

Darüberhinaus kann man Reservierte Instanzen, Anomalien etc. auf einen Blick erkennen.

Geht man weiter auf „Analyse“ kann man sich immer detailierter über die anfallenden Kosten informieren und so geg. schnell gegensteuern.

Cost-Analysis

Bild 3: Cost Module – Analyse

Kosten aktiv optimieren!

Geht man über den Menüpunkt „Save“ bis zum ausgewählten Elementen die als „zu optimieren“ erkannt wurden, kann man z.B. direkt über Xi Beam verweiste alte Snapshots löschen. Das ist schon recht cool.

Cost-Optimizations

Bild 4: Kosten direkt aus Xi Beam optimieren

Sollte eine „Optimierung“ nicht direkt aus Xi Beam heraus möglich sein, wird in einem Dialogfenster genau erklärt wie man über das entsprechende Cloud Interface die Optimierung vornimmt! Damit hat mein ein äusserst effektives Werkzeug in der Hand um die laufenden Kosten von „Karteileichen“ zu befreien.

Das Compliance Modul

Im Compliance Modul können verschiedene Checks regelmässig durchgeführt werden. Dieses sind eine große Anzahl fertiger Compliance Regeln z.B. zu Security oder Performance Richtlinien.

SecurityCompliance

Bild 5: Security Compliance Dashboard über verschieden Regionen

Bild 5 zeigt solch ein Security Compliance Dashboard mit Weltweiten Cloud Regionen von AWS (sofern dort Workloads laufen) mit Ihren Compliance Verletzungen (hier im Demo natürlich einige :-))

Ebenso gibt es weitere Infos direkt auf dem Compliance Dashboard

CompliancDash2

Bild 6: Weitere Compliance Infos

Fix von Compliance Verletzungen

Viele detektierte Compliance Verletzungen (z.B. aus dem Security Bereich) lassen sich direkt aus Xi Beam heraus beheben (Bild 7)

SecurityComplianceFIX

Bild 7: Fix Compliance Probleme

Compliance Regeln erweitern und ändern

Wie bereits gesagt beinhaltet Xi Beam eine große (und ständig wachsende) Anzahl von Compliance Regeln. Diese können aber auch durch eigene Regeln ergänzt werden. Dazu kann man die bestehenden einsehen (Bild 8) und durch, in Phyton geschrieben ergänzen.

CustomAuidit

Bild 8: Eigene Compliance Regeln in Phyton erstellen oder vorhanden clonen und ändern

Damit stehen den Anwendern alle Möglichkeiten offen jede Art von Audit schnell, wiederholbar und verlässlich durchzuführen.

Nutanix im Eigenen RZ hinzufügen und Monitoren

Als Neuerung besteht die Möglichkeit auch Nutanix HCI Cluster in die Betrachtung durch Xi Beam mit einzubeziehen. Damit kann man schnell feststellen wo welcher Workload am kostengünstigsten zu betreiben ist.

Fazit

Nutanix Xi Beam bietet vielfältige Möglichkeiten „Licht ins Dunkel“ der eigenen Public Cloud Aktivitäten zu bringen und dabei in dem meisten Fällen richtig Geld einzusparen.
Beam Kunden möchten dieses Lösung nicht mehr missen und nutzen die Dashboards und Möglichkeiten regelmässig.

Auch im Jahr 2018 ging es beruflich turbulent aber sehr interessant und erfolgreich voran. Viele alte Kontakte konnten gepflegt werden, interessante neue kamen hinzu. Nette, kompetente und interessierte Menschen waren immer wieder Ansporn besser mit den Partnern und Menschen zusammenzuarbeiten. Auch die Kollegen im eigenen Unternehmen standen immer wieder hilfreich und unterstützend zur Seite. Damit machen dann selbst stressige Momente wieder Spaß. Danke an das Team Germany!

Mein herzlicher Dank geht daher aber auch an alle die, die mir auf die eine oder andere Weise geholfen haben und denen ich vielleicht auch ein wenig helfen konnte manches besser zu verstehen und auch einzusetzen.

Einer der mir aber immer zur Seite stand und steht ist Jesus Christus mein persönlicher Heiland. Er hat am Kreuz von Golgata für meine Schuld Gott gegenüber sein Leben gegeben

Dazu sagt die Bibel:
„Und es ist in keinem anderen das Heil, denn es ist auch kein anderer Name unter dem Himmel. der unter Menschen gegeben ist, in dem wir errettet werden müssen“ Apostelgeschichte 4 Vers 12

Ich wünschte das jeder diese Zuversicht besitzt und daher auch mit einer gewissen Ruhe in die Zukunft, die z.Z. alles andere als ruhig und gewiss ist, sondern massiven Veränderungen unterworfen ist, sehen kann. Manche Veränderungen sind sicher sehr positiv zu sehen, andere auch mit Skepsis und Vorsicht zu betrachten. Eine Sicherheit in Bezug auf die eigene Zukunft die über dieses Leben hinaus geht ist da ein großer Halt und eine Zuversicht.

Daher ist vielleicht auch dieses Wort aus der Bibel ein Hinweis und Trost:
„Glückselig der Mann, dem der HERR (Gott) Sünde nicht zurechnet!“ Römer 4 Vers 8

Allen Lesern wünsche ich an dieser Stelle ruhige und besinnliche Feiertage und ein gutes, gesundes, erfolgreiches Jahr 2019.

Leider waren 2018 meine Blogg Aktivitäten eher bescheiden. Vielleicht schaffe ich es ja in 2019 hier mehr zu schreiben und alle Leser an der spannenden Reise in neue (und alte) IT Welten teilhaben zu lassen. Gerade am Beginn einer „Multi-Cloud“ Epoche gibt es da viel zu tun und zu lernen.

( alle Bibel Stellen: Elberfelder Übersetzung CSV Edition)

Worum geht es?

In dieser kurzen Buchbesprechung möchte ich auf den Roman „Projekt PHOENIX“ eingehen, in welcher ich auf „Storyteller-WeiseDevOps Ideen vermittelt werden.

Projekt-Phoenix

Ich muss gestehen, dass ich seit Tom DeMarcos Roman „Der Termin“, zum Thema Projektmanagement, solche Art der Wissensvermittlung liebe.

Dieses Buch wurde von drei Autoren [Gene Kim, Kevin Behr und George Spafford] geschrieben. Die deutsche Ausgabe ist bei O’Reilly erschienen.

Inhalt

Ein IT Teamleiter aus dem Midrange Bereich (Bill) wird plötzlich zum neuen IT-Manager ernannt und rennt faktisch den Problemen der IT Abteilung nur so hinterher. Reines Reaktionsgeschäft.

Zu allem Überfluß arbeitet die Firma Parts Unlimited schon seit geraumer Zeit mit viel Geldeinsatz an einem neuen Web basierten All-You-can-eat System, welches nicht in die Gänge kommt und von Version zu Version eher schlechter als besser wird.

Als alles zu kollabieren scheint, bekommt Bill den Anruf von einem geheimnisvollen Dr. Reid. Dieser versucht Bill anhand den Arbeitsweisen im Fertigungbereich der Firma, Methoden zur effektiven IT Arbeit und Entwicklung beizubringen. Bill muss sich diese aber stückweise selbst erarbeiten. Er erhält immer nur Anhaltspunkte. So z.B. die „vier Arten von Arbeit/Aufgaben“ zu erkennen.

Anhand dieser Beispiele, versuchen die Autoren die Philosophie und Methodik von DevOps zu vermitteln.

Bill schafft es so, Stück für Stück die IT (Operations) und die Entwicklung (Development) zusammen zu bringen und mit modernen Tools (Cloud) aus dem Chaos zu führen.

Dazu erkennt er, dass neben der Bereitschaft Dinge völlig neu zu denken, auch ein hoher Grand an Automatisierung, gepaart mit einem sicheren Management, die Grundpfeiler der „neuen“ IT mit dem Schlagwort DevOps bilden.

Meine Meinung

Dieses Buch lässt sich auf Grund des Romanformates sehr flüssig lesen. Sicher wird man durch dieses Buch nicht zum DevOps Guru (gibt es das überhaupt?). Man erfährt aber viel über die Philosophie und die Vorgehensweise von DevOps.

Für mich war interessant, dass DevOps scheinbar die Überleitung von Methoden aus der Güter-Produktion auf die „Produktion“ von IT Leistungen im weiten Sinne ist. Besonders im Bereich der Entwicklung von anwendungsspezifischen Software Projekten macht die Zusammenarbeit von Entwicklern und IT Operations sehr viel Sinn. Ebenso die Bereitstellung von neuen Funktionen in „kleinen Häppchen“, wobei hier das Augenmerk auf Kontinuität liegt.

Keine Mega Arbeitspakete mit unzähligen Funktionen, sondern Stück für Stück zum nie fertig werdenden Produkt ;-). Nur, dass dieses Prinzip und kein Mangel ist. Heute arbeiten schon viele Unternehmen nach diesen Prinzipien und verändern und verbessern (hoffentlich) Ihre Produkte ohne riesige „Major-Releases“ zu schaffen.

Als Einstieg in das Thema DevOps daher aus meiner Sicht durchaus empfehlenswert, wenn man anschließend auch sicher ein oder mehrere echte Fachbücher braucht um DevOps tatsächlich umsetzen zu können.

Etwas einseitig fand ich den Eindruck, dass DevOps nur mit Kanban Board wirklich effektiv umzusetzen ist. Hier gibt es sicher unterschiedliche Meinungen, wobei ich selbst Kanban durchaus für eine einfache und gute Methode halte, um Dinge von der Idee zur Fertigstellung zu bringen.