Als hochkompetenter IT-Entscheider und -Macher...

20.05.2013 11:14 von /cbx, derzeit 6.21427 Kommentare

Send to Kindle


[Wenn schon, denn schon…]

…habe ich mich in letzter Zeit immer wieder dabei ertappt, mir heimlich eine schone, saubere, durch und durch übersichtlich strukturierte, hoch professionelle Windows-Landschaft, komplett mit Domänen und Gruppenrichtlinien zu wünschen, die unser gewachsenes Linux-Chaos im G’schäft ersetzen möge.

Na? Sind wenigstens ein oder zwei Leser gerade etwas zusammengezuckt? Ja? Gut. Ich kann nämlich heute schon schreiben, dass ich von dieser Fieberfantasie seit einigen Stunden wieder geheilt bin. Des weiteren gebe ich zu bedenken, dass “kompetent” ja prinzipiell nur “zuständig” bedeutet und – gerade in Politik und Wirtschaft – oft genug mit Begriffen wie “qualifiziert” oder “erfahren” keinerlei kausale Beziehung eingeht.

Doch bevor ich wieder vollends ins sinnleere Schwafeln abgleite (gab es hier jemals Anderes?), möchte ich jene ganz schlichte Geschichte aufschreiben, die meinen beginnenden Sinneswandel zu einem jähen Ende gebracht hat.

Vor wenigen Wochen hat mich ein defektes Kabelmodem dazu gebracht, über die IT-Ausstattung im Haushalt meiner Mutter nachzudenken. Seit einigen Monaten gibt es dort nämlich immerhin sehr brauchbare 18Mbit/s Bandbreite, die dank des guten Providers (→KufNet) auch praktisch immer verfügbar ist. Am anderen Ende des Modems (bzw. hinter dem Router) sitzt allerdings eine Hardware, die mit Begriffen wie “antik” oder “historisch” nur unzureichend beschrieben ist. Derzeit arbeitet sich dort ein Athlon XP 2400 mit grandiosen 768MBytes RAM und einer 80GB Harddisk an – Achtung, jetzt kommt der Brüller – Windows 2000 ab.

Auf der Habenseite ist zu verbuchen, dass dieses Ding einfach so funktioniert und sich durch nichts und niemand ernsthaft aus dem Konzept bringen lässt, denn wer unter Windows 2000 keine Admin-Rechte hat, der kann wirklich kaum Schaden anrichten und auch die meiste Schadsoftware ist mit dieser Antiquität nicht mehr kompatibel. Auf der Sollseite hingegen steht, dass allein das Booten einige Minuten dauert und auch beim Starten von Firefox oder Thunderbird schon mal zehn bis fünfzehn Sekunden der Sanduhr geopfert werden müssen.

So beschloss ich also, diese wahrhaft archaische Hardware in Rente zu schicken und durch ein etwas weniger veraltetes System zu ersetzen. Und genau an dieser Stelle begannen dann auch schon meine Probleme. Einer spontanen Eingebung folgend habe ich mir bei Amazon mal schnell ein Lenovo IdeaCentre H520S für 399€ bestellt – und ich muss sagen, die Hardware ist ziemlich genial und den Preis absolut wert. Allein – das kompakte und stylishe Kleinkraftwerk kommt komplett mit Windows 8.

Ich habe das mal fertig installiert und (zugegeben – nicht sehr leidenschaftlich) versucht, mich damit anzufreunden, bin aber (erwartungsgemäß) gescheitert. Wenn ich mir einen richtigen Desktop-PC anschaffe, dann möchte ich damit auch richtige Desktop-Dinge damit tun und nicht auf einer Smartphone-Oberfläche mit der Maus irgendwelche Fingergesten nachzittern müssen. Insbesondere aber war klar, dass ich meiner Mutter, die, wie man anhand meines biblischen Alters leicht extrapolieren kann, die 35 auch schon seit ein paar Jahren hinter sich gelassen hat, diesen Kulturschock nicht antun wollte.

So blieben mir also im Wesentlichen drei Optionen, was ich auf das IdeaCentre installieren konnte.

  • Windows XP,
  • Windows 7 oder
  • Kubuntu

Ein kurzer Versuch mit der Kubuntu-12.04 DVD zeigte, dass das innerhalb weniger Minuten erledigt wäre und alles out of the box funktionieren würde. Zu einfach. Zu einfach? Mitnichten! Da gab es nämlich noch dieses Digital Arts and Crafts Studio, das zur Beschäftigung der Enkel wahre Wunder wirkt und unter Linux definitiv nicht funktionieren würde. Damit war Kubuntu ausgeschieden.

Windows 7 ließ sich von meiner vor längerer Zeit gekauften Original-DVD dank eines fetten Kratzers nicht installieren, eine Recherche zeigte dann aber auch, dass weder für den Drucker noch für den Scanner noch Treiber zu bekommen waren. Über Programme wie Office 2000 und Nero 6.0 wollte ich dann gar nicht erst spekulieren.

So blieb nur mehr Windows XP. Das allerdings blieb bereits während der Installation mit einem Bluescreen stehen, weil es mit dem Chipsatz des IdeaCentre nicht zurecht kam. Na bravo!

Nach kurzem Weinen kam mir dann die Erleuchtung. Ich würde ein anderes µATX-Gehäuse besorgen und dort das Mainboard meines bisherigen Daheim-PC einbauen. Der verfügte über einen Core2-E8400, 2GBytes RAM, eine 500GBytes Hardisk, einen G41-Chipsatz, PS/2 Anschlüsse und sogar einen Parallelport. Daran würde sich die gesamte Hardware anschließen lassen und wenn ich darauf XP bügelte, wären weder Software noch Geschwindigkeit ein ernstes Problem. Und so geschah es.

Pünktlich diesen Freitag trafen Gehäuse, DVD-Brenner und Festplatte ein, sodass ich dieses längere Wochenende nutzen konnte, die Rechner umzuziehen. Zuerst war die Migration des Daheim-PC auf das IdeaCentre dran – und das ging so:

Daheim-PC booten, IdeaCentre von SD-Karte mit Linux booten, Festplatte partitionieren und formatieren, mittels rsync die rund 200GBytes Betriebssystem und Daten auf die neue Platte kopieren, Bootsektor instalieren, neu starten, fertig. Diese Aktion dauerte rund 3 Stunden (→200GBytes kopieren), davon ungefähr 10 Minuten mit manueller Interaktion. Das IdeaCentre bootete ohne eine einzige Anpassung und war ab diesem Moment unser neuer Daheim-PC.

Der Umbau des alten Mainboards in das stylishe Gehäuse (siehe Bild) war dank einer erfreulich durchdachten Gehäusekonstruktion kein Problem und schon wenige Minuten später konnte ich mit der Installation beginnen. Und genau damit werde ich mich wohl auch noch viele weitere Stunden beschäftigen dürfen.

Ja, diesen delikaten Teilaspekt einer Windows-Installation hatte ich vollkommen vergessen. Nachdem das System selbst in einer halbstündigen Aktion Festplatten-Platz genommen hatte, stand eine mittlere Orgie an Treiberinstallationen an. Für jede verbaute Komponente durfte ich von der Herstellerseite den passenden Treiber laden, installieren und immer und immer wieder “Nein, jetzt nicht neu starten” anwählen. Am Ende dieser zermürbenden Prozedur stand dann ein funktionsfähiges System, dass sich dann – trotz integriertem Servicepack 3 – für eine gute Stunde rund 130 Updates genehmigte. Als Linux-Benutzer hätte ich nun schon seit knapp zwei Stunden arbeiten, surfen oder spielen können, mein Windows hingegen bot bisher nicht mehr als einen Brauser, Wordpad, Solitair und Minesweeper.

Für Heute ist geplant, zahllose CDs zusammen zu suchen, Serien- Registrierungs- und Freischaltnummern wieder aufzutreiben(!), diverse Pakete zu installieren und insgesamt noch viele, viele Stunden damit zu verbringen, das Gerät in einen benutzbaren Zustand zu überführen.

Hätte ich stattdessen irgend eine Linux-Distribution verwendet, hätte ich entweder einfach eine bestehende Installation auf den neuen Computer kopieren (siehe oben) oder eine vollständige Neuinstallation inklusive aller Treiber und Anwendersoftware mittels weniger Mausklicks durchziehen können.

Und die küchentischphilosophische Quintessenz aus diesem Epos? Vielleicht das: “An Vorteile gewöhnt man sich leider all zu schnell und man muss gelegentlich auf sie verzichten müssen, um sie wieder schätzen zu lernen.”

/cbx, Kategorie: Linux LeidenSchaf(f)t - Schöngeistlos

 

Eigener Senf dazu?

  1. georgi gab am 20. Mai 2013, 17:37 folgenden Senf dazu:

    Und was hat das mit Domains/Gruppenrichtlinien zu tun? …,zumal Linux ja nur deshalb seinen Vorteil hat, weil kommerzielle Anbieter keine linuxtaugliche Lösungen hinkriegen. …sonst müßtest Du ja auch da ellenlange keys eintippen.

    Weißt Du, was ich merkwürdig finde? Jeder beschwert sich darüber, daß der Desktop nicht ganz so wie bei Windows aussieht, und gibt sich Mühe, damit der Desktop wie bei Windows aussieht, aber noch niemand ist je auf den Gedanken gekommen, AFS-Dateisysteme zu POSIXifizieren. …nicht einmal IBM.

    /cbx meint dazu:

    Das mit Domains/Gruppenrichtlinien bezog sich auf meine gelegentlichen Ausbrüche im G'schäft, wenn die Administration meines Linuxhaufens wieder etwas aus den Fugen gerät.

    Über die Desktop- und Applikationsfrage könnte man natürlich Aönen lang streiten. Meine Erfahrung zeigt, dass unvorbelastete Menschen sich auf jeden Desktop einstellen können. Filesysteme hingegen - Wen interessieren Filesysteme? Spätestens seit Windows 8 soll der Anwender nicht einmal mehr den Verdacht haben, hinter den Kacheln gäbe es sowas wie ein Filesystem. Und dann ist es vollauf egal, wie es heißt und ob es POSIX kompatibel ist...

  2. Nordlicht gab am 20. Mai 2013, 17:53 folgenden Senf dazu:

    Ich habe zwar einige Details nicht verstanden, weil ich von Linux keine Ahnung habe, kann der Klage über Microsoft aber im Grundsatz folgen. Auch den Jammer über die lange Dauer, bis so ein MS-System endlich in benutzerfreundlichem Zustand dasteht, kann ich gut verstehen.
    Trotzdem ist Linux für mäßig gebildete Amateure wie mich absolut nix. Vor einigen Jahren habe ich voller guten Willen den Versuch unternommen, umzusteigen. Ein Bekannter hat mir ein Suse (? Das mit dem Chamäleon) aufgespielt, es lief auch prima, aber als ich dann mit Bildbearbeitung anfangen wollte und später Fragen zum Textprogramm hatte, wurde es wirklich lästig. Kaum eine vernünftige Dokumentation, das meiste mußte ich mir in Foren zusammensuchen und das ist ein Alptraum. Arrogante Klugscheißer wohin man kommt und statt einer Antwort immer den allerliebsten Ratschlag, doch mal ordentlich die Grundlagen zu lernen. Das war aber zu einer Zeit (so um 2005, 2006) wo auf allen Kanälen getönt wurde, wie laienfreundlich Linux inzwischen so sei. Am Arm!

    Linux ist nur was für Leute, die das nötige Vorwissen mitbringen. Denn nach dem eigentlichen System kommt ja immer der Kampf mit den jeweiligen Programmen und wer sich nach seiner Erwerbsarbeit am Abend ernsthaft in Gimp oder Photoshop einarbeiten muß/will, braucht dafür Monate und diverse Bücher und Videoanleitungen. Da lobe ich mir aber die Welt von Microsoft. Da gibt es jede Menge gut gemachte Unterstützung – und das ist mindestens so wichtig wie ein sauber laufendes System.
    Seit ich Kopien von XP und W7 anfertigen kann, ist ohnehin alles entspannt. Wenn mal was klemmt, was nur noch sehr selten passiert, dann bügel’ ich die Kopie drüber und bin 20 min später fertig.

    Die Idee hinter Linux ist prima. De facto ist es aber ist nix für Leute, die kein Informatikstudium haben und mit dem Rechner wirklich arbeiten wollen/müssen.

    Gruß
    Nordlicht

    /cbx meint dazu:

    Du hast vollkommen recht. Und DU stehst wahrscheinlich für 97% aller Anwender. Insofern war dies ja auch ein ganz persönlicher Rant, weil ich mich eben für etwas mehr als einen "mäßig gebildeten Amateur" halte und demzufolge anders an Dinge heran gehe.

    Ob allerdings heute, 2013 nur für Windows-Toos "jede Menge gut gemachte Unterstützung" existiert, darüber könnte man schon noch mal diskutieren. Da hat gerade Ubuntu (das ich sonst nicht besonders mag) schon ziemlich viel zum Besseren gewendet.

  3. The Angry Nerd gab am 20. Mai 2013, 19:07 folgenden Senf dazu:

    Dass ich bei DEM Thema eine ganze Senftube für dich habe war dir klar, oder?

    Zu Windows 8 und der Oberfläche verkneife ich mir alles Weitere, das ist vor allem eine Glaubensfrage. Aber Windows XP auf einen Rechner drücken? Bist du kirre?
    Gut, mangelnde Treiber und damit nutzlose, ehemals teure Hardware sind ein Argument. Ein so großes, dass ich bspw. nicht mehr bereit war einen Scanner zu kaufen, der nicht SMB, FTP oder SMTP spricht. Ich habe immer noch einen Flachbettscanner aus den späten 90ern, der mit Windows 2000 mangels Treibern so gut wie nutzlos wurde. Unter Linux gibt es natürlich funktionierende Treiber. Der USB Scanner meines Zentralgestirns funktioniert noch unter Windows 7, aber mit der nächsten Büchse läuft es auf fehlende 64 Bit Treiber hinaus.

    Generell muss man bei Windows eigentlich alles vergessen, was sich an Einzelanwender und Privatleute richtet. Tut man das, ist das Ökosystem gar nicht so schlecht. Man bekommt plötzlich halbwegs ordentliche Treiber über mehr als eine Generation und alle in einem Paket, dass man bequem per DISM injizieren kann. Das grundsätzliche Problem, dass Treiber relativ schnell veralten und man sich eigentlich gar nicht helfen kann, ist allerdings ein großer Pferdefuß.

    Die enorme Hardwareabhängigkeit von Windows ist ein anderes Problem. Das hat sich zwar mit Vista auf einen Schlag drastisch verbessert, hinkt aber hinter Linux immer noch hinterher und wird von dem Gedöns mit der Aktivierung begleitet, dass einen für viele Szenarien die Tischkante kennen lernen lässt. Schonmal eine Schulungsumgebung mit Windows 7 ohne OEM Hardware mit SLIC Tabellen und zertifikatsbasierter Aktivierung aufgebaut? Grauenvoll! Und selbst mit ist es ärgerlich anschauen zu müssen, wie Windows immer erst einen Neustart braucht um sich der Hardware anzupassen, während Linux einfach mit den Schultern zuckt.
    Softwareinstallation und Aktivierung sind dann der nächste Punkt. Wenn man den Kram als MSI Paket hat kommt man dem Komfort von apt-get relativ nahe, aber auch nur relativ und wenn. Es gibt genug spezielle Software, die mit dem Ziel geschrieben worden zu sein scheint, einen eitrigen Pickel am Arsch zu simulieren…

    Wenn man aber die Windowsnummer im Hinblick auf ein Unternehmensnetzwerk konsequent durchzieht, ist das Ergebnis wirklich nicht schlecht und ich würde es Linux in den meisten Fällen vorziehen.
    Die Installation neuer Rechner ist mit WDS ziemlich bequem und wenn man neue Hardware hat muss man eigentlich nur einmal kurz die Treiber via DISM in ein Image drücken. Wenn man eine einheitliche Grundinstallation will hat man auch eine angepasste unattended.xml und kann danach die Installation übers Netzwerk in 20 Sekunden anstoßen und muss sich um nichts mehr kümmern.

    Die Gegenstücke zu Active Directory und den Gruppenrichtlinien… ich kann mir vorstellen, warum du genau das eingangs erwähnt hast ;)
    Aber auch wenn ich mir anschaue wie es auf der hellen Seite mit Gegenstücken zu Exchange und Outlook aussieht wird mir klar, warum Unternehmen auch dann bereit sind richtig Geld hinzulegen, wenn sie die kennen.

    Das einzig praxisrelevante Argument gegen Windows für ein Unternehmensnetzwerk, dass das Kinn so richtig scheppern lässt, ist eigentlich der Preis. Auch wenn Linux weder umsonst noch kostenlos ist, kann man schon heftig ins Schlucken kommen, wenn man mal die Kosten für 1-2 Server, CALs und die Clientbetriebssysteme zusammenrechnet.

    /cbx meint dazu:

    Klar, kurz und bündig, dem Thema angemessen.

    Also XP war für mich ja quasi (siehe Text) alternativlos. Bruhar!

    Und ja - hätte ich eine große Armee von Sesselfurzern, die nur Excellation und Powerpoint-Engineering betreiben, hätten wir wahrscheinlich schon lange Win7 und einen 2008er Server. Die Tatsache aber, dass wir alle unsere Maschinen auf Linux deployen ist schon ein fettes Argument dafür. Und dass so auch unsere Nicht-Entwickler grundlegenden Linux-Kontakt bekommen ist eine kostenlose Zusatzleistung.

    Wobei - sooo schlecht ist unser System mit NIS und server mounted home sowie zentralisiertem vollautomatischem Update auch nicht. Vielleicht schreibe ich ja mal was drüber...

  4. georgi gab am 20. Mai 2013, 19:36 folgenden Senf dazu:

    …na, ich staune immer, warum das olle NFS immer noch Stand der Technik ist. Wo bleibt der Open-Source-Gedanke, zumal Bezwinger eines wüsten Linuxhaufens ja genau diejenigen sind, die das Problem erkennen, und es aus der Welt schaffen könnten. Damit meine ich nicht Dich, sondern die Damen & Herren von Canonical, RedHat etc.

    /cbx meint dazu:

    Also ich habe kein Problem mit NFS4, ganz im Gegenteil - es funktioniert und es performt (in meinem Einsatzszenario). Wenn man um die Schwächen weiß, genügt das doch. Und AFS? Damit habe ich mal vor 2 Jahren mal etwas herum gespielt - war mir dann aber etwas zu exotisch, das im G'schäft umzusetzen...

  5. The Angry Nerd gab am 20. Mai 2013, 19:58 folgenden Senf dazu:

    Nur zu! Die Architektur deines Linuxdschungels würde mich sehr interessieren. (Und nein, ich will nicht gesagt haben, dass Windows in der Praxis kein Dschungel sei.)

    Und ich will auch nicht gesagt haben, dass Linux für ein Unternehmensnetzwerk nichts taugt oder das man irgendwo Windows reinquetschen muss. Ich kenn ja eure hust Prozesse hust nicht und weiß nicht wie die hust Toolchain hust aussieht, aber das spielt ja in der Frage auch eine zentrale Rolle. Wenn das durchweg Dinge sind, die eigentlich besser oder nur unter Linux laufen – warum nicht?
    Dazu kommt wohl auch noch, dass du die Leute nicht so eng an die Leine legen musst – oder kannst. Wenn man aber nicht so viele und recht selbständige Benutzer hat und dazu mehr oder weniger in einem Gebäude sitzt, dann greifen viele der Gimmicks die Domäne und AD mitbringen auch nicht so richtig – außer im Preis und evtl. im Verwaltungsaufwand.

    Und Nordlicht spricht dazu einen Punkt an: Technet. Microsoft hat größtenteils wirklich gute und brauchbare Dokumentation. Und so viel sich da bei Linux getan hat, die Situation ist nach meiner Erfahrung erheblich schlechter.

    /cbx meint dazu:

    Zu 1: Mal sehen...

    Und zur Dokumentation: Ich suche mir die Softwarepakete - gerade am Server - auch danach aus, wie brauchbar die Dokumentation ist. Deshalb auch Postfix statt Sendmail und Lighttpd statt nginx (OK, der große Hobel fährt natürlich mit dem Apatschen.

  6. André gab am 21. Mai 2013, 23:53 folgenden Senf dazu:

    Wäre Virtualisierung nicht eine gute Lösung … gewesen?
    Ich selbst mach das schon seit Jahren. Als Host-OS, was eben auf dem Rechner so drauf ist (z.Zt. Win7), zusätzlich VMware installieren und meine virtuelle Platte wieder in VMware starten, und schon läuft mein OS/2 (jetzt eCS) wieder.
    So hab ich den alten Notebook mit WinXP meines Onkels (Jahrgang ’35) virtualisiert, Stichwort: VMConverter.
    Sein neues Notebook hat als Host-OS Win7, durch die Virtualisierung ist sein “normales” WinXP sofort da; so wie er es bisher gewohnt war.
    Falls er mal auf den Win7 Desktop kommt, hab ich ein auffälliges Icon mitten auf den Desktop und zur Sicherheit auch in die Taskleiste gelegt, das er anklicken muß, um wieder in den virtuellen WinXP PC zu gelangen.

    /cbx meint dazu:

    Darüber habe ich durchaus nachgedacht. Windows 8 wollte ich aber auf keinen Fall drunter haben (auch, weil ich dann im Supportfall vollkommen blank gewesen wäre). Und meine letzten Versuche mit dem DACS (das Kinderspielzeug) sind damals an der USB-Virtualisierung von VirtualBox gescheitert.

    Das wäre aber sicher machbar gewesen. Letztlich habe ich dann ganz eigennützig die Win-Win-Lösung bevorzugt, weil der Core i3 im IdeaCentre erstaunlich gut performt und meine alte Gurke unter XP auch super rennt. So hatten dann meine Mutter und ich etwas davon :-)

Kommentarfunktion für diesen Artikel geschlossen.