Ein Jahr mit Windows NT4

Ein Erfahrungsbericht

Als vor wenigen Jahren Windows NT 4.0 von Microsoft im Markt eingeführt wurde, waren die Erwartungen gross. Microsoft pries NT als System an, mit dem alle zentralen Serverdienste (Datei/Druckersharing, Datenbanken, Mail) abgedeckt werden könnten, bis in die Grösse eines ``Enterprise wide network''. Dies alles sollte zudem zu einem wesentlich günstigeren Preis als bei vergleichbaren Systemen möglich sein. Nach zwei Jahren im praktischen Einsatz hat sich gezeigt, dass NT keine dieser Anforderungen erfüllen kann. Trotz mehrerer Updates (``service-pack'', inzwischen aber auch ``bug-changes'' genannt) ist die Leistung unbefriedigend und die Sicherheit mangelhaft. NT ist immer noch ein latent instabiles System, das besonders bei hoher Auslastung und bereits in mittelgrossen Netzwerken (ab 150-200 Benutzer) täglich für Ausfälle und Störungen aller Art verantwortlich ist.

Ein Jahr mit NT 4.0

Im April 1998 begann ich eine neue Stelle in einem Systemhaus, das ein kaufmännisches Softwarepaket entwickelt und ca. 240 Mitarbeiter beschäftigt. Ausserdem hat sich die Firma auf die Installation von Netzwerken und Netzwerkservern spezialisiert. Und seit einem Jahr gab es auch eine Gruppe welche Internet Dienstleistungen anbot. Ich begann meine Arbeit in dieser Gruppe, meine Aufgabe bestand darin, den technischen Teil von Web-Präsentationen (Datenbankanbindung, Scripts, etc.) zu realisieren und beim Unterhalt des Netzwerkes mitzuhelfen.

Die Infrastruktur des Unternehmens bestand aus einem internen Netz, das via Firewall/Proxy an das Internet angeschlossen ist. Es gibt ca. 20 NT-Server für die verschiedensten Aufgaben, sowie ca. 180 Arbeitsplätze mit Windows NT und Windows 95. Dabei werden fast ausschliesslich MS-Produkte verwendet: IIS, Exchange, SQL Server und der MS eigene Nameserver. Im Netz stehen ausserdem zwei Netware 3.12 Server und eine HP9000. Entwickelt wird mit Visual C++ und VisualBASIC. Im Bereich Internet kommen Perl und PHP, aber auch ASP/VB-Script zur Anwendung.

Erste Erfahrungen

Meine ersten Tage verbrachte ich damit, mich in das System einzuarbeiten und mich mit den verwendeten Werkzeugen vertraut zu machen. Als ich MS Mail benutzte, stellte ich fest, das eingehende, aber auch ausgehende Mails sehr langsam zugestellt werden. Eine Untersuchung des Mail Header zeigte, dass eine ausgehende Mail vier Stunden in der Exchange Queue verblieb, ehe sie den Empfänger erreichte. Am Zielrechner kann es nicht gelegen haben, denn der war immer online. Auf eine Anfrage forderte mich der Betreuer des Mailsystems auf, überhaupt keine Internet Adressen zun verwenden, da diese ``zu endlosen Loops im Exchange führen können.'' Von da an verwendete ich mein privates Mail account.

Mir fiel auf, dass ich am Morgen oft nicht auf meine Serverdomäne einloggen konnte. Auf dem Bildschirm erschienen verschiedene Fehlermeldungen: ``Benutzername nicht bekannt'', ``Kann Domänenserver nicht finden'', oder ``Es ist ein Netzwerkfehler aufgetreten''. Beim zweiten oder dritten Anlauf klappte es aber meistens. Besonders amüsant war eine Fehlermeldung, die darauf hinwies, das mit der ``Mailpumpe'' etwas nicht stimmt.

Tägliche Serverausfälle

Eines der Hauptprobleme bei der täglichen Arbeit sind die Serverausfälle, die täglich auftreten, obwohl alle Systeme in der Nacht neu gebootet werden. Unangenehm ist daran, dass der Server läuft und alle Prozesse gestartet sind, trotzdem fallen Dienste periodisch aus oder sind gar nicht mehr ansprechbar. Häufig versagt der DNS Server den Dienst, oder der POP3/SMTP Server reagiert nicht mehr, in den zugehörigen Log-Dateien sowie in der Ereignisanzeige sind jedoch keine Meldungen zu finden. Ein Neustart des entsprechenden Prozesses schafft nicht immer Abhilfe, so dass wir oft gezwungen sind, das gesamte System neu zu booten. Es gab Situationen, wo die Maildienste oder der Zugriff auf das Internet während Tagen völlig unbefriedigend oder gar nicht funktionierte, was zu ziemlicher Frustration führte, nicht nur bei den Anwendern! Ein etwas resignierter Studienabgänger stellte die Frage, ob er seine vierjährige Ausbildung nur gemacht habe um am Server den Resettaster zu drücken.

Leider konnte bei den Ausfällen keine Gesetzmässigkeit gefunden werden, das Unternehmen hat auch heute noch - ein Jahr später - täglich Probleme. Dies hat auch dazu geführt, dass auf der Website eine Option zur Verfügung gestellt wird, mit der geprüft werden kann, ob der Maildienst zurzeit arbeitet oder nicht1. Das ist etwa so, als wenn ein Automobilhersteller eine Anzeige in die Armaturen einbaut, die über den Ausfall des Motors informiert.

Die Mühe lohnte sich indessen nicht: Mehrere Kunden liessen sich von diesem Service nicht beeindrucken und wechselten zu einem anderen Provider. Das nennt man eben Pech.

Virtuelle Server einrichten

In Zusammenarbeit mit einem Provider übernahm unser Team auch das Hosting von Web Sites für Kunden. Zum Einrichten eines virtuellen Servers inklusive FTP-Zugang werden ausschliesslich Microsoft Tools verwendet. Das Erstellen einer Kundendomäne gestaltet sich jedoch ziemlich mühsam. Man muss sich durch eine Myriade von Dialogboxen und Programmen ``hindurchklicken'', dazwischen entstehen zum Teil beträchtliche Wartezeiten, so dass das Erstellen einer neuen Domäne mehr als eine Stunde dauern kann. Besonders das Tool zum Erstellen von DNS Einträgen erwies sich als sehr fehleranfällig: Wurde an einem Eintrag eine Korrektur vorgenommen, wurde diese meistens nicht korrekt in die DNS Datenbank übertragen, was zu einem kompletten Ausfall des Nameserver führen konnte. Schlimmer noch: In einem Fall war die DNS-Datenbank korrupt und musste ab Band wiederhergestellt werden. Ausfälle von mehreren Stunden waren die Folge.

Ebenso stürzte das Programm zum Konfigurieren des Internet Information Servers (IIS) immer wieder ab. Störend war hier auch, dass für alle virtuellen Server nur eine Startseite vorgegeben werden kann: Die Vorgabe von Microsoft ist default.htm. Die meisten anderen Webserver verwenden hingegen index.html oder welcome.html. Das erscheint auf den ersten Blick nicht gravierend, wird es aber spätestens dann, wenn man als Startseite auch Scripts, wie zum Beispiel index.php3 verwenden will. Die völlig mangelhaften Konfigurationsmöglichkeiten und die schlechte Performance führten dazu, das als Alternative nun auch der Apache Server verwendet wird. Die Inferiorität des IIS gegenüber Apache wurde unlängst auch von Steve Ballmer eingestanden.

Microsoft legt viel Wert darauf, die Einfachheit der Systemadministration unter NT zu betonen: Dialogboxen, Icons und Symbolleisten sind aber kein Garant für die Benutzerfreundlichkeit eines Programmes. Bei Lichte betrachtet zeigt sich sogar, dass diese Philosophie kontraproduktiv ist. Ein anderer Provider arbeitet mit UNIX/Linux und hat für alle wichtigen Arbeiten Perl Scripts entwickelt. Ergebnis: Das Erstellen eines virtuellen Servers wird durch die Eingabe eines einzigen Kommandos erledigt!

Die Registry wächst und wächst...

Ich habe einen NT Server selbst installiert und anschliessend ohne Aenderungen der Konfiguration während mehreren Wochen in Betrieb gehalten. Dabei ist mir aufgefallen, dass die Registry (interne Konfigurationsdatenbank) kontinuierlich gewachsen ist und nach kurzer Zeit eine Grösse von 4 Megabyte erreicht hat. Es existiert ein Hilfsprogramm von Microsoft: REGCLEAN: Dieses muss jedoch zuerst von der Microsoft Homepage gedownloaded werden und behebt das Problem der ständig wachsenden Registry nicht! An den Logdaten des Systems kann es nicht liegen, die werden nicht in der Registry gespeichert.

Ich arbeite nunmehr seit 10 Jahren geschäftlich und privat mit UNIX Systemen und kenne dort keine Probleme dieser Art: Alle Konfigurationsinformationen sind transparent in Textdateien abgelegt und können mit jedem beliebigen Editor geändert werden.

...und die Systemressourcen verschluckt ASP

für dynamische Webseiten verwendeten ehemalige Programmierer ASP, VB-Script und als Datenbank MS Access. Es gibt von Microsoft zweifellos gute Entwicklungstools zum Erstellen von dynamischen Webseiten, aber ASP/VB-Script haben schwerwiegende Mängel, die erst zutage treten, nachdem eine Website online geschaltet wurde:


Ihr digitaler Nervenzusammenbruch

Nach genau einem Jahr habe ich mich entschieden, die Stelle aufzugeben und einer der Hauptgründe für diesen Entscheid war das NT-Netzwerk. Sicher wäre es mit mehr Anstrengung gelungen, einige der anstehenden Probleme zu lösen. Aber ich will nicht ständig wegen der fehleranfälligen Systeme mit Troubleshooting beschäftigt sein, ich sehe im Computer ein Werkzeug um kreativ tätig zu werden und mit eigenem Einsatz etwas aufzubauen. Während einem Jahr aber habe ich etwas ganz anders gemacht: Ich bin von einem Computer zum anderen gerannt und habe den Resettaster gedrückt. Dass es inzwischen ein kleines Hilfsprogramm gibt, mit dem unter Windows 95/98 die Farben des ``Bluescreen'' (BSOD) verändert werden können ist für mich kein Trost!

Wird Windows 2000 besser werden?

Gemäss einem Sprichwort findet auch ein blindes Huhn irgendwann ein Korn, aber es gibt Ausnahmen...

Mit Windows 2000 versucht Microsoft, alle Eigenschaften von Windows NT4 und Windows 95/98 in einem neuen System zu vereinen, das dann allen Anforderungen genügen soll: Es soll als Serverplattform dienen, dann aber auch auf Workstations für profesionelle Anwendungen eingesetzt werden. Im Heimbereich soll es Windows 98 als Grundlage für Heimanwendungen, insbesondere aber für Spiele ablösen. Und nicht zuletzt soll alles so einfach zu bedienen sein, dass es ohne oder wenigstens mit geringem Lernaufwand eingesetzt werden kann. Diese und noch einiges mehr soll es können, wenn es einmal fertig sein wird. Viele Versprechen also, wie damals bei Windows NT4.

 


1) Auf Anfrage gebe ich die entsprechende URL gerne bekannt.