Aus für die Marathon-Distanz in Frederick

Gerade eben trudelte eine e-mail der Organisatoren aus Frederick ein, der einzige offizielle Marathonlauf an dem ich während meinem Aufenthalt in den Staaten teilgenommen habe.
Den Laufbericht gibt es bei Team Bittel – wie ich dort bereits beschrieben habe, war die Strecke echt kein Zuckerschlecken – wenn auch definitiv eine Herausforderung. Die eigentlichen Schwierigkeiten ergaben sich durch die extremen Steigungen ab der Halbmarathonmarke, in Kombination mit den für mich sehr warmen und vor allem feuchten Temperaturen … Eher lästig denn wirklich eine Herausforderung war die Streckenführung im Allgemeinen: In den Staaten gibt es oftmals für lange Strecken kein weit verzweigtes Straßennetz und da reden wir schon von etwas kürzen Strecken um die 10-20km – hier fehlen oft einfach Alternativ-Strecken, die man entweder für den Lauf hernehmen könnte oder als Umleitungsstrecke für den Verkehr. Daher ist man ein ganz gutes Stück direkt am Highway entlang gelaufen, neben den schönen amerikanischen Fahrzeugen mit 6-8l Hubraum. Angemerkt sei: Man war gehend schneller unterwegs als diese PS-Boliden. Aber gesundheitlich sicherlich nicht empfehlenswert.

Aus diesen Gründen hat der Veranstalter beschlossen für 2011 erstmalig keine Marathonstrecke mehr anzubieten. Somit bin ich die wohl das erste und letzte Mal gelaufen – sie nochmal in Angriff zu nehmen und dann auch durchgängig zu joggen wird daher nicht mehr möglich sein. Irgendwie schade, aber ich kann die Entscheidung nachvollziehen. Muss ich mich wohl nach was anderem umschauen, aber es gibt ja so viele Läufe an denen man teilnehmen kann.

Ein Lauf für den ich mich aus den Staaten angemeldet habe, findet am kommenden Wochenende statt: Der Indoor-Marathon durch das Gebäude des TÜVs in Nürnberg – ich freu mich schon auf diese Fun-Veranstaltung, auch wenn ich schon ein wenig Angst vor den Treppen habe. Durch die ganzen Bewerbungsgespräche und einige Feierlichkeiten zu meiner Rückkehr (auch mit einigen der alten Lauffreunde) bin ich nicht wirklich dazu gekommen regelmäßig trainieren zu gehen. Naja werden wir schon irgendwie durchbeißen – ankommen ist das Ziel, die Zeit ist eher zweitrangig.

Lahmende Verbindung durch Hosts Datei

Ein nicht ganz alltäglicher Kundeneinsatz: Kunde beklagt, er hätte Zugangsprobleme im Netz und teilweise unheimlich hohe Latenzen bis überhaupt eine Seite aufgebaut wird – teilweise schlägt auch der Seitenaufbau komplett fehl. Insgesamt problematisch: Das Problem ist nicht 100% reproduzierbar – es tritt immer wieder mal auf – meist mehrmals täglich, aber ohne erkennbaren Zusammenhang. Alles sehr neblig und diffus …

Der Kunde verwendet einen internen Nameserver – erster Verdacht: Da läuft was schief und die Kiste macht irgendwas was die Verzögerungen auslöst… Test mit dem eigenen Rechner, sowohl über das WLAN des Kunden, als auch über das Kabel: der Server antwortet und das sogar ziemlich pronto.
Zweiter Anlauf: Analyse des DHCP-Eintrags: da steht noch ein providerspezifischer DNS-Server drin, Eintrag mal deaktiviert, vielleicht stimmt die Adresse ja nicht mehr. Weiterhin keine Besserung und am Testrechner lief alles ohne Probleme – zudem beschränkte sich das Problem auf eine ausgewählte Menge Rechner, zwischen denen aber erst mal kein logischer Zusammenhang herzustellen war…

Also eine eingehende Analyse und somit das Ohr rauf auf die Netzwerkschiene: Einfach mal zuhören was im Netzwerk so läuft. Dort ist es vergleichsweise ruhig – von den gelegentlichen Abrufen von e-mails und den Broadcasts der Windows-Kisten über deren Shares ist alles normal. Auch die Anfragen an den Server finden sich wieder. Auffallend: Die Antworten des Servers kommen innerhalb nur weniger Millisekunden, die erlebte Wartezeit bis überhaupt eine Verbindung aufgebaut wird sind aber typischerweise mehr als 5 Sekunden … irgendwas stimmt also doch nicht.

Nachdem der Server nun wirklich aller Schuld entlastet ist, gehts mit der Fehlersuche auf dem Client weiter: Nach dem Leeren des DNS-Cache lässt sich der Fehler schön beobachten. Am Server verfolge ich parallel die Netzwerkaktivität – da muss das Paket ja irgendwann zwangsläufig vorbei kommen … WireShark bzw. tcpdump wird es nicht entgehen. Erstmal wird bestätigt: Den Server trifft keine Schuld – denn beim Absenden eines Lookup-Befehls vergehen erst etliche Sekunden bis überhaupt was an den Server geschickt wird, der dann auch zügig antwortet.

Auf dem Rechner selbst: Keine auffälligen Programme, keine erkannte Malware, einfach nichts. Auch die Analyse und das Abstellen einiger Zusatzfunktionen im IP-Stack bringen keine Verbesserung – ein wenig Ratlosigkeit macht sich beim Admin breit… Auch das Beenden aller nicht systemwichtigen Prozesse ändert nichts an der Situation. Der Prozess Monitor für Windows bringt schließlich einen vielversprechenden Ansatz – mit ihm lassen sich die Systemaktivitäten etwas genauer analysieren – es zeigt sich, dass der Rechner relativ lange auf der hosts-Datei herumnudelt – diese wird normalerweise verwendet, wenn man keinen DNS Server im internen Netz hat – sozusagen ein Mini-DNS für ganz arme oder ganz spezielle Fälle.
Bereits auffällig: Die Datei ist für eine Konfigurationsdatei reichlich dick – etwas mehr als 400kB – reiner Text …
Der Texteditor erhärtet den Verdacht: Spybot Search and Destroy – eigentlich ein sehr praktisches Tool zur Malware Erkennung hat die Datei mit ettlichen Einträgen aufgefüllt, so wird effektiv verhindert, dass der Rechner überhaupt auf irgendwelche Domains mit bekannter Schadsoftware zugreifen kann. Nur in diesem Fall ist es einfach etwas zuviel des Guten – denn der Rechner analysiert jedesmal erst diese Datei bevor er sich ins Netzwerk wendet … und je nachdem ob die gerade im Cache liegt oder erst von Platte gelesen und analysiert werden muss gibt es doch eine merkliche Latenz … Schmeißt man die Einträge raus (oder verschiebt die Datei einfach – dabei aufpassen, dass Spybot es nicht als Angriff wertet und sie stillschweigend wieder herstellt), ist die Reaktion plötzlich wie erwartet – alles läuft einfach so zügig wie man es erwartet.
Also ggf. mal einen Blick in diese Datei werfen … manchmal fallen einem doch wirklich Backsteine aus dem Anfang der Netzwerkzeit wirklich auf die Füße.

Fake-Raid

Raids im Hardware-Sinne – heute muss man ja aufpassen, dass die Jugend das nicht gleich als eine Spielart von World of Warcraft intepretiert – sind ja an und für sich eine praktische Sache.

Die üblichen Levels sind ja hinreichend dokumentiert:

0 – Striping => Alle x KB wird die Platte gewechselt – bringt nur etwas für die Geschwindigkeit, ist der Datensicherheit aber abträglich …
1 – Mirroring => Alle Daten werden synchron auf eine bestimmte Anzahl Platten geschrieben – wenn eine ausfällt ist nichts verloren und ggf. lässt sich das System „missbrauchen“ um ein Backup eines Systems anzufertigen
3 und 4- Eigentlich nicht mehr üblich – eine definierte Platte speichert redundante Informationen, so dass ggf. die Daten rekonstruiert werden können, die Summe der Kapazität der restlichen Platten steht zur Verfügung.
5 – sehr gebräuchlich, auch hier werden Paritätsinformationen gespeichert um den Ausfall einer Platte kompensieren zu können. Im Ergebnis das gleiche wie Raid 3 und 4, nur dass es keine dezidierte Platte mehr gibt sondern immer gewechselt wird, wo die Paritätsinfo landet. Das bringt beim Lesen noch ein klein wenig mehr Performance.

Zu meiner Schulzeit hatte ich einmal den unrühmlichen Fall eines Raidcontroller-Ausfalls mit anschließendem Verlust der Daten (was dank anderweitiger Backups nicht sonderlich kritisch war – nur in der Abi-Vorbereitung damals absolut unpassend kam – Murphy lässt grüßen) – seitdem bin ich extrem skeptisch was günstige Raid-Controller betrifft.

Für die meisten Fälle verwende ich daher ein reines Software-Raid – das funktioniert auch ohne Probleme – die Einrichtung unter Linux ist absolut kein Hexenwerk mehr, und da es alles so einfach wie möglich gehalten wird, gibt es auch keine Probleme wenn mal wirklich eine Platte ausfällt. Für mich hat sich das Mirroring bewährt – man hat zwar nur die Hälfte der eingebauten Plattenkapazität, aber dafür braucht man auch nur 2 Platten einkaufen. Außerdem ist gerade im Heimbereich der Faktor Lärm und Platz oftmals ausschlaggebend – in vielen kleinen Gehäusen für Heimserver oder kleine NAS ist einfach nicht genügend Platz für mehr Platten. Oder man bekommt auch Probleme mit der Temperatur – ein nicht zu unterschätzender Faktor.

Nun gibt es ja reihenweise Werbeversprechen der Board-Hersteller von wegen integriertem RAID – nur wie ich leider mal wieder feststellen musste, hat das mit der Realität nicht viel zu tun. Die meisten dieser Billig-Raids ist nämlich ein sogenanntes Fake-Raid – da hockt nur ein kleines BIOS auf dem Controller, das Basis-mäßige Verwaltungsoperationen erlaubt, aber die eigentliche Raid-Funktion wird in den Treiber ausgelagert, also in Software realisiert. Das klappt unter proprietären Betriebssystem ja ganz gut – vor allem wenn man den Treiber gleich auf der Installations-CD mit einbaut. Problematisch wird der Käse dann unter Linux – da fehlen oftmals die Treiber und der Controller-Chip wird einfach als normaler SATA-Controller angesprochen – mit der Ergebnis: Man hat kein RAID, sondern 2 unabhängige Platten. Da bleibt dann oftmals nur wieder die Lösung mit Software-Raid zu arbeiten – ganz ekelhaft wird dann ein Mischbetrieb mit Windows – das geht in der Regel ziemlich daneben, weil der Treiber natürlich wieder das Bios verwendet …. Also ganz klar: Finger weg! Besser dann von Hand (oder mit Parted-Magic) die Platten vorpartitionieren und sowohl unter Linux als auch unter Windows das mitgebrachte Software-Raid verwenden, dass kann auch jeweils nur auf Partitionsbasis arbeiten.

Was mich gerade ziemlich ärgert: Selbst die Profi-Boards von Intel beinhalten keinen echten RAID-Controller mehr (ICHR9 und ICHR10) – auch hier wurde alles in die Software ausgelagert – nicht gerade das was ich von einem Profi-Gerät erwarte. Ich kann mich noch an Zeiten erinnern, als die Hardware-Hersteller noch besser zusammen gearbeitet haben – da war es durchaus noch üblich einen echten Hardware-Controller ggf. mit echter Raid-Funktion auf dem Board mit einzubauen. Bei SCSI hatten die guten Boards meist passende Chips von Adaptec verbaut. Sicherlich ist das etwas mehr Aufwand, aber dafür hat man dann auch ein taugliches Produkt und nicht irgendetwas was nur billig ist und zu Marketing-Zwecken missbraucht werden kann.

Es bleibt wohl derzeit nur die Option auf zusätzliche Spezialcontroller zu setzen, wie sie von Adaptec, LSI, DawiControl und 3Ware (jetzt auch bei LSI) gebaut werden. Diese bringen denn auch die notwendige Eigenintelligenz mit. Natürlich macht das die Hardware teurer, dafür hat man dann auch ein wirkliche Raid-Lösung und nicht irgendsowas halblebiges.

Daher mein Aufruf an die Hersteller: Bringt bitte wieder Ware auf den Markt die auch das bringt was man draußen drauf verspricht – RAID-Funktionalität mit einem Board zu versprechen, die dann doch in Software erbracht wird, das ist doch schon fast eine Täuschung des Verbrauchers. Ich sehe ja ein, dass es für den Mainstream und Heimbereich wirklich eine tragbare Lösung ist – aber spätestens wenn es an explizite Server-Boards geht dann sollte man doch den Ernst der Sache in den Vordergrund stellen. Ehrliches Marketing kommt in dem Bereich einfach deutlich besser an – und wenn das Board dann etwas teurer wird soll mir das auch recht sein – es wird wahrscheinlich günstiger sein, als den zusätzliche Controller zu kaufen und Platz ist auf den Boards auch noch mehr als genug.

Und sie bewegt sich doch …

Wie so häufig, im zweiten Anlauf klappt vieles besser: So auch die Klonproblematik der Rechner – der Ansatz mit dem verkleinern vorher war ja an sich schon richtig – nur die Methode zum Klonen war es nicht. Ich habe jetzt anstelle Clonezilla die Live CD von parted magic ausprobiert, die hat neben clonezilla auch andere Werkzeuge zum Klonen an Bord. Mit partclone hatte ich dann endlich den ersehnten Erfolg.
Weiterer Unterschied zwischen den Rechnern war die Einstellung für den SATA-Contoller: den musste ich auch noch gleich einstellen, danach war dann alles kein Thema mehr.
Nun habe ich zwar eigentlich für umme ein Acronis aber schaden kann es mal nicht, spart es doch einige Verrenkungen. Natürlich hoffe ich auch, dass Clonezilla und die andere Open-Source Tools auch den Umgang mit verschiedenen Größen und dem Verkleinern von Partitionen lernen – ggf. muss ich mir wirklich mal ein Skript schreiben, dass die Verkleinerung automatisiert erledigt.

Andererseits muss man sagen: Bei den heutigen Festplatten ist es wohl eher der Fall, dass man von einer kleineren auf eine größere umsattelt, denn umgekehrt …

Computer-Teile und kein Ende – was tun damit

Heute habe ich mal wieder aufgeräumt und mich auch wieder einmal von einigen Dingen aus meinem Lagerfundus getrennt, denn vieles ist mittlerweile wirklich nichts mehr wert oder hat sich einfach überlebt.
Die Kiste mit Elektronik-Schrott ist jetzt wieder mal gut gefüllt und reif für den Abtransport zum Recyclinghof. Es hat also durchaus etwas Platz gegeben.

Auf der anderen Seite habe ich eine ganze Menge Kleinteile, die eigentlich noch gut sind und die man allein aus Umweltschutzgründen ja nicht ohne Zwang einfach wegwirft (bei defekter Elektronik mache ich da nicht lange rum – die gehört einfach nur entsorgt).

Nun bin ich ja schon längere Zeit mit dem Gedanken schwanger gegangen, dass ein oder andere einfach zu verhökern – meist sind die Einzelbrocken ja nicht viel wert. Daher habe ich mir mal ein paar Gedanken gemacht, wie man sowas angehen könnte:

1) ebay
2) eigener Online-Shop
3) sonstige Möglichkeiten

Ebay klingt ja im ersten Moment echt verlockend – nur leider sind die Gebühren absolut untauglich für den ganzen Kleinkram – es sei denn man verkauft ihn als Privatmensch – was angesichts des gebrauchten Zustandes auch im Hinblick auf die Rückgabe-Rechte usw. ratsam wäre – denn wer will bei Artikeln für rund 2-3 EUR die Rücksendekosten tragen und leider gibt es auch diese dusselige 40 EUR Klausel – bis dahin bleibt man auch noch auf den Rücksendekosten sitzen – einerseits ja sehr verbraucherfreundlich aber auf der anderen Seite macht sie den Vertrieb von Restposten und Gebrauchtwaren sehr unattraktiv. Selbiges gilt für den eigenen Webshop – hier hat man noch mehr Probleme und zudem auch noch den Aufwand mit der Einrichtung und Betrieb …

Sonst bleibt nicht mehr viel – Kleinanzeigen sind auch immer so ne Sache, wenn man es übertreibt hat man ratz fatz jede Menge Ärger – und angesichts des Umfangs meines Bestandes könnte da doch was zusammenkommen … außerdem ist die Akzeptanz nicht unbedingt der Hit.

Irgendwie ärgert mich das Rechtssystem in dem Hinblick gerade – ich sehe ja ein, dass Verbraucher einen gewissen Schutz benötigen und das alles seine Richtigkeit hat, auf der anderen Seite machen es die rechtlichen Vorschriften nahezu unmöglich einige (ggf. auch privat) angesammelte Dinge dem Wirtschaftskreislauf wieder zuzuführen. Irgendwie schade …

Eine Lösung habe ich bis jetzt noch nicht – denn der eigene Online-Shop wäre zwar wenig Aufwand von der Einrichtung her, aber er wird sich ggf. nicht lohnen. Mal weiter schlau machen – ich bin mir halt nicht sicher ob alleine eine Auflistung der möglichen Gegenstände schon als Online-Shop gewertet wird, außerdem ist dann die Hemmschwelle für den Käufer wieder so hoch … Alles irgendwie nicht das Gelbe vom Ei.

Neue Rechner – Clonen für Fortgeschrittene

Endlich darf ich einen neuen Laptop mein Eigen nennen. Damit endet eine fast 2 Monate währende Durststrecke. Mein alter T30 ist ja bekannter Maßen in den USA verblieben, da die Verbindung zum Monitor den Geist aufgegeben hat.

Da ich wieder ein Thinkpad wollte (wenn auch etwas moderner), und es mir immer von den hohen Investitionen graut war für mich recht bald klar: So ein Leasing-Rückläufer ist doch echt keine schlechte Lösung: Gute Geräte, die Kinderkrankheiten sind nach 1-2 Jahren dann auch ausgestanden und der Wertverlust beim ersten Einschalten ist auch nicht so schmerzhaft.

Problematisch beim Leasing-Rücklauf ist die Spot-Markt-Charakteristik der Verfügbarkeit – man hat nicht viel Zeit und muss ggf. mit dem Vorlieb nehmen was gerade verfügbar ist.

Nun war es endlich soweit und mein neues Gerät ist ein Lenovo Thinkpad T60p geworden und das zu einem für mich sehr akzeptablen Preis … technisch und optisch ist das Gerät (wie schon der Vorgänger) einwandfrei, ein paar Schwachpunkte werde ich Stück für Stück beheben – so zum Beispiel die für meine Bedürfnisse etwas zu klein geratene Festplatte mit 40 GB (immerhin SATA) und auch bei der RAM-Ausstattung werde ich mir wohl ein Upgrade gönnen, denn 1 GB ist vielleicht auf die Dauer etwas schwach.
Ansonsten ist das Gerät gut gerüstet für die nächsten Jahre – WLAN, Bluetooth, IR (für meinen Pulsmesser wichtig), endlich USB2.0 (also nicht mehr Ewigkeiten warten bis endlich die Bilder von der Kamera runter sind) und auch das Display ist auf 15 Zoll etwas gewachsen.

Ein Kollege hat für sich und die Familie auch gleich zugeschlagen und wollte die Rechner von mir eingerichtet haben. Bereits die Installation des Betriebsystems (Windows XP) ist etwas heikel, denn eine CD gab es nicht mitgeliefert und das vorinstallierte System hat mal wieder allerhand Ballast an Bord (etwa Symanschreck und sonstige Softwarebeigaben die man nicht wirklich braucht) – aber immerhin ein I386-Ordner mit den Installationsdateien. Daraus lässt sich dann doch eine CD erstellen – man sollte nur die passenden Treiber für den SATA-Controller nicht vergessen, denn der ist auch bei einem integrierten Service Pack 3 leider nicht dabei.
Von Haus aus ist der Admin ja faul … also habe ich gemäß der Anforderungen einen Rechner fertig konfiguriert und eingerichtet (teilweise auch mit Konfigurationen für bestimmte Programme). Cloning ist im Rechneralltag ja ein alter Hut, da es sich um identische Geräte handelt, also gar kein Problem…. sollte man meinen.

Leider ist die Sache etwas komplizierter als man denkt, vor allem wenn man kein Geld für etwaige Software aka Acronis(tm) oder Symantec Ghost(tm) ausgeben will. Die Tools sind sicherlich wunderbar, aber halt auch kostspielig. Aber es gibt ja Alternativen, wie etwa das Live-Linux Clonezilla. Das funktioniert im Regelfalle auch prächtig und ich habe damit auch mehrfach ganze Platten inklusive mehrerer Partitionen und Betriebssysteme migriert – auch auf dem alten Laptop war das mehrfach fällig (immer dann wenn zu wenig Platz da war).

Nun stellte sich leider raus, dass die Rechner doch nicht alle zu 100% identisch waren – einer der Rechner des Kollegen hat nämlich eine 60 GB Platte – ärgerlicherweise genau derjenige den ich als Master ausgewählt hatte. Damit kommt Clonezilla nämlich an eine Beschränkung: Es kann in der aktuellen Version nur von kleineren Platten auf größere klonen – umgekehrt geht es nicht, selbst wenn die Partition nur zu einem sehr kleinen Anteil belegt ist. Die anderen Rechner haben alle nur eine 40GB Platte.

Momentan hantiere ich gerade noch etwas herum aber hier mal die prinzipielle Lösung (wenn auch etwas kompliziert und dank einiger Bugs muss man ein paar Extra-Touren machen):

1) Besagte Partition schrumpfen (parted magic)
2) Windows neu starten (ntfscheck)
3) Image der kleineren Partition (nicht der gesamten Platte) mit Clonezilla anfertigen (wenn der Parameter für das ignorieren von nicht sauberen NTFS-Partitionen funktionieren würde könnte man sich den Reboot zwischendrin sparen – leider derzeit nicht …)
4) Partition wieder vergrößern (parted magic)
5) Wiederherstellen des Images auf dem Zielrechner: aufpassen wo die Partion landet, sonst darf man sich mit dem MBR Error 1 rumschlagen … (man sollte prüfen ob die Partition auch wirklich am Anfang der Platte liegt – bei mir lag sie nicht dort … bis man darauf kommt)
6) Windows wegen ntfscheck starten
7) Parted Magic nehmen und die Partion auf die gewünschte Größe aufblasen, falls man es nicht ganz getroffen hat (oder einfach weil man etwas Sicherheitspuffer bei der Quellpartition gelassen hat)
8) Windows starten und freuen …
9) Fertig!

Fazit: Es wäre schön wenn Clonezilla an der Stelle noch etwas an Features zulegen würde – ggf. werde ich mir mal den Source-Code der Skripte zur Brust nehmen …

Nachtrag: Sollte – Sche… – ist nicht … Irgendwas ist an der Kiste gerade grundlegend faul … ich installiere jetzt das Windows doch wieder händisch … :-O
Danach werde ich auf alle Fälle mal eine Kopie der kleinen Festplatte machen …..
und mir vielleicht doch mal die Preise für ein professionelles Tool anschauen …

Nachtrag II: Ich habe jetzt kurzerhand bei ebay zugeschlagen und mir ein professionelles Werkzeug zugelegt – für 20 EUR kann man eigentlich nichts falsch machen….. Wie ich sonst auch schon immer gemerkt habe: Besser man investiere einmal in was Gescheites als sich mehrfach über irgendwelchen Mist aufzuregen…