Update-Erfahrungen DELL Streak

Nun habe ich mein geschätztes DELL Streak als Smartphone ja schon eine ganze Weile … liebevoll auch Backstein, Army oder „back to the roots-phone“ genannt. Immerhin ist das Ding nicht gerade ein Leichtgewicht, aber es hat schon seit Beginn einen schönen großen Bildschirm. Anfänglich war das etwas arg groß, aber im Vergleich zu den aktuellen Geräten braucht es sich nun nicht mehr zu verstecken – auch die Geräte von Samsung sind ja deutlich größer geworden (Websites im Miniformat lassen sich nunmal schlecht lesen).

Einziger Wermutstropfen: Es gibt keine offiziellen Updates mehr für das Gerät und die Bedienung des alten Androids 2.2.2 war doch reichlich hakelig, von diversen unmotivierten Abstürzen in der letzten Zeit einmal ganz zu schweigen. Ein neues Gerät wäre eine Lösung, zumal es ja mehr Leistung bieten würde…. auf der anderen Seite: Warum ein neues Gerät wenn ich für das bestehende doch die ganze Infrastruktur samt Ladekabel und Fahrzeug-Halterung habe …

Schon länger steckte mir ja die Idee in den Fingern das Ding software-mäßig aufzubohren – also ein Jailbreak oder ein Rooting zu machen. Nun habe ich mir endlich einmal die Zeit genommen. Das Ergebnis ist noch nicht ganz das was ich erwartet habe – immerhin war die alte Version schön deutsch und ich hatte mich an diverse Dinge gewöhnt.

Mit ein wenig Geduld bekommt man über ein Recovery-Image der Version 350 (so etwas wie ein Live-Linux nur für Android, das aber fest auf das Gerät geflasht wird) auch die Möglichkeit das letzte offizielle Update von DELL zu installieren. Soweit zumindest die Theorie – in der Praxis sind die Ergebnisse interessanter: Das Update wurde für den Koreanischen Markt (passenden zu den aktuellen politischen Spannungen dort …) vor etwas mehr als einem Jahr veröffentlicht … Leider ohne Support für die Deutsche Sprache und mit der Installation komplett in Koreanisch! Mit ein wenig Mühen bekommt man es dann auch wieder zumindest auf Englisch – da finde ich mich dann ohne Probleme zurecht …

Für alle die wie ich immer ein wenig Scheu vor den etwas technischen Beschreibungen in den diversen Foren haben: Wenn man sich einmal ein wenig mit dem Ablauf auseinander gesetzt hat ist alles halb so wild: Auf dem Telefon befinden sich mehrere „Betriebssysteme“, ein wenig ist das vergleichbar mit den unterschiedlichen Kerneln die man unter Linux schon beim Start auswählen kann – wer wie ich noch Kernel selbst kompiliert hat, der weiß was ich meine – nur hatte man beim Rechner etwas mehr Eingriffsmöglichkeiten. Zusätzlich zum „produktiven“ System gibt es noch ein Recovery-System das auf einer separaten Partition vor sich hinschlummert – das braucht zwar Platz, aber Speicherplatz kostet heute ja fast nichts mehr und so ein Rettungsanker macht die Sache in vielen Fällen doch etwas leichter.

Leider sind diese Recovery-Systeme oftmals vom Hersteller vorgegeben und wehren sich auch gerne mal dagegen, dass der Benutzer damit Schindluder treibt. Bei einem Rechner würde man jetzt einfach einen USB-Stick mit alternativem Image verwenden, oder eine andere CD zum Booten (etwa ein PartedMagic oder ein Knoppix) einlegen. Beim Smartphone klappt das nicht … Aber dafür gibt es andere Wege und USB ist auch hier der Schlüssel. Über das Fastboot-Protokoll und dem entsprechenden Tool (gibt es für Windows und für Linux) kann man das Recovery-System von extern ersetzen. Je nachdem welches Recovery-System man installiert, stehen einem unterschiedliche weitere Möglichkeiten offen – bei den Herstellern ist man meist eingeengt, dafür gibt es zumindest während der Garantie auch entsprechend Support. Mit alternativen Revocery-Images lassen sich aber auch ältere Geräte auf Stand bringen.

Die wichtigsten Infos gibt es gesammelt im sehr aktiven xda-devolpers-Forum bzw. deren Wiki. Unter anderem gibt es eine sehr brauchbare Anleitung zum Flashen und den damit verbundenen Startmodi, Angaben zur DELL-spezifischen  Versionierung (ein Kessel Buntes: Für jede Region und für jeden Anbieter gibt es verschiedene modifizierte Systeme, auch Branding genannt – nur ärgerlich, dass man irgendwann keine Updates mehr erhält) und natürlich eine Liste mit offiziellen und inoffiziellen (community-basierten) Versionen.

Nun war ich ja schon mal den Weg des Updates gegangen – und hatte dabei die Klippe mit den koreanischen Zeichen erwischt (man lernt manche Dinge nur auf die harte Tour) – aber so richtig wollte da keine Freude an dem neuen System aufkommen – immerhin war es ja auch schon wieder etwas älter und hatte auch noch ein koreanisches Branding (was unter anderem im App-Store mit deutschen Apps wie Tagesschau.de ein wenig Hindernisse aufwirft). Außerdem waren einige Funktionen verschütt gegangen, etwa die Konfigurierbarkeit des Launchers (DELL Stage) – sicherlich hätte man sich daran gewöhnen können oder irgendwo in den Tiefen des Systems wohl auch die Möglichkeit zur Einstellung gefunden.

Aber mit dem ohnehin angefertigten Backup lag natürlich noch eine andere Option auf der Hand – nachdem es von DELL ohnehin keinen Support mehr geben wird, könnte man ja auch mal nach weitergehenden Alternativen suchen und vielleicht einmal zur aktuellen Generation von Android aufschließen. Der Weg zurück zum Ursprung war ja keineswegs verbaut – vielleicht ein wenig Arbeit, aber im Zweifel hätte man einfach die alte Recovery-Version wieder einspielen können und dann das System wieder in den Ausgangszustand zurück bekommen können.

Also nicht lange fackeln, wenn man schon mal dabei ist. Also habe ich mir gleich mal die aktuelle Entwicklung „Longhorn“ angeschaut. Mit der gewonnen Routine war das Installieren dann bei weitem nicht mehr so aufregend wie das Aufspielen der koreanischen Version, wenn man mal verstanden hat was da grob abläuft, und wo man hinpacken muss ist mir zumindest gleich mal viel wohler. Ausgangspunkt war für mich das Recovery-Image „Streakdroid“ (ganz unten in der Liste). Damit lassen sich noch mal sicherheitshalber Backups anstoßen, bevor man mit dieser Anleitung weiter macht.

Das dauert eine gefühlte Ewigkeit und zwischenzeitlich dachte ich schon ich hätte wohl eine etwas längere Nachtschicht vor mir um wieder ein funktionsfähiges Telefon zu bekommen. Aber Geduld zahlt sich aus, am Ende startet das Gerät doch durch und zeigt den Startbildschirm an. Das wäre mal geschafft. Etwas lästiger ist das Rückspielen der ganzen persönlichen Einstellungen. Praktischerweise funktioniert das mitgelieferte (und vorher natürlich anzuwendende) Backup-Tool von DELL in Kooperation mit Nero auch auf dem modifizierten Gerät. Damit lassen sich unter anderem die Kontakte, SMS-Nachrichten, Hintergrundbilder und einiges mehr nach der notwendigen Totalbereinigung wieder zügig auf das Gerät schaffen. Sowas lob ich mir echt. Mühsam ist hingegen die Installation der verschiedenen Apps diese muss man einzeln wieder anstoßen (ein wenig fühle ich mich wie früher in den Sommerferien, als ich regelmäßig meinen Rechner frisch aufgesetzt habe – genauso wie damals fliegen hier einige Apps aus der Sammlung raus, die ich ohnehin nicht mehr benötigt habe – Frühjahrsputz nennt man das).

Bis jetzt bin ich echt super zufrieden mit der Leistung der modifizierten Software, der HOLO-Launcher gefällt mir mit seinen Einstellmöglichkeiten richtig gut. Ein paar Sachen wie etwa das „Start-Menü“ für wichtige Funktionen des Handys (Kontakte, SMS, AppSammlung/Menü) weiß ich schon jetzt echt zu schätzen – da kann DELL Stage einfach nicht mithalten. Man muss aber auch zu Gute halten, dass mittlerweile einige Jahre Entwicklung im Smartphonebereich ins Land gegangen sind. Jetzt heißt es einfach abwarten wie sich das Gerät im täglichen Leben schlägt. Es war zwar Aufwand und ein wenig Überwindung gefragt um in das Neuland vorzustoßen, aber es gefällt mir deutlich besser als nur wegen einer Software ein neues Gerät zu kaufen.

 

 

 

So bitte nicht – bad / worse practices

Nachdem ich mich immer wieder mal grün und blau (und nicht blau weil ich beim THW tätig bin) über diversen Software-Design-Schwachsinn ärgere, habe ich mich entschlossen in loser Folge immer einmal wieder eine schlechte Art der Programmierung / Modellierung und natürlich auch Wege wie man es besser machen kann vorzustellen.

Für heute will ich erst einmal mit einigen Grundlagen beginnen, die sicherlich nicht nur für die Programmierung und Software-Entwicklung hilfreich sind, sondern für jeden der ein Projekt in irgendeiner Form betreut.

Ad 1) Klar festlegen was ich eigentlich will – jeder hat es sicherlich schon mal erlebt: „So hab ich mir das aber nicht gedacht gehabt …“ Die Ursache ist meist leicht gefunden: Es mangelt an klarer und eindeutiger Vorgabe – da gehört hinein was man will, aber auch was man gerade nicht will. Es ist sicherlich nicht immer leicht alles möglichst eindeutig und klar zu beschreiben, aber alleine wenn man sich darum bemüht ist schon eine große Menge Missverständnissse aus dem Weg geschafft

Ad 2) Klare Definitionen und einheitliches Vokabular: Jeder Mensch ist einzigartig, mit all seinen Vorlieben, Stärken, Schwächen und Erfahrungen. All diese Einflüsse prägen uns und haben eine Auswirkung auf die Rezeption und Reaktion gegenüber unserer Umwelt. Daher ist es keineswegs selbstverständlich das jeder unter einen Begriff anfänglich genau das gleiche versteht und ihn genauso abgrenzt wie ein anderer Mitarbeiter. Daher klar festlegen was unter einem bestimmten Begriff zu verstehen ist, und was nicht – es mag lästig erscheinen jede Entität und deren Bedeutung im Prozess-Zusammenhang einmal ausführlich zu beleuchten und zu beschreiben, aber es macht im weiteren Verlauf das Leben deutlich leichter. Wichtig ist hierbei: Jeder muss das Vokabular auch entsprechend anwenden, was abgestimmt wurde ist fest, ein „aber ich hab doch eigentlich 0815 anstelle 4711 gemeint“ ist ein absolutes no-go

Ad 3) Kenne deine Werkzeuge: Nicht jeder in einem Projekt muss mit jedem Werkzeug umgehen können – eine Führungskraft muss nicht zwingend mit einem Code-Editor und Compiler hantieren (es schadet nichts wenn sie sich dennoch einmal damit auseinander setzt), aber das tagtägliche Handwerkszeug mit den Routine-Funktionen muss nahezu blind bedienbar sein. Dazu muss auch klar sein: Für welchen Zweck welches Werkzeug? (Das kann von Projekt zu Projekt ein wenig schwanken, auch hier hilft es ggf. niederzulegen welche Mittel zur Verfügung stehen und für welchen Zweck benutzt werden sollen). Wichtig ist gerade in der Software-Entwicklung der sichere Umgang mit der persönlichen Entwicklungsumgebung (da kann jeder Entwickler verwenden was er für richtig hält, es sei denn es gibt zwingende Vorgaben. Gerade im Code ist es aber egal ob jemand eine vollwertige IDE wie Netbeans, KDevelop, Eclipse verwendet oder doch lieber einen schlichten Text-Editor mit ein wenig Syntax-Highlighting. Ebenso gehört der Umgang mit Team-Werkzeugen wie e-mail, Versionskontrolle, Bugtracker, Requirement-Management etc. zum Routine-Werkzeug. Hier muss ggf. geübt werden, aber nach einer gewissen Zeit darf es kein Bremsklotz mehr sein. Für die Arbeit am Rechner empfiehlt sich auch ein flüssiges Tippen und Arbeiten mit reduziertem Mauseinsatz (Shortcuts).

Ganz wichtig: Die ganzen Punkte da oben gelten für alle im Projekt, Neueinsteiger oder auch weitere Führungsebenen muss man da etwas heranführen und klar kommunizieren wie der Hase läuft. Absolut hinderlich ist es, wenn Leute die sehr viel an einem Projekt mitwirken diese einfachen Regeln nicht gebacken bekommen. Das geht auf die Nerven und somit auf die Performance des restlichen Teams.

So weit mal für den Anfang, wie geschrieben: in loser Folge kommen weitere Grausamkeiten der Software-Entwicklung (alles leider Dinge die man immer wieder erlebt, auch das oben ist keineswegs aus den Fingern gesaugt).

Ist sachlogisches und strukturiertes Denken schwer oder gar gesundheitsgefährdend?

Ich glaube ich habe vor einigen Stunden die Klimax bezüglich einer weiteren Episode meines Lebens überschritten. Nachdem sich meine berufliche Entwicklung über die letzte Monate in verschiedenen Akten voran gekämpft hat, ist es nun zur Katastrophe gekommen. Schon seit einiger Zeit, bemerke ich an mir deutliche Zeichen von Überlastung und ständigem Stress. Spätestens wenn meine Haut beginnt sich mit Veränderungen zu äußern, weiß ich, dass ich etwas langsamer machen sollte oder gerade mal wieder eine stressige Phase ist. Das ist für mich nichts Neues, aber wenn es über mehrere Wochen anhält und partout nicht besser wird, dann ist wirklich etwas faul.

Doch zurück zum Thema, was genau ist das Problem? Als ich vor etwas mehr als zwei Jahren meinen Job begonnen habe, war bereits klar: Es geht um eine webbasierte Datenbank. Also durchaus ein Thema in dem ich schon Erfahrungen sammeln konnte – angefangen mit den ersten Schritten in PHP und Administration zu Schulzeiten, bis hin zur intensiven beruflichen Verwendung im zweiten Praxis-Semester. Abgerundet natürlich durch immer weitere Verfeinerungen und Lerneffekte aus Fehlern oder anderen Entwicklungen.

Erste Aufgabe war es eine bestehende Datenbank für den Übergang ins Netz vorzubereiten. Soweit halb so wild, nur sollte sie ja auch insgesamt besser werden. Also habe ich mir mit allem Sachverstand und logischer Analytik das bestehende System vorgenommen und bin fast aus allen Wolken gefallen. Das System war völlig ausgereizt und bestand aus mehr Flicken und Workarounds als ich es mir zu träumen gewagt hatte. Mit jedem weiteren Analyseschritt wurde mir klarer, dass die bestehenden Performance-Probleme kein Problem des Datenbankservers oder der verwendeten Programmiersprache (Access und VBA) waren, sondern das hier ein wesentlich grundlegenderes Problem bestand: Die Modellierung war im besten Falle unpräzise oder sehr ungeschickt ausgeführt (Entitäten nicht getrennt oder über die Anfangsbuchstaben in einem varchar-Feld unterschieden => warum die Performance hier mau ist, sollte klar sein: Wenn ich erst jedes Teil in einer Kiste untersuchen muss um festzustellen ob es aus Holz oder Stein gemacht ist, dann dauert es länger, als wenn man von Beginn an Stein und Holz in getrennte Kisten packt).

In den vergangenen Jahren habe ich also nichts anderes gemacht als die Datenbank von Grund auf neu zu entwickeln. Dabei habe ich alle Register meines Könnens gezogen, sicherlich nicht an jeder Stelle sofort mit den brilliantesten Ideen.

Leider musste ich feststellen, dass analytische und logische Arbeitsweise nicht immer das sind, was der Anforderer eigentlich möchte. Aber ich kann da nicht so ganz raus aus meiner Haut: Ich bin stets darum bemüht ein möglichst gutes und langlebiges Produkt zu entwickeln. (Das heißt nicht, dass ich nicht auch mal für eine kleine Arbeit oder automatisierte Korrektur ein Quick’n’Dirty-Skript schreibe – passendes Werkzeug für die jeweilige Aufgabe – auch das ist eine Kunst). Durch die Analyse und meine Stärken im organisatorischen Bereich (ja es zahlt sich gelegentlich auch aus, in der Jugendarbeit tätig gewesen zu sein) in Kombination mit den Erfahrungen und Techniken die ich während der Diplomarbeit entwickelt habe (ja GQM klingt zwar hoch gestochen, aber es ist ein sehr schöner Ansatz), stand relativ schnell eine grundlegende Struktur fest: Einerseits sollte das System überwachen, welche Aufgaben/Arbeiten zu erledigen sind, andererseits diese auch mit den notwendigen Details wie Arbeitszeit, Materialverbrauch, Erkenntnisse usw. dokumentieren. Für mich eine klare Sache: Vom Symptom oder der Aufgabe in mehreren, wohl dokumentierten Schritten. Ein absoluter Standardablauf wie er in jedem CRM/ERP-System tagtäglich mehrere Milliarden Mal auf der Welt gelebt wird.

Wichtiges Kennzeichen dieses Ablaufs ist die Orientierung an der Kostenrechnung – zu Beginn erstellt man einen Plan, in diesem sind geplante/abgeschätzte Werte zu finden. In der Dokumentation findet sich dann was tatsächlich passiert ist – und man erhält einen Einblick ob man gut geplant hat, oder ob man möglicherweise Korrekturbedarf hat.

Soweit die graue Theorie wie man sie aus der Hochschule bereits kennt oder auch in der Literatur des häufigeren findet. Die Realität ist leider etwas anders als man sich das vorstellt. Zum einen sind die Zusammenhänge oftmals nicht wie im Lehrbuch sondern etwas verzwickter. Klar, denn im Lehrbuch geht es um das Konzept im Ganzen, da sollen die Beispiele auf möglichst wenigen Seiten möglichst klar und gut verständlich sein. Die Ideen und Prinzipien dann zu erweitern ist für den Fachmann dann nur ein kleinerer Schritt in die entsprechende Richtung.

Richtig problematisch wird aber der Faktor, den man bis dahin als Techniker überhaupt nicht berücksichtigt hat – auch als Layer 8 oder HAF (human acceptance factor) genannt. Nun war ich eigentlich der Meinung (und habe das auch so vielfach erlebt) dass man es in der Geschäftswelt und bei den Vorgesetzten mit entsprechend fähigen (größtenteils ja sogar studierten) Menschen zu tun hat. Denen sollte eine gewisse Abstraktionsfähigkeit und die Fähigkeit logisch zu denken und strukturiert zu arbeiten doch eigentlich nicht fremd sein. Sicherlich, es gibt auch Studiengänge im künstlerischen Bereich, aber dieser Menschenschlag ist seltener in einem technisch ausgerichteten Unternehmen zu finden. Im konkreten Fall weiß ich sogar, dass es nicht zutrifft, sondern eine technische Ausbildung und ein Studium vorliegt.

Leider scheint logisches und strukturiertes Denken, Handeln und Arbeiten aber nicht mehr so recht in Mode zu sein – über viele Dinge macht man sich heute keine Gedanken mehr, weil man es nicht mehr muss – teilweise ist das von Vorteil (wer schleift heute noch ein papiernes Telefonbüchlein mit sich herum – im Handy ist doch alles gespeichert). Allerdings verleitet das Ganze auch an anderer Stelle zu einer gewissen Schludrigkeit, es ist ja eben alles on-the-fly möglich, das macht man dann halt irgendwie nebenher mit. Vorbereitung und Planung von Arbeiten ist heute nicht mehr en vogue oder es gibt im produzierenden Gewerbe mittlerweile Spezialisten die sich minutiös um die Gestaltung von Abläufen vorab kümmern und alle Möglichkeiten ausloten (z.B. bei der Optimierung der Arbeit am Band bei den Automobilherstellern). Im Service-Umfeld ist das meist etwas schwieriger zu leisten, aber auch hier kann man durchaus mit klaren Abläufen und sauber definierten Schnittstellen die Arbeit effektiver gestalten – immer unter der Bedingung, dass man das auch möchte. Denn eine vorgegebene Struktur (und in gewisser Weise macht eine Datenbank ja nicht anderes) verhindert oftmals das Arbeiten „nebenher“ – alles ist klar geregelt.

Besonders schwierig wird es, wenn bisher mit Excel-Listen oder Datenbanken „light“ (aka Access) gearbeitet wurde, in denen die Struktur nicht übermäßig wichtig war und die eben auch auf Veränderungen recht flexibel zu sprechen waren. Die Mitarbeiter sind es somit nicht (mehr?) gewohnt klar Angaben zu machen, es findet sich ja ohnehin irgendwie alles in einem großen Haufen, man muss nur ein wenig danach „wühlen“/“blättern“/“filtern“. Das diese Form der Datenerfassung nicht für automatisierte Datenauswertungen tauglich ist, liegt klar auf der Hand, zumindest für denjenigen der schon einmal aus der Form geratene Excel-Tabellen mit doppelt genutzten, gesplitteten und zusammengeführten Tabellen in der Hand hatte. Im Gegensatz dazu sind Datenbank-Tabellen definitiv „flach“ – die in Excel erzeugte Mehrdimensionalität wird in der Datenbank durch den Mechanismus der Fremdschlüssel abgebildet – eine 1:n Beziehung zweier unterschiedlicher Entitäten bedeutet immer auch den Einsatz von zwei Tabellen.

Aber bereits an der Unterscheidung von Objekten und den damit verknüpften Entitäten scheitert es oftmals – da werden ganze Pakete als ein „Datensatz“ bezeichnet, egal wie viele unterschiedliche Entitäten beteiligt sind (aus Benutzersicht vielleicht noch nachvollziehbar, aber nicht wenn man sich ein wenig detaillierter damit auseinander setzen will/muss: Die Identifikation von Abläufen und den daran beteiligten Artefakten ist nicht immer einfach, aber zur sauberen und maschinenlesbaren Aufbereitung ist sie leider unerlässlich.

Da es mir trotz mehrerer Anläufe nicht geglückt ist (es ist teilweise nicht einmal gewünscht sich auch nur etwas näher erklären zu lassen, da müsste man ja womöglich mitdenken und die graue Masse zwischen den Ohren mal wieder umquirlen) den Sinn und Zweck dieser Analysen und der strukturierten Vorgehensweise näher zu bringen, habe ich es jetzt erst mal aufgegeben – kein schönes Gefühl muss ich sagen, man fühlt sich vielmehr ins Mittelalter zurück versetzt: Der Chef als allmächtiger Papst, der über jegliche Analytik und naturwissenschaftliche Argumentation erhaben ist und sie nach Gutdünk sogar für „nicht zulässig“ erklären kann.

Mir persönlich ist nicht klar, wie man sich heute als Mensch mit einem technischen Hintergrund nicht auf eine logische Analyse (die wie beschrieben ja notwendig ist für das Ziel der automatischen Auswertung) einlassen will oder kann. Läuft da evtl. in der Bildung mit Laisez-Faire schon etwas falsch? Oder wird Mathematik und Logik in der Gesellschaft mittlerweile wieder als „böses Teufelszeug“ gesehen, vor dem man sich schützen muss  – vielleicht weil es immer nur schlechte Noten gab/gibt?

Insgesamt bleibt mir nur die Frage des Artikels wie folgt zu beantworten: Logisches Denken und strukturiertes Arbeiten ist nicht gesundheitsschädlich – einzig das Erläutern und Näherbringen bei betonharten, festgefahreren Strukturen (das haben wir schon immer so gemacht) mit dem Ziel der Verbesserung kann derart nervenaufreibend sein, dass der damit verbundene Stress für den Logiker zum echten Problem werden kann.

 

Selbst ist der Verbraucher

Angesichts der aktuellen Skandale kann ich ja nur schmunzeln, dass ich bereits vor mehreren Monaten mich dazu aufgerafft hatte, mir endlich einmal einen Kochkurs für die Grundlagen zu gönnen. Warum die Lasagne fertig kaufen, wenn man weiß wie es geht kann man sie auch selbst machen – mit dem Effekt, dass man weiß was drin ist und auch noch im Geschmack deutlich besser liegt als die ganzen Fertigprodukte.

Es ist sicherlich nicht so, dass ich vollständig auf Fertigprodukte oder teilweise fertige Zutaten verzichten möchte oder diese ganz und gar verteufeln würde. Nur habe ich spätestens während meines USA-Aufenthalts gelernt, hausgemachte Küche zu schätzen. Einheitsbrei mit Geschmacksverstärkern und Farbstoffen, das kann jeder haben – noch dazu für sehr sehr wenig Geld. Ob es dann gesund, nahrhaft und dauerhaft sättigend ist, steht auf einem ganz anderen Blatt. Ich möchte aber zum Beispiel nicht auf die Möglichkeit von Instant-Brühe verzichten, denn für jedes Gericht erst einmal stundenlang Gemüse schneiden, nur um Brühe zu erzeugen – das klappt in der Großküche vielleicht, weil man dort entsprechende Mengen benötigt, aber für mich als Single ist es leider keine Option. Auch Dinge wie Blätterteig oder wenn es sein muss auch einmal eine Fertig-Suppe für zwischendurch halte ich für durchaus pragmatisch und vertretbar.

Begonnen hat der Kurs letzte Woche, auf dem Speisezettel standen unter anderem eine Kartoffelsuppe und verschiedene Arten Schnitzel – von Wiener Schnitzel über Jägerschnitzel bis hin zu Picata Milanese (also Schnitzel im Käsemantel) war alles dabei. Dabei muss ich sagen: Man muss sich nur einmal an die Sachen heran wagen – übermäßig schwer sind die Rezepte bei weitem nicht – auch wenn natürlich das Kochen in einer größeren Gruppe deutlich mehr Spaß macht, und man sich schon daher mehr Mühe gibt, als wenn man mal eben für sich selbst etwas zubereitet.

Praktischer Weise war derart viel übrig, dass ich die Woche über die verschiedenen Gerichte nochmals genießen konnte, oder zumindest die Lebensmittel weiter verwenden konnte – Kartoffelsuppe zum Mittag auf der Baustelle war kein Fehler, schnell und einfach in der Mikrowelle erwärmt, passend zum Schmuddelwetter draußen. Die Spaghetti habe ich dann mit der restlichen Tomatensauce, Ei und Käse angebacken – eine improvisierte aber durchaus energiehaltige Pasta-Party als Vorbereitung für die Rheintalquerung – optimal in den Wettkampf, wenn man so will.

Heute ging es dann an die nächste Stufe, diesmal mit dem Thema Fisch und Nachspeise.  Zubereitet haben wir eine ganze Lachsforelle, fangfrisch versteht sich – inklusive einer kleinen Warenkunde, damit man erkennt ob der Fisch auch frisch ist (ich musste irgendwie an Verleihnix aus Asterix denken), unter anderem wurde auch das Thema Umweltschutz und Tierschutz angesprochen – also von daher Finger weg von Pangasius, Victoria-Barsch und Tilapi – die schmecken nur mäßig und die Bedingungen für die Tiere sind absolut unter aller Kanone. Ähnliches gilt leider für Makrelen und Krabben. Aber ich will ja auch nicht jeden Tag Fisch auf dem Tisch haben und wenn dann doch auch eine angemessen Qualität. Angebote aus der Region sind da noch der beste Griff – und es gibt eine Menge Möglichkeiten – man muss sich nur etwas umschauen. Das schont die Bestände, fördert die lokale Wirtschaft und noch dazu fallen weit weniger Emissionen für den Transport an (warum muss ich Fisch um die halbe Welt fliegen oder Tiere durch ganz Europa karren – egal ob lebend oder als Tiefkühlprodukt? – der Sinn bleibt mir absolut verschlossen).

Um Fisch habe ich bei der Zubereitung immer einen Bogen gemacht, zu teuer, zu kompliziert in der Zubereitung. Wie ich lernen durfte: alles halb so wild – ein anständiger Fisch aus dem örtlichen Teich ist nicht unmöglich teuer, und die Zubereitung ist fast einfacher als ein Schnitzel. Fisch füllen (z.B. mit Zitrone und Dill), etwas würzen und dann anbraten. Fertig gegart wird er dann im Ofen, damit wird er schön durch und nicht zu trocken. Das Filetieren muss man etwas üben, aber auch das ist keine Raketenwissenschaft.

Krönender Abschluss war die Tarte Tatin – eine Art Apfelkuchen, der in der Pfanne zubereitet wird. Im Prinzip sehr einfach, und super lecker – auch hier ist wieder der Backofen der Schlüssel zum Erfolg, dort wird die Tarte fertig gegart, bevor sie gestürzt wird. Besser nicht an die Kalorien des Blätterteigs und die der in Honig gedünsteten Äpfel denken, das ist einfach zu lecker – Kalorienabbau ist dann morgen wieder im Training angesagt.

 

Rheintalquerung – von der Berg- zur Weinstraße

Über die Lauffreunde mit denen ich schon seit mehr als einem halben Jahr regelmäßig den vorderen Odenwald oder die Umgebung von Mannheim ablaufe, habe ich die Chance bekommen bei der jährlichen Rheintalquerung mit zu laufen. Dieser Lauf ist kein Wettkampf im eigentlichen Sinne, vielmehr trifft sich eine eingeweihte Gruppe von rund 10-15 Läufern um die 43km von Leutershausen bis Bad Dürkheim zurück zu legen.

Dieses Jahr kam bei der Abstimmung über den Termin der 23.02. heraus – trotz Kälte und leichtem Schneetreiben steht dann doch eine ordentliche Gruppe in Leutershausen am OEG-Bahnhof – allen ist reichlich frisch – es hat etwas unter 0°C und ein ganz klein wenig Schnee hat die Umgebung überzuckert. Einige Leute haben die Versorgung mit warmen Getränken übernommen – mit einem geliehenen Kleinbus  wird die Gruppe an insgesamt 4 Stellen an der Strecke versorgt. Ich selbst habe auf die Schnelle noch einen Schokokuchen (Sonderform des Energierriegels wenn er aufgeschnitten ist) gebacken, auch den gibt es an den verschiedenen Versorgungstationen.

Pünktlich um 8:00h geht es in Leuterhausen los – erstes Ziel ist Ilvesheim, ein Ort am Neckar bzw. dem Neckarkanal – erste Etappe sind rund 10km. Es geht durchs freie Feld und anfänglich haben viele noch kalte Finger – spätestens beim Erreichen von Heddesheim und den Brücken über Autobahn und Bahnlinie ist aber jedem warm, auch wenn der Wind unangenehm pfeift. Nach Heddesheim geht es direkt auf die Versorgungsstation im Ilvesheimer Industriegebiet zu – dort erwartet uns bereits der Bus und es gibt warme Getränke – Hunger hält sich noch in Grenzen – immerhin sind 10km ja auch keine Distanz bei der man schon massig Kalorien verpulvert hätte.

Nach rund 10 Minuten wird uns dann doch kalt und es geht weiter – auf einer mir sehr gut bekannten Strecke entlang des Neckarkanals – normalerweise laufen wir die im Sommer von der DJK aus – nur in umgekehrter Richtung. Um so erfreuter bin ich, wie kurzweilig die Strecke trotz des Bürstens „gegen den Strich“ verstreicht – die Brücken in Ilvesheim sind gleich genommen, kurz darauf kommt schon die Autobahnbrücke der A6 (eine wichtige Trasse für mich, bringt sie mich doch häufiger gen Nürnberg zu verschiedenen Laufveranstaltungen und den Ort an dem das Laufen für mich seinen Anfang genommen hat). Nur wenig später kommen schon die markanten Türme der letzten Neckarschleuse vor dem Rhein in Sicht, in direkter Nachbarschaft zur DJK gelegen. Eine kleine Steigungseinheit über die Riedbahnbrücke und anschließend drunter durch würzt die Etappe. Ziel ist der Brückenkopf der Kurt-Schuhmacher-Brücke von Mannheim nach Ludwigshafen – in direkter Nachbarschaft bin ich aufgewachsen und kenne daher auch diesen Streckenteil sehr gut – es geht vorbei an Ebertbrücke, Kurpfalzbrücke, Liebfrauenkirche, Yavuz-Sultan-Selim-Moschee bis an den Brückenkopf. Dort gibt es nochmal Verpflegung – rund 18km haben wir bereits zurück gelegt und nun steht die längste Etappe an. Aber erst mal trinken und ein wenig Energie zuführen. Der Kuchen findet erst Abnehmer und Freunde.

Den Anstieg auf die Brücke nach Ludwigshafen kenne ich bereits vom MLP-Marathon – mehrfach habe ich diese Brücke bereits erklommen. Für uns ist sie leider nicht gesperrt – wir müssen uns also mit dem Rad- und Fußweg daneben begnügen, der hat einige zusätzliche Wellen, an Stellen an denen mal eine Abfahrt vorgesehen war, die aber bisher noch nicht realisiert wurde (Auffahrten der Westtangente, wann auch immer diese jemals kommen mag) – in Ludwigshafen geht es direkt durch einen sozialen Brennpunkt – Stadteil Hemshof in direkter Nachbarschaft zur BASF. Ein wenig erfreulicher wird die Strecke danach – allerdings geht es jetzt an den Kopf – von Ludwigshafen in den Vorort Oggersheim (ja da kommt ein Altkanzler der Bundesrepublik her) geht es schnurgerade auf mehr als 3km – eine gewisse Ähnlichkeit mit der „Schlachtergeraden“ im Nürnberger Wald kann die Strecke nicht abstreiten – immerhin gibt es mehr Abwechslung mit diversen Autohäusern, Werkstätten etc. entlang der Strecke. Im Zentrum Oggersheim muss sich die Gruppe erst mal wieder etwas sammeln – das Eiscafé ist beliebt, aber ob der noch immer frostigen Temperaturen und dem langsam aufziehenden Schneegestöber hat so recht keiner Lust auf Speiseeis – eher wäre uns nach einem „Davuschlabbmuggefug (coffee to go)“ – aber bis wir uns entschließen können, ist der Rest der Gruppe da und es geht weiter zu einen lustig benannten Stadtteil „Notwende“ – der Name rührt daher, das mit dem Siedlungsbau die Wohnungsnot abgewendet wurde (und nicht wie irrtümlich oft angenommen wird aufgrund einer heftig ausgeführte Kehrtwendung mit einem Fahrzeug, nachdem man gemerkt hatte, dass man in die Tiefen der Pfalz vordringt ….) mit dem Verlassen der Hochhaussiedlung wird der Raum schlagartig wieder ländlicher – nach der Querung der A650 in Richtung Bad Dürkheim sind wir von Feldern umgeben – angebaut wird derzeit noch nichts, aber die Felder decken einen Gutteil des Genüsebedarfs der Umgebung ab – unter anderem natürlich Grumbeere (Erdäpfel oder Kartoffeln). Ein Schild weißt uns den Weg: noch 2km bis Ruchheim und somit noch rund 3,5 km bis zur nächsten Verpflegung. Der Bus steht diesmal am Ortsausgang.

Nach dem Stopp will es nur sehr zögerlich wieder anlaufen, ich habe mal wieder kalte Finger und es dauert eine ganze Weile bis sie endlich wieder warm sind – bis es soweit ist, sind wir schon fast  in Maxdorf – der Ort hat ähnlich wie das anschließende Birkenheide eine unangenehme Eigenschaft – siedlungstopologisch sind die Orte Paradebeispiele für Straßen-Ortschaften, die sich entlang einer Durchgangsstraße entwickelt haben und dabei nur sehr wenig Ausdehnung weg davon haben. Um so länger zieht sich die Strecke durch die Ortschaften – aber es gibt ja ein Ziel – am Ortsausgang von Birkenheide sind es nur noch 7km bis nach Bad Dürkheim, aber es gibt nochmal Verpflegung vor der letzten Etappe – mittlerweile haben wir rund 38km in den Beinen, aber es fühlt sich alles noch sehr gut an. Nur das Wetter hat sich zunehmend eingetrübt – aus dem wenigen Schnee ist mittlerweile kontinuierlicher Schneefall geworden, der kräftige Wind tut sein Übriges um für Abkühlung zu sorgen. Daher halten wir uns auch nicht länger als notwendig auf.

Die letzte Etappe ist sehr flach und bietet nochmals jede Menge lange Gerade durch die Felder und Gehöfte. Ich bin richtig happy als wir die ersten Gebäude des Industriegebiets von Bad Dürkheim erreichen – noch immer sind es knapp 5km bis wir am Ziel sind, die Saline in Bad Dürkheim. Bei gutem Wetter könnte man sie wohl schon sehen, wir überlegen schon ob sie mal wieder abgefakelt wurde (ist leider in der Vergangenheit immer wieder vorgekommen). Der Weg läuft nun auf mir teilweise schon bekannter Strecke – der Weinstraßen-Marathon im vergangenen Jahr führte auch an der Saline vorbei und wir laufen ein gutes Stück auf der Trasse, auch wenn wir diverse Kilometersammelschleifen auslassen. Nach der Saline ist es nur noch ein Katzensprung bis an die Weinstraße, das muss natürlich auch noch sein.

Zum erfolgreichen Abschluss der 43km geht es dann ins Salinenbad – dort in die Sauna zum „Auftauen“ zwei Saunagänge und ein wenig Baden im Solebecken. Zudem noch ein wenig Gaudi in der Wasserrutsche. Insgesamt merkt man der Anlage ihr Alter etwas an, aber für nach dem Lauf ist sie genau das Richtige. Man fühlt sich hinterher gründlich wieder aufgewärmt. Nun ist es an der Zeit noch Kohlenhydrate aufzufüllen, Wasser habe ich ja schon während des Saunaaufenthalts genügend zugeführt. Im weltgrößten Fass am Wurstmarktgelände gehen wir noch etwas essen – nicht das günstigste aber sehr gut – ich schlage voll zu und gönne mir die Variation der Pfälzer-Spezialitäten: Saumagen, Leberknödel, ein Streifen Bauchspeck, Bratwurst, Sauerkraut und Kartoffelpüree (äh muss natürlich Mouse de Grumbeere heißen…) – dazu lokale Spezialitäten in Form von zwei Riesling-Schorle-Schoppen (Mischungsverhältnis in der Pfalz ist 90% Wein, 10% Wasser).

Eigentlich hatten wir geplant mit einigen Leuten mit der Straßenbahn bzw. der Überlandbahn (ehemals Rhein-Haardt-Bahn) nach Hause zu kommen, aber es gibt auf der Rückfahrt noch Platz im Kleinbus – so geht es natürlich etwas zügiger als die reizvolle Strecke mit 90 Minuten Fahrzeit bis nach Hause.

Nächstes Jahr bin ich auf alle Fälle wieder dabei.

 

Aktiv-Urlaub der anderen Sorte

Wellness und Sporturlaub ist ein ganz großes Thema, wenn man ein wenig schaut findet man dutzende Angebote, die sich um den aktiven Urlaub drehen. Sei es Wandertouren in den Alpen, sportliche Fortbewegung oder auch klassische Wellness-Angebote mit Fitness-Studio im Hotel.

Ich habe mein drei Tage Aktiv-Urlaub etwas anders gestaltet – ausnahmsweise mal weniger sportlich angehaucht, aber Bewegung hatte ich doch ausreichend, ebenso wie frische Luft.

Erste Station Mittwoch war der Anbau der DJK Feudenheim, meinem Sportverein, dort soll nun doch noch die Moderne Einzug halten und die neuen Räumlichkeiten mit Netzwerk- und Telefon-Anschlüssen ausgestattet werden. Dazu sind die notwendigen Arbeiten zu erledigen. Für mich also erst mal Dosen setzen, Schlitze aufstemmen und Leerrohr verlegen – das klingt leichter als es tatsächlich ist und als ich mir das vorgestellt habe. Zudem habe ich mich bei der Menge etwas verschätzt und muss zwischenzeitlich nochmal Leerrohr nachordern.

Die Besprechung zum Turnfest am Nachmittag gerät da fast zur Nebensache – zum normalen Tauchtraining reicht es mir dann zeitlich nicht mehr, aber immerhin zum gemütlichen Teil hinterher mit Verpflegung – damit muss ich mir schon mal keine Sorgen mehr um die Kalorienzufuhr für den Tag machen. Dank gilt hier Werner, der eine vorzügliche Auswahl verschiedener Wurstsorten aufgeboten hat.

Donnerstags gehe ich ein lange gehegtes Projekt an – nach über 2 Jahren in meiner Wohnung bin ich den lose untergebrachten Spiegel im Bad satt, ebenso die offene Verkabelung (noch dazu in Nähe der Badewanne – gut das der FI erfunden ist – wie ich beim Einbau des Spiegels und dem Anschluss der Beleuchtung auch merke: Das Ding ist sehr pingelig und nimmt seine Aufgabe ernst – einmal stehe ich beim Anschluss des Spiegels vollständig im Dunkeln). Ideen für den Spiegel hatte ich ja schon länger – von geschweißten Konstruktionen mit Stahlrahmen über die Alternative doch einfach einen Spiegelschrank zu kaufen, habe ich verschiedensten durchgespielt. Übrig geblieben ist am Ende eine Version mit indirekter LED-Beleuchtung. Den Spiegel fasse ich in einen Alu-Rahmen aus U-Profil ein, damit die LEDs wassergeschützt sind und alles irgendwie in das Gehäuse passt, lege ich in den Rahmen Plexiglas ein – nicht günstig aber funktional. Lange Zeit habe ich suchen müssen, bis ich ein passendes LED-Netzteil gefunden habe, das flach genug ist um hinter dem Spiegel zu passen. Aber wer sucht der findet irgendwann auch etwas passendes. Etwas schwierig gestaltete sich dann noch die Stabilität des Rahmens – die Plexi-Teile zu verschrauben kommt nicht in Frage und würde die Schraubverbindungen sehr strapazieren. Am Ende ist die Lösung wie so oft so einfach: Ich habe mir ein Fachwerk-Gebäude angeschaut und dort die Lösung erspäht, die ich bisher auch schon bei Bilderrahmen gesehen hatte – einfach in die Ecken Dreiecke einbringen und schon hat man Möglichkeit zu verschrauben und die notwendige Verwindungssteifigkeit gibt es gratis dazu. Da ich keine Dreiecke sondern Vierecke verwende (die lassen sich leichter zuschneiden), habe ich auch gleich das Problem der Aufhängung gelöst: Passende Löcher in die Ecken gebohrt und schon kann man den Rahmen wunderherrlich auffhängen.

Schwierig bis lästig ist die Bearbeitung des Plexiglases – die ersten Zuschnitte macht mir noch die Firma HEMA in Mannheim – die sind auf den Verkauf von Kunststoffen spezialisiert und haben auch die notwendigen Maschinen für den präzisen Zuschnitt – vom Geruch (trotz Absaugung) mal abgesehen.  Die Schnitte sind absolut präzise, kein Vergleich zu dem was ich später auf der Kreissäge zu Stande bekomme. Erste Lehre für mich: Vorsichtig schneiden – zweiseitig, damit keine Ausbrüche entstehen. Den Halteschlitz für den Spiegel versuche ich anfänglich auf der Kreissäge zu fertigen, aber die Präzision ist nicht das was ich mir erhofft habe. Wie alles weitere arbeite ich daher auf der Fräsmaschine. Damit werden die Schnitte und Fräsungen deutlich sauberer – leider muss ich bei der Länge von etwas mehr als 60cm mehrfach umspannen was sich in kleinen Schönheitsfehlern äußert. Diese sind später aber nicht mehr sichtbar, worüber ich echt froh bin. Ursprünglich wollte ich die Fläche oberhalb der LEDs nach dem Fräsen noch polieren, aber nach einem Test spare ich mir diese Arbeit, durch die leichte Schraffur des Fräskopfes wird der Lichtstrom der LEDs etwas gestreut, womit die Ausleuchtung homogener wird. Den Rahmen hatte ich mir komplizierter vorgestellt, vor allem wegen der Gehrungen in den Ecken, aber auf der Kappsäge lassen sich diese ohne Probleme sauber anfertigen – zumindest nachdem ich ein frisches Blatt eingebaut habe, das auch scheidet und sich nicht durchbrennt (nach einem Versuchsschnitt in ein Restholz stehe ich in einer Rauchwolke …).

Passend zum THW-Dienst (der ja auch noch ansteht) werde ich mit den Aufräumarbeiten fertig und kann den Spiegel einpacken – nur noch einige Schrauben muss ich besorgen und dann ersetzen, selbst Martin hat keine 16 Schrauben M5x10 Senkkopf vorrätig – aber die Konstruktion hebt auch mit ersatzweise verwendeten längeren Schrauben, diese stehen nur unschön nach hinten über.

Freitag beginnt mit Aufräumen und ordnen daheim, und natürlich den Vorbereitungen den Spiegel endlich auch aufzuhängen, dazu muss ich erst mal den Kabelsalat meiner Vorgänger ordnen – da war es wohl zu viel verlangt die Lüsterklemmen aufzuschrauben und wieder sauber in die Dose zu packen – das Gewirr ist nach dem Entheddern und neu Aufklemmen gleich mal viel übersichtlicher. Leider wird der geplante Dosentrafo nicht passen, denn ich habe die Zuleitung zur Deckenleuchte im Bad vergessen – die ist leider vollständig Aufputz (wer heute noch davon ausgeht, dass man im Bad nur einen beleuchteten Spiegelschrank hat? – zeitgemäß ist etwas anderes …). Bevor ich den Spiegel montieren kann, brauche ich noch die Schrauben und auch bei der DJK soll es ja weiter gehen.  Also ein Abstecher in den Baumarkt und dort die Schrauben mitgenommen. Dabei wird mir klar, dass der Spiegel dann doch ein recht teures Projekt geworden ist, aber das Ergebnis gefällt mir. Danach noch ein Abstecher im Vorratskeller bei meinen Eltern. Dort lagert ein wichtiges Werkzeug – ein Einzugsband für in die Leerohre.

Bei der DJK muss ich feststellen, dass die Arbeit mit den Leerrohren absolut nicht bilderbuchmäßig klappen will – mit sehr viel Mühen, diversen Versuchen gelingt es mir am Ende einen von sechs Kabelsträngen einzuziehen. Das Einzugsband will nicht so recht durch das Leerrohr flutschen – gut, dass es noch offen zugänglich ist. Anfänglich hilft noch Schütteln und Rütteln – aber auf dem Weg mit dem Kabel löst sich auf drei Vierteln des Weges die Verbindung des Bandes zum Kabel. Kurzerhand mache ich das, was man im Tunnelbau einen Zwischenangriff nennt: Leerrohr auftrennen und das Problem per „Divide&Conquer“ lösen. Das ist zwar auch mühsam aber am Ende habe ich einen ersten Erfolg.

Beim nächsten Kabel will es anfänglich schon besser klappen, zumindest bis das Einzugsband reißt und ich auf dem Hosenboden lande. Die Laune ist im Keller – von wegen mal eben schnell ein paar Kabel ins Leerrohr einziehen. Ich komme zu der Erkenntnis: Ohne passendes Werkzeug geht hier nix, außerdem brauche ich für die weiteren Arbeiten Unterstützung, denn gleichzeitig ziehen und nachschieben geht nicht – erst recht nicht, wenn die beiden Enden auf unterschiedlichen Stockwerken liegen. Reichlich von meinen eignen Ambitionen und deren Verwirklichung enttäuscht mache ich mich auf den Heimweg. Nicht nur, das es nicht so recht voran ging, nein es ist auch recht kühl im Neubau. Ich habe noch immer kalte Finger als ich daheim ankomme.

Dort mache ich mich dann aber noch an ein Erfolgserlebnis (irgendwas positives brauche ich ja) und montiere in recht kurzer Zeit erfolgreich den Spiegel, nachdem ich die Schrauben ersetzt habe. Die Montage der Kabel ist noch etwas kniffelig, aber nichts was mich noch schocken kann. Das Ergebnis gefällt mir richtig gut. Nun kann ich mich beruhigt den weiteren Dingen zuwenden: Noch ein wenig Werkzeug wegschaffen und dann erst mal was Essen. Danach noch den Kuchen für die anstehende Rheintalquerung am Samstag fertig stellen – Schokoguß und Verzierung fehlten noch.

Hernach mache ich mich noch über die wichtigsten Dinge für den Lauf morgen her: Material richten, denn morgen früh um kurz nach sieben werde ich dafür wohl keinen Nerv mehr haben… Bin mal gespannt wie das morgen wird.

Wenn der Postmann zweimal klingelt – MBox, Thunderbird, Maildir und IMAP

Na da hatte ich mir doch mal wieder eine nette kleine Bastelaufgabe gestellt, als ich einem Kumpel versprochen hatte ihm bei seinen e-mail-Problemen ein wenig zu unterstützen. Ausgangssituation war ein Rechner-Zuwachs bzw. die Nutzung von Smartphone, Laptop und Festrechner. Den e-mail-Account hatten wir schon vor ettlichen Jahren eingerichtet – das war schon so lange her, dass ich mich kaum daran erinnern konnte. Ein deutlicher Hinweis auf das Alter war die Verwendung des Post-Office-Protokolls Version 3 (kurz POP3) – damals noch die Standard-Technik zum Abruf von Mails. Bisher war mein Kumpel mit dem System recht gut gefahren und auch Thunderbird als Mail-Client kommt ja problemlos mit POP3 zurecht.

Was sind die Rahmenbedingungen für POP3 und warum wird es heute nicht mehr verwendet oder besser gesagt nur noch da wo es nicht anders geht? – Sicherlich nicht weil es einfach nicht mehr „in“ ist. Vielmehr war zu den frühen Zeiten des Internets (die ich noch erleben durfte) eine unbeschränkte Verbindung ins Netz nicht gegeben (ja es gab eine Zeit vor den Flatrates und DSL – heute kaum mehr vorstellbar) – damals wählte man sich per Modem ins Netz ein – bezahlt wurde nach Minuten-Tarifen. Daher war es wichtig die Leitung möglichst effektiv auszulasten, zumal man in der Regel mit nur einem Anschluss pro Haushalt in der Zeit nicht telefonieren oder Faxe schicken konnte (ISDN war damals das Zauberwort – zwei Kanäle, drei Rufnummern gab es standardmäßig – ich gehörte leider nicht zu den glücklichen Nutzniesern). Nach dem Aufbau der Verbindung holte man seine Mails ab, surfte diverse Seiten an und trennte die Verbindung wieder wenn man sie nicht benötigte. POP3 unterstütze genau diese Funktionalität: Alle Mails aus der Mailbox nacheinander herunterladen auf den eigenen Rechner und dann war erst mal Ruhe. E-mail war ja schon schnell, aber dennoch musste man damals nicht sofort bei jeder e-mail informiert werden (was ich auch heute nur sehr bedingt brauche). Man beantwortete die Mails und sammelte sie, danach baute man die Verbindung für den Versand wieder kurz auf und speißte die Mails ins Internet zur Verteilung ein.

Die Vorteile liegen klar auf der Hand: Die damals wertvolle Bandbreite und Übertragungszeit wurde so möglichst effektiv ausgenutzt. Klar sind aber auch die Nachteile: Verteilte Nutzung von e-mails auf mehreren Rechner war nicht vorgesehen, auch wenn man die Mails in der Mailbox belassen konnte (die dann irgendwann überlief und man keine Mails mehr empfangen konnte – damals waren 5-10MB Mailspeicher schon sehr viel, aber es wurde ja auch nicht jeder Sch… per e-mail weiter verteilt). Schon zu meinen ersten Gehversuchen existierte das konkurierende Protocol Internet Message Access Protocol (IMAP) – das löste das Problem mit der Synchronisation durch eine zentrale Speicher-Instanz. Leider zu dem Preis, dass man in der Regel eine permamente Internet-Verbindung benötigte oder zumindest eine zum e-mail-Server. Gegenüber POP3 war IMAP ein deutlicher Fortschritt – Serverseitige Filterung war ebenso möglich wie verschachtelte Unterordner in der Mailbox (alles was man heute als nahezu selbstverständlich wahrnimmt) – ursprünglich entwickelt für den Mailverkehr innerhalb von Firmen (die schon damals oftmals eine Standleitung hatten). Indirekt populär wurde das Protokoll durch die Entwicklung von Webmail-Services – auch meine erste e-mail-Adresse nutze ich auf diese Art und Weise, da sie unabhängig von weiterer Software war, die auf Schulrechnern ohnehin nicht installiert werden durfte. Als Schnittstelle wurde das Common Gateway Interface genutzt – in aller Regel werkelte dahinter eine Reihe Perl-Skripte.

In den ersten echten Genuss von IMAP kam ich durch das Aufsetzen eines internen Mailservers für Heimzwecke – der holte die Mails per POP3 in festen Intervallen ab und stellte sie dann intern wieder per IMAP zur Verfügung – ich wusste schon zu der Zeit die Vorzüge zu genießen. Selbst ist der Admin 🙂

Der langen Rede kurzer Sinn – Ziel war es nun, das eingerichtete e-mail-Konto von POP3 auf IMAP über zu siedeln. Ich selbst habe diesen Schritt schon häufiger durchgeführt – auch mit Thunderbird. In der Regel ist das kein Problem: Ein zusätzliches Konto per IMAP einrichten, den POP3-Abruf stilllegen, damit er nicht die gerade hochgeschobenen Mails gleich wieder abholt und löscht (den Fehler merkt man recht flott …) und dann kann man mit einer schönen Operation „Drag&Drop“ die e-mails aus den lokalen Ordnern auf den Server verschieben. Eine Sache von wenigen Minuten in der Regel.

Doch grau ist bekanntlich alle Theorie – irgendwie wollte das nicht so recht funkionieren – der Transfer zog sich ewig in die Länge und brach dann irgendwann einfach ab. Da es bereits etwas später am Abend war, haben wir es erstmal vertagt.

Ich habe mich dann mal etwas genauer schlau gemacht was da ursächlich sein könnte bzw. wie man das optimieren kann. Kurze Recherhe mit „Prof Dr. Dr.  Google“ liefert einen Ansatzpunkt: Thunderbird verwendet für lokal gespeicherte e-mails ein standardisiertes und weithin bekanntes Format zum Speichern von Mails: das gute alte MBox-Format – ein recht einfaches Text-Format in dem alle e-mails in der Reihenfolge des Eingangs hintereinander weg geschrieben werden. Einfache Techniken sind ja in der Regel begrüßenswert, aber in diesem Fall ist die Extraktion nicht wirklich einfach (Regular-Expressions sind sicherlich hiflreich, aber auch die diversen Fragen zum Escaping der From-Lines – näheres siehe im Link). Damit es etwas schneller geht fertigt Thunderbird eine Index-Datei an. Unterordner erhalten bei Thunderbird eigene Dateien.

Eingangs hatte ich anklingen lassen, dass man früher nicht gerade große e-mail-Postfächer hatte – daher war das Mbox-Format auch zielführend. Aber man bedenke etwaige Beschränkungen die jeder PC-Nutzer meiner Generation wohl irgendwann einmal kennen gelernt hat: Beschränkuingen des Dateisystems erlauben nicht, dass eine Datei eine gewisse Größe überschreiten darf – mit FAT32 sind es 4GB, früher unvorstellbar groß – heute noch nicht mal ausreichend für einen Film auf DVD. Nun kann man sich natürlich auch vorstellen wie performant die Arbeit in entsprechend großen Text-Dateien ist, wenn man darin Mails sucht … für große Datenmengen gibt es deutlich besser Aufbewahrungsmethoden, zumal man in der Regel die Mails ja nicht auf Endlos-Papier ausdruckt sondern doch eher Stück für Stück liest. Was Thunderbird so flügellahm machte war die simple Tatsache, dass aufgrund des vielen Inhalts fast 3 GB Mails in einer Datei lagen – in Zeiten von dicken Anhängen und den unvorstellbaren Mengen Speicherplatz aktueller Rechner eigentlich nicht mehr verwunderlich.

Was also tun? Wenn Thunderbird ins Straucheln kommt, dann sinnt man auf Abhilfe mit einfachen Mitteln, zumal ja alles standardisiert ist: Protokolle, Format, da sollte sich doch etwas machen lassen. Mittel der Wahl als Administrator ist für solche „Quick’n’Dirty“-Arbeiten die Programmiersprache Perl. Flexibel, teilweise wirklich sehr kurz und unsauber, aber halt einfach das Schweizer Offiziersmesser wenn es um das stapelweise verhackstücken von Dateien geht. Praktischerweise gibt es mit CPAN ja auch für fast jeden Anwendungszweck passende Module. Recht flott habe ich ein Skript zusammengezimmert, das mir die einzelnen Dateien durchgeht und den Upload per IMAP übernehmen soll. Doch, wa soll das schon wieder – auch dieser Weg scheitert – die Perl Module laden nach und nach die gesamte Datei in der Arbeitsspeicher, bis das Betriebssystem meint „jetzt ist aber gut, und den Prozess abwürgt“.

Nun gut, als Admin fühlt man sich nun doch heraus gefordert – wenns so nicht geht, dann gibts ja immer noch Mittel und Wege. Ich entscheide mich dem Tool das Leben etwas leichter zu machen und die Mail-Datei schon einmal etwas vorzuverdauen. Will heißen wir spalten die große Datei in kleinere Happen auf. Mittel der Wahl für mich in diesem Fall ist das Maildir-Format, das sich als Alternative zum Mbox-Format etabliert hat und das mittlerweile viele Mailserver und auch Clients einsetzen (interessanterweise gibt es auch Ansätze ob Thunderbird das lokal verwenden sollte…) Im Maildirformat ethält jede Mail eine eigene Datei – etwas weniger effizient was den Speicherplatz betrifft, aber der ist ja heute reichlich verfügbar und e-mails sind heute meist derart umfänglich, dass dieser kleine Overhead auch nicht mehr ins Gewicht fällt. Generell ist der Zugriff auf eine einzelne Nachricht nun wesentlich direkter möglich.

Auf zu Versuch Nummer 2 als, diesemal dann mit einem Perl-Modul, das e-mails in Maildir-Verzeichnissen lesen kann. Und wieder ein Griff ins Klo … ich zweifle schon an meinen Fähigkeiten, als ich dann doch diverse Reports im Netz finde, dass die Iteration über Mailboxes mit dem Perl-Modul wohl einen Bug hat und den allokierten Speicher nicht mehr rechtzeitig frei gibt. Ein klassisches Memory-Leak also.

Weiter verfolgen muss ich das nun aber nicht mehr, mein Kumpel hat in der Zwischenzeit eine wesentlich bessere Variante gefunden, als Brute-Force alles auf den Server zu transferieren: Einfach vorher das Postfach mal grundlegend entrümpeln und wirklich nur die erhaltenswerten Mails auf den Server verschieben. Das ist natürlich auch eine Lösung, auch wenn sie für mich technisch natürlich nicht an den Charme eines Skriptes heran kommt. Aber was immer hilft soll mir in diesem Fall ja recht sein.

Was haben wir also gelernt: POP3 ist nur noch in Ausnahmefällen eine sinvolle Alternative, vor allem weil heute ja kein echter Mangel an Bandbreite und Dauererreichbarkeit mehr besteht. Selbst für den Offline-Fall bringt heute jeder IMAP-Client notwendige Mechanismen zum Caching der Mails mit. Zweitens: Auch das MBox-Format ist inzwischen mit Vorsicht zu genießen, ich selbst verwende es ja schon seit den Anfängen des eigenen Mailservers nicht mehr (auch weil qmail es damals nicht aktiv unterstützte sondern die Grundlage für Maildir legte). Aber das allerwichtigste ist wohl: „Schmeiß auch mal weg, trenne dich von Dingen die du eh nicht mehr brauchst“ – das regelmäßige Bereinigen eines Postfachs macht zwar auch Mühe, aber man kann es ja auch wieder automatisieren: Wer hat jemals e-mails angeschaut, die älter als drei Jahre waren? Wirklich wichtige Informationen speichert man ohnehin als Datei ab oder druckt sie dokumentenecht auf Papier aus. Die ganzen restlichen Alltagsmails kann man nach einer gewissen Zeit gefahrlos löschen. Es lebe der Frühjahrsputz. So und jetzt greife ich dann auch mal zum digitalen Schrubber – das könnte etwas länger dauern – derzeit habe ich rund 5 GB an e-mails herum liegen … da hilft wohl doch eher der Hochdruckreiniger denn ein Schrubber …

 

 

Jogging in the winter wonder land

Da sag noch einer man müsste über die Faschingstage sich zwingend in einen ewigen Stau auf der Autobahn anstellen um sich dann in einem der Wintersportgebiete in den Alpen oder sonstwo aus zu toben. Ich habe derzeit keinen Urlaub und auch nicht den zwingenden Bedarf mich in den Gebieten zu tummeln, wenn dort ohnehin schon alle unterwegs sind, die an die Schulferien gebunden sind. Leider wird es die nächsten Wochen so schnell auch nichts mit Urlaub (einige Ereignisse werfen langsam aber sicher ihre Schatten in der Organisation voraus).

Was bleibt ist das Genießen der Landschaft die man direkt vor der Haustüre hat. Das reguläre Training am Abend ist ob der noch recht spärlichen Beleuchtung nicht sonderlich abwechslungsreich (wenn man vom stark gestiegenen Pegel des Neckars mal absieht). Dafür habe ich am Wochenende genügend Zeit um auch lange Einheiten zu trainieren.

Am vergangenen Sonntag war ich mit einer Gruppe gemütlich durch den Viernheimer Wald unterwegs – ganz langsam, aber das war mir durchaus recht – immerhin steckte mir der Muskelkater vom Sprinttraining Freitags in den Knochen. Nun liegt der Wald ja keine 10km von meinem Wohnort entfernt und den ein oder anderen Flecken oder Ecke kannte ich dann doch, aber so in der Gesamtheit habe ich den Wald dort noch nicht belaufen. Immerhin waren wir etwas länger als 2h unterwegs – am Ende nur noch zu zweit mit etwas flotterem Tempo und auf einer Extraschleife, aber es hat sich gelohnt. Die Strecke ist vergleichweise flach und meistens gerade aber genau richtig um lange Distanzen zu trainieren – je nach Lust und Laune kann man Schleifen anhängen um die Einheiten anzupassen. Das Wetter war nicht schlecht, wenn auch kein strahlender Sonnenschein. Dafür jede Menge Matsch, da es doch etwas über 0°C hatte.

Dieses Wochenende ging es wieder mal auf eine mir nur teilweise und vor allem von anderen Aktionen her bekannte Strecken – Start in Leutershausen, dort erst mal kräftig den Berg hoch – fast wie in Oberelchingen, auch hier am Friedhof vorbei. Den Parkplatz oberhalb kenne ich noch aus Kinderzeit – dort sind viele Touren zum Spazieren/Wandern gestartet, auch bei Schnee und Eis. Diesmal ist es auch herrlich weiß – wenn auch zu Beginn noch so neblig, dass man die Häuser von Leutershausen nur erahnen kann – vom Rest der Rheinebene mal ganz zu schweigen. Mit einigen Schlenkern geht es auf die Kunz’sche Mühle im Tal bei Großsachsen zu, dabei gibt es die erste Trail-Einlage des Tages. Anfänglich habe ich einen unserer Mitläufer noch um seine Stöcke (er trainiert für diverse Trail-Läufe) belächelt – auf dieser Passage wird mir klar wie nützlich die Dinger sind. Der erst Schnee findet dann auch zielsicher den Weg in die Schuhe, aber es hält sich in Grenzen.

Von der Mühle aus geht es das Tal langsam aber stetig nach oben, kurzer Stopp in Rittenweiher am Pferdehof, bevor es den „Apfelbaumweg“ nach Rittenweier in Serpentinen nach oben geht. Kurz vor Rittenweier erkenne ich eine altbekannte Rodelstrecke wieder, die ich früher häufig genutzt habe (ca. 4-5 Minuten Abfahrt, dafür dann 45 aufwärmen bergan). Weiter geht es über den Eichelberg, dort hat sich die Bürgerinitiative gegen die Windkraftanlagen versammelt – wir lassen uns nicht beirren und laufen weiter zur Ursenbacher Höhe. Dort geht es nochmal über einen Bergrücken und dann erst mal kräftig bergab. Eigentlich will unser Tourenplaner eine Runde um einen der Bergköpfe machen um die angepeilten 25km zusammen zu bekommen, aber irgendwie verpassen wir im Schnee den passenden Abzweig und machen daher eine Erkundung eines völlig unbenutzten Weges. Mit dem vielen Schnee fällt das Laufen um so schwerer – mittlerweile werden die Füße nicht nur feucht sondern auch nass und kalt. Um so ärgerlicher, dass wir die Strecke wieder hoch müssen 😐

Nachdem wir den rechten Weg wieder gefunden haben, geht es auf schon bekannter Trasse in Richtung Leutershausen, ein Teil der Gruppe kürzt ab und läuft über die Saatschule, ich entschließe mich es richtig zu machen und hänge noch einige Kilometer an – die haben es aber nochmal ganz schön in sich wie ich merken muss.  Am Ende geht es auf dem Burgen/Blütenweg immer der Bergformation nach – mit einigen richtig kräftigen Trails die absolut zugeschneit sind – ich bin richtig froh als endlich der Parkplatz oberhalb von Leutershausen auftaucht. Immerhin werden wir jetzt durch ein herrliches Panorama entschädigt, der Nebel hat sich aufgelöst. Nur noch bis ins Tal joggen, dann sind die 25km auch geschafft. Gefühlt waren es einige mehr, was wohl auch an den diversen Höhenmetern liegt – wie wir später vermessen waren es 1000 positive und 1001 negative … dazu noch der Schnee – schon fühlt man sich als hätte man 35km gemacht. Zumal ich auch am Freitag wieder das Training in der Halle nicht sein lassen konnte.

Insgesamt kann ich nur sagen: So ein Kurzurlaub für einige Stunden in den Odenwald oder die sonstige Umgebung ist immer wieder schön – aber ich freue mich jetzt auch drauf, wenn es langsam wieder warm wird und die Bergstraße dann in voller Blüte steht, dann bleiben hoffentlich auch die Schuhe wieder dauerhaft trocken.

 

Rasanter Jahrestart

Wow – das ging ja fix – schon sind drei Wochen des neuen Jahres rum – und es hat genau da weitergemacht wo das alte aufgehört hat – so eine verflixte Sache aber auch die Stetigkeit der Zeitentwicklung. Das schwarze Loch zwecks Maya-Weltende ist ja auch ausgeblieben – kein Wunder also, das vieles beim Alten geblieben ist.

Angefangen habe ich das Jahr ja noch recht beschaulich mit einer Woche Urlaub, die ich vor allem dazu genutzt hatte etwas Ordnung zu schaffen und einige Dinge endlich einmal zu erledigen.

Mein Lauftraining hat in den vergangenen Wochen neue Dimensionen erreicht – ich kann mich nicht erinnern, das ich bereits so früh im Jahr sonst schon so lange Einheiten hatte oder eine derart hohe Gesamtkilometerzahl – mal eben am Wochenende 38km bei eiskaltem bis kaltem Wetter – kein Problem (auch wenn ich mir die Extra-Schleife über 4,2km geschenkt habe). Dazu natürlich das übliche Training unter der Woche, wenn auch die Resonanz auf das angebotene Freitags-Training bisher recht dürftig ist – das ist schon fast ein persönliches Training. Aber wer nicht will hat anderweitig schon. Immerhin habe ich mir ja auch schon den ersten Wettkampf vorgenommen: Am 26.1. gehts nach Rodgau zum Ultra-Lauf über 50km – nur als Fitness-Check für Biel (da sind dann 100km angedacht).

Beruflich hat der normale Stress auch wieder eingesetzt, auch wenn ich versuche ihn so weit wie möglich zu reduzieren (großes Vorhaben für 2013) – erschwert wird es gerade durch nicht genauer nachvollziehbare Server-Abstürze – was ich äußerst lästig finde. Hardware-Defekte kann ich derzeit ausschließen, und in der Software gibt es nur sehr sporadische Hinweise. Ebenso habe ich einen Pflegerechner der mir mehr Rätsel als Antworten aufgibt – mal läuft er stundenlang ohne Murren, und dann springt er mal wieder gar nicht erst an – noch warte ich auf Ersatzteile… mal sehen ob sich da noch eine Ursache findet – auch etwas lästig.

Nebenher habe ich noch diverse Aktionen für die DJK Feudenheim erledigt – nicht alles so erfolgreich wie gedacht – die Sitzungen und die Protokolle dazu sind ja schon fast Tagesgeschäft – aber bei den Einladungen zur Mitgliederversammlung hat mich bei den Kuverts doch glatt mein treuer Brother Drucker im Stich gelassen und nach 300 Kuverts den Dienst eingestellt – gut wenn man noch einen alternativen Drucker im Keller stehen hat – zwar nicht so toll, aber es hat funktioniert – nach einigen Stunden waren dann auch die knapp 900 Kuverts vollständig bedruckt und eingetütet. Mit dem Versand ist jetzt erst mal ein wichtiges Thema vom Tisch.

Eine Sache die ich mir noch vorgenommen hatte, war eine Probefahrt mit einem weiteren Elektrofahrzeug – der Renault Kangoo Z.E. er ist an und für sich ganz praktisch – eben ein typischer Lieferwagen, aber die Kosten für das Batterieleasing finde ich einfach nicht tragbar, zumal es keine Lademöglichkeit einfach mal so an der Steckdose gibt, bzw. wenn dann nur als Extra für teuer Geld. Da muss das Angebot noch besser werden, denn das Fahrzeug vom Konzept her hat mir ja durchaus zugesagt (natürlich inklusive der 2. Schiebetür zum Durchwerfen von Geldsäcken … siehe auch hier: http://www.youtube.com/watch?v=rLzgDZscN0s)

Als zusätzliche Herausforderung gab es dann noch zwei PC-Probleme bei denen ich noch vorbei geschaut habe.

Insgesamt ist mein Stressbedarf derzeit erst mal wieder gedeckt – schauen wir mal, dass es nicht noch mehr wird – einiges ist ja auch vom Tisch und kommt hoffentlich nicht nochmal hoch…

Es saugt und bläßt der Heinzelmann

Ein schon fast zeitloser Klassiker ist Loriots „Weihnachten bei Hoppenstedts“ (http://www.youtube.com/watch?v=jHUDqgeq10w). Ganz getreu dem Motto des Staubsauger-Verkäufers „es saugt und bläßt der Heinzelmann wo Mutti sonst nur saugen kann “ habe ich mich zu Weihnachten auch an die Verschönerung meiner Wohnung gemacht. Herausgekommen ist dabei ein neckisches Spielzeug für den modernen Single oder auch Geek: Ein Staubsauger-Roboter – warum selber saugen, wenn das der Roboter übernehmen kann.

Mittlerweile sind die Geräte aus dem gröbsten raus, auch wenn es da sicherlich noch einige Verbesserungsstufen geben wird. Kurz nach Neujahr wurde das Schmuckstück dann geliefert: Ein Roomba iRobot (hoffentlich benimmt der sich nicht wie in dem Film „I, Robot“) Modell 780. Kein Schnäppchen aber seit wann ist denn gutes Spielzeug günstig oder gar billig?

Das Auspacken ist noch recht unspektakulär, neben dem Roboter an sich finden sich Ersatzbürsten, zwei Raumtrenner (auch Leuchttürme genannt), Reinigungsgeräte, Ersatzluftfilter, Ladestation und die Fernbedienung mit im Karton.

Erste positive Überraschung: Die Bedienung ist sehr simpel gehalten – selbst der Zusammenbau der Basis-Station ist selbsterklärend: Aufstellen, Netzteil anschließen und schon ist das Ding fertig. Kleiner Wermutstropfen: Das Netzteil fiept und zirpt – bei dem Preis hätte ich etwas besseres erwartet.

Weiter geht es mit dem Gerät an sich, auch hier ist wenig zu beachten: Transportsicherungen entfernen und schon legt das Gerät auch los, bzw. es würde gerne, liegt aber noch mit dem Rücken. Das Einstellen der Uhrzeit will leider nicht so recht auf Anhieb gelingen, das Touchfeld reagiert teilweise komisch, daher muss ich schon nach nur wenigen Minuten überlegen ob ich das Gerät als defekt reklamiere. Aber wie bei jeder Elektronik: Einmal Reset brutale hilft – Batterie ausbauen, warten und wieder einschrauben. Danach lässt sich das Gerät einwandfrei bedienen. Die Uhr ist recht fix eingestellt, und auch die Programmierung der regelmäßigen Reinigungen ist zügig erledigt.

Zeit für den ersten Testlauf, leider ohne Leuchttürme, denn diese sind batteriebetrieben und die Batterien (insgesamt 4 Stück LR16 / C) sind leider nicht im Lieferumfang enthalten – immerhin habe ich die 2xAA für die Fernbedienung im Haus. Wie ich erwartet habe, gibt es noch einige Ecken in meinem Haushalt, die robotertauglich gemacht werden müssen: Lose Kabel am Rechner sind ein no-Go, also entweder sauber aufräumen oder den Stuhl so vornedran stellen, dass der Sauger gar keine Chance hat dahin zu kommen. Ich entscheide mich fürs aufräumen, denn gerade am Arbeitsplatz sammeln sich doch reichlich Krümel und Co an. Ebenso uncool findet der Roboter die Bändel einer unachtsam abgehängten Jacke – prompt verschluckt er sich daran. Die Träger des Rucksacks haben ihn dagegen überhaupt nicht interessiert. Etwas unerwartet widmet sich das kleine Biest auch dem untersten Regalboden meines Bücherregals, der ist gerade leer.

Von der Navigation bin ich nicht wirklich angetan – hat er sich einmal in mein Schlafzimmer verirrt so kommt er da nicht mehr so recht raus, und wenn, dann nur um sich bald darauf wieder darin zu verirren, selbst wenn er eigentlich ans Dock soll. Ich bin mal gespannt was passiert wenn die Leuchttürme aufgestellt sind. Dann wird das hoffentlich besser.

Während ich im mein freitägliches Lauftraining absolviere, lasse ich den Sauger mal einfach werkeln – diesmal mit geschlossenen Türen ins Schlafzimmer und Bad, die Küche lasse ich Interessehalber mal auf. Schon kurz nach dem Start als ich gerade die Wohnung verlassen will: Staubfang-Behälter voll – na gut, machen wir ihn leer. Um so erstaunter bin ich, als ich nach knapp anderthalb Stunden Training zurück komme: Der Roboter ist ins Dock zurück gekehrt, aber der Behälter ist schon wieder voll – ich frage mich wo er den ganzen Staub und die Fusseln gefunden hat. Nach einer neuerlichen Reinigung mache ich mich auf den Weg zum Einkaufen – da es noch Stellen gibt die nicht sauber sind, bekommt das Gerät noch eine weitere Chance. Man ahnt es schon: Ich komme zurück und der Behälter ist schon wieder voll!

Die Ergebnisse sind ganz ordentlich, auch wenn es klar Ecken gibt, an die das Gerät prinzipbedingt nicht heran kommen kann – ich erwarte ja nicht, dass er meine sackschweren Rollcontainer vorzieht um dahinter zu saugen (aber man kann sie natürlich einfach mal rausziehen und dann saugen lassen. Noch stehen die Tests mit den Leuchttürmen aus, bestückt mit Batterien sind sie jetzt auf alle Fälle mal. Damit soll der Roboter erkennen können wo einzelne Räume beginnen und enden. Problematisch sind vor allem Rundungen, die Kante des runden Teppichs unter dem Tisch werde ich wohl auch weiter händisch reinigen müssen, aber ansonsten macht das Patent erst mal einen guten Eindruck – ich werde es weiter beobachten und berichten wie sich das Gerät in den nächsten Wochen und Monaten schlägt.