Vereinigtes Bananenkönigreich

Im englischen Watford treffen sich vom 8. – 9. Juni dieses Jahres wieder die Superreichen und ihre politischen Helfershelfer, um sich in heimelig abgeschirmter Atmosphäre gegenseitig in ihrer Weltsicht "erlaubt ist, was Profit bringt" zu bestätigen.

Geladen hat die, im Vereinigten Königreich erstaunlicherweise als "gemeinnützig" anerkannte, Bilderberg Gruppe.

Das Treffen ist eine Privatveranstaltung, wird aber von den Behörden der Grafschaft Hertfordshire behandelt wie ein offizieller Regierungsgipfel. Die Sicherheitsvorkehrungen stehen denen für ein G8 Treffen in nichts nach, und wie auch bei Regierungsgipfeln mißachtet man flächendeckend die Grundrechte der Nachbarn.

Hertfordshire erfährt derzeit die volle Bedeutung des Wortes "Sicherheitszirkus" und aller assoziierten Begriffe wie z.B. "Todeszone". Die Polizei der Grafschaft fährt alles auf, was vermeintlich gut, zumindest aber teuer ist. Die Kosten dieser Feldübung übersteigen allerdings deutlich das Budget dieser eher ländlichen Polizeitruppe.

Abhilfe kam nun aus USA. Goldman Sachs, die Bank deren mit viel krimineller Energie gepanschten toxischen Immobilienderivate die globale Finanzkrise auslösten, hat durch eine großzügige Spende an die Bilderberg Gruppe ermöglicht, dass diese der Polizei von Hertfordshire die Kosten des Sicherheitszirkus erstatten kann.

Eine private Interessengruppe kauft sich also die staatliche Polizeitruppe eines vorgeblich demokratischen Landes, samt aller hoheitlichen Befugnisse wie z.B. dem Gewaltmonopol, damit diese im Auftrag besagter privater Interessengruppe flächendeckend Grundrechtsverletzungen organisiert, um einigen kriminellen Abzockern eine ungestörte Schmuserunde mit ihren korrupten Unterstützern aus der Politik zu ermöglichen.

Die baldige Aufnahme der Banane in das britische Staatswappen gilt als sicher.

Quelle: Bericht des Guardian

Advertisements
Posted in Politik | Tagged , | Leave a comment

Grillini oder Die Dialektik Populistischer Forderungen

Beppo Grillo will sein Reich nach Norden ausdehnen und hat auch in Deutschland bereits eine Gruppe durchgeknallter Mitläufer gefunden, die in einem 25-seitigen Papier seine populistische Agenda propagieren.

Da wird unter anderem danach verlangt, dass die Abgeordnetendiäten den landesüblichen Durchschnittslohn nicht überschreiten dürfen.

Das klingt erstmal gut in den Ohren der gebeutelten Masse der Steuerzahler und Niedriglohnsklaven. Doch was steckt wirklich hinter dieser Forderung und sollte man sie unterstützen?

Ich sage: Nein.

Die Abgeordnetendiäten in ihrem derzeitigen Umfang sind, ebenso wie die Erstattung der Wahlkampfkosten, ein wichtiges Instrument zur Wahrung der Chancengleichheit im politischen Betrieb. Setzen wir diese auf das Niveau von Hungerlöhnen herab, wird es nur noch reichen Bürgern möglich sein, ein Mandat wahrzunehmen.

Die Umsetzung der populistischen Forderungen der Grillini liefe also darauf hinaus, in Deutschland amerikanische Verhältnisse einzuführen, die dort dazu geführt haben, dass beide Häuser des Kongresses mittlerweile zu ca. 60% aus Multimillionären bestehen und die restlichen 40% der Mandatsträger auf Gedeih und Verderb an Tropf und Gängelband zahlungskräftiger Lobbygruppen hängen.

Wie Gesetze aus den Händen solcher "Volksvertreter" aussehen, zeigten uns Produkte wie SOPA, PIPA und andere verunglückte rechtliche Konstrukte der letzten Jahre, wie z.B. die Gesetze mit denen der Agrarchemie-Konzern Monsanto gegen Kritik und Klagen aus den Reihen der Opfer seiner Produkte und miesen Geschäftspraktiken abgeschirmt wird.

Man kann mir gerne Verschwörungsdenken vorwerfen, doch für mich sind die Forderungen der Grillini geschickt in populistisches Geschenkpapier verpackter Klassenkampf von oben.

Posted in Politik | Tagged , , , | Leave a comment

Wo die Drossel jetzt schon singt

Ich wohne auf dem Land. Hier gibts Natur pur, frische Luft, Wälder, Seen und tolle Wanderwege. Schnelles Internet gibts leider nicht.

Auf unserem Hypothekenhügel bietet die Telekom „bis 16 Mb/sec“, was in der täglichen Realität mehr so auf 2 – 4 Mb/sec hinausläuft. An stillen, späten Abenden auch mal auf 12 Mb/sec. Das wars aber dann.

Upstream erfolgt, wie bei allen ADSL Anschlüssen für Endverbraucher, über ISDN Kanalkoppelung und ist somit bei 128 kb/sec gedeckelt. Eine Email mit einem etwas größer geratenen Anhang kann da schon mal mehrere Minuten brauchen, um sich Richtung Server zu schleichen. Trotzdem beneidet mich mein Freund aus dem ca. 1km entfernten Nachbardorf um diesen Anschluss, denn dort eiert die maximale Downstream-Geschwindigkeit so zwischen 400 und 761 kb/sec hin und her.

Als vor ca. 2 Jahren unsere lokalen Politiker endlich begannen, die Bedeutung des Internets für das Wirtschaftswachstum zu begreifen, traten Sie in Verhandlungen mit verschiedenen Netzanbietern, um den Ausbau in unserer Region voranzutreiben. Die Antworten aller Anbieter kann man selbst bei bestem Willen nur als Erpressungsversuche klassifizieren.

In unterschiedlichsten Formulierungen verkleidet liefen alle Antworten auf den selben Forderungskatalog hinaus: Monopolstruktur und Umsatzgarantie, gekoppelt mit einem Zuschuss der öffentlichen Hand in sechsstelliger Höhe pro Gemeinde, womit sich jede Investition in den Netzausbau bereits nach einem Jahr amortisiert hätte.

Während einige Gemeinden einknickten und mitspielten, steckten die anderen die Köpfe zusammen und tüftelten einen alternativen Plan aus. Im Rahmen einer Partnerschaft zwischen einem Hardware-Anbieter und den Landkreisen soll jetzt eine öffentlich-rechtliche Gesellschaft Glasfaser verbuddeln und den ISPs Durchleitungskapazitäten verkaufen.

Fertiggestellt, wenn überhaupt, wäre das Projekt pünktlich zum Beginn der Drosselung durch die Telekom. Bis jetzt ist allerdings alles noch im Vorplanungsstadium und könnte auch noch platzen.

Was bedeutet Netzgeschwindigkeit für die Menschen der Region?

Wie immer, für jeden äußerlich betrachtet etwas anderes. Also teilen wir mal auf.

Industrie, Handel, Handwerk, Gewerbe

Wir sitzen hier in unserer schönen Landschaft mitten in einem sogenannten Kompetenzcluster. Im hiesigen Fall ist es hoch spezialisierte Metallverarbeitung wie z.B. Formen- und Werkzeugbau, Heißkanaltechnik, Baubeschläge der Luxusklasse, Heizungs- und Klimatechnik. Auf manch einem winzigen Dorf sitzt hier ein kleiner, feiner Weltmarktführer.

Für die großen Mittelständler ist es kein Problem, sich ihre eigene Glasfaserleitung mit SDSL zu leisten. Der Formen- und Werkzeugbauer mit 15 Mitarbeitern kann das aber nicht. Große Datenmengen muss er trotzdem bewegen können, denn viele Auftraggeber sitzen in mit Breitband verwöhnten Ländern wie Korea oder Japan, wo selbst private Haushalte mit 100 Mb/sec angeschlossen sind. Diese Kunden denken sich nichts dabei, mal schnell eine CAD Datei von mehreren GB auf die Reise zu schicken.

Für viele der kleineren Unternehmen auf den Dörfern bedeutet die hiesige Lage nach wie vor Technik aus der Steinzeit. Nämlich eine ISDN Karte, welche die 24 B-Kanäle eines S2M Anschlusses parallel nutzen kann, um so wenigstens auf ca. 1 Mb/sec zu kommen. Faktisch gesehen läuft das darauf hinaus, dass Datentransfers nur ausserhalb der Geschäftszeiten stattfinden können, damit der Telefon- und Faxbetrieb nicht gestört wird.

Auch ausserhalb der Metallbranche stoßen Gewerbetreibende allenthalben an die engen Grenzen des hiesigen Netzes.

Da ist z.B. die letzte am Ort verbliebene Druckerei, die ihre Aufträge dem Zeitgeist entsprechend immer öfter per Email empfängt. Was jedesmal einen oftmals riesigen Anhang in Form eines belichtungsfähigen PDFs bedeutet. Selbst für einen Kleinauftrag wie eine Visitenkarte werden bei 300 DPI schnell mal 2,5 bis 3 MB fällig. Mit ausgefallenen und deswegen eingebetteten Schriftschnitten kanns auch mal mehr werden. Große Aufträge wie z.B. mehrseitige Broschüren in hoher Auflösung knacken ganz schnell die Multi-Gigabyte Grenze.

Am anderen Ende der schon jetzt quälend langsamen Leitung sitzen die, oftmals als Einzelkämpfer tätigen, Grafikdienstleister der Druckvorstufe, welche nach den neuen Regeln der Telekom nun bald wieder zum zeitraubenden Turnschuh-Netzwerk zurückkehren dürfen und Sondermüll in Form von DVDs durch die Gegend transportieren müssen. Die maximale Datenmenge eines 16 Mb/sec Anschlusses ist nämlich mit zwei oder drei aufwändigen Broschüren bereits erreicht.

Muss so ein Monster wegen der einen oder anderen Korrektur mehrfach hin- und her wandern, dann ist für diesen Monat Schluss mit High-Speed.

Auch die kleine Gemeinde der Internet-Dienstleister darf nun bald jeden Monat bang auf den Gigabyte-O-Meter starren. Auch hier sind viele Anbieter Einzelkämpfer oder Kleinbetriebe, für die ein kostspieliger Firmenanschluss ohne Mengenbegrenzung unbezahlbar und unrentabel wäre.

Kann der Anbieter aus der Druckvorstufe notfalls noch auf das Turnschuh-Netzwerk zurückgreifen, so ist das für einen Anbieter, der z.B. maßgeschneiderte CMS Lösungen anbietet, unmöglich. Die Daten müssen über den Draht, ob es der Mengentarif noch hergibt oder nicht. Ein voll konfiguriertes Virtual Machine Image einer WordPress Installation inkl. LAMP oder WAMP Stack bringt ganz schnell 12 GB auf die Waage. Selbst eine reine WordPress Installation im Rahmen von "Shared Hosting" wiegt je nach Konfiguration zwischen 2 und 3 GB

Bietet dieser Dienstleister seinen Kunden auch Betreuung des Angebotes nach der Installation, so werden in regelmäßigen Abständen Datenbanken zu sichern sein, um z.B. Beschädigungen durch Fehler bei Update-Programmen vorzubeugen. Die Datenbank einer sehr aktiven WordPress, Drupal oder Typo3 Site wächst schnell in den Gigabyte Bereich und muss jedesmal mindestens in eine Richtung über den Draht. Geht was schief, muss sie auch wieder re-installiert werden.

Aus der Sicht der kleinen Gewerbetreibenden mit direktem Internetbedarf können die Pläne der Telekom also nur als existenzbedrohend bezeichnet werden.

Die Zukunft der privaten Nutzung

Laut Telekom soll die vorgesehene Obergrenze für ein sogenanntes "normales" Surfverhalten ausreichen. Was "normal" genau beinhalten soll, wird allerdings nicht dezidiert vorgerechnet.

Spekulieren wir also einmal über die Normalität im Internet.

Dank der immer weiteren Verbreitung schneller Anschlüsse schwinden bei den Anbietern von Angeboten im Web auch die früher selbst auferlegten Einschränkungen beim Gewicht der dargebotenen Seiten. Webseiten, die beim ersten Aufruf mal schnell 1 – 2 Megabyte über den Draht schaufeln, sind leider keine Seltenheit mehr. Die hauseigene Website der Telekom samt ihrer Sub-Domains zählt z.B. zu diesen fettleibigen Machwerken und würde bei einem gedrosselten Anschluss ca. 3 Minuten benötigen, um sich ins Fenster des Browsers zu quälen.

Wer zu den, erstaunlich zahlreichen, Kunden der T-Online zählt, die ihr @t-online.de Mailkonto über die Website aufrufen, darf dieses Martyrium dann mehrmals am Tag über sich ergehen lassen.

Dann sind da noch die immer stärker genutzten Cloud Dienste. Vom reinen Speicher-Backup bis zu all den Dies-oder-Das-als-Service Angeboten. Ob man seine iTunes Verzeichnisse synchronisiert oder bei Adobe online schnell mal rote Augen aus den Konfirmationsfotos entfernen lässt, jedesmal gehen umfangreiche Datenmengen übers Netz. Und besonders Media-Dateien werden immer größer.

Als die digitale Fotografie für Endverbraucher begann, betrug die Speichergröße eines Bildes ca. 250 KB. Mittlerweile gibt es Kameras, die bei höchster Auflösung Bilder von 10 MB und mehr erzeugen. 100 Urlaubsbilder aus so einer Kamera wiegen dann 1 GB. Einmal in die Cloud und zurück kosten dann schon 2 GB.

Auch bei den bewegten Bildchen aus privater Produktion zeigt die Tendenz nach oben. Die Camcorder bieten immer höhere Auflösungen und die Dateigrößen wachsen mit. Auf Mediasharing Plattformen wie YouTube oder Vimeo tauchen bereits die ersten Amateur Videos in 1080p FullHD Qualität auf. In diesem Format gehen abhängig vom benutzten Codec zwischen 30 und 35 MB pro Minute Spielzeit über den Draht.

Podcasts und Videoblogs sind auch schon lange kein exotisches Hobby hipper Geeks mehr, sondern erfreuen sich breiter Beliebtheit. Nicht nur auf der Konsumseite, sondern auch und gerade als Outlet für Heimproduktionen aller Art. Es werden also immer mehr und immer hochwertigere Mediendateien zu bewegen sein.

Natürlich werden diese Aktivitäten nicht zu 100% den Markt penetrieren und einige wirkliche Wenig-Nutzer wird es bestimmt immer geben. Die "normale" Nutzung des Internets in 2016, wenn die Drosselpläne der Telekom greifen sollen, wird allerdings eher dem Profil "Vielnutzer" als dem Gegenteil entsprechen.

Die unselige Diskussion über die Infrastrukturkosten

Wie weiter oben schon erwähnt, haben wir ja hier anlässlich der Versuche der Kommunen, an schnelleres Netz (oder überhaupt erst an DSL) zu kommen, bereits erlebt mit welcher Kaltschnäuzigkeit und Abzockermentalität die Netzanbieter zur Sache gehen. Wer bei 100%iger Übernahme der Ausbaukosten durch den Kunden von einem „Zuschuss“ spricht, der lügt bestimmt auch anderswo.

Tatsache ist: die Vorhaltekosten für eine Netzwerkinfrastruktur entstehen, ob sie genutzt wird oder nicht. Wer also Internetzugang mit hohen Geschwindigkeiten anbieten können will, der muss diese Fähigkeit unabhängig von bestehenden Buchungen in sein Netz einbauen und das unternehmerische Risiko tragen. Schließlich kann es ja auch passieren, dass alle Kunden die Zusatzpakete buchen wollen und dann mit gutem Recht auch die volle Geschwindigkeit zu jeder Tages- und Nachtzeit einfordern.

Das bedeutet: Der weitere Ausbau der Netze wird nicht wegen einiger "Vielnutzer" nötig, sondern ist eine unternehmerische Notwendigkeit.

Zusammengefasst kommt heraus: die Telekom lügt wie gedruckt und nutzt verfälschende Rechenmodelle.

Eine Warnung zum Schluss

Die Telekom PR arbeitet unermüdlich daran, eine Neiddebatte zwischen Viel- und Wenignutzern anzuschieben und leider fallen einige Leute, darunter auch sogenannte "Netzpolitiker" einiger Parteien, auf diesen perfiden Trick herein.

Sprüche eines hessischen Grünen mit dem Tenor „Wer vielt nutzt soll auch viel zahlen.“ lassen einerseits auf eine ziemliche Verwirrtheit bei diesem Menschen schließen, müssen andererseits aber auch als politische Warnsignale ernst genommen werden.

Wenn der Druck auf Telekom und Politik Bestand haben soll, dann ist es wichtig, mit Oma und Opa-verträglichen Argumenten bei jeder Gelegenheit Überzeugungsarbeit zu leisten. Sonst sehen wir uns bald alle auf der Kriechspur oder in den ummauerten Gärten der "Managed Services", während die restliche Welt auf dem offenen Superhighway davon eilt.

Posted in Politik | Tagged , , | Leave a comment

Jagdszenen aus dem digitalen Hinterwald

Jetzt haben wir es also. Das überflüssigste Stück Gesetzgebung der Legislaturperiode, genannt “Leistungsschutzrecht„, kurz LSR.

Überflüssig, weil es

  1. nichts schützt, das nicht bereits durch andere Gesetze geschützt wäre.
  2. Rechtsunsicherheit in einem Umfang schafft, der zwangsläufig zur Entstehung einer unkontrollierbaren, zwielichtigen Abmahnindustrie bisher nicht dagewesenen Ausmaßes führen wird.

Tja, und dazu auch noch überflüssig, weil Deutschland eigentlich keine weitere Reklame dafür benötigte, dass man hier ein digitales Hinterwäldlertum pflegt, das einer hoch industrialisierten, selbsternannten High-Tech Nation unwürdig ist.

Dieses Gesetz verkündet laut und deutlich, dass unsere Presseverlage keine Ahnung vom Internet haben, ihre technische Beratung offensichtlich bei unterbelichteten "Consultants" kaufen, und sich im Zweifelsfall lieber auf klagesüchtige Anwaltskanzleien denn auf IT Fachleute verlassen.

Es ist nämlich eigentlich ganz einfach: Was von mir nicht bei Google et al auftauchen soll, das taucht dort auch nicht auf.

Das fängt beim RSS Feed an und hört bei für die Indizierung gesperrten Verzeichnissen auf. Denn, oh Wunder, das böse Google hält sich akribisch an maschinenlesbare Anweisungen in Websites, vorausgesetzt natürlich, diese maschinenlesbaren Anweisungen existieren auch.

Wie das genau funktioniert, dokumentiert Google sehr ausführlich …

Beispiel 1 – RSS

In RSS, einem XML-Format, gibt es den Strukturtag description, der für eine kurze Zusammenfassung des Inhaltes eines einzelnen feed items gedacht ist. Wie gesagt: kurze Zusammenfassung. Dort wäre also der artentypische Platz für das tantiemenfreie Textschnipsel, das der Verlag im Web erlauben würde.

Im typischen deutschen Zeitungsfeed finden wir dort aber (fast immer) den gesamten Artikel samt Bildern und anderen eingebetteten Mediendateien und oft auch Scriptlinks auf Werbung. Ein Feed Aggregator steht also nach Verabschiedung des Gesetzes vor dem Problem, aus diesem Sumpf von Verschmutzungen, den die Zeitungen da ins Netz spülen, nur die LSR-kompatiblen Fetzen herauszufiltern.

Wir haben also jetzt ein restriktives Gesetz, samt beigepackter Rechtsunsicherheit, das bei Standard-konformem Verhalten der Verlage überflüssig wäre.

Beispiel 2 – Suchmaschinen

Suchmaschinen beschäftigen fleißige kleine Helfer, die man Crawler, Spider oder Robots nennt. Der bekannteste ist der Googlebot.

Diese Programme sind, soweit sie von den großen etablierten Suchmaschinen stammen, sehr wohlerzogen und halten sich akribisch an einen standardisierten Satz maschinenlesbarer Anweisungen, die im Quelltext von Webseiten und der Datei robots.txt bereitgestellt werden können.

Besonders die Anweisungen in robots.txt können einen Suchmaschinenroboter sehr zielgenau durch eine Site führen, bzw. von Verzeichnissen fernhalten, deren Inhalt man nicht in den Indizes der Suchmaschinen sehen möchte.

Wer also dem Googlebot nur Zugriff auf Verzeichnisse mit ganz kurzen Textschnipseln gewähren möchte, kann das mit ein paar gut strukturierten Anweisungen bewerkstelligen.

Natürlich müsste man sich dazu von seinen teilweise steinzeitlichen, in irgendwelchen dubiosen "Softwarehäusern" zusammengeschmierten, Content Management Systemen trennen und auf etwas moderneres aufrüsten, das feinkörnige Robotersteuerung und Inhaltstrennung erlaubt.

Im Klartext: LSR wäre unnötig, würden unsere Presseverlage nicht von denkfaulen, zurückgebliebenen, geldgierigen Dinosauriern geführt.

Vielen Dank, liebe Koalitionsparteien, dafür, dass Sie uns wieder einmal vor aller Welt blamiert haben, mit einem Gesetz, das in die Welt hinausposaunt: „Deutschland, Heimat der digitalen Hinterwäldler!“.

Posted in Web | Tagged , , | Leave a comment

UEFI – Gefährliche Schlamperei im großen Stil

Klären wir zuerst die kleinen Missverständnisse, die sich gerne der sachlichen Diskussion in den Weg stellen.

UEFI an sich ist nichts schlechtes. Selbst die von vielen Open Source Zeloten so geschmähte Variante "Secure Boot" hat mehr Vorteile als Nachteile. Für beide aber gelten diese Aussagen nur, wenn der Standard korrekt implementiert wurde und dem User nicht die Herrschaft über das eigene Gerät entzogen wird.

Und hier liegt der Hund begraben.

Firmware ist von Haus aus meistens schlampig programmiert und ungenügend getestet. Das liegt an den eng gesteckten Lieferfristen und den miesen Arbeitsbedingungen in der Industrie. Als man das Ende des guten alten BIOS beschloss, war selbst diese über lange Jahre eingesetzte Technologie noch voller, teilweise schwerer Fehler.

Die selben unmotivierten Mitarbeiter, denen es in den Jahrzehnten der Lebensdauer von BIOS nicht gelungen war, die oftmals nur wenige KB großen Firmwarebröckchen von ihren Fehlern zu säubern, wurden jetzt auf eine Technologie angesetzt, die viel mehr Komplexität beinhaltete. Entsprechend sehen die ersten Produkte aus.

In der allgemeinen Hetze, den abfahrenden Zug Windows 8 nicht zu verpassen, kauften und verschifften Hardwarehersteller alles, was die Firmwareindustrie anbot. Hauptsache, es passte ins Budget.

Das Resultat ist erschreckend.

Nach dem allgemeinen Aufschrei aus der Open Source Gemeinde hatte Microsoft eingeschwenkt und zumindest für die Systeme mit x86 Architektur vorgesehen, dass Secure Boot ausschaltbar sein sollte. In der Tat ist dies Teil der Vereinbarung, die alle OEMs unterschreiben müssen, wenn sie auf ihren Rechnern mit dem Windows 8 Logo werben wollen.

Rein theoretisch wäre also alles gut gewesen. Man kauft eine beliebige Windows Kiste, schaltet Secure Boot aus und installiert ein Betriebssystem nach Wahl. In der Praxis treten aber leider die bizarrsten Probleme auf, da die OEMs nicht nur die billigsten, schrottigsten UEFIs kauften und verschifften, sondern diese Anhäufungen hässlicher Programmierfehler auch noch mit eigenen, teilweise abenteuerlich zusammengehackten Zugaben verzierten.

Im schlimmsten Fall, Samsung Laptops, zerstört ein Versuch, Linux im UEFI Modus zu booten, den Rechner. Im günstigsten Fall steht man vor einer langen Liste von kryptischen Fehlermeldungen, deren Ursachen sich nur durch irrwitziges Kommandozeilen Kung-Fu beheben lassen.

Mal hat irgendjemand irgendwo im Bauch der Firmware eine fest kodierte Zeichenkette für die System ID abgelegt, die aus unerfindlichen Gründen mit den wahren Bezeichnungen der Boot-Loader für das zu ladende System wenig zu tun hat; ein anderes Mal steht in der Boot-Reihenfolge auf Platz eins ein Eintrag, der nicht auf ein Gerät, sondern auf einen gespeicherten Wert in der Firmware verweist.

Für Fehler mit nachvollziehbaren Ursachen kann man Umgehungen programmieren oder sie einfach beseitigen, dazu benötigt man allerdings Einblick in den Quelltext des Programmes. Fehler, deren Ursachen als Betriebsgeheimnis gehandhabt werden, sind dagegen so nicht in den Griff zu kriegen. Die Open Source Gemeinde steht also wieder einmal vor dem Problem, dass ihre sauber nach Standard programmierten Produkte von der unsauberen, unter Verschluss ausgeführten Arbeit der Firmware Industrie ausgehebelt werden.

Ein besseres Argument für offene Hardware und Firmware (Stichwort: coreboot), als das derzeit von den Heimlichtuern der Closed Source Industrie angerichtete UEFI Debakel, dürfte es wohl kaum geben.

Nachtrag:
Wie sich jetzt herausstellt, ist auch Windows von den Macken in der Samsung Firmware betroffen …. Das Argument, Linux sei schuld, ist damit wohl aus der Welt. Man kann nur hoffen, dass eine bestimmte Gruppe von “Technologie-Journalisten” den Knall auch gehört haben.

Posted in Linux | Tagged , , | Leave a comment

Besitzstandsängste und Überwachungsstaat

Was dabei herauskommt, wenn sich ein von Besitzstandsängsten zerfressener, kleingeistiger Nutznießer öffentlich-rechtlicher Pfründe in die Diskussion über Netzkultur und Urheberrechte einmischt, zeigt dieser Artikel von Niki Stein im Feuilleton der FAZ, dem man mit dem Verdikt „Thema verfehlt“ wohl noch schmeicheln würde.

Neben einer langatmigen Selbstbeweihräucherung, dem üblichen Gejammer über den langen, steinigen Weg zum Erfolg, und einem Sammelsurium von mangels Berechnungsgrundlagen nicht nachvollziehbarer Zahlen, wie man es aus der Propaganda der Verwertermafia kennt, enthält der Artikel dann noch das hohe Lied der Technophobie, mit der man in gewissen Kreisen deutscher Bildungsspießer offensichtlich gerne kokettiert.

Das wars dann aber auch schon. Zukunftsweisende Denkanstöße für zeitgemäße Verwertungsmodelle sucht man in dieser Schreibe nämlich vergebens. Von einem selbsternannten Geistesarbeiter und Urheber hätte man dann doch mehr erwartet.

Es sind die Vertriebswege, Dummerchen!

Als notorischer Nachtarbeiter und Dokumentationsjunkie bin ich begeisterter Konsument der Kanäle PHOENIX, arte und 3sat und ein Fan der Beiträge öffentlich-rechtlicher Auslandskorrespondenten, die sich in deren Archiven aufgestapelt haben.

Alle diese Arbeiten wurden von öffentlich-rechtlichen Anstalten produziert und mit GEZ-Gebühren finanziert. Warum ist also keines der Archive öffentlich und durchsuchbar?

Warum kann ich meinen Freunden nicht einfach einen Link auf ein Streamingangebot mit den rauschhaften Bildern aus Sibirien schicken, die Klaus Bednarz während seines russischen Exils produzierte?

Warum können deutsche Schulen und Universitäten nicht durch einfache Suche im Netz diese öffentlich-rechtlichen Dokumentationen finden und zu erträglichen Konditionen herunterladen, um damit Unterricht und Lehre anzureichern?

Warum kann ich meine amerikanischen Freunde nicht auf die Dokumentationen von ARD und ZDF über den schmutzigen Unterbauch der USA verweisen, die dortige Hochglanz-Kommerzkanäle niemals senden würden?

Ich möchte nicht kostenfrei auf eine von Herrn Steins Tatort-Folgen voller magerer Plots und dünnblütiger Charaktere zugreifen können, oder Raubkopien von irgendwelchen durch ein ZDF-Komitee verbrochenen Pilcher-Schmonzetten herunterladen.

Ich möchte vielmehr, dass man den Deutschen zu vernünftigen Konditionen Zugriff nach Wunsch und Bedarf auf ein durch ihre GEZ-Gebühren mitfinanziertes Archiv hochwertiger journalistischer Beiträge ermöglicht.

Und ich möchte, dass junge kreative Menschen aus diesem Material lernen können und es für Mashups einsetzen dürfen, ohne dass sie vorher ein Jurastudium mit Fachrichtung Urheberrecht absolvieren müssen, um nicht in irgendwelche Kosten- und Kriminalisierungsfallen zu laufen.

Dazu fände ich es unglaublich toll, wenn ich meine im amerikanischen Duty Free legal erworbenen DVDs auf meinem ebenso legal erworbenen deutschen DVD-Spieler anschauen könnte, ohne für grenzlegale Veränderungen am Gerät zum Lötkolben greifen zu müssen.

Und genauso sehen es auch alle anderen Menschen, die den Forderungen der Content-Industrie und Verwertermafia nach immer mehr Überwachung im Netz entgegentreten.

Wäre Herr Stein so intelligent und belohnenswert kreativ, wie er es offensichtlich von sich glaubt, dann würde er das auch begreifen und sich und dem Publikum solche kurz- und uneinsichtigen Hetztiraden wie den Artikel in der FAZ ersparen.

Der Unterschied zwischen Generalverdacht und Cookies

Schön für Herrn Stein, dass er so gewissenhaft mit seinen Daten umgeht, wie er es in seinem Artikel beschreibt.

Allerdings scheint er, wenn ihm blinde Wut die tippenden Finger führt, zu ignorieren, dass es einen großen Unterschied gibt zwischen staatlich verordneter Vorratskriminalisierung und den von ihm als "Trojaner" diffamierten Cookies, die Suchmaschinen, soziale Netzwerke und Online-Händler auf den Rechnern der User hinterlassen.

Die im Rahmen der Vorratskriminalisierung gesammelten Daten kann er nämlich nicht einfach nach Abschluss einer Internetsitzung löschen, denn die liegen auf einem Server, über den der Löschbefehl seines Browsers leider keine Jurisdiktion besitzt.

Die von der Content-Industrie und den Verwerterkartellen geforderten Maßnahmen, wie die sogenannte Deep Packet Inspection (DPI), würden aber genau auf diese durch den User nicht mehr kontrollierbaren, unlöschbaren Datenspuren hinauslaufen.

Unser Land wurde schon einmal zum totalen Überwachungsstaat und die Kleinbürger und Bildungsspießer klatschten getrieben von kleingeistigen Besitzstandsängsten Beifall. Herrn Steins Artikel erinnert verdächtig an die Rechtfertigungsschreiben aus dieser unheilvollen Zeit.

Raubkopie, Fair Use und Zensur

Mal abgesehen davon, dass die von den Verwerterkartellen in die Diskussion geworfenen Bezifferungen ihrer Verluste und volkswirtschaftlicher Folgeschäden der "Piraterie" bereits mehrfach von hochkarätigen Betriebs- und Volkswirtschaftlern als blanker Unfug ohne nachvollziehbare Berechnungsgrundlage entlarvt wurden, wird die Debatte noch zusätzlich dadurch verkompliziert, dass die Content-Industrie immer nur von Raubkopien und illegalen Downloads spricht, aber nie vom eigenen Versagen bei der Erarbeitung zeitgemäßer Regelwerke und Vertriebskanäle.

Auch das vollkommene Versagen der Artist & Repertoire Abteilungen der Musikindustrie beim Erkennen und Aufspüren der formativsten Trends der vergangenen 30 Jahre wird gerne verschwiegen.

Stattdessen übt man sich als Verfechter von Big Brother Gesetzen, die hauptsächlich der Vertuschung des eigenen Unvermögens dienen.

Wenn ich in Deutschland eine von Amateuren erstellte Reportage über Grafitti in Chernobyl nicht sehen darf, da die GEMA das 1 Minute und 20 Sekunden lange Werk auf YouTube sperren lässt, weil es zum Zweck der Persiflage als Hintergrundmusik eine Melodie eines GEMA Mitgliedes einsetzt, die der korrupte Atomkonzern Areva als Werbejingle nutzte, dann ist die Grenze zur Zensur überschritten.

Das gleiche gilt für einen amerikanischen Animationsfilm, dessen Autorin sogar den Erwerb der Nutzungsrechte von den Urhebern nachweisen kann. Was die GEMA aber offensichtlich nicht interessierte, als sie das Werk bei YouTube sperren ließ.

Wenn die selbe GEMA dann noch fordert, dass YouTube ab jetzt Maßnahmen einführen soll, die auf verdachtslose, außergerichtliche Dauerbespitzelung der User mittels DPI hinauslaufen, dann sollte selbst einem von Besitzstandsängsten geblendeten Bildungsspießer wie Herrn Stein auffallen, dass seine Kumpels eine Überwachungsinfrastruktur bauen wollen, der auch seine Privatsphäre zum Opfer fallen wird.

Hat man in Deutschland wirklich schon vergessen, dass auch Kleinbürger der Marke "Ich habe nichts zu verbergen" von Stasi und Gestapo überwacht wurden und in deren Verhörkellern landeten? Denn eins steht fest: Ist die Überwachungsinfrastruktur einmal vorhanden, weckt sie automatisch Begehrlichkeiten bei jedem, der von den gesammelten Informationen profitieren kann. Und auch Macht ist eine Form von Profit.

Man fragt sich, ob Herr Stein später einmal seinen Enkelkindern stolz erzählen wird, dass seine kleinbürgerlichen Besitzstandsängste, und die seiner Gesinnungsgenossen, die Einführung der totalen digitalen Bespitzelung bewirkten. Wahrscheinlicher ist aber, dass er wie jene, deren Nachläufertum wir die bisherigen Bespitzelungsstaaten auf deutschem Boden verdankten, hinterher beteuert, diese Auswirkungen hätte doch niemand voraussehen können.

Ich bin deutlich älter als Herr Stein und gehöre bestimmt nicht zur kritiklos techniktrunkenen Generation Google. Trotzdem empfinde ich seine Hetztirade als greisenhaft, rückständig, unreflektiert und genauso weltfremd altbacken wie die Sujets seiner Tatorte.

Posted in Web | Tagged , , , | 1 Comment

Wunder, Wahn und Wirklichkeit der Sicherheit im WLAN

In fast jedem vernetzten Zuhause steht mittlerweile ein WLAN Router, der es den Benutzern im Haus erlaubt, drahtlos im Internet zu surfen.

Die Zugangsprovider, wie z.B. T-Online, Arcor oder 1&1, liefern diese Kisten bei Vertragsabschluss gratis und werben mit sogenannten "Features" wie Plug and Play.

Plug and Play soll bedeuten, man verknubbelt das Ding mit den entsprechenden Buchsen, klickt auf dem Laptop auf ein paar Knöpfe und los gehts.

Der durchschnittliche Haushalt lebt mit diesem Arrangement recht gut, bis zu dem Tag, wenn ein unternehmungslustiger Teenager aus der Nachbarschaft mit seinem Laptop Hacker spielt und sich Zugang auf den schlecht gesicherten WLAN Router verschafft, den er dann als Sprungbrett für allen möglichen, illegalen Unfug nutzt.

Die meisten User wissen, dank der Nebelkerzen der Anbieter, oftmals garnicht, welche Sicherheitslücken sich in ihrem mit Plug and Play konfigurierten Router verstecken.

Sicherheitslücken, die sich mit den Mitteln der knallebunten Konfigurationsoberfläche nicht schließen lassen.

Gefährliches Souvenir aus der Steinzeit

Die wenigsten User der bunten Welt des World Wide Web wissen, dass es das Internet schon viel länger gibt als die Seiten des WWW, und dass aus dieser Zeit Kommunikationsverfahren stammen, mit denen der heutige User nie oder selten konfrontiert wird.

Eines dieser Kommunikationsverfahren heißt Telnet und verbarg sich bis vor kurzem immer noch als Hintertürchen auf Billigroutern, die in vielen Haushalten bis zum heutigen Tag in Betrieb sind.

Über Telnet erreicht man oftmals Einstellungsmöglichkeiten des Routers, die der Anbieter wohl für zu fortgeschritten für den normalen User hält. Aus dem gleichen Grund wird der Zugang über Telnet auch in den Handbüchern für Endverbraucher nicht erwähnt.

Leider ist dieser Zugang oftmals vollständig von den Einstellungen im Web-Interface abgekoppelt und das führt dazu, dass z.B. das selbst gesetzte Passwort nur für das Web-Interface gilt. Der Zugang über Telnet ist dann weiterhin problemlos mit dem weithin publizierten Standardpasswort des Routers wie z.B. "1234" oder "0000" möglich.

Wer also nicht unternehmungslustig genug ist, um mit Telnet auf seinen Router zuzugreifen und dort ein eigenes Telnet-Passwort zu setzen, betreibt einen Router mit Hintertürchen.

Secure Shell – nur sicher wenns richtig gemacht ist

Telnet hat eine Menge Sicherheitslücken und bietet auch keine Verschlüsselung des Datenverkehrs, wodurch z.B. ein beim Einloggen eingegebenes Passwort unverschlüsselt übertragen wird.

Mit Secure Shell, kurz SSH, gibt es mittlerweile ein Werkzeug für Datenübertragung und Fernadministration, das die Schwächen von Telnet nicht mehr hat. Vorausgesetzt, es ist korrekt installiert und konfiguriert.

Wie viele Programme aus der Welt der Unix-artigen Betriebssysteme basiert SSH auf einer Server/Klienten Struktur, d.h auf dem per Fernwartung zu konfigurierenden System läuft ein Server, den man mit dem Klientenprogramm anspricht.

Auf vielen Haushaltsroutern ist dieser SSH Server ab Werk weit offen und man kann sich mit einem der bekannten Standardpassworte dort anmelden und jede Menge Unfug anstellen.

Während SSH und die für seine Bedienung notwendigen Werkzeuge auf Linux und anderen Unix-artigen Betriebssystemen zur Standardausrüstung gehören, muss man sie auf Windows umständlich nachinstallieren.

Selbst dieser Artikel eines professionellen Windowsbenutzers dringt nur bis zur Benutzung mit Passwort vor.

Ein selbst eingerichtetes Passwort für den SSH Server ist zwar besser als garnichts, gilt aber schon lange als sub-optimale Minimallösung. Der sicherste Weg heißt Public Key Authentifizierung, doch der Weg dorthin ist für den Windowsbenutzer noch steiniger, als der Weg zur Benutzung mit Passwort.

Eine kleine Kostprobe einer Anleitung für den SSH Klienten Putty finden Sie hier …

Jetzt stellen Sie sich einen Benutzer vor, der schon bei geringfügigen Problemen die Microsoft Hotline oder den örtlichen Microsoft-zertifizierten Scharlatan anruft, wie er sich da durchbaggert …

Die Abhilfe – auch nichts für schwache Nerven

Die Server und anderen Programme in einem Router sind wegen der begrenzten Speicher- und Verarbeitungskapazitäten dieser Geräte als sogenannte Firmware in Speicherchips abgelegt, die man Programmable Read-Only Memory, kurz PROM, nennt.

Globale Einstellungen, die ein Ausschalten des Routers überleben müssen, werden in sogenanntem Non-volatile Random Access Memory, kurz NVRAM, abgelegt. Für Veränderungen an diesen Einstellungen benötigt man ein spezialisiertes Programm.

Die von den Internet Zugangsprovidern gelieferten Router enthalten meist nur Firmware, die nicht alle Fähigkeiten des Routers zugänglich macht und mit deren Konfigurationsoberfläche man nur eine sehr eingeschränkte Zahl der im NVRAM festlegbaren Einstellungen erreicht.

Deshalb existieren Projekte, die für die meisten gängigen Router alternative Firmware anbieten, mit der man alle Fähigkeiten des Routers aufschließen kann.

Die populärsten und ausgereiftesten Projekte sind dd-wrt, openWRT und Bitswitcher, welche alle Firmware in professioneller Qualität bereitstellen.

Nach der Installation dieser alternativen Firmware kann man dann z.B. aus dem Web-Interface des Routers Einstellungen am SSH Server vornehmen, oder den Router für andere Aufgaben, wie z.B. dem Einsatz als Access Point oder WLAN Bridge einrichten.

Auch die Konfiguration von Feineinstellungen der in den meisten Routern eingebauten Firewall wird dadurch erleichtert.

Der Weg dorthin bedingt allerdings, dass der User die Angst vor der Installation einer alternativen Firmware überwindet. Da viele User aber bereits vor einem Update des Routers mit Original-Firmware vom Hersteller zurückschrecken, bleibt die Sicherheit der meisten Haushaltsrouter für immer auf einem bedauerlich niedrigen Niveau.

Vermeidbare Komplexität

Die Hersteller von Routern, und die Internet-Zugangsprovider, die sie an ihre Kunden verteilen, könnten durch Einsatz von Firmware und Konfigurationsprogrammen, die alle Nutzungsmöglichkeiten des WLAN Routers bereits in der Werkskonfiguration erschließen, einen wichtigen Beitrag zur Sicherheit leisten. Warum tun sie es also nicht?

Die Antwort ist in einem Wort zusammenfassbar: Gier.

Die Hersteller wollen, dass Kunden für sogenannte Access Points und WLAN Bridges spezialisierte Geräte kaufen, die oftmals deutlich teurer sind als die Haushaltsrouter. Daher wird diese Funktionalität, die in allen Haushaltsroutern und selbst im Super-Sonderangebot für €7,99 beim Verramscher versteckt ist, durch Verkrüppelung der ab Werk installierten Firmware und Übersimplifizierung der Konfigurationsoberflächen vor dem Endverbraucher verborgen.

Dabei nimmt man billigend in Kauf, dass auch sicherheitsrelevante Einstellungen verkrüppelt, versteckt oder gar ausgeschaltet werden.

Denkweisen updaten

Das Internet ist schon lange nicht mehr nur Spielplatz für Spezialisten. Die Informationspolitik der Hersteller und die Rechtssprechung hinken dem Trend allerdings bis dato hoffnungslos hinterher.

Durch ein mittlerweile mit dem Prädikat „ständige Rechtssprechung“ geadeltes Urteil des Bundesgerichtshofes sind Endverbraucher seit letztem Jahr dazu verpflichtet, das Werkspasswort eines Routers durch ein selbst vergebenes zu ersetzen. Leider versäumte es der BGH, die Hersteller im Gegenzug dazu zu verpflichten, die verborgenen Einstellungs- und Zugriffsmöglichkeiten offenzulegen.

Der BGH hat die Verbraucher also zu etwas verurteilt, dass sie, wie oben erläutert, in vielen Fällen garnicht vollumfänglich leisten können.

Es wird Zeit für ein Update in den Köpfen der Verantwortlichen.

Posted in Web | Tagged , , | Leave a comment