Ansichten eines Informatikers

Google von den Geheimdiensten geschaffen

Hadmut
17.2.2022 18:27

Ein aktueller Artikel dazu.

Und ein neues Puzzlestück in meinem Kryptokrimi.

Dass Google von den Geheimdiensten geschaffen worden ist und sein muss, hatte ich schon öfters im Blog beschrieben und auch in der Frühzeit meiner Domain und Webseite hier (lange, bevor sie das Blog bekam, schon so um 1999/2000 herum) hatte ich schon festgestellt, dass Google und die Geheimdienste irgendwie zusammengehören müssen. Denn es hieß, dass die Geheimdienste längst sämtliche Webseiten überwachen. Die einzigen regelmäßigen Zugriffe auf die Webseite (und damals waren das ja noch so wenige, dass man das alles noch gut überschauen konnte) kamen von den Crawlern von Google. Wenn also die Geheimdienste die Webseiten überwachten, konnte das damals nur über Google erfolgen, weil die Möglichkeit, dass sie ohne Log-Eintrag auf meine Webseite zugreifen könnten, ausgeschlossen war. Zumal das ja schon zu auffällig gewesen wäre, wenn die eine Backdoor in den Webservern gehabt hätten.

Und dann kam ja auch raus, dass Google sich damals nur deshalb gegen die damals vorherrschende Suchmaschine Alta Vista durchsetzen konnten, weil sie an der Uni eine dicke Geldspritze bekommen hatten – aus Geheimdienstgeldern.

anti-spiegel.ru, eine in Russland von einem Deutschen fabrizierte, pro-russische Seite schreibt: Internetkonzerne – Wie die US-Geheimdienste Google erschaffen haben

Wer sich die Entstehungsgeschichte von Google anschaut, der stellt fest, dass Google mit Geldern der CIA und des Pentagon geschaffen wurde. Diese Informationen sind so leicht zu finden, dass man sich fragt, warum darüber so wenig bekannt ist.

Ach, eigentlich war das schon klar. Dazu kommt ja auch, dass Google erst mal jahrelang losklotzen und massig Maschinen aufstellen und Leute einstellen zu können, ohne überhaupt ein Geschäftsmodell oder Einkünfte zu haben.

Die nicht gewollte Freiheit des Informationszeitalters

Als das Internet in den 1990er Jahren geschaffen wurde, war die Euphorie groß. Die Visionäre sahen eine neue Zeit anbrechen, das Informationszeitalter. Wissen und Informationen, so war die Hoffnung, würden im Netz für jeden frei verfügbar, die Menschen könnten unbegrenzt kommunizieren und Wissen und Informationen teilen. Es winkte eine neue Ära der wahren Freiheit und der echten Demokratie, in der jeder Zugang zu allen Informationen haben könnte.

So viel Freiheit macht den Mächtigen jedoch Sorgen. Man stelle sich einmal vor, es hätte schon 1991 ein freies Internet gegeben, als die USA den Irak angegriffen haben. Damals hat die US-Regierung unter Einschaltung von PR-Agenturen Kriegspropaganda betrieben, um Sadam Hussein als den neuen Hitler zu präsentieren, damit die Menschen im Westen den anstehenden Krieg befürworten. Dazu wurde viel gelogen, zum Beispiel hat man sich die Brutkastenlüge ausgedacht, die besagte, dass irakische Soldaten in Krankenhäusern in Kuweit die Frühchen aus den Brutkästen gerissen und erschlagen hätten. Das wurde eindrucksvoll bestätigt, denn eine 16-jährige Krankenschwester aus Kuweit erzählte die Geschichte unter Tränen vor dem US-Senat. Die Bilder des weinenden Mädchens im US-Senat gingen um die Welt und das Ergebnis war, dass der Krieg gegen Sadam im Westen salonfähig wurde.

Das Problem war, dass das alles gelogen war. Die Geschichte war frei erfunden und die „Krankenschwester“ war in Wahrheit die Tochter des kuweitischen Botschafters in Washington. Das wusste damals aber niemand, weil es kein Internet gab, in dem man schnell hätte sehen können, wer das Mädchen in Wahrheit war. Heute könnte jeder diese Geschichte innerhalb von zehn Minuten widerlegen, indem man im Netz nach Fotos sucht und die Geschichte überprüft.

Daher machte man sich in der US-Regierung schnell Gedanken, wie man das Internet kontrollieren und sogar als Waffe im „Informationskrieg“ (man sprach von „Konflikten im Informationszeitalter“) nutzen könnte.

Ja. Aber vor allem diente Google erst mal der Erfassung des „World Wide Web“, weil das ja auch eine enorme Informationsquelle war – nämlich nicht nur über die Webseiten, sondern auch über die Suchanfragen. Google weiß von einer Erkältungswelle lange vor den Ärzten, einfach darüber, wonach gefragt wird.

Das Highland Forum

Daher hat das Pentagon schon 1994, als normale Menschen noch gar nicht wussten, was das Internet überhaupt ist, das Highland Forum gegründet, dessen Aufgabe es war, die Gefahren des anbrechenden Informationszeitalters zu analysieren und nach Wegen zu suchen, wie man das Internet kontrollieren könnte. Seine erste formelle Sitzung fand im Februar 1995 statt. Finanziert wurde das Projekt vom für Geheimdienste und Informationskontrolle verantwortlichen US-Vizeverteidigungsminister. Den gibt es wirklich, seine offizielle Abkürzung lautet PDASD(C3I).

Auch die DARPA war von Anfang an mit im Boot. Die DARPA ist eine Behörde des Pentagon, deren Aufgabe es salopp ausgedrückt ist, Science Fiction zu erforschen. Die DARPA finanziert Forschungsprojekte, die wie Science Fiction anmuten, die sich aber im Erfolgsfall als Waffen einsetzen lassen. Daher überrascht es nicht, dass die DARPA von Anfang an mit dabei war, als es um die Frage ging, wie die US-Regierung das Internet kontrollieren und den Informationsfluss dort beeinflussen oder sogar lenken könnte. […]

Auch die Geheimdienste NSA und DIA und wahrscheinlich auch die CIA waren von Anfang an in die Arbeit des Highland Forums eingebunden.
Die Verbindung zu Google

Während 1994 das Highland Forum gegründet wurde, gelang zwei jungen Studenten der Stanford University der Durchbruch bei der sogenannten automatisierten Web-Crawling- und Page-Ranking-Anwendung. Die beiden Studenten waren die späteren Google-Gründer Sergey Brin und Larry Page und was sie da entwickelt hatten, ist das Kernstück der Suchmaschine Google.

Unbestritten ist, dass Sergey Brin seine Forschung von der US-Regierung bezahlt bekam. Er hatte ein Stipendium der National Science Foundation, einer dem Pentagon und den US-Geheimdiensten nahestehende Behörde der US-Regierung. Das hat zunächst einmal nicht viel zu bedeuten, viele Studenten bekommen Stipendien von Behörden, die Geheimdiensten nahestehen.

So arbeiten Geheimdienste generell: Sie sind an Universitäten sehr aktiv und suchen dort den Kontakt zu vielversprechenden Studenten. Da niemand im Voraus weiß, welche Studenten später wichtige Persönlichkeiten (egal, ob in Politik, Wirtschaft, Wissenschaft, etc) werden, spannen sie ein sehr weites Netz. Dabei werden Stipendien vergeben oder unverfängliche Workshops und Seminare finanziert, bei denen die Geheimdienste Kontakte knüpfen und Informationen über die Teilnehmer sammeln. Die meisten dieser Informationen landen in den Akten und werden nie gebraucht, aber Kontakte zu vielversprechenden Studenten werden für den Fall gepflegt, dass man sie mal brauchen kann.

Das Stipendium von Brin und andere Stipendien, die Leute, die später in Silicon Valley Karriere gemacht haben, bekommen haben, zeigen, dass die US-Geheimdienste bei der Entstehung der Internetkonzerne von Anfang an im Boot waren und beste Kontakte ins Silicon Valley haben.

Ja. Das hatte ich ja auch schon zu der Verfassungsrichterin Susanne Baer und vor allem zum Kryptographie-Professor Ueli Maurer beschrieben, dass die beide an Universitäten waren, an denen die Geheimdienste hoch aggressiv anwerben. Über Princeton gab es ja sogar einen Bericht, dass dort die Uni schon selbst „interessante“ Leute an die Geheimdienste meldet und man an denen praktisch gar nicht vorbei kommt.

Der Unterschied ist eben: In den USA werden Leute von den Geheimdiensten gefördert und finanziert. Bei uns werden sie von den Geheimdiensten erledigt und abgesägt.

Sergey Brin war einer von denen, zu dem man die Kontakte sehr intensiv gepflegt hat. Das ist bekannt, denn die Informatikerin-Professorin Bhavani Thuraisingham hat 2013 in einem Artikel geschrieben, dass sie in den 1990ern für die US-Geheimdienste ein Projekt namens Massive Digital Data Systems (MDDS) geleitet hat, In ihrem Artikel schreibt sie:

„Tatsächlich wurde der Google-Gründer, Sergey Brin, teilweise durch dieses Programm finanziert, als er Doktorand in Stanford war. Er entwickelte zusammen mit seinem Berater Prof. Jeffrey Ullman und meinem Kollegen bei MITRE, Dr. Chris Clifton, das Query Flocks System, das Lösungen für das Mining großer Datenmengen in Datenbanken produzierte. Ich erinnere mich, dass ich Stanford mit Dr. Rick Steinheiser von der Intelligence Community besuchte und Brin auf Rollschuhen hereinstürmte, seine Präsentation hielt und wieder hinausrauschte. Tatsächlich demonstrierte uns Mr. Brin bei unserem letzten Treffen im September 1998 seine Suchmaschine, aus der bald darauf Google wurde.“

Am 4. September 1998, also genau zu der Zeit, wurde Google gegründet.

Zur Einordnung: Ursprünglich war vereinbart, dass ich (Studium 1993 beendet, Diplom um die Zeit bekommen, Mitarbeiter Anfang 1994 geworden) 1994/1995 zu promovieren, um dann erst mal übel ausgebremst worden zu sein. Nach Vertragsabschluss Anfang 1994 habe ich den „Doktorvater“ Beth das nächste Mal auf der Institutsweihnachtsfeier 1994 gesehen. Nach hin und her hatte ich dann als Prüfungstermin den 1.7.1998 (also kurz vor der Google-Gründung), und der Termin war schon gemacht, der ursprüngliche Zweitgutachter (der mir ein Korrekturexamplar positiv kommentiert zurück gegeben hatte und den ich gut kannte, der mir das sofort gesagt hätte, wenn an der Dissertation irgendwas nicht in Ordnung gewesen war) war auch schon eingeladen, um dann urplötzlich abgesägt zu werden.

Das Pseudo-Dementi

All dies hat der britische Journalist Nafeez Mosaddeq Ahmed schon 2015 zusammengetragen, seinen Artikel, der wesentlich tiefer in die Materie einsteigt, als ich es hier tue, habe ich am Ende meines Artikels verlinkt. Nafeez Ahmed endete seinen Artikel 2015 mit den Worten:

„So berichtete Brin regelmäßig an Thuraisingham und Steinheiser über seine Arbeit bei der Entwicklung von Google.“

Damit stellte er die Behauptung auf, dass die US-Geheimdienste, für die Thuraisingham und Steinheiser damals gearbeitet haben, die Arbeit von Brin finanziert und sehr genau überwacht haben. Das jedoch wollte Thuraisingham so nicht stehen lassen und schrieb eine Ergänzung zu ihrem Artikel von 2013. Dort hieß es unter anderem:

„Darüber hinaus hat Sergey Brin weder mir noch Dr. Rick Steinheiser jemals Bericht erstattet; er hat uns lediglich während unserer Besuche im Department of Computer Science in Stanford in den 1990er Jahren Vorträge gehalten. Außerdem hat das MDDS niemals Google finanziert, sondern die Stanford University.“

Das ist kein Widerspruch zu dem, was Nafeez Ahmed geschrieben hat, denn er hat nicht behauptet, das MDDS-Projekt habe Google finanziert. Wie auch? Google gab es damals ja noch nicht, Google wurde erst gegründet, nachdem die vom MDDS-Projekt finanzierte Forschung abgeschlossen war.

Da gibt es eine Menge Ungereimtheiten.

Digitale Waffen

Man kann es drehen und wenden, wie man will – Google ist definitiv mit finanzieller Unterstützung und unter enger Betreuung der US-Geheimdienste entstanden. Besonders wichtig ist der Hinweis auf die DARPA, denn die DARPA ist eine Behörde des US-Verteidigungsministeriums, die Forschungs-Projekte für die Streitkräfte der Vereinigten Staaten durchführt. Die DARPA unterstützt nichts, was nicht als Waffe verwendet werden kann und die DARPA hat die Forschung bezahlt, die Google erst möglich gemacht hat.

Das ist der springende Punkt. Die Amerikaner nutzen, was ihnen als Waffe dienen kann.

Und sie sabotieren, was anderen als Waffe dienen könnte. Und Kryptographie gilt in den USA als Waffe.

Google und die CIA

Die CIA hat eine eigene Risikokapitalgesellschaft namens In-Q-Tel, die in Start-Ups investiert, die die CIA für vielversprechend hält. So war es Anfang der 2000er Jahre noch ein Traum, die Welt auf Basis aktueller Satellitenbilder virtuell auf 3D-Bildern „überfliegen“ zu können. Für Geheimdienste war das, was heute mit Google-Earth für uns alle normal ist, damals noch ein Traum.

Diese Technologie wollte die 1999 gegründete Firma Keyhole erforschen und das fand die CIA so interessant, dass sie im Juni 2003 über In-Q-Tel bei Keyhole eingestiegen ist. Und schon im Oktober 2004 hat Google Keyhole für eine unbekannte Summe von der CIA-Firma In-Q-Tel gekauft. Sie alle kennen Keyhole, denn Google hat das Unternehmen in Google-Earth umbenannt.

Wieder sehen wir, dass mit Google-Earth ein für Google ausgesprochen wichtiges Tool enge Verbindungen zur CIA hat, die die Technologie zunächst gekauft und dann an Google weitergegeben hat.

Nun, es ist ja auch bekannt, dass Google Street View ein Herzenswunsch der Geheimdienste war und ist.

Die US-Regierung hat sich in den 1990ern das Ziel gesteckt, das Internet zu kontrollieren, dazu wurde das Highland Forum gegründet und die US-Geheimdienste haben das MDDS-Projekt gehabt. Das sind nur die bekannten Informationen, was im Geheimen abgelaufen ist, können wir nur raten.

Dass das das Ziel war, ist lange bekannt. Dieses Highland Forum sagte mir noch nichts.

Aber zur Kontrolle gehört eben auch, Kryptographie zu verbieten, die man nicht mitlesen kann. Und genau das versuchten die Amerikaner damals mit dem Clipper-Chip: Nur noch eine Verschlüsselung zu erlauben, und zwar eine mit Hintertür.

Google kontrolliert ebenfalls das Internet, denn durch seine Algorithmen kann Google die Suchergebnisse so sortieren, dass die User nur das zu sehen bekommen, was sie sehen sollen. So wurde im Zuge des letzten US-Wahlkampfes beispielsweise bekannt, dass Google die Suchergebnisse zu Trump und Biden so sortieren wollte, dass positive Artikel über Biden und negative Artikel über Trump ganz oben stehen.

Die Rolle von YouTube, praktischerweise eine Google-Tochter, ist allgemein bekannt und YouTube verkündet sogar stolz, dass es Kanäle und Videos aus politischen Gründen löscht. Und die politischen Gründe decken sich immer exakt mit den Wünschen und Ansichten der US-Eliten, was ein weiterer Hinweis auf die enge Verflechtung von Google mit den US-Geheimdiensten ist.

Das ist sicherlich kein Zufall, dass das gerade jetzt hochpoppt, aber es passt genau.

Und dazu gehört eben, dass man Kryptographie und Kryptologen absägte, die man nicht unter Kontrolle hatte. Amerikanische Forscher, die amerikanischem Recht unterliegen, bekommen dann einfach einen Brief, in dem steht, was sie bleiben zu lassen oder geheim zu halten haben. Deutschen kann man so einen Brief nicht schicken – als sägt man sie ab und sabotiert sie.

Und das stand ja sogar in meiner Dissertation drin, wie man Methoden wie den Clipper Chip verhindert – oder detektiert. Der Clipper Chip beruhte ja darauf, dass nicht die Chiffre an sich geschwächt ist, sondern ein zusätzliches Datenfeld, das LEAF (Law Enforcement Access Field), übertragen werden muss, im dem – stark vereinfacht gesagt – der symmetrische Schlüssel für die Behörde mit deren Public Key verschlüsselt abgelegt ist. Man kann es nicht weglassen, weil der Empfänger die Entschlüsselung nur einschalten kann, wenn das LEAF übertragen wurde. Jede verschlüsselte Übertragung müsse daher das zusätzliche LEAF mit übertragen, um der Behörde Zugriff zu ermöglichen. Sie hatten dabei aber einen Konstruktionsfehler gemacht, der dazu führte, dass man dieses LEAF zwar nicht weglassen, aber fälschen und mit unsinnigen Daten füllen konnte (weiß nicht mehr … war das nicht Matt Blaze, der das herausgefunden hatte?), und das Abhören dann nicht mehr funktionierte.

Man weiß daher, dass an einer Blockchiffre, auch wenn man deren interne Funktion wie bei Clipper nicht kennt, weil sie geheim ist, damit man sie nicht nachbauen kann, etwas faul ist, wenn das Chiffrat länger als der Klartext ist. Weil bei Blockchiffren das Chiffrat (in Blockgrößen gerechnet) gleich groß wie der Klartext ist oder ein zusätzliches Initialisierungsfeld braucht, das man aber selbst kontrollieren kann. Es bleibt also – streng genommen – kein Platz, um den Schlüssel wie in einem LEAF, aber ohne die verräterische Verlängerung des Chiffrats, offenzulegen.

Ich hatte mir also überlegt, ob es möglich ist, dass man das LEAF heimlich überträgt, indem man den Klartext komprimiert, um Platz zu sparen, den man dann für ein LEAF – allgemeiner gesagt: Daten, die den Schlüssel kompromittieren und zusätzlich zum Klartext übertragen werden – nutzen könnte, ohne dass dies am Chiffrat bemerkt würde.

Ergebnis meiner Überlegung: Jain. Zwar ist es prinzipiell möglich, aber es führt zwangsläufig zu Übertragungsfehlern. Denn es gibt zwei Arten von Kompressionsverfahren:

  • Verlustbehaftete Verfahren (kennt man von Bild-, Audio- und Videokompression wie JPEG, MP3 und MP4), die aber, wie der Name schon sagt, immer zu einer Veränderung der Daten („Verlust“) führen, der in der Regel nur deshalb keine Rolle spielt, weil die Sinneswahrnehmung das nicht differenzieren kann, aber vom Rechner sofort bemerkt werden könnten oder sogar müssten, wenn die Daten signiert sind. Außerdem müsste man dazu wissen, um was für Daten es sich handelt, und enorm Rechenleistung verbraten. Fällt also weg.
  • Verlustfreie Verfahren (wie sie in gzip, bz2 usw. verwendet werden)

Und jetzt wird es kompliziert: Verlustfreie Verfahren sind zwar, wie der Name schon sagt, verlustfrei, machen also keine Übertragungsfehler, die man entdecken könnte. Aber: Sie kompriminieren nicht in jedem Fall. Können sie nicht, egal, wie sie gebaut sind, weil es nicht genügend kürzere Symbolfolgen gibt, auf die man verlustfrei abbilden könnte. Vereinfach gesagt: Wenn ich drei Bit übertragen will, gibt es 8 Möglichkeiten, nämlich 000 001 010 011 100 101 110 111. Aber nur 6 bzw. 7 kürzere Kombinationen, nämlich 0 1 00 01 10 11, je nachdem, ob man die leere Nachricht erlaubt. Eine der 8 Nachrichten kann ich also nicht verkürzen. Damit fallen aber schon kürzere Nachrichten aus den möglichen Klartexten, und für Nachrichten mit 4 Bit, geht es dann nicht mehr, weil nicht mehr alle kürzeren Nachrichten zur Verfügung stehen (und man zusätzlich noch einen Längenangabe oder ein Endzeichen braucht).

Es funktioniert also nicht in jedem Fall. Man kann das beweisen, das ist eigentlich etwas auf Diplomstudiumsniveau, dass es zu jeder verlustfreien Kompression Eingaben gibt, mindestens eine, für die das Komprimat länger als der Klartext ist. Weil auch alle verlustfreien Kompressionsverfahren darauf beruhen, dass man bestimmte Nachrichten für wahrscheinlicher hält als andere und ihnen kürzere Codewörter zuordnet, und den unwahrscheinlichen die längeren Codewörter, die also nur im Mittel komprimieren, aber nicht immer. Hängt davon ab, ob das Wahrscheinlichkeitsmodell, das man zugrundelegt, stimmt.

Deshalb nutzt man üblicherweise ein Bit als Flag, das anzeigt, ob überhaupt komprimiert wurde, oder ob man es hat bleiben lassen, weil es sich nicht lohnt, sondern verlängert, womit man aber auch dann, wenn man es bleiben lässt, damit es nicht schief geht, 1 Bit mehr übertragen muss, um anzuzeigen, ob überhaupt komprimiert wurde oder nicht. Genau genommen ist auch das dann nur ein verlustfreiens Verfahren, das eben genau das tut: Im ungünstigen Fall Nachrichten zu verlängern, statt zu verkürzen, eber eben höchstens um 1 Bit. Dafür wird auch jedes Komprimat um 1 Bit länger. Man kann das also als eine Art Algorithmentransformation ansehen: Aus einem Kompressionsalgorithmus a, der vielleicht oft sehr günstig, aber schlechtestenalls auch sehr ungünstig und verlängernd werden kann, macht man durch ein zusätzliches Bit, das anzeigt, ob überhaupt komprimiert oder mangels Nutzen darauf verzichtet wurde, einen Algorithmus a’, der zwar alles ein Bit länger macht als a, aber dafür höchstens um ein Bit, und nicht völlig degenerieren kann. Aber auch da gilt: Manche Nachrichten werden unweigerlich länger. Und wenn es nur ein einziges Bit ist.

Das sind informationstheoretische Überlegungen, die in der normalen Arbeitspraxis am PC zunächst mal keine Rolle spielen, weil man dabei gewissermaßen mogelt: Man versteckt dieses Bit und die Längeninformation im Dateisystem, nämlich dem Dateinamen (Endungen .gz, .bzip2 usw.) und der Längenangabe, nutzt also praktisch noch Speicherplatz außerhalb des eigentlichen Datenspeichers. Oder wenn man die Daten über HTTP überträgt, den Header Content-Encoding. Wenn man informationstheoretisch präzise arbeitet, muss man das alles berücksichtigen.

Und das war meine Überlegung dazu:

Baut man einen Chip, der wie der Clipper arbeitet, aber das LEAF heimlich überträgt, indem er komprimiert, geht das schief, wenn man ihn mit Zufallsdaten füttert. Weil dann das Komprimat zwangsläufig länger wird oder Übertragungsfehler auftreten, die beide leicht zu erkennen sind.

Der Chip dürfte also die Kompression nur einschalten, wenn sie gut funktioniert. Was oft, aber nicht immer der Fall sein dürfte. Dann aber müsste er besagtes zusätzliches Bit übertragen, was wieder erkennbar wäre. Funktioniert also auch nicht.

Es würde also nur funktionieren, wenn Sender und Empfänger anhand der bisher übertragenen Daten zu einer gemeinsamen Prognose kämen, ob die Kompression auch zukünftig funktioniert, und statt dieses Bits, das sie übertragen müssten, aber nicht können, um sich nicht zu verraten, einfach schauen, ob die bisher übertragenen Daten eine Kompression erlaubt hätten, und wenn das der Fall war, annehmen, dass es auch weiter so bleiben werde, und es einfach riskieren.

Das wäre im Normalfall kaum zu entdecken oder würde auf Übertragungsfehler beim Chiffrat zurückgeführt werden.

Die Überlegung in der Dissertation war aber, dass solche Fehler zwar im Normalbetrieb – gerade bei Telefonen und dergleichen – so unwahrscheinlich wären, dass man sie als praktisch ausgeschlossen betrachten kann, man sie aber provozieren, indem man die Prognose in die Irre führt. Man muss also normale Daten (Sprache, Video usw.) füttern, damit die Prognose positiv wird und die Kompression einschaltet, und dann auf Zufallsdaten (Rauschen) umschalten, die nicht verlustfrei und ohne Verlängerung komprimierbar sind.

Wenn man den richtigen Zeitpunkt trifft, bekommt man entweder Übertragungsfehler oder ein Chiffrat, das länger als der Klartext ist. Beides ist leicht zu erkennen und ein untrügliches Zeichen, dass an dem Ding etwas faul ist, weil das einer sauberen Chiffre einfach völlig egal wäre, was man überträgt.

Das nun, nämlich dass Kompressionsverfahren nicht alles effektiv und verlustfrei komprimieren können, hatte der Doktorvater und Prüfer Beth einfach so als falsch hingestellt, obwohl man das im (guten) Studium mal beweist, und dabei noch groteske Fehler gemacht, nämlich verlustbehaftete und verlustfreie Verfahren nicht auseinanderhalten können, weil er selbst nie Informatik studiert hatte und gar nicht wusste, wovon er redet. Der konnte also nicht qualifiziert beurteilen, ob das stimmt, hat es aber einfach behauptet.

Ich hatte damals bei der Gesellschaft für Informatik angefragt, ob die nicht jemanden hätten, der mir vor Gericht bestätigt, was in der Informationstheorie längst allgemeinbekannt, bewiesen, zwingend, Diplomsstoff ist, nämlich dass es zu jedem verlustfreien Algorithmus eine Eingabe gibt, die er nicht verkürzen kann (und die bei Nachrichten variabler Länge oder Berücksichtigung eines Stoppzeichens sogar zur Verlängerung führt) Der zuständige Professor der Gesellschaft für Informatik schrieb mir damals, dass ich fachlich natürlich recht hätte, und kein ernstzunehmender Informatiker die Aussage als falsch hinstellen könnte. Aber man werde nicht gegen Kollegen aussagen. So verlogen ist das alles.

Und es spricht nun einiges dafür, dass die USA nach dem Scheitern des Clipperchips durch das schlecht gebaute und deshalb leicht zu fälschende LEAF Überlegungen angestellt hatten, Chiffren mit heimlichem LEAF zu bauen. Und es Beth gerade deshalb wo wichtig war, oder er den Auftrag bekommen hatte, es als grob falsch hinzustellen, obwohl er es mangels Sachkunde in Informationstheorie gar nicht verstanden hatte und auch nicht wusste, dass der Umstand, dass es zu jedem verlustfreien Kompressionsverfahren mindestens eine Eingabe gibt, die nicht komprimiert werden kann, keine willkürliche Behauptung von mir, sondern Informatik-Grundwissen war. Er war ja kein Informatiker.

Es passt aber exakt in die Machenschaften der Geheimdienste in den 90er Jahren. 1993 hatte man den Clipper Chip vorgestellt, 1994 hatte Matt Blaze die Schwäche entdeckt, die es erlaubte, das LEAF zu fälschen. Die mussten zwangsläufig zumindest auf den Gedanken gekommen sein, das LEAF heimlich zu übertragen – was ich eben damals vermutet und betrachtet habe.

Und das dann genau zu dem Zeitpunkt, als NSA, CIA usw. gerade Google hochzogen, um die ganze Welt zu überwachen.