News Ticker

Die Schlussfolgerung aus der NSA-Affäre

Fassungslosigkeit-8385Ich habe doch nichts zu verbergen„, ist die vielleicht häufigste Antwort in Bezug auf die anhaltende NSA-Affäre.
Das diese Haltung zu kurz greift, dass es durchaus sein kann, dass auch unbescholtene Menschen ins Visier der Analysewerkzeuge geraten können, zeigt dieser Beitrag auf. Es ist zu kurz gedacht, dass nicht-handeln eine Veränderung bringt…

Ich selbst habe schon einige Beiträge zur NSA-Affäre und der ungezügelten Sammelwut der Geheimdienste – allen voran die US-Amerikanische NSA und dessen britisches Gegenstück das GCHQ – geschrieben. In diesem Beitrag werde ich einige Schlussfolgerungen ziehen, die ich in dieser Art und Weise noch nicht in der Presse vernommen habe (was nicht heißen mag, dass andere nicht auch zu ähnlichen Schlussfolgerungen gekommen sind).

Fakt ist zunächst, dass Unmengen an Informationen, die über unsere digitalen Kommunikationsmedien transportiert werden, gespeichert werden. Auf Grund der Datenmenge werden zum Teil nur verdichtete Daten gespeichert bzw. die Meta-Daten, welche Auskunft über die Kommunikationsbeziehung, durchaus aber auch auf den Inhalt selbst, geben können.

Das Ziel dieser komprimierten Daten ist es, möglichst alle Kommunikationsfragmente zu sammeln und das möglichst über alle Menschen gleichermaßen. Das Ergebnis sind dann unvorstellbare Mengen an Informationen, welche (mehr oder weniger) eindeutig einzelnem Menschen zugeordnet sind.

Jetzt besteht darin aber das Problem, dass die Informationen als solche keinerlei Aussagekraft haben. Erst durch die Interpretation, die so genannte Kontextualisierung, erhalten die reinen Informationen einen Sinngehalt und werden zu Wissen. Dieses Wissen lässt dann Schlussfolgerungen zu, welche zu entsprechenden Handlungen führen (können).

So weit, so gut. Jetzt ist es aber nicht so, dass sich ein Mensch, der diese Informationen verstehen und Interpretieren kann, jede einzelne Information ansieht und diese bewertet. Dies ist anhand der Datenmengen, die jede Sekunde produziert werden, nur im Ausnahmefall möglich. An dieser Stelle muss der Computer unterstützend in den Prozess eingreifen. Das kann er aber gottgegeben nicht ohne Anweisung – sprich Software. Es muss sich also zuerst ein Mensch überlegen, welche Informationen er wie bewertet und dabei noch die entsprechenden Wechselwirkungen mit berücksichtigen.

Aus meiner aktiven Forschungszeit, in welcher ich mit semantischen Netzen an Vorhersagemodellen gearbeitet hatte, habe ich etwas wesentliches gelernt. Mehr als vielleicht fünf Parameter kann unser Verstand kaum noch in einem solchen Modell abbilden, denn allein durch die Wechselwirkungen der fünf Parameter (z.B. Alter, Geschlecht, Hobbies, Beruf, Einkommen) ergeben sich unüberschaubar viele Einzelfälle, die zu unterscheiden sind. Selbst wenn wir die Parameter in Klassen aufteilen (z.B. beim Alter die Klassen 1-10, 11-20, 21-50 und über 50 Jahre), so ist die Kombination der einzelnen Parameter-Klassen weiterhin riesig, die Unschärfe unserer eigentlichen Ziel-Aussage nimmt dabei aber stetig zu. Ein ungelöstes Problem, dem wir auch nicht mit anderen Algorithmen wie Neuronalen Netzen, Fuzzy-Logic, genetischen Algorithmen, Bayes oder besagten semantischen Netzen bei kommen werden – auch wenn es viele Technikgläubige nicht wahrhaben möchten. Wir können es uns nur durch die geschickte Auswahl des algorithmischen Verfahrens einfacher oder schwerer machen, die Wahrheit finden wir mit dieser Ausgangsbasis an Informationsfragmenten nicht, egal welches Verfahren wir wählen.

Ich weiß nicht, wie viele Parameter die Geheimdienste letztendlich speichern, bin mir aber sicher, dass es mehr als fünf sind – viel mehr!

Diese unzähligen Parameter müssen nun also in einem Modell durch Menschen vorgedacht werden und in ein mathematisches Modell zur Entscheidungsfindung überführt werden. Nun ist es gerade so, dass die Geheimdienste (alleine schon wegen ihrem Auftrag) kein Interesse haben, die guten Seiten der Menschen zu beleuchten. Es wird sie wohl kaum jemand von der CIA auf der Straße ansprechen und ihnen gratulieren, dass sie sich so sehr für das Gemeinwohl engagieren und unzählige Ehrenämter ausfüllen. Die Denkweise der Analysten geht von einer Haltung des Menschen aus, der systemfeindlich ist. In ihrem Wertemodell also von Grund auf böse und schlecht. Wenn die mit dieser Haltung nun nach Zusammenhängen in Informationsfragmenten suchen, werden sie zwangsweise zusammenhänge finden, die ihre These stützen. Ob diese Zusammenhänge dann so real existieren, steht auf einem ganz anderen Blatt. Alleine die Konditionierung, sich ausschließlich auf Systemfeinde zu konzentrieren, fördert ein geradezu paranoides Denken.

Wenn dies nun viele Analysten parallel tun, wird die Sichtweise nicht zwingend besser. Es gibt zwar Modelle aus dem Bereich der Fehlertoleranz, sogenannte Mehrheitsentscheider, die hier eine Verbesserung erzielen könnten, ich weiß aber nicht, ob so etwas zum Einsatz kommt. Bei diesen Mehrheitsentscheidern, die z.B. bei Flugzeugen oder Atomreaktoren zum Einsatz kommen, verwendet man verschiedene Ansätze zur Berechnung. Erst wenn die Mehrzahl der unterschiedlichen Ansätze/Modelle zum gleichen Resultat kommen, ist das Ergebnis valide. Diese Mehrheitsentscheider habe es aber meistens mit wenigen Parametern zu tun und auch die Parameterbereiche sind klar gesteckt. Es geht i.d.R. eher darum, Programmierfehler damit aus zu schließen, weniger in unscharfen Daten das Scharfe zu sehen.

Ein Punkt möchte ich noch erwähnen: die Auswahl der Analysten bzw. Programmierer.
Ohne Einblicke in die Personalakte zu haben, kann man davon ausgehen, dass alle aus der gleichen Denk-Schule kommen und Querdenker eher in der Minderzahl sind, wenn überhaupt welche vorhanden sind. Da bei der Auswahl der Personen, welche die Algorithmen entwerfen, ausschließlich systemkonforme Personen involviert sind, dürfte die eingeschränkte Sichtweise ihr übriges zum Ergebnis beitragen.

Ich möchte nur noch am Rande erwähnen, dass unsere Geschichte voll von Beispielen ist, in denen die Menschen aufgrund der gleichen Informationen zu diametralen (entgegengesetzten) Ergebnissen gelangt sind. Fast jede Erfindung ist voll von solchen Geschichten (eine besonders interessante handelt von den Weberaufständen zu Zeiten der ersten Webmaschine). Dieser Hinweis soll nur nochmals ins Gedächtnis rufen, vor welcher unmöglichen Herausforderungen die Geheimdienste mit diesen Unmengen an Informationsfragmenten stehen.

Jetzt könnte der Beitrag zu Ende sein und wir alle könnten gut schlafen, müssten uns keine Sorgen machen und alles wäre gut. Lassen wir die Geheimdienste nur einfach die Daten sammeln, konkret anfangen können sie eh damit nichts. Wenn sie also weiterhin gut schlafen wollen und diese naive Sichtweise behalten wollen, dann hören Sie jetzt auf, weiter zu lesen!

Das Problem der unscharfen Analysen und wie es derzeit gelöst wird.

Im bisherigen Teil habe ich ausführlich dargelegt, wie schwer es ist, anhand der unzähligen Informationsfragmente und Einflussgrößen ein reales Abbild der Wirklichkeit zu bekommen. Ungeachtet dessen werden die Informationen zu einer Analyse genutzt, die der Computer – nach den ihm in Form von Software vorgegebenen Arbeits- und Bewertungsschritten – durchführt. Am Ende dieser Bewertung wird nach überschreiten eines Schwellwerts dies, als Ergebnis anhand eines Signals bzw. Triggers, mitgeteilt.

Das eigentliche Problem liegt nun in unserer arbeitsteiligen Gesellschaftsstruktur. Das Ergebnis dieses Bewertungsprozesses bekommt nun nicht mehr der Experte, der den eigentlichen Algorithmus dafür geschrieben hat, sondern ein anderer Analyst, der die Daten nur noch nach gewissen Plausibilitäten prüft – wenn überhaupt. Je weiter wir in dem Prozess kommen um so weiter kommen wir weg von der eigentlichen Datenlage. Ein CIA-Agent, der die Zielperson zum Verhör „einlädt“ bekommt nur noch sehr verdichtete Informationen. Die eigentliche Datenquelle bleibt intransparent. Im Geheimdienst gilt dabei stets: „Information nur wenn nötig“ und „So viel (Information) wie nötig, so wenig wie möglich!

Dass es durch diese Arbeitsteilung zu unglaublich vielen falschen Verdächtigungen kommt, brauche ich nicht zu erwähnen. Vor kurzem erschien auf Telepolis ein Beitrag zu diesem Thema, der einen ersten Einblick liefert. Selbst CIA-Mitarbeiter reagierten, laut dem Beitrag, verstört auf die brutalen Verhörtechniken in den Geheimgefängnissen der USA. Es kann dabei davon ausgegangen werden, dass diese CIA-Mitarbeiter nicht zu den „Schattenparkern“ oder „Warmduschern“ gehören, sondern durchaus einiges gewohnt sind.

Das diese Foltermethoden der CIA keine neuen Informationen, als die bereits bekannten, lieferten, lässt sich am besten anhand einer Aussage eines ungenannten US-Offiziellen ablesen:

Die CIA stellte ihr Programm dem Justizministerium und auch dem Kongress gegenüber verschiedentlich als einzigartig dar, das zu Informationen führte, die man auf andere Weise nicht erhalten hätte, das Terroranschläge im Vorfeld vereitelt und tausende Leben gerettet habe. Ob das wirklich wahr ist?
Die Antwort heißt: Nein.

Wir dürfen gespannt sein, wie viel von dem 6.300 Seiten starken Bericht an die Öffentlichkeit gelangt. Eines darf man aber nicht vergessen, Geheimdienste fürchten nichts mehr als öffentliche Debatten. Letztendlich profitieren die, welche über die Veröffentlichung des Berichts entscheiden – sprich die US-Regierung und der Kongress – von den Geheimdiensten, die sie ja beauftragen und bezahlen.

Fassen wir es nochmals zusammen. Das eigentliche Problem ist nicht die Sammelwut und die Analyse. Denn diese gleicht viel mehr der Berechnung der Brownschen Bewegung, also die Vorhersage des unberechenbaren Zickzack-Kurses eines Rußpartikels, welches von den umgebenden Luftmolekülen herum geschubst wird.
Das Problem ist die Verdichtung der Informationen auf gut und böse – und die weit verbreitete Technikgläubigkeit -, sowie die arbeitsteilige Organisation, bei der jeder nur gerade das wissen muss, um seinen definierten Job zu tun. Den er dann auch ohne Emotionen tut, denn in seiner konditionierten Weltsicht tut er ja etwas Gutes, trägt er doch dazu bei, das Böse auszurotten.

Um es mit den Worten des österreichischen Neurologen und Psychiaters Viktor E. Frankl zu beschließen:

Die Gefahr liegt also gar nicht darin, dass sich die Forscher spezialisieren, sondern darin, dass die Spezialisten generalisieren.

Nachtrag: Wie heute der faz zu entnehmen ist, sollen etwa 500 Seiten (das entspricht etwa 8% des Berichts) der Öffentlichkeit zugänglich gemacht werden. Die restlichen 92% bzw. 5.800 Seiten, scheinen die Schamgrenze zu übersteigen und dürfen daher nur unter der Ladentheke „gehandelt“ werden…
Dennoch, so von der Senatorin und Ausschussvorsitzenden Dianne Feinstein, zeigt der Bericht „eine Brutalität auf, die in starkem Kontrast zu unseren nationalen Werten steht“. Es handele sich um einen Schandfleck der amerikanischen Geschichte, der sich nicht wiederholen dürfe. Bis das Dokument letztendlich veröffentlicht wird, dürften noch einige Wochen vergehen. Wortwörtlich sagte sie: „So etwas tun Amerikaner nicht.“, ist dem faz-Artikel zu entnehmen.

Wer glaubt, das Obama 2009 das Vorhörprogramm tatsächlich auch beendet hat, glaubt auch, das Guantanamo – wie von Obama versprochen – geschlossen wurde und das der Osterhase die Eier versteckt. Das mit dem Osterhasen lässt sich zumindest in den nächsten zwei Wochen klären, beim Rest bin ich mir nicht so sicher.

Über Ro!and (401 Artikel)
Auf den Punkt zu bringen, wer man ist, fällt weitaus schwerer, als andere in eine Schublade zu stecken ;-) Im Kern bin ich freiheitsliebend, querdenkend und gerne auch mal (benimm-)regelverstoßend. Ansonsten ganz "normal".
Kontakt: Webseite

2 Kommentare zu Die Schlussfolgerung aus der NSA-Affäre

  1. Die ganze Welt basiert auf einer Objekt orientierten Architektur. Solange Menschen und Computer sich dieser bedienen bzw. nur dieses ‚Frontend‘ (männliche materielle Denkweise) fokussieren, gibt es keine wirklichen Lösungen.

    Integriert man die Attribute orientierte Architektur der Natur selbst, findet man wirkliche Lösungen. Macht man das gut, hat man ein endloses Supportsystem ‚Backend‘.

    Frontrunner müßten nur den Mut finden und das bestehende ‚Frontend‘ in real ‚Frontend‘ zu transformieren, d.h. mit real ‚Backend‘ verbinden, in Schritten umsetzen.

    Alles ist da, wenn man denn sehen und denken kann.

    • Integriert man die Attribute orientierte Architektur der Natur selbst, findet man wirkliche Lösungen.

      Das setzt aber zwingend voraus, dass man die Architektur der Natur auch verstanden hat, um sie sich zu Eigen zu machen!
      Mit der derzeitigen Haltung der Menschen, die über alles stehen – also auch über der Natur – ist der aktuelle Ansatz zum Scheitern verurteilt. Da hilft auch die weibliche Denkweise nicht weiter, sondern nur eine integrierte Gesamtsicht.
      Aber es bleiben uns ja noch ein paar Jahre auf unserem Weg, wohin immer er uns führen mag!

4 Trackbacks & Pingbacks

  1. Die Schlussfolgerung aus der NSA-Affäre | Der Blogpusher
  2. Die Eiersuche | Schnappfischkapitalismus
  3. Keine Abkühlung beim Bürgertracking in Sicht | Schnappfischkapitalismus
  4. Überwachung durch NSA & Co. und die Folgen

Kommentare sind deaktiviert.