Beherrschen oder beherrscht werden? — Medienkontrolle aus technischer Sicht

von François Bry

 

1. Einleitung

Innerhalb von zwanzig Jahren haben das World-Wide Web – ein über das Internet aufgebautes Hypertext-System – die Suchmaschinen – Zusammensetzungen von Algorithmen der Netzwerkanalyse und der Computer-Linguistik – und die sozialen Medien – Web-Portale zur asynchronen und ortsverteilten Kommunikation und Zusammenarbeit – die Medienlandschaft grundlegend verändert. Die Medien, die Möglichkeiten, die sie eröffnen, sowie auch die Gefahren, die von ihnen ausgehen, sind völlig anders als vor zwanzig Jahren. Die echten und vermeintlichen Gefahren der sozialen Medien beschäftigen Gesellschaft, Wissenschaftler und Gesetzgeber. Soll man Privates auf Facebook preisgeben, was man später vielleicht nicht mehr löschen kann? Ist die Nutzung der kostenlosen Google-Dienste – etwa für E-Mail und Kalender – nicht bedenklich, wenn dadurch ein privates, im Ausland ansässiges und den Markt beherrschendes Unternehmen alles Mögliche über uns erfährt? Kann man sich auf Wikipedia verlassen, wenn jede und jeder jederzeit darin Falsches veröffentlichen kann? Als Antwort auf solche Fragen wird oft ein Rückzug in die Verhaltensweise des alten Medienzeitalters vorgeschlagen, wenn auch kaum jemand sich daran hält: Wenig Persönliches auf digitalen Netzwerken veröffentlichen, keine Cloud Computing-Dienste von Fremdanbietern verwenden und nur den altbewährten papierenen Quellen trauen. Ein solches Verhalten ist aber realitätsfremd, weil es einer sozialen Isolierung und einer Ablehnung moderner Technologien gleichkommt. Wie soll man denn den Gefahren der neuen Medien begegnen? Wie kann man sie beherrschen, statt von ihnen beherrscht zu werden? Im Folgenden wird ein Leitfaden aus technologischer Sicht angeboten, der bei der Beantwortung solcher Fragen helfen soll.

Zuerst wird das Kernprinzip der sozialen Medien, ein Geben und Nehmen von Information, erläutert. Dann wird die neue Ökonomie der Preisgabe von persönlicher Information in den sozialen Medien beleuchtet, die bewusst oder unbewusst das Handeln der Nutzer sozialer Medien bestimmt. Ein weiterer Abschnitt ist der grundlegenden Veränderung des sozialen Konsenses gewidmet, die von den sozialen Medien ausgeht. Zwei Folgen dieser Veränderung werden untersucht: Die extrem beschleunigte Wahrnehmung und die Externalisierung des sozialen Konsenses. Zudem werden die vermeintlichen Gefahren der personalisierten Suche kritisch betrachtet. Die sozialen Medien gelten als gefährlich, weil sie zum gläsernen Mensch führen können. Ein weiterer Abschnitt zeigt, dass diese Gefahr insoweit noch ernster ist als allgemein bekannt, dass die derzeitige technologische Entwicklung Rasterfahndungen ohne großen Aufwand ermöglicht. Soziale Medien setzen tatsächlich raster­fahndungsähnliche Methoden ein, um Nutzer-Profile für Werbezwecke zu erstellen. Es wird aber in einem weiteren Abschnitt argumentiert, dass dieselben rasterfahndungsähnlichen Methoden zum Schutz der Reputation und der Privatsphäre eingesetzt werden können. Letztlich wird auf die gewaltige gesellschaftliche Stärke hingewiesen, die von den sozialen Medien ausgehen kann. Ein Katz- und Maus-Spiel in der Wolke wird vorhergesagt: Einerseits werden die in der Cloud verteilten Nutzerdaten immer häufiger und immer besser durchforscht; andererseits werden Nutzer, Verbraucherschützer und Gesetzgeber versuchen, die Privatsphäre nicht nur durch Gesetze, sondern auch mit Technik zu schützen.

 

Dieser Artikel setzt sich wie folgt fort:

  1. Geben und Nehmen: Am Kern sozialer Medien
  2. Die Ökonomie der Preisgabe persönlicher Information
  3. Algorithmisch festgestellter sozialer Konsens
  4. Rasterfahndung für jedermann
  5. Im Schwarm: Schutz und Stärke – Katz- und Maus-Spiel in der Wolke

 

Die Beiträge dieses Artikels sind wie folgt:

  • Eine Reflexion über die Ökonomie der Preisgabe persönlicher Information in sozialen Medien.
  • Die Beobachtung, dass die sozialen Medien den sozialen Konsens in zwei sehr wesentlichen Weisen verändern: Durch seine Externalisierung in Algorithmen und durch seine algorithmisch extrem beschleunigte Feststellung.
  • Die Prognose, dass dieselben Datenanalyse-Methoden, die zum gläsernen Nutzer sozialer Medien führen, ebenfalls zum Schutz der Privatsphäre eingesetzt werden.

 

2. Geben und Nehmen: Am Kern sozialer Medien

Die Preisgabe persönlicher Information in einem sozialen Medium findet deswegen statt, weil das Medium als Gegenleistung wertvolle Informationen liefert, die es aus persönlichen Nutzerdaten zusammenstellt. Zwei Beispiele, ein Navigationsdienst und ein Warndienst für Menschen mit Herzinsuffizienz, werden hier verwendet, um das Geben und Nehmen auf sozialen Medien zu illustrieren.

Ein Navigationsdienst für Autofahrer muss wissen, wo sich der Nutzer des Dienstes zu jeder Zeit befindet. Vorausgesetzt, dass der Dienst jederzeit ausreichend viele Nutzer hat, kann er ermitteln, wo der Verkehr flüssig ist, wo sich Staus bereits gebildet haben und wo sich Staus bald bilden könnten: Diese Auskünfte lassen sich nämlich aus den Positionen und Bewegungen der Nutzer berechnen. Je mehr Nutzer der Navigationsdienst hat, desto zuverlässiger ist er.

Ähnlich kann ein soziales Medium Menschen mit Herzinsuffizienz vor der Gefahr eines plötzlichen Herzversagens warnen. Wenn ausreichend viele potentielle Nutzer dem Warndienst kontinuierlich ihre Herzdaten liefern, dann kann dieser aus den erhaltenen Nutzerdaten Muster errechnen, die in den Stunden oder Minuten vor einem Herzversagen auftreten. Die Herzdaten jedes Nutzers, die dem Dienst übermittelt werden, können wiederum kontinuierlich vom Dienst nach diesem Muster abgefragt werden, was ermöglicht, diese Nutzer vor möglichem Herzversagen zu warnen. In diesem Fall gilt auch: Je mehr Nutzer der Dienst hat, desto zuverlässiger ist er.

Alle soziale Medien beruhen, wenn auch nicht immer in solch offensichtlicher Weise, auf einem ähnlichen Geben und Nehmen: Persönliche Daten werden von jedem Nutzer dem Medium preisgegeben, die dann vom Medium algorithmisch zusammengefügt werden, damit neue nützliche Informationen ermittelt und den Nutzern des Mediums zur Verfügung gestellt werden können. In diesem gemeinsamen Prinzip aller sozialen Medien liegt ihr Erfolg und der Grund für ihre schnelle Verbreitung.

In diesem gemeinsamen Prinzip aller sozialen Medien liegt auch der Grund, warum die meisten sozialen Medien eine Monopolstellung anzustreben scheinen und warum sich in der Regel nur wenige soziale Medien auf jedem Gebiet durchsetzen. Ein wie im Vorangehenden geschilderter funktionierender Navigations- oder Warndienst ist eben umso zuverlässiger, je mehr Nutzer sich daran beteiligen. Der anfängliche Erfolg eines sozialen Mediums wird mehr oder weniger intuitiv von seinen Nutzern wahrgenommen, was eine virale Verbreitung des Mediums antreibt – zumindest wenn das Medium sich durchsetzt. Durch diese virale Verbreitung verdrängt ein erfolgreiches soziales Medium auch seine Wettbewerber.

Viele erfolgreiche soziale Medien setzen zudem die eine oder andere Form von Human Computation ein, um Probleme zu lösen, die bisher kaum oder nicht zufriedenstellend gelöst wurden, und bieten somit Dienste an, die es vorher nicht gab, und die ohne soziales Medium kaum möglich gewesen wären. Unter Human Computation versteht man das computergesteuerte Mitwirken von Menschen an einer algorithmischen Lösung von Problemen. Ein eindrucksvolles Beispiel für diesen Ansatz ist der PageRank-Algorithmus von Google, der die Wichtigkeit von Webseiten algorithmisch durch die Berechnung einer Form von Eigenvektor-Zentralität schätzt, die sich aus den von Menschen erzeugten Verlinkungen aller Webseiten ergibt. Ein weiteres Beispiel der Human Computation sind die Games with a Purpose, kurz GWAPs, oder Serious Games. Die GWAP-Plattform ARTigo (http://artigo.org) zum Beispiel nutzt den menschlichen Spieltrieb, um Kunstwerke von Menschen in einer Weise verschlagworten zu lassen, die derzeit (und sicherlich noch für lange Zeit) mit keinem Algorithmus möglich ist. Die auf ARTigo gewonnene Verschlagwortung wird zum Aufbau einer Suchmaschine für Kunstwerke verwendet, die sehr gut in der Lage ist, Kunstwerke zu finden, die zum Beispiel „Krieg ohne Tote“ oder „Sex ohne Liebe“ darstellen.

In diesem Zusammenhang ist es sinnvoll, soziale Medien avant la lettre, Märkte, zu erwähnen. Ein Markt mit seinen Hilfsmitteln, wie einer Währung und einem Preisfestlegungsmechanismus, ist nichts anderes als ein soziales Medium, wenn auch eines, welches sich erst neuerdings Computer bedient. Wer auf einem Markt kauft, gibt durch die Annahme der Marktwährung einen Teil der eigenen Kreditwürdigkeit preis und fügt sich in eine wirtschaftliche Schicksalsgemeinschaft ein. Die derzeitige Schuldenkrise in der Eurozone und in den USA zeigt, wie problematisch eine solche Preisgabe werden kann. Wer auf einem Markt handelt, erhält aber als Gegenleistung für die Preisgabe der eigenen wirtschaftlichen Unabhängigkeit den Zugang zu einem Wirtschafts- und Kreditraum. Bemerkenswert ist, dass Märkte auch vor dem Computer-Zeitalter auf Human Computation angewiesen waren: Ein Preis-Equilibrium ergibt sich nämlich aus den Preisen, die von Menschen angeboten und verlangt werden, und wird von Menschen festgestellt, also kollektiv berechnet. Ein Preis-Equilibrium auf einem Markt ist nichts anderes als die Gegenleistung eines Marktes für die Preisgabe ihrer wirtschaftlichen Unabhängigkeit durch die Händler. Die „unsichtbare Hand“ nach Adam Smith, die unter anderem für das Preis-Equilibrium sorgt, ist nichts anderes als eine Form von Human Computation.

 

3. Die Ökonomie der Preisgabe persönlicher Information

Wer ein soziales Medium verwendet und dafür persönliche Informationen preisgibt, soll sich darüber im Klaren sein, ob ihm die vom Medium angebotene Information als Gegenleistung diese Preisgabe wert ist. Viele Nutzer und Beobachter von sozialen Medien scheinen sich dieser neuen Medien-Ökonomie nicht ganz bewusst zu sein, sie jedoch intuitiv wahrzunehmen und dementsprechend zu handeln. So lässt sich erklären, könnte man meinen, dass die sozialen Medien einerseits erfolgreich und andererseits Gegenstand harscher Kritik sind.

Diese Erklärung ist aber zu kurz gedacht. Ein expliziter oder impliziter sozialer Integrationsdruck kann genauso bei sozialen Medien wie bei jeder anderen sozialen Erscheinung vorhanden sein. Es ist zum Beispiel durchaus vorstellbar, dass manche Arbeitgeber Kandidaten als sozial unzureichend ansehen könnten, wenn sie kein aktives soziales Leben auf Facebook haben. Und es ist offensichtlich, dass der Wunsch nach sozialer Integration eine gewaltige Kraft bei der Verbreitung sozialer Medien wie StudiVZ unter Jugendlichen ist, die wahrscheinlich nicht alle das Geben und Nehmen auf den Medien sorgfältig abwägen. Erweist sich in Zukunft ein bestimmtes berufliches soziales Medium unter Wissenschaftlern als weit verbreitet, dann wird es für Wissenschaftler zweifelsohne schwierig sein, diesem Medium fern zu bleiben. Der soziale Integrationsdruck trägt höchstwahrscheinlich zur Verbreitung der sozialen Medien bei.

Dass der soziale Integrationsdruck zur Verbreitung eines Mediums beitragen kann, ist nichts, was erst bei den sozialen Medien auftritt. Ähnliches gab es schon bei den traditionellen Medien. Lesen alle meine Kollegen eine Tageszeitschrift und nutzen die darin enthaltene Information in ihrer Arbeit, so ist es schwierig für mich, diese Zeitung nicht zu lesen! Neu bei den sozialen Medien ist allerdings, dass der Informationsfluss bidirektional ist: Nutze ich ein soziales Medium, so gebe ich genauso persönliche Information preis, wie ich Information erhalte. Ein Schlüssel zum Schutz der Privatsphäre in den sozialen Medien ist uns aus dem traditionellen Leben vertraut: Das Nutzen komplementärer Teil-Identitäten. Genauso wie das engagierte Mitglied einer Partei oder einer Glaubensgemeinschaft nicht unbedingt am Arbeitsplatz oder im Sportverein für seine politische oder religiöse Weltanschauung wirbt, so muss auch kein Nutzer eines sozialen Mediums ein gläserner Mensch sein. Er kann sehr wohl eine Teil-Identität auf dem sozialen Medium verwenden. Berufliche digitale Netzwerke wie LinkedIn und Xing fördern die Wahrung von Teil-Identitäten einfach dadurch, dass sie nur den Eintrag von vordefinierten und berufsbezogenen Informationen ermöglichen. Weil sich Facebook vielleicht als andauerndes Experiment versteht, es die Grenzen eines sozialen Netzwerkes erforschen will oder aber die Bedeutung von Teil-Identitäten auf sozialen Medien prinzipiell ablehnt, scheint es dagegen allerdings den gläsernen Nutzer anzustreben, was die Debatte um die Gefahren der sozialen Medien auf dieses eine soziale Medium fokussiert und die Meinungen über dieses Medium polarisiert. Vermutlich scheinen immer mehr soziale Medien die Teil-Identitäten ihrer Nutzer aus wirtschaftlichen Gründen wieder zusammenfügen zu wollen.

Weitere Fragen der Ökonomie sozialer Medien lauten: Wem gehören die Daten eines Nutzers? Wenn auch die Geschäftsbedingungen von vielen sozialen Medien diese Daten zum Eigentum des Medienbetreibers deklarieren, scheint der soziale Konsens unter ihren Nutzern zu sein, dass diese Daten den Nutzern gehören sollten. Wem gehört die aggregierte Information? Die traditionelle Sicht ist, dass sie ausschließlich dem Betreiber des Mediums gehört, welcher die Aggregation und folglich die Erstellung der neuen Information ermöglicht hat. Es ist aber zu bezweifeln, dass diese Sichtweise noch lange unangefochten bleiben wird. Mindestens ein Einblicksrecht auf die Ergebnisse von Crowd Sourcing dürfte den Nutzern gewährt werden. Sogar ein Crowd-Besitz könnte für Informationen eingefordert werden, die durch Crowd Sourcing ermittelt wurden. Kann denn ohne ein solches Einblicksrecht die Echtheit von Crowd Sourcing-Ergebnissen sichergestellt werden, die eine große soziale Relevanz haben kann? Bisher schweigt das Recht über die „Fake Users“, die mit verschiedenen Zielen in manchen sozialen Medien platziert werden. Kann das noch lange so bleiben, wenn „Fake Users“ die Politik beeinflussen und somit die Demokratie gefährden können, wenn sie als Ermittler ohne richterliche Aufsicht in unsere virtuellen Lebensräume eindringen können?

Neu bei den sozialen Medien ist, dass sie die soziale Normierungs- oder Integrationskraft algorithmisch in einer Weise verstärken können, die es bisher nicht gab. Durch Algorithmen der sozialen Netzwerkanalyse lässt sich nämlich präzise ermitteln, wie jeder Nutzer eines sozialen Mediums dieses Medium verwendet: Soziale Medien erstellen so genannte Nutzer-Profile, was kleinen Rasterfahndungen gleichkommt. Unternehmen wie Klout finden ihre Geschäftsmodelle in einer solchen Analyse. Klout verspricht, Nutzer von sozialen Medien danach einzuschätzen, wie einflussreich sie auf sozialen Medien wie Twitter, Facebook und einigen weiteren sind. Dadurch kann Klout erkennen, für welche Waren oder Dienste ein Nutzer ein guter Multiplikator ist. Klout bietet diesem Nutzer Ermäßigungen für solche Waren und Dienste an, was offenbar Werbezwecke hat und von den Waren- oder Dienstanbieter finanziert wird. Dadurch wird eine Verbreitung von Waren oder Diensten erzielt und zweifelsohne in vielen Fällen erreicht, die ohne das Medium nicht oder zumindest nicht so schnell stattfände. Das Medium greift also normierend durch eine Beeinflussung der Kunden oder integrierend durch die Beschleunigung der Auswahl von Kunden in die Gesellschaft ein. Die algorithmische Verstärkung der Normierungs- oder Integrationskraft durch soziale Medien wird bisher selten wahrgenommen. Sie wurde bis heute kaum untersucht. Welche Folgen diese Verstärkung dauerhaft auf die Gesellschaft haben kann, ist weitgehend unbekannt.

Der Nutzer eines sozialen Mediums ist also ständig Subjekt von „Rasterfahndungen“ für Ziele, die das Medium nicht immer seinen Nutzern mitteilt. Dies ist nicht neu. Seit langem bedienen sich Banken ähnlicher „Rasterfahndungen“, um Finanzprodukte gezielt anzubieten. Kreditkarten-Unternehmen erstellen seit langem Profile ihrer Kunden für Werbezwecke. Neu ist allerdings einerseits das Ausmaß solcher Rasterfahndungen auf die sozialen Medien und andererseits, wie leicht sie heutzutage durchzuführen sind. Die Rasterfahndung wird jedem Unternehmen zugänglich. Gefahren und Vorteile für die Nutzer von sozialen Medien werden im übernächsten Abschnitt behandelt.

 

4. Algorithmisch festgestellter sozialer Konsens

Nicht nur Nutzer-Profile, sondern auch der soziale Konsens lassen sich algorithmisch auf einem sozialen Medium feststellen. Die technologischen Möglichkeiten dazu werden unaufhörlich und schnell verbessert. Die Folgen dieser Entwicklung sind kaum abzuschätzen. Zwei Aspekt des algorithmisch feststellbaren sozialen Konsens sind ihrer Folgen wegen besonders erwähnenswert: Zum einen die extreme Schnelligkeit, mit der der soziale Konsens festgestellt wird, und zum anderen die Externalisierung in Algorithmen dessen, was als sozialer Konsens angesehen wird. Neuerlich wird die personalisierte Suche viel diskutiert, die – so eine vielbesprochene These – zu Fragmentierung und lokaler Homogenität führt. Im Folgenden wird diese These in Frage gestellt.

 

4.1 Schnelligkeit der Feststellung von sozialem Konsens

Die extreme Schnelligkeit, mit der ein Konsens über ein soziales Medium algorithmisch ermittelt und unter den Nutzer des Mediums verbreitet wird, ist ein wesentlicher Aspekt der sozialen Medien. Er trägt ganz offensichtlich sehr wesentlich zur Nützlichkeit eines sozialen Mediums bei. Der soziale Konsens ist in jeder Gesellschaft, zu jeder Zeit und nach jeder Weltanschauung, also auch für die heutige Nutzergemeinschaft eines sozialen Mediums, ein wertvolles Gut. Er war aber bisher meist mühsam und immer langsam zu erringen. Die Menschen konnten das Entstehen eines Konsenses wahrnehmen und hatten die nötige Zeit, darauf zu reagieren. Die sozialen Medien verändern dies grundlegend. Die Folgen können beträchtlich sein.

Eine extrem schnelle Feststellung des sozialen Konsenses mag einen sehr bedeutsamen Einfluss auf ein soziales Medium haben und die Gesellschaft sogar wesentlich verändern, die das Medium verwendet. Als Beispiel dafür seien Finanzmärkte betrachtet, die unserer These nach soziale Medien sind. Das Preis-Equilibrium eines Marktes ist nichts anderes als eine Form von sozialem Konsens. Das so genannte Algorithmic Trading ermöglicht es, Käufe und Verkäufe nach relevanten Daten-Mustern in Bruchteilen von Sekunden auf den weltweiten Finanzbörsen zu tätigen. So werden gewaltige Geldbeträge zwischen den Börsen der Welt viel schneller hin und her geschoben, als es ein Mensch wahrnehmen kann. Der „2010 Flash Crash“, auch „Crash von 2:45 Uhr“ genannt, wird als eine problematische Folge des Algorithmic Trading angesehen. Am 6.5.2010 um 2:45 Uhr verlor der Index „Dow Jones Industrial Average“ unerwartet und plötzlich 1000 Punkte (beinahe 10% seines Wertes), um innerhalb von 20 Minuten 600 Punkte wieder zu gewinnen. Solche extrem schnellen Preisschwankungen verursachen Paniken an den Börsen und können die Wirtschaft destabilisieren, weswegen der „2010 Flash Crash“ eine große Aufmerksamkeit erlangt hat.

Als weiteres Beispiel dafür, wie soziale Medien zur Beschleunigung der Konsensbildung beitragen können, sei die Bewegung „Stuttgart 21“ erwähnt. Die verschiedenen gut gepflegten Wikipedia-Seiten über die Bewegung von 2010-2011 gegen den Umbau des Stuttgarter Hauptbahnhofs haben es jedem ermöglicht, sich in wenigen Minuten über die Argumente für und gegen den Umbau des Kopfbahnhofs in einen Durchgangsbahnhof zu informieren und sie abzuwägen. Vor dreißig Jahren, als es weder Web noch Suchmaschinen noch Wikipedia gab, wären dafür Wochen nötig gewesen. Nur sehr wenige Bürger hätten sich damals in den unübersichtlichen Stoff einarbeiten können. Bekanntlich haben sich die Gegner des Bahnhof-Umbaus auf Facebook verständigt und ihre Aktionen koordiniert. Zweifelsohne wäre sonst keine Bürgerbewegung gegen den Bahnhof-Umbau so schnell und für die Entscheidungsträger so unerwartet entstanden. Die Entstehung dieser Bewegung, die dazu beitrug, dass die Grünen erstmalig in Deutschland einen Ministerpräsident stellten, ist ein Meisterstück der extrem schnellen Konsensbildung unter Bürgern, wozu die sozialen Medien wie Wikipedia und Facebook wesentlich beigetragen haben.

Inwieweit der arabische Frühling von 2011 in Ägypten, Tunesien und Libyen auf eine durch soziale Medien beschleunigte Konsensbildung zurückzuführen ist, ist noch unklar. Erwiesen ist aber schon, dass die sozialen Medien, insbesondere Twitter, eine entscheidende Rolle in dieser politischen Bewegung gespielt haben, wie es schon während der unterdrückten Grünen Revolution von 2009 im Iran der Fall gewesen war.

Wikipedia trägt zur schnellen Konsensbildung bei. Wikipedia verwendet allerdings immer noch wenige algorithmische Hilfsmittel, um den Konsens festzulegen. Es ist davon auszugehen, dass nach und nach Software zur Entscheidungsunterstützung Einzug in die Gremienarbeit von Medien wie Wikipedia findet. Die Nutzergemeinschaft eines sozialen Mediums wird die Verwendung eines sozialen Mediums zur Entscheidungsfindung wohl kaum ablehnen.

Auf Facebook und Twitter aber wird der soziale Konsens durch den Suchdienst des Mediums beeinflusst – was Twitter betrifft, übrigens in einer Weise, die nicht unumstritten ist. Twitter wird immer wieder dafür angeprangert, tweets zu manchen Themen, wie kürzlich der Occupy-Bewegung, zu unterdrücken. Die Vorwürfe mögen unberechtigt sein. Sie belegen auf alle Fälle die gesellschaftliche Wahrnehmung der Wichtigkeit für die Konsensbildung, die die sozialen Medien erlangt haben.

 

4.2 Externalisierung des sozialen Konsenses

Wie ein Preis-Equilibrium auf einem Markt erreicht wird, hängt nicht unwesentlich davon ab, was die Marktregeln sind – etwa ob und welche menschlichen oder algorithmischen Matchmakers im Spiel sind. Wenn auch die Markttheoretiker diesen Aspekt meist vernachlässigen, ist davon auszugehen, dass in der Praxis das Matchmaking die Preise, das heißt, den Konsens auf dem Markt, wesentlich beeinflussen kann. Es ist auch davon auszugehen, dass PageRank, das Prinzip, nach dem die Suchmaschine Google die Wichtigkeit von Webseiten ermittelt, unsere Wahrnehmung dieser Wichtigkeit beeinflusst. Studien dazu sind dem Autor allerdings nicht bekannt. Allgemein bekannt ist jedoch, dass immer mehr Wissenschaftler des Suchdiensts von Google wegen ihre Publikationen in einer Weise verfassen und insbesondere betiteln, die die Sichtbarkeit dieser Artikel bei diesem Suchdienst verbessert.

Die Gesellschaft akzeptiert also stillschweigend, vielleicht weil sie sich dessen nicht ganz bewusst ist, dass der soziale Konsens darüber, wann eine Webseite als wichtig anzusehen ist, von einem Algorithmus bestimmt wird. Ähnliches geschieht auf digitalen Netzwerken, die ihren Nutzern Dienste anbieten, um relevante oder wichtige Auskünfte im Netzwerk aufzuspüren. Die Nutzergesellschaft eines sozialen Mediums wird einerseits dadurch ermächtigt, dass ihr Algorithmen zur Verfügung gestellt werden, um Relevantes und Wichtiges zu erkennen. Sie wird aber andererseits dadurch entmachtet, dass diese Algorithmen nicht unter ihrer Kontrolle stehen. Relevanz und Wichtigkeit werden also bei sozialen Medien in Algorithmen externalisiert, deren mathematische Prinzipien und praktische Umsetzungen, sofern überhaupt bekannt, auch für Fachleute meist schwer zugänglich sind und folglich wohl kaum Gegenstand einer sozialen Debatte sein können.

Lassen sich aber Relevanz, Wichtigkeit und der soziale Konsens allgemein endgültig algorithmisch erfassen? Sicherlich nicht. Für die Berechnungsweise von PageRank & Co mögen schwerwiegende Argumente sprechen. Relevanz, Wichtigkeit und sozialer Konsens sind aber zwangsläufig veränderbar: Werden sie einmal auf gewisse Prinzipien festgelegt, so liefert schon diese Festlegung einen Anlass dazu, deren Revision zu überlegen.

Welche gesellschaftlichen Folgen die Externalisierung des sozialen Konsenses durch die sozialen Medien haben mag, wurde nach Kenntnis des Autors bisher nicht untersucht. Es ist davon auszugehen, dass diese Folgen sehr wesentlich sein können.

 

4.3 Personalisierte Suche: In doppelter Hinsicht eine soziale Angelegenheit

Weder die Schnelligkeit der Konsensfestellung, noch die Externalisierung des sozialen Konsenses sind bisher Gegenstand großer Debatten gewesen – dafür aber die personalisierte Suche mit dem kürzlich erschienen Buch The Filter Bubble – What the Internet is Hiding from You von Eli Pariser. Das Buch war für mich eine große Enttäuschung, weil sich der Autor einer klischeehaften Vorstellung der Personalisierung bedient. Gefahren der Personalisierung werden auf beinahe 300 Seiten analysiert, ohne dass die Technik irgendwann ernsthaft betrachtet wird.

Worum geht es bei der personalisierten Suche? Eine Personalisierung von Suchergebnissen geht immer von zwei Beziehungen aus: einer Ähnlichkeit und einer Komplementarität. Beide Beziehungen dienen dazu, eine Antwortmenge zu ergänzen. Ihre Rollen sind aber unterschiedlich. Bei einer Suche in einem Möbel-Katalog dient die Ähnlichkeit dazu, nach einer Suche nach „Stühlen“ etwa auch Bänke aufzuführen. Die Komplementarität dient dazu, dem Käufer eines Esstisches Stühle, aber keine weiteren Esstische anzubieten. Ähnlichkeit und Komplementarität sind zum einen kontextbezogen: Ob weitere Esstische angeboten werden sollen, hängt natürlich davon ab, ob einer bereits gekauft wurde. Ähnlichkeit und Komplementarität können zum anderen sozial, also von Menschen statt von Algorithmen, bestimmt werden.

Diejenige Personalisierung, die besonders interessant ist, und die Eli Pariser in seinem Buch behandelt, ohne sich dessen bewusst zu sein, ist die gerade erwähnte soziale Personalisierung: Der Personalisierungs-Algorithmus leistet insofern eine Form von Human Computation, als die Personalisierung-Ergebnisse unter der Mitwirkung seiner menschlichen Nutzer ermittelt werden. Der Ausdruck „Human Computation“ kommt übrigens im Buch „The Filter Bubble“ nicht vor.

Die These von Eli Pariser ist, dass wegen der personalisierten Suche im Web und in sozialen Medien das heutige Internet zu Fragmentierung und lokaler Homogenität neigt. Wegen der Personalisierung sieht ein Nutzer nur noch, wofür er sich bisher interessiert hat. Daraus entstehen Nutzergemeinschaften mit unterschiedlichem Interesse, die voneinander wenig wissen – Fragmentierung –, und deren Mitglieder sich alle für dasselbe interessieren – Homogenität.

Wieso eine soziale Personalisierung zur Fragmentierung und Homogenität führen muss, ist aber völlig unklar. Mit einer passenden Komplementaritätsrelation kann eine soziale Personalisierung genau das Gegenteil bewirken! Ich wage sogar zu meinen, dass gut überlegte Formen der algorithmischen sozialen Personalisierung zum ersten Mal in der Menschheitsgeschichte dazu verhelfen können, die Fragmentierung und Homogenität zu überwinden, die für menschliche Gesellschaften immer kennzeichnend gewesen sind – ebenso wie für den traditionellen Journalismus.

Die Personalisierung ist also in doppelter Hinsicht eine soziale Angelegenheit: Zum einen ist sie eine Form der Human Computation, zum anderen ist ihr Einfluss auf die Gesellschaft eine weitgehend offene Frage.

 

5. Rasterfahndung für jedermann

Die Rasterfahndung – die systematische Suche in großen Datenbeständen nach interessanten Mustern – war, als sie in den 70er Jahren des 20. Jahrhunderts vom deutschen Bundeskriminalamt eingeführt wurde, aus mehreren Gründen eine schwierige Unternehmung. Daten, die auf verschiedenen, miteinander nicht verbundenen Trägern verteilt und in verschiedenen Formaten erfasst worden waren, mussten gesammelt und angeglichen werden. Neue, bisher unbekannte Algorithmen zur Muster-Suche mussten konzipiert werden. Für die Ausführung dieser Algorithmen auf großen Datenbeständen waren die noch wenig verbreiteten damaligen Großrechner nötig. Heute bietet sich das Web als einzige, leicht durchsuchbare Quelle für Daten vieler – wenn auch nicht aller – Art an, die meistens in wenigen einheitlichen Standards wie HTML und XML und Programmbibliotheken für die Extrahierung von Texten aus Dateien in weniger verbreiteten Formaten zur Verfügung stehen. Es gibt ferner nicht nur eine Fülle von Data-Mining-Algorithmen, sondern auch Data-Mining-Programm­bibliotheken. Letztlich reicht heute ein gewöhnlicher PC aus, um Data-Mining-Algorithmen auf gewaltige Datenbestände anzuwenden. Wir befinden uns also im Zeitalter der Rasterfahndung für jedermann.

Diese Möglichkeit wird in Anspruch genommen. Alle großen – und immer mehr kleine – Handelsunternehmen führen regelmäßig Rasterfahndungen vor allem auf sozialen Medien durch (Richardson/Domingos 2002, Swamynathan 2008.) Einige Unternehmen wie Acxiom, SocialMedia, Klout und Google haben sich darauf spezialisiert, meist anonymisierte Daten aus einem Netzwerk oder aus mehreren sozialen Netzwerken für die so genannte „gezielte Werbung“ (“targeted advertising”) zu verwenden (O’Neill 2008). Facebook teilt in seiner Privacy Policy mit, dass die anonymisierten Nutzerdaten für personalisierte Werbung verwendet werden können. Facebook und MySpace lassen zudem zu, die auf Plattformen gespeicherten Beziehungen ihrer Nutzer für Werbezwecke zu verwenden.

Zum Schutz der Privatsphäre werden die Nutzerdaten meist anonymisiert. Leider haben Studien nachgewiesen, dass dies unzureichend ist. In Narayan/Shmatikov (2009) wird gezeigt, dass ausschließlich unter Verwendung der Netzwerk-Struktur aus den anonymisierten Netzwerken von Flickr und Twitter ein Drittel der Nutzer beider Dienste mit einer Fehlerrate von nur 12% erkannt werden kann, obwohl nur 15% der Nutzer beide Netzwerke verwenden. In Wondracek et al. (2010) wird gezeigt, wie die Gruppenmitgliedschaft in anonymisierten Netzwerken genutzt werden kann, um Nutzer eindeutig zu identifizieren: Auf Xing konnten 42% der Nutzer erkannt und in 90% der Fälle vermeintlich gleiche Nutzer auf weniger als drei Personen einschränkt werden. Der gläserne Nutzer sozialer Medien ist offensichtlich kein Schreckgespenst von technisch scheuen Bürgern, sondern Realität!

Die Rasterfahndung für jedermann, die heute möglich ist, kann aber auch zum Schutz der Privatsphäre eingesetzt werden, wenn auch die Verfahren dazu erst im Entstehen sind. Die neueren Wirtschaftsfelder des „personal“ und „corporate branding“ im Web werden zweifelsohne die Entwicklung von algorithmischen Verfahren zum Schutz der Privatsphäre vorantreiben. Zudem werden sich Wissenschaftler zunehmend dem Datenschutz widmen. Die zwei im vorangehenden Absatz erwähnten wissenschaftlichen Publikationen, die die Unzulänglichkeit der Anonymisierung von Nutzerdaten in sozialen Netzwerken aufgedeckt haben, sind zwei Vorläufer davon.

Unter den Bezeichnungen „personal“ und „corporate branding“ bieten Unternehmen wie die so genannte „Google-Versicherung“ Reputation.com in den USA, reputeer.com in Deutschland, Reputation Squad in Frankreich, ICorrect in der Schweiz und Challengy in Frankreich an, das Erscheinungsbild von Personen oder Unternehmen im Web zu schützen. Dafür bedienen sie sich zweier komplementärer Mittel. Erstens überwachen sie und spüren im Web Negatives über eine Person oder über ein Unternehmen auf, das Sichtbarkeit erlangen könnte. Zweitens stellen sie Inhalte ins Web, die den Ruf positiv beeinflussen. In seltenen Fällen versuchen sie, Inhalte zu löschen oder löschen zu lassen, die rufschädigend sind. Mit an Sicherheit grenzender Wahrscheinlichkeit bedienen sich Personal/Corporate Brander oft „Fake Users“ in sozialen Netzwerken. Damit wird die Forderung nach einer gesetzlichen Regelung von Identitäten auf sozialen Medien akuter.

Die Neutralisierung negativer Informationen wird mit dem kürzlich aufgetretenen Fall der Anklage und Verhaftung des ehemaligen Leiters des internationalen Währungsfonds, Dominique Strauss-Kahn, gut illustriert. Kurz nach der Veröffentlichung von für Dominique Strauss-Kahn unvorteilhaften Fotos im Web, die bei seiner Verhaftung und Anklage aufgenommen wurden, sind verschiedene Websites mit für ihn vorteilhaften Fotos regelrecht überflutet worden, so dass seine Gesamterscheinung im Web sehr wesentlich verbessert wurde.

Die Früherkennung von Inhalten im Web oder in einem sozialen Netzwerk, die sich schnell verbreiten könnten, ist unter dem Namen „Trend-Erkennung“ derzeit eine der großen Herausforderung der Web-Forschung. Es sind einige Algorithmen dazu schon bekannt, deren Belastbarkeit allerdings nicht einwandfrei erwiesen ist. Das wirtschaftliche Potential solcher Algorithmen ist gewaltig: Sie versprechen vor allem Marketing, Finanzmärkte und Politik völlig zu verändern. Einen Schritt in diese Richtung hat kürzlich Google mit dem Dienst „Ich im Internet“ geleistet: Jeder Nutzer kann damit kostenlose „Alerts“ einrichten, um benachrichtigt zu werden, wenn sein Name auf Webseiten erscheint. Der Dienst ermöglicht es zudem, persönliche Daten auf verschiedenen Google-Anwendungen an einer einzigen Stelle zu aktualisieren und eventuell zu löschen.

 

6. Im Schwarm: Schutz und Stärke
– Katz- und Maus-Spiel in der Wolke

Der Schutz liegt im Schwarm. Diese alte Weisheit gilt insbesondere im Zeitalter der sozialen Medien. Wer unauffällig an einem sozialen Medium teilnimmt, wird in der Zukunft vermutlich weniger exponiert sein als jemand, der an keinem sozialen Medium teilnimmt! Die Ablehnung der sozialen Medien kann ja als Zeichen einer unzureichenden sozialen Fähigkeit angesehen werden.

Bin ich im Schwarm gut versteckt? Um diese Frage zu beantworten, bietet es sich an, eine Rasterfahndung nach sich selbst zu betreiben. Der bereits erwähnte neuere Dienst von Google „Ich im Internet“ ist ein erster Schritt zu einer Software zur Ego-Rasterfahndung. Weitere Software dazu ist denkbar, etwa um die Stellung einer Person in einem Geflecht von sozialen Beziehungen zu analysieren. Die neueren Dienste für Wissenschaftler, die Microsoft Academic Research und Google Scholar im November 2011 eingeführt haben, lassen sich zweifelsohne gut auf noch andere soziale Beziehungen als die Mitautorschaft und Zitierungen übertragen. Mit an Sicherheit grenzender Wahrscheinlichkeit arbeiten beide Konzerne schon daran. Ich kann mir sehr gut ein Dashboard vorstellen, welches gegliedert etwa in privat und beruflich die Stellung einer Person oder einer Gruppe von Personen in ihrem Beziehungsnetzwerk – oder zumindest in dessen elektronischen Spuren– in der Gegenwart, in der Vergangenheit und vielleicht sogar auch mit einer Projektion davon in die Zukunft schildert.

Im Schwarm liegt auch eine gewaltige Stärke. Das ist die Stärke von politischen Bewegungen, die die etablierte Ordnung unerwartet in Frage stellen. Die sozialen Medien geben solchen Bewegungen eine zusätzliche Kraft, weil sie das Zusammenfinden von Gleichgesinnten sehr wesentlich erleichtern. Kennzeichnend für die Stärke des Schwarms sind die Streisand-Effekte, jene Versuche, Informationen zu unterdrücken, die unerwartet in ihrer weiteren Verbreitung münden. Der Effekt wird nach einer Schauspielerin benannt, die versucht hatte, die Veröffentlichung von Luftbildern ihres Anwesens in Malibu auf einer Web-Plattform zu verhindern und dadurch unzählige Nutzer zum Abruf der Bilder anregte. Auch die Stärke des Schwarms werden in den kommenden Jahren neuere algorithmische Verfahren stärken. Die raison d’être der sozialen Meiden ist es eben, mittels Software soziale Fähigkeiten der Menschen zu stärken oder auf große Menschengruppen zu übertragen. Die Software-Unterstützung des Zusammenwirkens in sozialen Medien ist folglich der Wegweiser von Forschung und Entwicklung auf dem Gebiet.

Einerseits werden die im Cloud verteilten Nutzerdaten immer häufiger und besser durchforscht. Andererseits werden Nutzer, Verbraucherschützer und Gesetzgeber versuchen, die Privatsphäre mit Technik und Gesetzen zu schützen. Ein Katz- und Maus-Spiel wird folglich stattfinden. Es fängt gerade an. Offenbar sind derzeit diejenigen Unternehmen am Zug, die schon seit einigen Jahren persönliche Daten aus sozialen Medien für Werbezwecke sammeln und analysieren. Der Gegenzug der Nutzer wird zweifelsohne in einer zeitgemäßen Gesetzgebung und in einer Software zum Schutz der persönlichen Sphäre liegen.

 

7. Danksagung

Die in diesem Artikel geschilderten Gedanken sind während verschiedener Forschungsprojekte zu sozialen Medien entstanden. Dazu zählen das Forschungsprojekt KiWi (im 7. Rahmenprogramm der Europäischen Kommission Nummer 211932) über ein Semantic Wiki, das DFG-Projekt play4science zu Konzeption und Einsatz von GWAPS für Kunstgeschichte und italienische Linguistik, das Forschungsprojekt Backstage zur Kommunikation von Studenten untereinander und zwischen Studenten und Dozenten in Massenlehrveranstaltungen und das Forschungsprojekt Liquid Decision Making zur Verwendung eines Markt-ähnlichen Ansatzes zur Entscheidungsfindung in einem Gremium. Der Autor bedankt sich bei seinen Projektpartnern für die vielen fruchtbaren Diskussionen und wertvollen Anregungen.

 

Literatur

Literatur

Richardson, Matthew und Domingos, Pedro. (2002): “Mining knowledgesharing sites for viral marketing”, in: Osmar R. Zaïane (Hg.): Proc. of the Eighth ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (KDD), New York, S. 61-70.

Swamynathan, Gayatri; Wilson, Christo; Boe, Bryce; Almeroth, Kevin und Zhao, Ben Y. (2008): “Do social networks improve ecommerce: a study on social marketplaces”, in: Proc. of the First Workshop on Online Social Networks (WOSP ’08), New York.

Recordon, David (2008): “Is Social Media overstepping Facebook’s privacy line?”, in: O’Reilly Radar, http://radar.oreilly.com/2008/07/is-socialmedia-overstepping-fa.html, publ. 11.7.2008, zit. 1.4.2012.

Eldon, Eric (2008): “Adisn, another company that uses social data to target ads, raises $1.6 million”, in: Venture Beat,. http://venturebeat.com/2008/08/22/adisn-another-company-that-uses-social-data-to-target-ads-raises-16-million, publ. 22.8.2008, zit. 1.4.2012.

Rohan, Terrence; Tunguz-Zawislak, Tomasz; Sheffer, Scott; und Harmsen Jeremiah (2008): Network node ad targeting. U.S. Patent Application 0080162260.

O’Neill, Nick (2008): “Senate begins discussing privacy implications of online advertising”, in: Social Times, http://socialtimes.com/senate-begins-discussing-privacy-implications-of-online-advertising_b634, publ. 9.7.2008, zit. 1.4.2012.

Narayanan, Arvind und Shmatikov, Vitaly (2009): “De-anonymizing Social Networks”, in: IEEE Symposium on Security and Privacy 2009, http://www.cs.utexas.edu/~shmat/shmat_oak09.pdf, zit. 1.4.2012

Wondracek, Gilbert; Holz, Thorsten; Kirda, Engin und Kruegel, Christopher (2010): “A Practical Attack to De-Anonymize Social Network Users”, in: IEEE Symposium on Security and Privacy 2010, http://iseclab.org/papers/sonda-TR.pdf, zit. 1.4.2012.

2 Antworten auf Beherrschen oder beherrscht werden? — Medienkontrolle aus technischer Sicht

  1. Pingback: Gedankenstrich.org » Blog Archive » Neue Online-Zeitschrift: »Mediale Kontrolle unter Beobachtung«

  2. Pingback: “Mediale Kontrolle unter Beobachtung”: Open Access-Plattform online « Signifying Media

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Du kannst folgende HTML-Tags benutzen: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>