Earn money by answering our surveys

Register now!

Big Data : 4 Arten von Filterblasen

Earn up to 50€ by participating in one of our paid market research.

Register now!

Die Frage nach der Existenz von Filterblasen (auch kognitive Blasen genannt) ist zentral für die Bereiche Big Data und Algorithmus-Design. Unter verschiedenen Büchern hat mich das Buch von Dominique Cardon über Algorithmen und Gesellschaft sehr beeinflusst. In diesem Buch mit dem Titel „Wovon träumen Algorithmen? “ schlägt Cardon einen Rahmen vor, der auf vier Arten von Web-Messungen basiert, die jeweils auf einem bestimmten Datentyp beruhen (siehe Übersichtstabelle unten).

 

Beispiele Daten Population Art der Berechnung Prinzip
Auf der Seite Mediamétrie, Google Analytics, Werbung Ansichten Repräsentative Probe Vote Popularität
Über Google Page Rank, Digg, Wikipedia Links Selektive Abstimmung, Communities Meritokratische Rankings Authorität
In Anzahl der Facebook-Freunde, Retweets auf Twitter, Bewertungen Likes Soziales Netzwerk, Affinitäten, deklarative Daten Benchmark Reputation
Unter Amazon Empfehlung, Gezielte Werbung Tracks implizites Feedback und Verhaltensweisen Maschinelles Lernen Vorhersage

 

Framework von Dominique Cardon zu Datentypen und -verwendungen

Um die Diskussion zu erweitern, die ich in früheren Artikeln über Filterblasen begonnen habe, habe ich mir die Frage gestellt: „Kann das von Dominique Cardon vorgeschlagene Framework wiederverwendet werden, um verschiedene Arten von Filterblasen zu unterscheiden?“. Dies ist die Frage, die ich in diesem Artikel zu beantworten versuche.

„IST ES MÖGLICH, DEN VON DOMINIQUE CARDON VORGESCHLAGENEN RAHMEN WIEDERZUVERWENDEN, UM ETWAS ÜBER DIE NATUR VON FILTERBLASEN HERAUSZUFINDEN?“


1. Typ der Filterblase: Die, die durch die Publikumsmessung entsteht

Nach D. Cardon sind „Views“ eine Art von Daten, die zur Berechnung von Einschaltquoten verwendet werden. Der Ursprung dieser Messungen liegt bei den Medien, die sich auf eine Art dritte Instanz einigen mussten, um die Neutralität und Fairness der Marktanteilsberechnungen zu gewährleisten.
In diesem Modell (das heutzutage auch auf Online-Messungen angewendet wird) findet die Berechnung „neben“ den Daten statt (um die Worte von D. Cardon wieder zu verwenden). Es wird ein Maß für die Popularität erzeugt, das auf der Anzahl der Ansichten der Benutzer basiert. Die Berechnung ist unabhängig vom Inhalt und der Inhalt selbst ist nur vom Produzenten selbst abhängig. Im Falle von Medien ist dieser Produzent der Journalist (und die Redaktion). Diese Personen sind die „Gatekeeper“ und sie folgen bestimmten Regeln.
Was den Endbenutzer betrifft, so hat er die Freiheit, sein Verhalten zu ändern, wenn der Inhaltsproduzent seine Erwartungen nicht erfüllt. Er kann frei auf andere Inhalte zugreifen, die möglicherweise seine eigenen Ansichten in Frage stellen, um eine Polarisierung zu vermeiden. Akademische Forschungen wurden zu IT-Tools durchgeführt, die den Online-Benutzer konträren Meinungen aussetzen. In dieser Arbeit (An et al. 2012) wurden z. B. US-Medien nach ihren politischen Ansichten klassifiziert und ein Plugin entwickelt, das dem Leser herausfordernde Ansichten vorschlägt.
Man kann auch die Voreingenommenheit der öffentlichen Medien in Frage stellen (die theoretisch der Spiegel der Gesellschaft und ihrer Vielfalt sein sollten). Obwohl die journalistische Ethik (der oberste Gatekeeper) als Barriere gegen die Voreingenommenheit von Journalisten wirken sollte, kann nichts die politische „Einfärbung“ verhindern. Erinnern Sie sich zum Beispiel daran, dass die RAI in den 1970er Jahren jeder politischen „Familie“ einen Kanal zugewiesen hatte (RAI 3 war zum Beispiel kommunistisch). Schließlich trifft der Chefredakteur auch bewusste Entscheidungen, die ein redaktionelles Modell definieren und die Wahrnehmung modellieren, die Leser, Hörer oder Zuschauer schließlich haben.


2. Typ der Filterblase: Die, die durch Hyperlinks erzeugt wird

In diesem Modell werden Hyperlinks als Stellvertreter für Autorität verwendet. Ein Hyperlink zu einer externen Ressource bestätigt implizit deren Qualität, was ein Ranking ermöglicht. Das Hauptproblem ist die Dominanz des Konsums von Suchergebnissen, die auf der ersten Seite erscheinen.
Während es verständlich ist, dass viele Seiten nicht relevant sein können (weil sie Fehler enthalten und es verdienen, herabgestuft zu werden), kann man sich über die Unterschiede in Bezug auf die Informationsqualität zwischen den ersten 10 Ergebnissen und den nächsten 10 wundern. Wussten Sie, dass nur 8,5 % der Benutzer die zweite Ergebnisseite besuchen, wenn sie bei Google nach etwas suchen? Und noch weniger (1,1%) gehen auf die dritte Seite.
Was Sie vielleicht nicht wissen, ist, dass Googles Ranking-Algorithmus (PageRank) maschinelle Lernfähigkeiten einbettet. Wenn Sie auf einen Link klicken und dann zur Ergebnisseite zurückgehen, verschlechtert Google die Position des Links, weil er in seiner Logik als weniger relevant angesehen wird, als wenn Sie nicht zur Ergebnisseite zurückgehen würden. Man kann sich also fragen, ob ein kurzer Artikel, der leicht zu lesen, aber voller Fehler und Vorurteile ist, vor einem langen Artikel, der sehr reich an Informationen und Details, aber schwer zu lesen ist, platziert werden könnte. Wenn dies geschieht, wäre dies der Beginn einer sich selbst verstärkenden Schleife, die „einfache“ Inhalte gegenüber anspruchsvollen und reichhaltigen Inhalten fördern würde. 
Dies könnte die Art und Weise sein, wie unsere Gesellschaft schleichend in die Mittelmäßigkeit abrutscht, wie ich in einem Artikel (auf Französisch) schrieb, der mir einige starke Kommentare einbrachte.


3. Typ der Filterblase: Die von Social Geetkeepern (= Influencern) erzeugte

Feedback-Mechanismen sind auch innerhalb sozialer Sites integriert (Retweets in Twitter, Likes in Facebook, angeheftete Bilder in Pinterest, Checks in Foursquare, …) und wir müssen uns natürlich fragen, wie viel Einfluss einige Personen haben können, wenn es um die Verbreitung von Inhalten innerhalb eines Netzwerks geht. Sie werden nicht überrascht sein, wenn Sie hören, dass einige Personen in sozialen Netzwerken zu Berühmtheiten geworden sind und einen beträchtlichen Buzz erzeugen können.
Eine Studie über die Polarisierung von Ansichten auf Twitter zeigt den Einfluss von Personen, die sich an den Knotenpunkten des sozialen Netzwerks befinden; insbesondere zeigt diese Studie, dass die Ideenverbreitung kein neutraler Prozess ist und dass die Personen an den Knotenpunkten die Inhalte herausfiltern, die nicht zu ihren Ansichten passen, und somit ihre Follower polarisierten Ideen aussetzen.
Es ist auch interessant zu sehen, wie viel Gewicht diese Influencer bei der Verbreitung von Ideen haben. Wenn Sie Retweets als eine moderne Form der Mundpropaganda betrachten, zeigen Untersuchungen, dass nur eine Minderheit der Twitter-Benutzer in der Lage ist, ihre „Stimme“ über den Lärm zu erheben. Nur eine Minderheit schafft es, gehört zu werden. Twitter ist daher weit davon entfernt, ein demokratisches Medium zu sein, in dem jede Stimme („Tweet“) zählt. Es ist eine Meritokratie, in der Ruhm und Überfluss Ihnen einen besonderen Status verleihen können: Gehört zu werden.


4. Typ der Filterblase: Eine, die durch unser eigenes Verhalten entsteht

Wie Dominique Cardon es ausdrückt, „sagen“ Algorithmen die Zukunft voraus, indem sie die Steigung vergangener Verhaltensweisen verlängern. Dies ist wahrscheinlich das, was Eli Pariser inspirierte, als er den Begriff „Filterblase“ erfand.
Ein Beispiel unter vielen ist Netflix, das den nächsten zu sehenden Film empfiehlt, basierend auf denen, die in der Vergangenheit gesehen wurden (für weitere Informationen lesen Sie diesen Artikel auf der RecSys-Konferenz 2016).
Das „Programmieren“ der Zukunft von jemandem auf der Basis seiner/ihrer in der Vergangenheit beobachteten Verhaltensweisen (die manchmal alles andere als tugendhaft und bereichernd sind) bringt uns in Gefahr. Weniger „qualitative“ Verhaltensweisen (wie z. B. das Anschauen eines Jean-Claude Van-Damme statt einer Oper) werden eine sich selbst verstärkende Schleife in Gang setzen. Wir werden mehr „Schrott“-Inhalte serviert bekommen und da wir nur Menschen mit Schwächen sind, wird der Algorithmus diese ausnutzen und wir werden langsam aber sicher in die Mittelmäßigkeit abrutschen. Es gibt keinen Gatekeeper. Der Algorithmus pflegt und verstärkt unsere Schwächen. Es gibt keine externe Perspektive, die unseren Kopf aus dem Wasser zieht und uns herausfordert. Wenn der Programmierer hinter dem algorithmischen Rezept es nicht so gewollt hat, dann ist es eben nicht da. Das ist die eigentliche Definition von „algorithmischer Steuerung“: Der Algorithmus übt Druck auf uns aus, steckt uns in einen Rahmen und entscheidet schließlich über unser zukünftiges Verhalten.

Dies wirft die Frage nach Big Data und Ethik auf (siehe z.B. wie Meetup.com dieses Thema angeht).


Fazit zu den verschiedenen Typen von Filterblasen: Die Rolle des Gatekeepers

Der von Dominique Cardon vorgeschlagene Rahmen zeigt, dass jede Art von Daten (Ansichten, Links, Likes, Traces) zur Erstellung einer bestimmten Art von Filterblase führt. Was sie unterscheidet, ist nicht so sehr die Art der verwendeten Daten, sondern die Art des Gatekeepers: Gibt es einen Gatekeeper? Wie viel Verhandlungsmacht hat er gegenüber dem Benutzer? Sind seine Absichten gut oder schlecht? Hält er sich an ethische Regeln oder nicht?

Dies sind die Fragen, die gestellt werden müssen, um die Gefährlichkeit eines algorithmischen Modells zu beurteilen. Lassen Sie uns jedes der vier vorangegangenen Modelle im Hinblick auf Gatekeeping überprüfen.

Im ersten Modell („auf der Seite“) werden „Ansichten“ von einer unabhängigen, von allen Spielern anerkannten Instanz verwendet, um die verschiedenen Spieler (z. B. Medien) in eine Rangfolge zu bringen. Der Marktanteil ist der Indikator, der das Handeln bestimmt. Je mehr Marktanteil Sie haben, desto höher ist Ihre Fähigkeit, größere Menschenmengen anzusprechen und deren Meinung zu formen.

Neben dem Gatekeeper, der das Publikum kontrolliert, gibt es viele andere interne Gatekeeper (z. B. Produzenten von Inhalten), die ihren eigenen Regeln folgen können. Journalisten zum Beispiel folgen einem Verhaltenskodex, um Vorurteile zu vermeiden.

Letztendlich hat der Endverbraucher die Freiheit zu wechseln. Monopole sind nicht mehr die Regel und wenn er will, kann der Verbraucher aufhören, von einem Spieler zu konsumieren.

Zusammenfassend lässt sich sagen, dass im ersten Modell Gatekeeping auf verschiedenen Ebenen implementiert wird und die Gatekeeping-Regeln bekannt sind (wie das Publikum gemessen wird, welchen Verhaltenskodex Journalisten befolgen müssen).

Im zweiten Modell („oben“) werden Hyperlinks als Proxy für Autorität verwendet. Die monopolistische Situation von Google hat zu einer drastischen Reduzierung der Anzahl der Gatekeeper geführt. Google ist die Autorität, definiert die Regeln und macht sie nicht öffentlich. Die Macht, die der Benutzer im ersten Modell hatte, verschwindet hier. Sobald Sie Google als Suchmaschine verwenden, akzeptieren Sie, sich an deren Modell anzupassen (eine Blackbox) und nehmen in Kauf, einen Teil Ihrer Freiheit zu verlieren, andere Metriken der Autorität zu wählen. Nur der erfahrene Benutzer kann eine gewisse Gatekeeping-Macht zurückgewinnen, indem er einen anderen Browser und eine andere Suchmaschine (wie z. B. TOR und qwant) verwendet, die ihn anderen Suchergebnissen aussetzt.

Zusammenfassend lässt sich sagen, dass im zweiten Modell die Macht in den Händen eines einzigen Gatekeepers konzentriert ist, der daher seine Ansichten durchsetzen und die Spielregeln (d. h. das algorithmische Rezept) ändern kann, ohne sich an jemanden wenden zu müssen. Die Macht von Webmastern ist zu sehr aufgeteilt.

Im dritten Modell („in“) sind die Gatekeeper die Knotenpunkte des sozialen Netzwerks. Sie sind zahlreicher als im zweiten Modell. Dennoch ist eine unglaubliche Macht in wenigen Händen konzentriert. Im Social-Media-Ökosystem sind diese Gatekeeper zumindest identifiziert und ihre Macht kann genutzt werden, um Ideen zu verbreiten und Viralität auszulösen (siehe z. B. die berühmten Youtuber, die ihre virtuelle Berühmtheit an Marken verkaufen, die versuchen, ein neues Publikum zu erreichen).

Im vierten Modell („unten“) wird der Benutzer zu seinem eigenen Gatekeeper. Sein/ihr Verhalten, mit all seinen Fehlern und potentiell schlechten Gewohnheiten, wird zur Grundlage der Zukunft. Der Algorithmus ist DIE Autorität: Er hat die Macht, zu entscheiden, Verhaltensweisen vorzuschlagen und zu verstärken, die für den Benutzer sogar schädlich sein können. In einem anderen Artikel habe ich die Suchtgefahr hinterfragt, die die Netflix-Empfehlungsalgorithmen geschaffen haben. 
Andere potenzielle algorithmische Gefahren sind die Anweisungen, die den Nespresso-Telefonverkäufern gegeben werden, um mehr Kaffee an jemanden zu verkaufen, der vielleicht schon zu viel konsumiert; oder Bankangestellte, die von einer Maschine angewiesen werden, Ihnen Produkte zu verkaufen, die Sie vielleicht gar nicht brauchen.



Bild : shutterstock

Kommentar absenden

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.