Wenn Algorithmen unsere Sicht auf die Welt verzerren

Mehr entdecken
künstliche Intelligenz
Forschung
Informatik
Algorithmen
soziale Netzwerke

In den sozialen Netzwerken wird der Inhalt, den wir lesen, durch Algorithmen personalisiert, wodurch die Gefahr besteht, dass uns immer stärker reduzierte und extremere Standpunkte näher gebracht werden. Forscherinnen und Forscher der EPFL haben eine Lösung entwickelt, die eine ausgewogenere Personalisierung ermöglichen würde und bereits viele Menschenrechtsaktivisten interessiert.

Wenn wir auf einen bestimmten Link anstelle eines anderen klicken, ändert sich der Inhalt, den uns viele Websites anschliessend anzeigen. Die in den sozialen Medien wie Facebook verwendeten Algorithmen lernen aufgrund unserer Präferenzen und liefern uns immer mehr auf unsere Interessen abgestimmte Inhalte – auf die Gefahr hin, uns nichts mehr zu zeigen, was nicht unserer Meinung entspricht, und unseren Blick auf die Welt zu verzerren. «Durch eine immer feinere Auswahl dessen, was Sie sehen werden, verzerren diese Algorithmen die Wirklichkeit. So werden die soziale Netzwerke zu Resonanzkammern, in denen die Meinungen zu den Extremen tendieren», erklärt Elisa Celis, Forscherin an der Fakultät für Computer- und Kommunikationswissenschaften (IC) an der EPFL.

Die Auswirkungen auf die Benutzer sind real. «Zahlreiche Studien haben gezeigt, dass unentschlossene Menschen durch die Reihenfolge, in der eine Information angezeigt wird, und die Wiederholungshäufigkeit beeinflusst werden. Die Algorithmen prägen folglich ihre Meinung auf der Grundlage verzerrter Daten», erklärt Elisa Celis. Um dieses Problem zu lösen, arbeitete die Forscherin mit Nisheeth Vishnoi, Professor an der Fakultät IC, um ein System zu entwickeln, das die extreme Polarisierung der den Benutzern angebotenen Inhalte verhindert.

Effizienz bewahren

Konkret haben sie einen Algorithmus entworfen, der so eingestellt werden kann, dass ein Mindestmass an Vielfalt bei den Inhalten gewährleistet ist. «Ein soziales Netzwerk könnte beispielsweise beschliessen, mindestens 10% Meinungen anzuzeigen, die nicht der Meinung der Benutzer entsprechen, um eine ausgewogenere Sichtweise der Welt zu behalten», erklären die Forscher. Der Algorithmus könnte in den aktuellen Systemen einfach umgesetzt werden. Die grösste Herausforderung liegt darin, das Interesse der grossen Unternehmen zu wecken. «Plattformen wie Facebook hängen von der Effizienz dieser Algorithmen für ihre Werbeeinnahmen ab. Deshalb wollten wir zeigen, dass man ein genauso effizientes Instrument schaffen kann, das jedoch eine ausgewogene und gerechte Personalisierung ermöglicht», sagt Nisheeth Vishnoi.

«Plattformen wie Facebook hängen von der Effizienz dieser Algorithmen für ihre Werbeeinnahmen ab. Deshalb wollten wir zeigen, dass man ein genauso effizientes Instrument schaffen kann, das jedoch eine ausgewogene und gerechte Personalisierung ermöglicht.»

Um das aktuelle rechtliche Vakuum rund um dieses Thema zu beseitigen, wäre es wichtig, die Regierungen für diese Problematik zu sensibilisieren. Mehrere Menschenrechtsorganisationen haben bereits ihr Interesse bekundet, und die Forscher der EPFL konnten ihr Projekt kürzlich vor Delegierten humanitärer Organisationen in Genf einschliesslich Mitgliedern des Hochkommissariats der Vereinten Nationen für Menschenrechte vorstellen. «Zurzeit gibt es keine Vorschriften, weil die Auswirkungen dieser Algorithmen noch wenig bekannt sind. Als Bürger fühle ich mich ohnmächtig, weil ich keinerlei Kontrolle über das habe, was mir angezeigt wird. Meiner Meinung nach ist die aktuelle Situation gefährlich für die Demokratie, weshalb unbedingt Alternativen gefunden werden müssen», meint Nisheeth Vishnoi abschliessend.

Weitere Informationen: http://theory.epfl.ch/bias/ und https://cns.epfl.ch/

Scrollen
Forschung | 40 artikel