KI-Fehler: Tech-Giganten und ihre moderierte Inhalte
Facebook hat möglicherweise bereits eine halbe Million Ungarn eingeschränkt, während die Inhalts- und Konto-Moderationsregeln der Online-Plattform praktisch undurchsichtig sind, eine kürzlich von der Nationalen Behörde für Medien und Kommunikation (NMHH) in Auftrag gegebene Studie hat ergeben.
Die Studie analysierte die Praktiken und Richtlinien von Facebook und YouTube, um zu sehen, wie die wichtigsten Plattformanbieter die Benutzer einschränken. Es zeigt, dass Online-Plattformen künstliche Intelligenz nutzen, um jeden Monat Millionen von Sanktionsentscheidungen zu treffen, die normalerweise nicht von echten Menschen überprüft werden. Die Studie weist darauf hin, dass das Digital Services Act der Europäischen Union (DSA) nun alle Online-Plattformen über ihre Moderationsentscheidungen melden muss. Dies hat gezeigt, dass täglich Hunderttausende von restriktiven Entscheidungen getroffen werden, und in der Regel mit Hilfe der künstlichen Intelligenz (KI).
Diese Entscheidungen werden den Benutzern normalerweise nicht erklärt oder gerechtfertigt, sodass sie dunklen, wie die Einschränkungsalgorithmen funktionieren.
Obwohl die betroffenen Parteien immer die Aktionen von Plattformanbietern in Frage stellen können, werden ihre Beschwerden normalerweise auch von KI behandelt. Eine sinnvolle Beschwerdebeschreibung und die Wiederherstellung von eingeschränkten Inhalten oder Konten werden daher immer seltener, fügten sie hinzu.
Die mangelnde Klarheit der Plattformrichtlinien macht es den Benutzern auch schwer, sie zu verstehen: Sie werden nicht in einem einzigen, transparenten Dokument und ihre Richtlinien für kleinere Unterbereiche häufig auf unlogische Weise zusammengestellt, die Studie detailliert. Addiert, dass es auch häufig Fälle von übermäßig breitem Wortlaut gibt.
YouTube legt beispielsweise seine Bedingungen fest, dass es nicht nur Inhalte entfernen kann, die explizit illegal oder gegen die Regeln sind, sondern auch alles, was „Schaden an die Plattform verursacht“. Dienstanbieter moderieren als Spam oder Konten, die als gefälscht angesehen werden, medien Inhalte, die jedoch auch in zwei Kategorien, die einen signifikanten Einfluss auf die Meinungsfreiheit haben (Hassrede und Desinformation), auch restriktive Entscheidungen treffen.
Die Studie untersuchte auch die restriktiven Praktiken der relevanten Plattformanbieter gegenüber ungarischen Nutzern und betrachtete sich separat mit Verboten und Schattenverboten. In den früheren Fällen sendet der Dienstleister eine Mäßigung. Letzteres bedeutet, dass der Dienstanbieter Einschränkungen ohne das Wissen des Benutzers anwendet, beispielsweise ohne einen Beitrag in den News-Feeds anderer Benutzer.
Die riesigen Plattformen liefern keine länderspezifischen Daten zu ihren Moderationspraktiken, sondern laut einer repräsentativen Fragebogenumfrage der Nationalen Universität des öffentlichen Dienstes,
Fast 15% der im Jahr 2024 befragten ungarischen Bevölkerung (ungefähr eine halbe Million Menschen aus der Gesamtbevölkerung) haben durch ihren Dienstleister eine Löschung oder Beschränkung inhaltlich oder sogar ein Kontoverbot im Vergleich zu den Vorjahren erlebt.
Darüber hinaus wurde die Hälfte der betroffenen Benutzer bereits mehr als einmal einer Einschränkung ausgesetzt, und ein Viertel hat ihre Konten von ihrem Dienstleister ausgesetzt. Ein Drittel von ihnen hat ausdrücklich darum gebeten, dass eine Einschränkung aufgehoben wird, aber im Jahr 2024 wurde nur ein Zehntel des eingeschränkten Inhalts von der Plattform wiederhergestellt.
In einer im Jahr 2020 veröffentlichten Umfrage war der Anteil viel höher, wobei der Dienstanbieter rund ein Fünftel des suspendierten Inhalts wiederhergestellt hat, was hauptsächlich darauf zurückzuführen ist, dass Plattformanbieter nun zunehmend auf künstliche Intelligenz stützen, um Beschwerden zu bearbeiten, schrieb sie.
Verwandter ArtikelDie EU möchte Facebook-Faktenprüfer inmitten des Zensurskandals behalten
über MTI, Feodated Image: Pixabay