Meta, der US-amerikanische Technologieriese, wird von EU-Regulierungsbehörden wegen der Verbreitung von Fehlinformationen auf seinen Facebook- und Instagram-Plattformen, einer schwachen Aufsicht über irreführende Werbung und einem möglichen Versäumnis, die Integrität von Wahlen zu schützen, untersucht.

Am Dienstag sagten Beamte der Europäischen Union, Meta scheine nicht über ausreichende Sicherheitsvorkehrungen zu verfügen, um irreführende Werbung, Deepfakes und andere betrügerische Informationen zu bekämpfen, die böswillig online verbreitet werden, um politische Spaltungen zu verstärken und Wahlen zu beeinflussen.

Die Ankündigung zielt offenbar darauf ab, Meta unter Druck zu setzen, im Vorfeld der Wahlen in allen 27 EU-Ländern in diesem Sommer mehr zu tun, um neue Mitglieder des Europäischen Parlaments zu wählen. Die Wahlen, die vom 6. bis 9. Juni stattfinden, werden genau auf Anzeichen ausländischer Einmischung überwacht, insbesondere seitens Russlands, das versucht hat, die europäische Unterstützung für den Krieg in der Ukraine zu schwächen.

Die Untersuchung von Meta zeigt, dass die europäischen Regulierungsbehörden bei der Regulierung von Online-Inhalten einen aggressiveren Ansatz verfolgen als die Behörden in den Vereinigten Staaten, wo die Meinungsfreiheit und andere rechtliche Schutzmaßnahmen die Rolle der Regierung bei der Überwachung von Online-Reden einschränken. Ein neues Gesetz der Europäischen Union, das so genannte Digital Services Act, trat letztes Jahr in Kraft und gibt den Regulierungsbehörden weitreichende Befugnisse, um Meta und andere große Online-Plattformen hinsichtlich der über ihre Dienste geteilten Inhalte einzuschränken.

„Die großen digitalen Plattformen müssen ihrer Verpflichtung nachkommen, hierfür ausreichende Ressourcen bereitzustellen, und die heutige Entscheidung zeigt, dass wir es mit der Einhaltung ernst meinen“, sagte Ursula von der Leyen, Präsidentin der Europäischen Kommission, der Exekutivbehörde der EU, in einer Erklärung. Stellungnahme.

Europäische Beamte sagten, Meta müsse Schwachstellen in seinem Inhaltsmoderationssystem beheben, um böswillige Akteure besser zu identifizieren und beunruhigende Inhalte zu entfernen. Sie verwiesen auf einen aktuellen Bericht von Amnesty International Forensics, einer zivilgesellschaftlichen Gruppe in Europa, der ein russisches Informationsnetzwerk identifizierte, das irreführende Anzeigen über gefälschte Konten und andere Methoden kaufte.

Europäische Beamte sagten, Meta scheine die Sichtbarkeit politischer Inhalte zu verringern, was möglicherweise schädliche Auswirkungen auf den Wahlprozess habe. Die Behörden sagten, das Unternehmen solle mehr Transparenz darüber schaffen, wie sich diese Inhalte verbreiten.

Meta verteidigte seine Richtlinien und sagte, es arbeite aggressiv daran, die Verbreitung von Fehlinformationen zu erkennen und zu verhindern.

„Wir verfügen über einen etablierten Prozess zur Identifizierung und Minderung von Risiken auf unseren Plattformen“, sagte das Unternehmen in einer Erklärung. „Wir freuen uns darauf, unsere Zusammenarbeit mit der Europäischen Kommission fortzusetzen und ihr weitere Einzelheiten zu dieser Arbeit mitzuteilen.“

Die Meta-Untersuchung ist die jüngste Ankündigung der EU-Regulierungsbehörden im Rahmen des Digital Services Act. Auch die Inhaltsmoderationspraktiken von TikTok und X, früher bekannt als Twitter, werden untersucht.

Die Europäische Kommission kann Unternehmen nach dem Digitalgesetz Geldstrafen von bis zu 6 % des weltweiten Umsatzes verhängen. Aufsichtsbehörden können auch Firmenbüros durchsuchen, Firmenvertreter befragen und andere Beweise sammeln. Der Ausschuss sagte nicht, wann die Untersuchung enden würde.

Social-Media-Plattformen stehen dieses Jahr unter enormem Druck, da Milliarden Menschen auf der ganzen Welt an Wahlen teilnehmen. Die zur Verbreitung falscher Informationen und Verschwörungen eingesetzten Technologien sind ausgefeilter geworden – einschließlich neuer KI-Tools zur Produktion von Text, Video und Audio –, aber viele Unternehmen haben ihre Wahl- und Inhaltsmoderationsteams reduziert.

Europäische Beamte stellten fest, dass Meta eingeschränkten Zugang zu CrowdTangle hatte, einem Meta-eigenen Dienst, der von Regierungen, zivilgesellschaftlichen Gruppen und Journalisten zur Überwachung von Desinformation auf seinen Plattformen genutzt wird.

Leave A Reply