Carolyn Mullett, eine Neuntklässlerin der Issaquah High School in der Nähe von Seattle, besuchte letzten Herbst ihren ersten Homecoming-Tanz, eine Party im James-Bond-Stil mit Blackjack-Tischen, an der Hunderte von Mädchen in Partykleidung teilnahmen.

Ein paar Wochen später erfuhren sie und andere Studentinnen, dass einer ihrer männlichen Klassenkameraden gefälschte Nacktfotos von Mädchen, die den Tanz besuchten, veröffentlichte, sexuell eindeutige Bilder, die er mithilfe einer App für künstliche Intelligenz hergestellt hatte, die Bilder von Kleidung automatisch „streifen“ ließ. Mädchen und Frauen.

Frau Mullet, 15 Jahre alt, alarmierte ihren Vater, Zeichen, Demokratischer Senator aus dem Bundesstaat Washington. Obwohl sie nicht zu den Mädchen auf den Fotos gehörte, fragte sie, ob etwas getan werden könne, um ihren Freunden zu helfen, die „sehr verärgert“ seien, weil männliche Klassenkameraden Nacktfotos von ihnen gesehen hätten. Senator Mullett und ein Kollege im Repräsentantenhaus schlugen schnell ein Gesetz vor, das die Weitergabe sexuell eindeutiger, KI-generierter Bilder von echten Minderjährigen verbieten würde.

„Ich hasse die Vorstellung, dass ich mir Sorgen machen muss, dass das einer meiner Freundinnen, meinen Schwestern oder sogar mir selbst noch einmal passieren könnte“, sagte Frau Mullett den Gesetzgebern des Bundesstaates während einer Anhörung zu dem Gesetzentwurf im Januar.

Landesgesetzgeber Der Gesetzentwurf wurde angenommen ungehindert. Gouverneur Jay Inslee, ein Demokrat, hat es letzten Monat unterzeichnet.

Länder an der Front Eine sich rasch ausbreitende neue Form der sexuellen Ausbeutung unter Gleichaltrigen Und Belästigung in Schulen. Jungen in den Vereinigten Staaten nutzten allgemein verfügbare „Stripping“-Apps, um sexuell eindeutige Fotos ihrer Klassenkameradinnen zu fabrizieren, und verbreiteten die simulierten Aktfotos dann über Gruppenchats auf Apps wie Snapchat und Instagram.

Nun beeilen sich Bundes- und Landesgesetzgeber, Schutzmaßnahmen zu ergreifen, um mit ausbeuterischen KI-Anwendungen Schritt zu halten, teilweise angeregt durch besorgniserregende Berichte von Mädchen im Teenageralter wie Frau Mullett.

Nach Angaben des National Center for Missing and Exploited Children, einer gemeinnützigen Organisation, haben seit Anfang letzten Jahres mindestens zwei Dutzend Staaten Gesetzesentwürfe zur Bekämpfung von durch künstliche Intelligenz erzeugten sexuell eindeutigen Bildern – sogenannte Deepfakes – von Menschen unter 18 Jahren eingebracht. . Mehrere Staaten haben diese Maßnahmen erlassen.

Darunter ist in diesem Jahr auch South Dakota Er hat ein Gesetz erlassen, das es illegal macht Besitz, Produktion oder Verbreitung von durch künstliche Intelligenz generiertem Material über sexuelle Übergriffe, das echte Minderjährige darstellt. Letztes Jahr hat Louisiana es erlassen Deepfakes-Gesetz Dadurch werden durch künstliche Intelligenz erzeugte sexuell eindeutige Bilder von Minderjährigen kriminalisiert.

„Ich hatte das Gefühl, dass es dringlich ist, von diesen Fällen zu hören und wie viel Schaden angerichtet wurde“, sagte er. Schauspielerin Tina Orwellein Demokrat, der das explizite Deepfake-Gesetz des Staates Washington ausarbeitete, nachdem er von Vorfällen wie dem an der Isaac High School gehört hatte.

Einige Gesetzgeber und Kinderschutzexperten sagen, dass solche Regeln dringend erforderlich sind, da die einfache Verfügbarkeit KI-gestützter Strip-Apps die Produktion und Verbreitung großer Mengen grafischer Bilder ermöglicht, die lebenslang online verbreitet werden können und die psychische Gesundheit, den Ruf und den Körper von Mädchen gefährden . . Sicherheit.

„Ein Junge kann an einem Nachmittag mit seinem Telefon 40 Mädchen, minderjährige Mädchen, angreifen“, sagte er. Utah Soras„Dann werden ihre Fotos dort gepostet“, sagte sie, Chefjuristin des Nationalen Zentrums für vermisste und ausgebeutete Kinder.

In den letzten zwei Monaten kam es in Schulen zu Deepfake-Vorfällen – Einschließlich in Richmond, Illinois.Und Beverly Hills Laguna beachKalifornien.

Allerdings schützen nur wenige Gesetze in den Vereinigten Staaten Personen unter 18 Jahren ausdrücklich vor ausbeuterischen KI-Anwendungen.

Das liegt daran, dass viele bestehende Gesetze, die Material zum sexuellen Missbrauch von Kindern oder nicht einvernehmliche Erwachsenenpornografie – zu der auch echte Fotos oder Videos von echten Menschen gehören – verbieten, explizite Bilder, die von künstlicher Intelligenz generiert wurden und die Gesichter von echten Menschen verwenden, möglicherweise nicht für explizite Bilder gelten, sagte der US-Abgeordnete Joseph. DR.. Morrill, ein Demokrat. Von New York.

Letztes Jahr hat Ft Rechtsprojekt Dies würde die Offenlegung von KI-generierten intimen Bildern identifizierbarer Erwachsener oder Minderjähriger zu einem Verbrechen machen. Es würde auch Opfern von Deepfakes bzw. Eltern das Recht einräumen, einzelne Täter auf Schadensersatz zu verklagen.

„Wir möchten, dass es für jeden extrem schmerzhaft wird, auch nur daran zu denken, denn das ist ein Schaden, den man einfach nicht wiedergutmachen kann“, sagte Morrell. „Auch wenn es für einen 15-jährigen Jungen wie ein Witz erscheint, ist es sehr ernst.“

Es wurde kürzlich von der US-Abgeordneten Alexandria Ocasio-Cortez, einer weiteren Demokratin aus New York, eingeführt Ähnlicher Gesetzesentwurf Damit Opfer Zivilklagen gegen Deepfake-Täter einreichen können.

Aber keiner der beiden Gesetzesentwürfe gibt den Opfern ausdrücklich das Recht, die Entwickler von Apps zum Entfernen von künstlicher Intelligenz zu verklagen, ein Schritt, der laut Prozessanwälten dazu beitragen wird, die Massenproduktion sexuell eindeutiger Deepfakes zu unterbinden.

„Es sind Gesetze erforderlich, um die kommerzielle Ausbeutung zu stoppen, die die Wurzel des Problems ist“, sagte Elizabeth Hanley, eine Anwältin aus Washington, die Opfer in Fällen sexueller Übergriffe und Belästigung vertritt.

Das US-Recht verbietet die Verbreitung Vom Computer erstellt Material über sexuellen Missbrauch von Kindern, das identifizierbare Minderjährige zeigt, die sich sexuell eindeutig verhalten. Letzten Monat gab das FBI eine solche Warnung heraus Illegale Substanzen inklusive Realistische Bilder von sexuellem Kindesmissbrauch, erstellt durch künstliche Intelligenz

Experten sagen jedoch, dass durch künstliche Intelligenz erzeugte gefälschte Bilder von echten unbekleideten Teenager-Mädchen möglicherweise kein „Material für sexuellen Kindesmissbrauch“ darstellen, es sei denn, Staatsanwälte können nachweisen, dass die gefälschten Bilder den gesetzlichen Standards für sexuell eindeutiges Verhalten oder anstößige Zurschaustellung von Genitalien entsprechen.

Einige Verteidiger haben versucht, die offensichtliche rechtliche Unklarheit auszunutzen. Ein Anwalt, der einen High-School-Schüler in einer Deepfake-Klage in New Jersey verteidigt, argumentierte kürzlich, dass ein Gericht seinen Mandanten, der KI-gestützte Nacktfotos einer Klassenkameradin erstellt hat, nicht vorübergehend daran hindern sollte, die Bilder anzusehen oder zu teilen, weil sie nicht böswillig oder böswillig seien schädlich. Illegal. Die Bundesgesetze seien nicht darauf ausgelegt, „auf künstliche, computergenerierte Bilder anzuwenden, die nicht einmal echte menschliche Teile enthalten“, sagte der Anwalt in einer Klage. (Der Angeklagte stimmte letztendlich zu, der einstweiligen Verfügung bezüglich der Fotos keinen Einspruch zu erheben.)

Staaten erlassen jetzt Gesetze, um ausbeuterische KI-Bilder zu stoppen. Diesen Monat hat Kalifornien eingereicht Gesetzentwurf zur Aktualisierung des staatlichen Verbots zu Material über sexuellen Kindesmissbrauch, um insbesondere beleidigendes Material abzudecken, das durch künstliche Intelligenz generiert wurde.

Die Gesetzgeber in Massachusetts schließen ihre Arbeit ab Eine Gesetzgebung, die kriminalisieren würde Nicht einvernehmliche Weitergabe expliziter Bilder, einschließlich Deepfakes. Für die Entwicklung ist außerdem eine staatliche Einrichtung erforderlich Konvertierungsprogramm Für Minderjährige, die explizite Bilder geteilt haben, um sie über Themen wie den „verantwortungsvollen Umgang mit generativer künstlicher Intelligenz“ aufzuklären.

Die Strafen können schwerwiegend sein. Nach dem neuen Gesetz von Louisiana kann jeder, der wissentlich sexuell eindeutiges Material erstellt, verbreitet, bewirbt oder an Minderjährige verkauft, mit einer Gefängnisstrafe von mindestens fünf bis zehn Jahren rechnen.

Im Dezember verhafteten Polizisten des Miami-Dade County zwei Mittelschüler Wegen angeblicher Erstellung und Weitergabe gefälschter Nacktfotos mit künstlicher Intelligenz Zwei Klassenkameraden im Alter von 12 und 13 Jahren, wie aus Polizeidokumenten hervorgeht, die die New York Times durch eine Anfrage nach öffentlichen Aufzeichnungen erhalten hat. Die Jungen wurden wegen Straftaten dritten Grades angeklagt Landesgesetz 2022 Verbot sexueller Bilder, die ohne Zustimmung geändert wurden. (Die Staatsanwaltschaft des Bezirks Miami-Dade County sagte, sie könne sich zu einem offenen Fall nicht äußern.)

Das neue Deepfakes-Gesetz des US-Bundesstaates Washington verfolgt einen anderen Ansatz.

Nachdem Senator Mullett von seiner Tochter von dem Vorfall an der Issaquah High School erfahren hatte, wandte er sich an den Abgeordneten Orwall, einen Anwalt für Überlebende sexueller Übergriffe und ehemaliger Sozialarbeiter. Frau Orwall, die an einem der ersten Racheporno-Gesetze des Staates mitgearbeitet hat, hat im Repräsentantenhaus einen Gesetzesentwurf ausgearbeitet, der die Verbreitung intimer oder sexuell eindeutiger Bilder, die durch künstliche Intelligenz erzeugt wurden, an Minderjährige oder Erwachsene verbieten soll. (Herr Mullett, der den begleitenden Gesetzentwurf des Senats gesponsert hat, ist jetzt Kandidatur für den Gouverneursposten.)

Nach dem resultierenden Gesetz, Ersttäter können wegen Vergehens angeklagt werden, während Personen, die bereits wegen der Offenlegung sexuell eindeutiger Bilder verurteilt wurden, wegen Straftaten angeklagt werden müssen. Im Juni tritt ein neues Deepfakes-Gesetz in Kraft.

„Es ist nicht überraschend, dass wir bei den Schutzmaßnahmen im Rückstand sind“, sagte Frau Orwall. „Deshalb wollten wir so schnell vorankommen.“

Leave A Reply