Zitate des Gouverneurs von Wyoming und des örtlichen Staatsanwalts waren die ersten Dinge, die dem Reporter der Powell Tribune, C.J. Baker, etwas seltsam vorkamen. Dann gab es in den Geschichten einige Phrasen, die ihm fast mechanisch vorkamen.

Doch eindeutige Beweise dafür, dass ein Reporter eines Konkurrenzsenders generative KI nutzte, um ihm beim Schreiben seiner Geschichten zu helfen, lieferte ein Artikel vom 26. Juni über die Besetzung des Komikers Larry the Cable Guy als Leiter einer lokalen Show. Der Artikel endete mit der Erläuterung der umgekehrten Pyramide, die den grundlegenden Ansatz beim Verfassen einer Eilmeldung darstellt.

„Die Cody Stampede Parade 2024 wird voraussichtlich eine unvergessliche Feier der amerikanischen Unabhängigkeit sein, angeführt von einer der beliebtesten Figuren in der Welt der Comedy.“ Cody-Stiftung „Diese Struktur stellt sicher, dass die wichtigsten Informationen zuerst präsentiert werden, was es den Lesern erleichtert, wichtige Punkte schnell zu verstehen.“

Abgebildet ist eine aktuelle Ausgabe der Cody Enterprise, einer Zeitung aus Wyoming, in der ein Reporter künstliche Intelligenz nutzte, um ihm beim Schreiben seiner Geschichten zu helfen.
Abgebildet ist eine aktuelle Ausgabe der Cody Enterprise, einer Zeitung aus Wyoming, in der ein Reporter künstliche Intelligenz nutzte, um ihm beim Schreiben seiner Geschichten zu helfen.

Nach einigen Recherchen lernte Baker, der mehr als 15 Jahre lang als Reporter gearbeitet hatte, Aaron Belzar kennen, einen 40-Jährigen, der neu im Journalismus war und der laut Baker zugab, in seinen Geschichten KI eingesetzt zu haben, bevor er von Enterprise zurücktrat.

Der Herausgeber und Herausgeber der Zeitung Enterprise, die Buffalo Bill Cody 1899 mitbegründete, hat sich entschuldigt und versprochen, Maßnahmen zu ergreifen, um sicherzustellen, dass so etwas nie wieder passiert. Leitartikel Chris Bacon, Herausgeber des Enterprise-Magazins, sagte in einem am Montag veröffentlichten Artikel, dass er die AI-Version und die falschen Zitate „nicht erkannt“ habe.

„Es spielte keine Rolle, dass die falschen Zitate eindeutig ein Fehler eines voreiligen Neulingsreporters waren, der der KI vertraute“, schrieb Bacon. Er entschuldigte sich und sagte, dass „die KI Wörter in die Geschichten einfügen durfte, die nie gesprochen wurden.“

Journalisten Er besitzt Sie haben ihre Karriere ruiniert von Zitate erfinden Oder Fakten in Geschichten lange vor dem Aufkommen der künstlichen Intelligenz. Doch dieser jüngste Skandal macht deutlich Mögliche Risiken Und Risiken Künstliche Intelligenz stellt für viele Branchen, darunter auch den Journalismus, eine große Bedrohung dar, da Chatbots mit nur wenigen Eingabeaufforderungen falsche, wenn auch einigermaßen plausible Artikel produzieren können.

Künstliche Intelligenz hat im Journalismus eine Rolle gefunden, unter anderem bei der Automatisierung einiger Aufgaben. Einige Nachrichtenredaktionen, darunter Associated Press, nutzen KI, um Reportern Zeit für wirkungsvollere Arbeit zu geben, aber den meisten AP-Mitarbeitern ist es nicht gestattet, generative KI zur Erstellung veröffentlichungsfähiger Inhalte zu verwenden.

Die Associated Press nutzt seit 2014 Technologie zur Erstellung von Artikeln zu Finanzberichten und in jüngerer Zeit auch zu einigen Sportberichten. Es experimentiert auch mit einem Tool für künstliche Intelligenz, um einige Geschichten vom Englischen ins Spanische zu übersetzen. Am Ende jeder dieser Geschichten gibt es eine Notiz, in der die Rolle der Technologie bei ihrer Herstellung erläutert wird.

Klarheit und Offenheit darüber, wie und wann KI eingesetzt werden soll, haben sich als wichtig erwiesen. Sports Illustrated wurde kritisiert Letztes Jahr veröffentlichte SI online KI-generierte Produktrezensionen, die so dargestellt wurden, als seien sie von Journalisten verfasst worden, die gar nicht vor Ort waren. Nachdem die Geschichte bekannt wurde, kündigte SI an, das Unternehmen zu entlassen, das die Artikel für seine Website produziert hatte, doch der Vorfall schadete dem Ruf der einst einflussreichen Publikation.

In seinem Artikel in der Powell Tribune, in dem er Belzars Einsatz künstlicher Intelligenz in Artikeln aufdeckte, schrieb Baker, dass er ein unangenehmes, aber herzliches Treffen mit Belzar und Bacon hatte. Während des Treffens sagte Belzar: „Offensichtlich habe ich nie absichtlich versucht, jemanden falsch zu zitieren“ und versprach, „sie zu korrigieren, sich zu entschuldigen und zu sagen, dass es sich um falsche Aussagen handelte“, und bemerkte, dass Belzar darauf beharrte, dass seine Fehler nicht auf Kodis Enterprise-Redakteure zurückfallen sollten.

Nach dem Treffen startete Enterprise eine vollständige Überprüfung aller Geschichten, die Belzar während der zwei Monate, in denen er dort arbeitete, für die Zeitung schrieb. Bacon sagte am Dienstag, sie hätten sieben Geschichten entdeckt, die KI-generierte Zitate von sechs Personen enthielten. Er rezensiert immer noch andere Geschichten.

„Das sind sehr plausible Zitate“, sagte Bacon und bemerkte, dass Leute, mit denen er bei der Durchsicht von Beltzars Artikeln sprach, sagten, die Zitate klangen wie etwas, das sie sagen würden, aber sie hatten nie wirklich mit Beltzar gesprochen.

Baker berichtete, dass sieben Personen ihm sagten, sie seien in Geschichten von Beltzar zitiert worden, hätten aber nicht mit ihm gesprochen.

Belzar reagierte nicht auf eine telefonische Nachricht von The Associated Press an eine als seine eigene Nummer angegebene Nummer mit der Bitte, den Vorfall zu besprechen. Belzar lehnte es ab, die Angelegenheit mit einer anderen Zeitung aus Wyoming zu besprechen, die ihn kontaktiert hatte, sagte Bacon.

Baker, der Enterprise regelmäßig liest, weil es ein Konkurrent des Raumschiffs Enterprise ist, sagte gegenüber Associated Press, dass eine Kombination aus Phrasen und Zitaten in Beltzars Geschichten seinen Verdacht geweckt habe.

Beltzars Bericht über eine Schießerei im Yellowstone-Nationalpark enthielt den folgenden Satz: „Dieser Vorfall ist eine deutliche Erinnerung an die Unvorhersehbarkeit menschlichen Verhaltens, selbst in den ruhigsten Umgebungen.“

Baker sagte, diese Zeile fühle sich wie eine Zusammenfassung seiner Geschichten an, die ein bestimmter Chatbot zu generieren scheint, und fügte am Ende eine Art „Lektion fürs Leben“ hinzu.

Eine andere Geschichte – über ein Urteil in einem Wildereifall – enthielt Zitate eines Wildtierbeamten und eines Staatsanwalts, die offenbar aus einer Pressemitteilung stammten, sagte Baker. Allerdings gebe es keine Pressemitteilung und die beteiligten Behörden wüssten nicht, woher diese Zitate stammten, sagte er.

Zwei der befragten Geschichten enthielten falsche Zitate des Gouverneurs von Wyoming, Mark Gordon, von denen seine Mitarbeiter erst erfuhren, als Baker sie kontaktierte.

„In einem Fall schrieb (Belzar) einen Artikel über eine neue OSHA-Regel, der ein völlig erfundenes Zitat des Gouverneurs enthielt“, sagte Michael Perelman, ein Sprecher des Gouverneurs, in einer E-Mail. „In einem zweiten Fall schien er einen Teil des Zitats erfunden und ihn dann mit einem Teil des Zitats kombiniert zu haben, das in einer Pressemitteilung enthalten war, in der der neue Direktor der Wild- und Fischabteilung von Wyoming bekannt gegeben wurde.“

Die offensichtlichste KI-generierte Version erschien in der Geschichte über Larry the Cable Guy.

Es ist nicht schwer, mithilfe von KI Geschichten zu erstellen. Benutzer können eine eidesstattliche Erklärung in das KI-Programm eingeben und es bitten, einen Artikel über den Fall zu schreiben, der Zitate von örtlichen Beamten enthält, sagt Alex Mahadevan, Direktor des Digital Media Literacy Project am Poynter Institute, einem bekannten Think Tank für Journalismus.

„Diese intelligenten Chatbots sind so programmiert, dass sie Ihnen eine Antwort geben, unabhängig davon, ob diese Antwort völliger Unsinn ist oder nicht“, sagte Mahadevan.

Megan Barton, Herausgeberin von Kodi Enterprise, schrieb einen Leitartikel, in dem sie KI als „die neue, fortgeschrittene Form des Plagiats“ bezeichnete, und in der Medien- und Schreibbranche ist Plagiat etwas, das jedes Medienunternehmen irgendwann einmal korrigieren musste Das ist der hässliche Teil der Arbeit. Aber ein seriöses Unternehmen ist bereit, diese Fehler zu korrigieren.

Die Zeitung hat ihre Lektion gelernt, verfügt über ein System zur Erkennung KI-generierter Geschichten und wird „längere Gespräche darüber führen, KI-generierte Geschichten nicht zu akzeptieren“, schrieb Barton.

Die Enterprise verfüge über keine KI-Richtlinie, sagte Bacon, auch weil es offensichtlich sei, dass Journalisten sie nicht zum Schreiben von Geschichten nutzen sollten. Zeiger hat Modell Auf dieser Grundlage können Nachrichtenagenturen ihre eigenen KI-Richtlinien erstellen.

Bacon plant, bis Ende der Woche eines zu installieren.

„Dies wird ein Diskussionsthema vor der Einstellung sein“, sagte er.

Hanson berichtete aus Helena, Montana.

Leave A Reply