Im erstaunlichen Wettlauf um den Aufbau produktiver KI-Systeme lautet das Mantra der Technologiebranche genau das Größer Es ist besser, unabhängig vom Preis.

Jetzt beginnen Technologieunternehmen, es anzunehmen Kleinere KI-Technologien Das ist nicht so leistungsstark, kostet aber viel weniger. Für viele Kunden kann dies ein guter Kompromiss sein.

Microsoft hat am Dienstag drei kleinere Modelle künstlicher Intelligenz vorgestellt, die Teil einer Technologiefamilie sind, die das Unternehmen Phi-3 nennt. Das Unternehmen sagte, dass selbst das kleinste dieser drei Systeme ungefähr die gleiche Leistung erbrachte wie GPT-3.5, das viel größere System, das die ChatGPT-Software von OpenAI antreibt. Als die Welt staunte Wenn es Ende 2022 erscheint.

Das kleinste Modell, das Phi-3, passt in ein Smartphone und kann daher auch dann verwendet werden, wenn keine Verbindung zum Internet besteht. Es kann auf den Chiptypen laufen, die normale Computer antreiben, und nicht auf den teureren Prozessoren von Nvidia.

Da kleinere Modelle weniger Verarbeitung erfordern, können große Technologieanbieter ihren Kunden weniger für die Nutzung berechnen. Sie hoffen, dass dadurch mehr Kunden KI an Orten einsetzen können, an denen der Einsatz größerer, fortschrittlicherer Modelle zu teuer war. Obwohl Microsoft sagte, dass die Verwendung der neuen Modelle „viel günstiger“ sei als die Verwendung größerer Modelle wie GPT-4, nannte es keine Details.

Kleinere Systeme sind weniger leistungsstark, was bedeutet, dass sie möglicherweise weniger genau sind oder unhandlicher aussehen. Aber Microsoft und andere Technologieunternehmen wetten darauf, dass Kunden bereit sein werden, auf etwas Leistung zu verzichten, wenn sie sich dadurch endlich künstliche Intelligenz leisten können.

Kunden stellen sich viele Möglichkeiten vor, KI zu nutzen, aber bei den größten Systemen „sagen sie: ‚Oh, aber wissen Sie, das könnte ziemlich teuer werden‘“, sagte Eric Boyd, ein Microsoft-Manager. Kleinere Modelle seien fast per Definition günstiger in der Bereitstellung, sagte er.

Einige Kunden, etwa Ärzte oder Steuerberater, könnten die Kosten für größere, genauere KI-Systeme rechtfertigen, weil ihre Zeit so wertvoll sei, sagte Herr Boyd. Bei vielen Aufgaben ist jedoch möglicherweise nicht das gleiche Maß an Präzision erforderlich. Online-Werbetreibende gehen beispielsweise davon aus, dass sie mithilfe von KI Anzeigen gezielter ausrichten können, sie benötigen jedoch geringere Kosten, um die Systeme regelmäßig nutzen zu können.

„Ich möchte, dass mein Arzt alles richtig macht“, sagte Herr Boyd. „In anderen Situationen, in denen ich Benutzerbewertungen online zusammenfasse, ist es kein Weltuntergang, wenn es ein wenig unangemessen ist.“

Chatbots werden unterstützt von Große Sprachmodelleoder LLMs sind mathematische Systeme, die wochenlang digitale Bücher, Wikipedia-Artikel, Nachrichtenartikel, Chat-Protokolle und andere online gesammelte Texte analysieren. Durch das Erkennen von Mustern in all diesen Texten lernen sie, selbst Texte zu erstellen.

Aber MBAs speichern viele Informationen und das Abrufen der für jedes Gespräch benötigten Informationen erfordert erhebliche Rechenleistung. Das ist teuer.

Während Technologiegiganten und Startups wie OpenAI und Anthropisch Große Technologieunternehmen haben sich auf die Verbesserung der größten KI-Systeme konzentriert und konkurrieren auch um die Entwicklung kleinerer Modelle, die niedrigere Preise bieten. Beispielsweise wurden Meta und Google veröffentlicht Kleinere Modelle im letzten Jahr.

Meta und Google haben es auch.“Open Source„Diese Vorlagen, das heißt, jeder kann sie kostenlos nutzen und ändern. Dies ist eine beliebte Möglichkeit für Unternehmen, externe Hilfe zur Verbesserung ihrer Software zu erhalten und die größere Industrie zur Nutzung ihrer Technologie zu ermutigen. Microsoft stellt auch die neuen Phi-3-Modelle als Open Source zur Verfügung.

(New York Times Reichen Sie eine Klage dagegen ein OpenAI und Microsoft im Dezember wegen Urheberrechtsverletzung an Nachrichteninhalten im Zusammenhang mit KI-Systemen.)

Nachdem OpenAI ChatGPT veröffentlicht hatte, sagte Sam Altman, CEO des Unternehmens, dass die Kosten pro Gespräch „Einstellige Cent-Beträge„– ein enormer Kostenfaktor, wenn man bedenkt, was beliebte Webdienste wie Wikipedia für Bruchteile eines Cents anbieten.“

Nun sagen die Forscher, dass ihre kleineren Modelle zumindest annähernd an die Leistung führender Chatbots wie ChatGPT und Google Gemini herankommen können. Im Wesentlichen können die Systeme weiterhin große Datenmengen analysieren, die von ihnen identifizierten Muster jedoch in einem kleineren Paket speichern, das mit weniger Rechenleistung bedient werden kann.

Der Bau dieser Modelle ist ein Kompromiss zwischen Leistung und Größe. Sebastian Bobeck, A Forscher und Vizepräsident von MicrosoftEr sagte, das Unternehmen habe seine neuen, kleineren Modelle entwickelt, indem es die in sie eingespeisten Daten optimiert habe und daran gearbeitet habe, sicherzustellen, dass die Modelle aus hochwertigem Text gelernt hätten.

Ein Teil dieses Textes wurde von der künstlichen Intelligenz selbst generiert, die bekannt ist als „Synthetische Daten.Anschließend arbeiteten menschliche Kuratoren daran, den schärfsten Text vom Rest zu trennen.

Microsoft hat drei verschiedene kleine Modelle gebaut: den Phi-3-mini, den Phi-3-small und den Phi-3-medium. Der Phi-3-mini, der am Dienstag erhältlich sein wird, ist der kleinste (und günstigste), aber leistungsschwächste. Phi-3 Medium, das noch nicht verfügbar ist, ist das leistungsstärkste, aber größte und teuerste.

Wenn die Systeme so klein gemacht werden, dass sie direkt auf einem Telefon oder PC verwendet werden können, „werden sie viel schneller und um eine Größenordnung kostengünstiger“, sagte Gil Loria, Analyst bei der Investmentbank DA Davidson.



Leave A Reply