Eine beliebte Strategie für die Interaktion mit generativen KI-Chatbots besteht darin, mit gut ausgearbeiteten Befehlen zu beginnen. Tatsächlich ist die Befehlstechnik eine neue Fähigkeit für diejenigen, die im Zeitalter der künstlichen Intelligenz ihre Karriere vorantreiben möchten.
Es gibt jedoch eine Alternative. Für Entwickler, die über das Budget für die Entwicklung großer Sprachmodelle (LLM) und eine große Menge eigener benutzerdefinierter Daten verfügen, kann die „Feinabstimmung“ von KI-Modellen in manchen Fällen ein überlegener Ansatz sein.
Allerdings können Verbesserungen teuer sein, und die gute Nachricht ist, dass OpenAI am Dienstag angekündigt hat, dass es deutlich günstigere Erweiterungen für sein letzte Woche vorgestelltes Mini-KI-Modell GPT-4o anbietet.
Auch: OpenAI bietet GPT-4o mini an, um die Anwendungskosten zu senken
Der Verfeinerungsprozess beinhaltet die Anwendung des KI-Modells auf eine neue Trainingsrunde nach dem ersten Training des Modells. Durch das Hochladen einiger Daten und das erneute Ausführen des Trainings werden die neuronalen „Gewichte“ – oder „Parameter“ – des Modells gegenüber der Standardversion des Modells geändert.
Das Ergebnis ist ein Modell, das möglicherweise mehr Wert auf Daten in einem neuen Trainingsdatensatz legt, wenn es um Vorhersagen gebeten wird, als dies bei einem typischen Modell der Fall ist.
Ein neuronales Netzwerk wie Mini GPT-4o spiegelt eine Wahrscheinlichkeitsverteilung wider und seine Ausgabe (d. h. seine Vorhersagen) ist einfach der Text, der dem Befehl des Benutzers am wahrscheinlichsten folgt. Mit der Verfeinerung verschiebt man diese Wahrscheinlichkeitsverteilung in eine bestimmte Richtung. Infolgedessen verschiebt sich auch die Modellantwort, um die geänderte Wahrscheinlichkeitsverteilung widerzuspiegeln.
Verfeinerung ist also eine Möglichkeit, einen Befehl in die gewünschte Richtung zu lenken.
Die Kosten für die Feinabstimmung des GPT-4o mini beginnen bei 3 US-Dollar pro Million für das Training verwendeter Token. gemäß dem OpenAI-Preisführer. Das ist weniger als die Hälfte der 8 US-Dollar, die der GPT-3.5 „Turbo“ kostet.
Bis zum 23. September bietet OpenAI berechtigten Institutionen täglich zwei Millionen kostenlose Token an.
Außerdem: Millennial-Männer melden sich einem Bericht zufolge seltener für Kurse zur Verbesserung der KI-Fähigkeiten der nächsten Generation an
Es ist jedoch erwähnenswert, dass der Preis für einen fein abgestimmten GPT-4o mini doppelt so hoch ist wie der eines generischen GPT-4o mini, nämlich 30 Cent pro Million Input-Tokens für das Modell und 1,20 US-Dollar pro Million Output-Tokens – das heißt Mit den Tokens pushen Sie sie und erhalten dann Vorhersagen.
Neben dem Kostenvorteil betont OpenAI, dass die Menge an Trainingsdaten, die zur Feinabstimmung in das Modell eingespeist werden kann, viermal größer ist als bei GPT-3.5, nämlich 65.000 Token.
Beachten Sie, dass die Feinabstimmung nur für die Textfunktionen des GPT-4o mini verfügbar ist, nicht für die Bildaufgaben.
Vor der Verfeinerung lohnt es sich, andere Optionen in Betracht zu ziehen. Die weitere Verfeinerung von Eingabeaufforderungen ist immer noch eine gute Strategie, insbesondere weil verfeinerte Eingabeaufforderungen laut OpenAI-Dokumentation auch nach der Verfeinerung des Modells hilfreich sein können Verbesserungsdokumentation.
Ein weiterer Ansatz, um mit LLM passendere Ergebnisse zu erhalten, ist die Verwendung von „Retrieval-Augmented Generation (RAG)“, einem immer beliebter werdenden technischen Ansatz, bei dem Modelle Aufrufe an eine externe Quelle der Wahrheit, beispielsweise eine Datenbank, tätigen.
Während RAG jede Abfrage in gewisser Weise komplizierter machen kann, indem es verlangt, dass das Modell Aufrufe an die Datenbank durchführt, bietet es auch Vorteile. Bei der Feinabstimmung eines Modells kann es passieren, dass es vergisst, was es in der anfänglichen Trainingsphase erworben hat. Mit anderen Worten: Eine Änderung der Modellparameter kann zu einer Regression hinsichtlich der umfassenderen und allgemeineren Funktionalität des Modells führen.
Auch: Machen Sie Platz für RAG: Wie sich die Machtverhältnisse der Generation AI verschieben
Eine dritte Alternative neben Rapid Engineering und RAG – die jedoch eng mit RAG verwandt ist – sind Funktionsaufrufe. In solchen Fällen können in Befehlen sehr spezifische Fragen und Anforderungen für ganz bestimmte Antwortformen enthalten sein, die kombiniert und als Funktionsaufrufe an externe Anwendungen gesendet werden können. OpenAI und andere nennen es Funktionsaufruf, Werkzeugnutzung und „Agenten-KI“.
Alle diese Ansätze werden ihren Platz finden, aber zumindest werden Verfeinerungsexperimente mit der neuen Preisgestaltung von OpenAI etwas günstiger.
Beachten Sie, dass Google über sein Vertex AI-Programm auch Verbesserungen an seinen Modellen anbietet und viele andere Modellanbieter dasselbe tun.
Die Neuschulung von Modellen wird wahrscheinlich immer häufiger vorkommen und bei ausreichender Rechenleistung eines Tages möglicherweise sogar auf Mobilgeräten implementiert werden.