OpenAI ermöglicht es Organisationen, das GPT-3.5-Modell für bestimmte Aufgaben wiederzuverwenden

ChatGPT ist ein Alleskönner unter den Chatbots. Es wird jedoch nicht empfohlen, das OpenAI-Tool für den professionellen Einsatz zu verwenden. Die Antworten des Chatbots sind oft zu vage oder einfach falsch. Andere generative KI-Lösungen lassen sich leichter entschärfen, aber auch das GPT-3.5-Modell lässt sich inzwischen für unzählige Zwecke recyceln.

Laut OpenAI fragen Entwickler und Unternehmen seit langem nach einer anpassbaren Version von GPT-3.5 Turbo, das als das effizienteste LLM in der Branche gilt. Eine Variante von GPT-3.5 führt die kostenlose Version von ChatGPT aus, während die kostenpflichtige Variante mit GPT-4 aktualisiert wird. Es hat sich oft gezeigt, dass auch ältere, kleinere LLMs mit dem richtigen Datensatz immer noch erstaunliche Ergebnisse erzielen können.

Gut zu versenden

GPT-3.5 Turbo kann jetzt auf Unternehmensdaten trainiert werden, da GPT-3 zuvor für dieselbe Anwendung verfügbar war. Durch die Bereitstellung einzigartiger Daten kann das Modell besser auf die spezifischen Wünsche des Kundenunternehmens eingehen. Allerdings „weiß“ ein GPT-3.5 Turbo-Modell bereits viel: Genau wie ChatGPT verfügt es bereits über Wissen bis September 2021.

Laut OpenAI soll GPT-3.5 Turbo GPT-4 in mancher Hinsicht übertreffen. Es kann zu beeindruckenden Ergebnissen führen und die Möglichkeit, diese noch weiter zu optimieren, ist verlockend. OpenAI verspricht, dass Organisationen das Modell leicht steuern können. Beispielsweise wird festgelegt, dass eine Antwort nur auf Deutsch möglich ist. Darüber hinaus kann eine zusätzliche Konsistenz bei der Darstellung von Text oder Programmiercode erreicht werden. Es ist auch möglich, den Ton des Chatbots festzulegen, damit er zum Stil des jeweiligen Unternehmens passt.

Die Anzahl der Token wird auf 4.000 verdoppelt: Das bedeutet, wie viele Textteile ein Chatbot verarbeiten kann. Es kann ein einzelner Buchstabe, ein Teil eines Wortes oder ein ganzes Wort sein. Auch wenn mehr Token möglich sind, ist es für Unternehmen günstiger, diese so weit wie möglich zu minimieren. Aus diesem Grund bietet OpenAI jetzt auch die Möglichkeit, einen LLM vorab zu instruieren, um den Bedarf an Inhalten in der Eingabeaufforderung zu minimieren. Beispielsweise weiß der Chatbot immer entsprechend dem Hausstil des Unternehmens zu antworten, sodass er es nicht jedes Mal sagen muss. Laut OpenAI kann dies dazu führen, dass die Eingabeaufforderungen bis zu 90 % kleiner ausfallen als zuvor. Später in diesem Jahr wird es ein weiteres GPT-3.5 Turbo-Modell mit 16.000 Chips geben.

Eigene Daten, aber Vertraulichkeit?

OpenAI hat Anfang des Jahres eine Reihe datenschutzorientierter Verbesserungen eingeführt. Beispielsweise könnten Unternehmen bereits seit einiger Zeit darauf hingewiesen haben, dass ihre Daten nicht für das fortlaufende Training von OpenAI-Modellen verwendet werden können. Dennoch sind GPT-Modelle nur über eine öffentliche Cloud zugänglich, sodass Unternehmensdaten ihre eigene kommerzielle Umgebung verlassen, auch wenn sie nicht auf der Straße landen. VMware sagte diese Woche, dass dieser Ansatz definitiv Nachteile hat: Es ist unklar, worauf das Modell bereits im Voraus trainiert wurde, während es immer noch Aspekte gibt, die nicht angepasst werden können. als Dritter.

Trick: VMware und Nvidia starten Private AI Foundation: Bereitstellung von KI mit sicheren Daten

Dennoch ist die OpenAI-Technologie ein sehr beeindruckendes Beispiel für generative KI. Aus diesem Grund werden Unternehmen, denen der Datenschutz möglicherweise nicht so wichtig ist, nur die Effizienz und das Preismodell berücksichtigen. Diesbezüglich berechnet OpenAI die Gebühren in Dollar: GPT 3.5 kostet 0,8 Cent pro 1.000 Token für das Training und 1,2 Cent pro 1.000 Token für Chatbot-Ein- und -Ausgaben.

Die alten GPT-3-Modelle werden übrigens aus dem bestehenden Dienst verschwinden. Dazu gehören beispielsweise Davinci-002 und Babbage-002, die mehrere Monate in der Luft bleiben werden. Dies weist auf eine weitere Gefahr von KI-Varianten in der Public Cloud hin: Wer ein LLM erstellen und in seinem eigenen Tempo ersetzen möchte, erhält am Ende immer ein Modell, das er selbst steuert.

Lesen Sie auch: GPT-4 moderiert Inhalte schneller und besser als unerfahrene Moderatoren

Poldie Hall

„Extremer Zombie-Guru. Begeisterter Web-Liebhaber. Leidenschaftlicher Bierfanatiker. Subtil charmanter Organisator. Typischer Kaffee-Ninja.“

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert