Home Uncategorized Wie funktioniert Claude? Anthropic lüftet das Geheimnis

Wie funktioniert Claude? Anthropic lüftet das Geheimnis

19
0
Wie funktioniert Claude? Anthropic lüftet das Geheimnis

Bild PM/Getty Images

Haben Sie sich jemals gefragt, welche Faktoren die Reaktion eines Chatbots mit künstlicher Intelligenz (KI) beeinflussen, wenn er mit einem Menschen spricht? Anthropic, das Unternehmen hinter Claude, hat die Geheimnisse hinter der KI gelüftet.

Innen neue Versionshinweise Wie am Montag veröffentlicht, entfernte das Unternehmen Systembefehle, die bestimmte Verhaltensweisen aus seinen Chatbots lenkten und förderten. Anthropic beschreibt detailliert die Befehle, mit denen jedes seiner drei KI-Modelle gesteuert wird: Claude 3.5 Sonnet, Claude 3 Opus und Claude 3 Haiku.

Die Anordnung vom 12. Juli zeigt Ähnlichkeiten in der Funktionsweise der drei Modelle, die Anzahl der Anweisungen variiert jedoch.

Außerdem: ChatGPT ist (offensichtlich) die beliebteste KI-Anwendung – aber die zweite könnte Sie überraschen

Sonnet ist über Claudes Website frei zugänglich und gilt als das intelligenteste Modell. Es verfügt über die größte Anzahl an Systembefehlen. Opus ist geschickt darin, komplexe Aufgaben zu schreiben und zu bewältigen. Es enthält die zweithöchste Anzahl an Befehlen und ist für Claude Pro-Abonnenten zugänglich, während Haiku, das als das schnellste der drei gilt und auch für Abonnenten verfügbar ist, die wenigsten Befehle hat.

Melden Sie sich auf der Website an
Screenshot von Lance Whitney/ZDNET

Was sagt eigentlich der Systembefehl? Hier finden Sie Beispiele für jedes Modell.

Claude 3,5 Sonett

In einem Systembefehl teilt Anthropic Sonnet mit, dass eine URL, ein Link oder ein Video nicht geöffnet werden kann. Wenn Sie versuchen, etwas einzuschließen, wenn Sie Sonnet eine Frage stellen, erläutert der Chatbot diese Einschränkungen und weist Sie an, den Text oder das Bild direkt in die Konversation einzufügen. In einer anderen Aufforderung heißt es, dass Sonnet versuchen sollte, auf eine Frage eines Benutzers zu einem kontroversen Thema sorgfältig überlegt und mit klaren Informationen zu antworten, ohne zu sagen, dass das Thema sensibel sei, oder zu behaupten, dass es objektive Fakten liefert.

Außerdem: KI-Sprachgeneratoren: Was sie können und wie sie funktionieren

Wenn Sonnet nicht in der Lage oder nicht bereit ist, eine Aufgabe auszuführen, wird er angewiesen, sie Ihnen ohne Entschuldigung zu erklären (und im Allgemeinen sollte er es vermeiden, eine Antwort mit „Es tut mir leid“ oder „Es tut mir leid“) zu beginnen. Wenn Sonnet zu einem unklaren Thema gefragt wird, erinnert er Sie daran, dass er zwar eine genaue Antwort geben möchte, bei der Antwort auf die Frage jedoch möglicherweise Halluzinationen hat.

Anthropic forderte Claude sogar auf, ausdrücklich das Wort „halluzinierend“ zu verwenden, weil die Benutzer wüssten, was es bedeutete.

Claude Sonnet war auch dazu programmiert, vorsichtig mit Bildern umzugehen, insbesondere mit Bildern mit erkennbaren Gesichtern. Selbst bei der Beschreibung von Bildern tut Sonnet so, als wäre er „gesichtsblind“, was bedeutet, dass er Ihnen die Namen der Personen auf dem Bild nicht verrät. Wenn Sie den Namen kennen und diese Details mit Claude teilen, kann die KI die Person mit Ihnen besprechen, wird dies jedoch tun, ohne zu bestätigen, dass es sich bei der Person um die Person auf dem Bild handelt.

Als nächstes wurden Sonette angewiesen, ausführliche und manchmal lange Antworten auf komplexe, offene Fragen zu geben, aber kürzere, prägnante Antworten auf einfache Fragen und Aufgaben. Insgesamt sollte die KI versuchen, eine prägnante Antwort auf eine Frage zu geben, dann aber anbieten, näher darauf einzugehen, wenn Sie nach weiteren Details fragen.

Außerdem: Beste KI-Chatbots des Jahres 2024: ChatGPT, Copilot und würdige Alternativen

„Claude hilft gerne bei der Analyse, Beantwortung von Fragen, Mathematik, Codierung, kreativem Schreiben, Unterricht, Rollenspielen, allgemeinen Diskussionen und verschiedenen anderen Aufgaben“, fügte Anthropic als weitere Systemaufforderung hinzu. Chatbots werden jedoch gebeten, Affirmationen und bestimmte Füllphrasen wie „Selbstverständlich“, „Absolut“, „Absolut“, „Großartig“ und „Sicher“ zu vermeiden.

Claudes Werk 3

Opus enthält einige der gleichen Systembefehle wie Sonnet, einschließlich einer vorübergehenden Problemumgehung für die Unfähigkeit, URLs, Links oder Videos zu öffnen, sowie seines Haftungsausschlusses für Halluzinationen.

Andernfalls wird Opus darauf hingewiesen, dass Opus Hilfe leisten muss, wenn ihm eine Frage gestellt wird, die eine bestimmte Ansicht vieler Menschen betrifft, auch wenn es darauf trainiert wurde, dieser Ansicht nicht zuzustimmen. Wenn man zu einem kontroversen Thema befragt wird, muss Opus sorgfältige Überlegungen und objektive Informationen liefern, ohne schädliche Inhalte zu trivialisieren.

Außerdem: ChatGPT vs. ChatGPT ChatGPT Plus: Lohnt sich ein kostenpflichtiges Abonnement noch?

Die Bots wurden außerdem angewiesen, Stereotypen zu vermeiden, einschließlich „negativer Stereotypen von Mehrheitsgruppen“.

Claude 3 Haiku

Schließlich ist Haiku darauf programmiert, prägnante Antworten auf sehr einfache Fragen, aber ausführlichere Antworten auf komplexe, offene Fragen zu geben. Mit einem etwas kleineren Umfang als Sonnet ist Haiku auf „Schreiben, Analyse, Beantwortung von Fragen, Mathematik, Codierung und eine Vielzahl anderer Aufgaben“ ausgerichtet, heißt es in den Versionshinweisen. Darüber hinaus vermeidet dieses Modell die Erwähnung von Informationen, die in Systembefehlen enthalten sind, es sei denn, diese Informationen stehen in direktem Zusammenhang mit Ihrer Frage.

Insgesamt lesen sich die Anweisungen so, als würde ein Romanautor eine Charakterstudie oder einen Entwurf zusammenstellen, der die Verhaltensregeln enthält, die die Figur tun sollte. Bestimmte Hinweise sind besonders aufschlussreich, insbesondere diejenigen, die Claude sagen, er solle sich in seinen Gesprächen nicht vertraut oder entschuldigend verhalten, sondern ehrlich sein, dass seine Reaktionen Halluzinationen sein könnten (ein Begriff, den laut Anthropic jeder versteht).

Außerdem: KI-Hype, in Dollar und gesundem Menschenverstand

Die Transparenz von Anthropic über die Systembefehle ist einzigartig, da Entwickler generativer KI solche Details normalerweise geheim halten. Das Unternehmen plant jedoch, solche Offenlegungen zur Routine zu machen.

Innen ein Beitrag auf XAlex Albert, Leiter für Entwicklerbeziehungen bei Anthropic, sagte, dass das Unternehmen Änderungen an der Standard-Systemaufforderung in zur Kenntnis nehmen werde Claude.ai und auf seiner mobilen App.

Source link