Home Uncategorized ChatGPT-Glossar: 48 KI-Begriffe, die jeder kennen sollte

ChatGPT-Glossar: 48 KI-Begriffe, die jeder kennen sollte

3
0
ChatGPT-Glossar: 48 KI-Begriffe, die jeder kennen sollte

ChatGPT, Google Gemini und Apple Intelligence bringen neue KI-Funktionen auf Telefone und Computer und verändern damit die Art und Weise, wie Menschen mit Technologie interagieren. Plötzlich können Menschen sinnvolle Gespräche mit Maschinen führen, das heißt, Sie können einem KI-Chatbot eine Frage in natürlicher Sprache stellen und die Maschine antwortet mit einer neuen Antwort, genau wie ein Mensch.

Doch dieser Aspekt von KI-Chatbots ist nur ein Teil der KI-Landschaft. Sicher, habe ChatGPT hilft bei Ihren Hausaufgaben oder Midjourney machen Zeichnen Sie interessante Mechanismen nach Herkunftsland Das ist großartig, aber das Potenzial der generativen KI könnte die Wirtschaft völlig verändern. Das könnte nützlich sein Jährlich kommen der Weltwirtschaft 4,4 Billionen US-Dollar zuguteLaut dem McKinsey Global Institute wird man daher immer mehr von künstlicher Intelligenz hören.

ai-atlas-tag.png

Diese erscheinen in einer schwindelerregenden Produktpalette – eine kurze Liste umfasst Googles Gemini, Microsofts Copilot, Anthropics Claude, das KI-Suchtool Perplexity und Gadgets von Humane und Rabbit. In unserem AI Atlas-Hub können Sie unsere Rezensionen und Bewertungen dieser und anderer Produkte aus erster Hand sowie Neuigkeiten, Erklärungen und Anleitungsbeiträge lesen.

Während sich die Menschen immer mehr an die Welt gewöhnen, die mit KI in Verbindung gebracht wird, tauchen überall neue Begriffe auf. Egal, ob Sie beim Trinken schick aussehen oder bei einem Vorstellungsgespräch beeindrucken möchten, hier sind einige wichtige KI-Begriffe, die Sie kennen sollten.

Dieses Glossar wird regelmäßig aktualisiert.


Künstliche allgemeine Intelligenz oder AGI: Ein Konzept, das eine fortgeschrittenere Version der KI vorschlägt, als wir sie heute kennen, eine, die Aufgaben viel besser als Menschen erledigen und gleichzeitig ihre eigenen Fähigkeiten lehren und verbessern könnte.

Agent: Ein System oder Modell, das Entscheidungsfreiheit mit der Fähigkeit aufweist, eigenständig Maßnahmen zur Erreichung von Zielen durchzuführen. Im Kontext der KI können Agentenmodelle wie fortschrittliche autonome Autos ohne ständige Überwachung agieren. Im Gegensatz zu „agentischen“ Frameworks, die im Hintergrund agieren, stehen agentive Frameworks im Vordergrund und konzentrieren sich auf das Benutzererlebnis.

KI-Ethik: Grundsätze, die darauf abzielen, zu verhindern, dass KI Menschen Schaden zufügt. Dies wird beispielsweise dadurch erreicht, dass festgelegt wird, wie KI-Systeme Daten sammeln oder mit Voreingenommenheit umgehen sollen.

KI-Sicherheit: Ein interdisziplinäres Feld, das sich mit den langfristigen Auswirkungen der KI befasst und wie sie sich plötzlich zu Superintelligenz entwickeln kann, die feindlich gegenüber Menschen sein kann.

Algorithmus: Eine Reihe von Anweisungen, die es einem Computerprogramm ermöglichen, Daten auf eine bestimmte Art und Weise zu untersuchen und zu analysieren, beispielsweise durch das Erkennen von Mustern, um dann daraus zu lernen und seine eigenen Aufgaben zu erledigen.

Koordinierung: Passen Sie die KI an, um die gewünschten Ergebnisse besser zu erzielen. Dies kann sich auf alles beziehen, von der Moderation von Inhalten bis hin zur Aufrechterhaltung positiver menschlicher Interaktionen.

Antropomorphismus: Wenn Menschen dazu neigen, nichtmenschlichen Objekten menschenähnliche Eigenschaften zu verleihen. In der KI kann dazu der Glaube gehören, dass ein Chatbot menschlicher und bewusster ist, als er tatsächlich ist, etwa der Glaube, dass er glücklich oder traurig ist oder überhaupt ein Leben hat.

Künstliche Intelligenz oder KI: Der Einsatz von Technologie zur Simulation menschlicher Intelligenz, sowohl in Computerprogrammen als auch in der Robotik. Ein Bereich der Informatik, dessen Ziel es ist, Systeme zu entwickeln, die menschliche Aufgaben ausführen können.

autonomer Agent: KI-Modelle, die über Fähigkeiten, Programmierung und andere Tools zur Ausführung bestimmter Aufgaben verfügen. Beispielsweise ist ein selbstfahrendes Auto ein autonomer Agent, da es über sensorische Eingaben, GPS und Fahralgorithmen verfügt, um selbstständig auf der Straße zu navigieren. Stanford-Forscher haben gezeigt, dass autonome Agenten ihre eigene Kultur, Traditionen und Sprache entwickeln können.

Voreingenommenheit: Bei großen Sprachmodellen werden Fehler aus den Trainingsdaten generiert. Dies kann dazu führen, dass bestimmte Merkmale aufgrund von Stereotypen falsch bestimmten Rassen oder Gruppen zugeordnet werden.

Chatbot: Ein Programm, das mit Menschen über Text kommuniziert, der die menschliche Sprache simuliert.

GPT-Chat: Ein von OpenAI entwickelter KI-Chatbot, der die Technologie großer Sprachmodelle nutzt.

kognitives Rechnen: Ein anderer Begriff für künstliche Intelligenz.

Datenerweiterung: Vorhandene Daten mischen oder einen vielfältigeren Datensatz hinzufügen, um die KI zu trainieren.

tiefes Lernen: KI-Methoden und das Teilgebiet des maschinellen Lernens, die verschiedene Parameter verwenden, um komplexe Muster in Bildern, Tönen und Texten zu erkennen. Der Prozess ist vom menschlichen Gehirn inspiriert und nutzt künstliche neuronale Netze, um Muster zu erzeugen.

Diffusion: Eine Methode des maschinellen Lernens, die einen Teil vorhandener Daten, beispielsweise ein Foto, aufnimmt und zufälliges Rauschen hinzufügt. Diffusionsmodelle trainieren ihre Netzwerke, um diese Fotos zurückzuentwickeln oder wiederherzustellen.

aufkommendes Verhalten: Wenn ein KI-Modell unerwünschte Fähigkeiten aufweist.

End-to-End-Lernen oder E2E: Ein Deep-Learning-Prozess, bei dem ein Modell angewiesen wird, eine Aufgabe von Anfang bis Ende auszuführen. Er ist nicht darauf trainiert, Aufgaben nacheinander zu erledigen, sondern lernt aus Eingaben und erledigt sie alle auf einmal.

ethische Überlegungen: Bewusstsein für die ethischen Implikationen von KI und Fragen im Zusammenhang mit Datenschutz, Datennutzung, Fairness, Missbrauch und anderen Sicherheitsfragen.

Fluchen: Auch als schneller Start oder harter Start bekannt. Das Konzept, dass es zu spät sein könnte, die Menschheit zu retten, wenn jemand AGI baut.

Generative Adversarial Networks oder GANs: Ein generatives KI-Modell, das aus zwei neuronalen Netzen zur Generierung neuer Daten besteht: einem Generator und einem Diskriminator. Der Generator erstellt neue Inhalte und der Diskriminator prüft, ob der Inhalt original ist.

Generative KI: Technologie zur Inhaltsgenerierung, die KI nutzt, um Text, Videos, Computercode oder Bilder zu erstellen. Die KI wird mit großen Mengen an Trainingsdaten gefüttert und findet Muster, um eigene neue Antworten zu generieren, die manchmal dem Quellmaterial ähneln.

Google Gemini: Ein KI-Chatbot von Google, der ähnlich wie ChatGPT funktioniert, aber Informationen aus dem aktuellen Web bezieht, während ChatGPT bis 2021 auf Daten beschränkt ist und nicht mit dem Internet verbunden ist.

Leitplanke: Auf KI-Modelle werden Richtlinien und Einschränkungen angewendet, um sicherzustellen, dass mit Daten verantwortungsvoll umgegangen wird und dass Modelle keine störenden Inhalte erstellen.

Halluzinationen: Falsche Antwort der KI. Kann generative KI beinhalten, die falsche Antworten produziert, diese aber selbstbewusst als richtig angibt. Die Gründe sind nicht vollständig bekannt. Wenn Sie beispielsweise einen KI-Chatbot fragen: „Wann hat Leonardo da Vinci die Mona Lisa gemalt?“ Er kann mit einer falschen Aussage antworten heißt es: „Leonardo da Vinci malte die Mona Lisa im Jahr 1815“, also 300 Jahre nachdem sie tatsächlich gemalt wurde.

Abschluss: Der Prozess, den KI-Modelle verwenden, um Text, Bilder und andere Inhalte zu neuen Daten zu generieren abschließen aus ihren Trainingsdaten.

Large Language Modeling oder LLM: KI-Modelle, die auf großen Textdatenmengen trainiert werden, um Sprache zu verstehen und neue Inhalte in menschenähnlichen Sprachen zu generieren.

maschinelles Lernen oder ML: Eine Komponente der KI, die es Computern ermöglicht, ohne explizite Programmierung zu lernen und bessere Vorhersageergebnisse zu erzielen. Kombinierbar mit Trainingssets zur Erstellung neuer Inhalte.

Microsoft Bing: Eine Suchmaschine von Microsoft, die jetzt ChatGPT-fähige Technologie nutzen kann, um KI-gestützte Suchergebnisse bereitzustellen. Ähnlich wie Google Gemini bei der Verbindung mit dem Internet.

Multimodus-KI: Eine Art KI, die verschiedene Arten von Eingaben verarbeiten kann, darunter Text, Bilder, Videos und Sprache.

Verarbeitung natürlicher Sprache: Ein Zweig der KI, der maschinelles Lernen und Deep Learning nutzt, um Computern die Fähigkeit zu geben, menschliche Sprache zu verstehen, oft unter Verwendung von Lernalgorithmen, statistischen Modellen und Sprachregeln.

neuronales Netzwerk: Ein Rechenmodell, das der Struktur des menschlichen Gehirns ähnelt und Muster in Daten erkennen soll. Es besteht aus miteinander verbundenen Knoten oder Neuronen, die Muster erkennen und im Laufe der Zeit lernen können.

zu fit: Ein Fehler beim maschinellen Lernen, der zu nah an den Trainingsdaten arbeitet und möglicherweise nur bestimmte Instanzen in diesen Daten, aber keine neuen Daten identifizieren kann.

Büroklammer: Büroklammer-Maximierer-Theorie, erstellt von Philosophen Nick Bostrom von der Universität Oxford ist ein hypothetisches Szenario, in dem ein KI-System so viele buchstäbliche Büroklammern wie möglich erstellen würde. Bei seinem Ziel, die maximale Anzahl an Büroklammern zu produzieren, würde das KI-System hypothetisch alle Materialien verbrauchen oder umwandeln, um sein Ziel zu erreichen. Dazu könnte die Demontage anderer Maschinen gehören, um mehr Büroklammern herzustellen, Maschinen, die für den Menschen nützlich sein könnten. Die unbeabsichtigte Konsequenz dieses KI-Systems besteht darin, dass es das Ziel der Menschheit, Büroklammern herzustellen, zerstören könnte.

Parameter: Numerische Werte, die die Struktur und das Verhalten des LLM angeben und es ihm ermöglichen, Vorhersagen zu treffen.

Verwirrung: Der Name des KI-gestützten Chatbots und der Suchmaschine von Perplexity AI. Es verwendet große Sprachmodelle, wie sie in anderen KI-Chatbots zu finden sind, um Fragen mit neuen Antworten zu beantworten. Durch die Anbindung an das offene Internet ist es außerdem möglich, aktuelle Informationen bereitzustellen und Ergebnisse aus dem gesamten Internet abzurufen. Perplexity Pro, eine kostenpflichtige Dienststufe, ist ebenfalls verfügbar und nutzt andere Modelle, darunter GPT-4o, Claude 3 Opus, Mistral Large, das Open-Source-LlaMa 3 und sein eigenes Sonar 32k. Professionelle Benutzer können außerdem Dokumente zur Analyse hochladen, Bilder generieren und Code interpretieren.

erinnern: Vorschläge oder Fragen, die Sie in einen KI-Chatbot eingeben, um eine Antwort zu erhalten.

schnelles Netzwerk: Die Fähigkeit der KI, Informationen aus früheren Interaktionen zu nutzen, um zukünftige Reaktionen einzufärben.

stochastischer Papagei: Eine LLM-Analogie, die veranschaulicht, dass Software kein umfassenderes Verständnis der Bedeutung der Sprache oder der sie umgebenden Welt hat, unabhängig davon, wie überzeugend die Ausgabe klingt. Der Ausdruck bezieht sich darauf, wie Papageien menschliche Wörter nachahmen können, ohne die Bedeutung dahinter zu verstehen.

Stiltransfer: Die Fähigkeit, den Stil eines Bildes an den Inhalt eines anderen Bildes anzupassen, wodurch die KI die visuellen Attribute eines Bildes interpretieren und in anderen Bildern verwenden kann. Nehmen Sie zum Beispiel Rembrandts Selbstporträt und stellen Sie es im Stil Picassos nach.

Temperatur: Parameter, die steuern, wie zufällig die Ausgabe des Sprachmodells ist. Höhere Temperaturen bedeuten, dass das Modell mehr Risiken eingeht.

Text-zu-Bild-Generierung: Erstellen Sie ein Bild basierend auf einer Textbeschreibung.

Token: Kleine geschriebene Textstücke werden von KI-Sprachmodellen verarbeitet, um ihre Antworten auf Ihre Befehle zu formulieren. Ein Token entspricht im Englischen vier Zeichen oder etwa drei Vierteln eines Wortes.

Trainingsdaten: Eine Sammlung von Daten, die das Lernen eines KI-Modells unterstützen, einschließlich Text, Bildern, Code oder Daten.

Modelltransformator: Neuronale Netzwerkarchitekturen und Deep-Learning-Modelle, die den Kontext lernen, indem sie Beziehungen in Daten wie Sätzen oder Bildteilen verfolgen. Anstatt also Sätze einzeln zu analysieren, kann er sich den gesamten Satz ansehen und den Kontext verstehen.

Tes Turing: Benannt nach dem berühmten Mathematiker und Informatiker Alan Turing, testet es die Fähigkeit von Maschinen, sich wie Menschen zu verhalten. Maschinen kommen ungeschoren davon, wenn Menschen die Reaktionen der Maschine nicht von denen anderer Menschen unterscheiden können.

Schwache KI, auch schmale KI genannt: KI, die sich auf eine bestimmte Aufgabe konzentriert und nicht über ihr Fachwissen hinaus lernen kann. Die meiste KI ist heute schwache KI.

Zero-Shot-Lernen: Tests, bei denen das Modell eine Aufgabe abschließen muss, ohne dass ihm die erforderlichen Trainingsdaten bereitgestellt werden. Ein Beispiel ist das Erkennen von Löwen, wenn sie nur auf Tiger trainiert werden.

Source link