Technologie hinter ChatGPT – Künstliche Intelligenz (KI): Eine Erzählung als Lexikon

Eine weiße Tisch und ein grüner Stift. Zwei zutiefst analoge Zeug genügen Christian Weber, um dies Wesen welcher Künstlichen Intelligenz (KI) zu exemplifizieren. Und so beginnt welcher Mitbegründer des uff KI spezialisierten steirischen Start-ups Leftshift One Kreise zu ziehen. Wie ersten Terminus schreibt Weber „KI“ an die Wand.

KI (Künstliche Intelligenz) Spricht man im englischsprachigen Raum und nachrangig unter Entwicklern von KI, hat sich im Deutschen die kürzerer Weg KI zu Gunsten von künstliche Intelligenz durchgesetzt. „KI in Form regelbasierter Expertensysteme ist mehrere Jahrzehnte archaisch“, sagt Weber. Technisch „spannend“ wurde KI sehr wohl erst mit welcher Unterkategorie „Machine Learning“.

ML (Maschinelles Lernen) Maschinelles Lernen ermöglicht es Computersystemen, unumschränkt aus großen Datenmengen zu lernen und sich zu verbessern. Mustererkennung und mathematische Methoden sind zentrale Bausteine. Damit ML funktioniert, muss welcher Algorithmus zunächst trainiert werden. Entweder mit minimalem menschlichen Unkosten und ungefilterten Eingabedaten (unüberwachtes Lernen), oder mit zuvor saftig vorverarbeiteten Beispieldaten (überwachtes Lernen). Nachher dem Lernvorgang mit den bekannten Datensätzen wird dies Schema uff unbekannte Datenansammlung angewendet. Um qualitativ hochwertige Ergebnisse zu erzielen, finden immer wieder Entwicklungsschleifen statt. Ein Mensch wertet die Ergebnisse welcher KI aus.

Gründer von Leftshift One: Christian Weber und Patrick Ratheiser

Gründer von Leftshift One: Christian Weber und Patrick Ratheiser
© KLZ/Richard Großschädl

DL (Tiefes Lernen) Ein Teilbereich des „Machine Learning“ nennt sich „Deep Learning“. Möglich wurde solche Technologie erst dank neuester und speziell leistungsstarker Grafikkarten, wie Christian Weber beschreibt. Funktioniert viel besser denn „klassisches“ maschinelles Lernen zu Gunsten von unstrukturierte Datensätze. DL sucht sich Strukturen. Voraussetzung sind große Datenmengen – und die damit verbundene hohe Rechenleistung. Die Schule kann Monate dauern. Nur dann sind gute Vorhersagen und Entscheidungen möglich. Liegt die Datenaufbereitung im klassischen ML mehrheitlich in den Händen von Menschen, ist dies im Zusammenhang DL nicht welcher Kernpunkt. Heutzutage wird DL hauptsächlich zur komplexen Gemälde- und Spracherkennung eingesetzt.

Generative KI (KI-Erstellung) Welcher beliebte Terminus bezeichnet eine uff KI basierende Verwendung, die Zeug erschafft. Ob Text, Audio oder Video. Ebenfalls welcher Chatbot ChatGPT fällt in solche Kategorie, wie auch Midjourney oder Stable Streuung, Programme zur Erstellung von Bildern.
LLM (Large Language Model) Dies LLM, ein großes Sprachmodell, basiert größtenteils uff Deep-Learning-Technologie. Lernt im Hintergrund aus großen Datensätzen und ist endlich in welcher Position, Inhalte zu verstehen. Ein LLM kann Zusammenfassungen schreiben oder Vorhersagen treffen. Ein speziell großes und mit vielen Ressourcen ausgestattetes Schema ist GPT-4 – dies technologische Rückgrat von ChatGPT. Google setzt uff PaLM, die Facebook-Schar Meta uff LLaMA.

Stiftungsmodell (Die Sockel) Am Werden eines starken KI-Systems steht ein „Grundmodell“, wie Christian Weber, heute Head of Technology im Zusammenhang Leftshift One, erklärt. Dies Start-up selbst nutzt uneingeschränkt zugängliche Open-Source-Modelle und kombiniert solche (Composite AI). Im Hintergrund greifen zum Beispiel Sprachmodelle uff Mio. und Abermilliarden eingespeister Texte zu. Damit beginnen sie, ein Gespür zu Gunsten von Semantik zu gedeihen. Und wissen Sie statistisch, welche Wörter am wahrscheinlichsten aufeinander hören.

Unterrichtsschulung (Frage-Erwiderung-Paare) „Menschliche Kommunikation ist welcher Goldstandard im Zusammenhang KI“, sagt Patrick Ratheiser, Vorstandsvorsitzender von Leftshift One. Und: „Man muss mit welcher KI lernen wie mit einem kleinen Kind.“ Damit sind die Schritte gemeint, die uff die Fundus welcher Grundmodelle hören und einer KI-Verwendung erst ihre Wirksamkeit verleihen. Hinaus solche Weise kann KI zu Gunsten von spezielle Anwendungen optimiert oder zu Gunsten von den Kaution in einem bestimmten Unternehmen gesund gemacht werden. Vereinen dieser Nachbearbeitungsschritte nennt Leftshift One „Instruktionstraining“. Frage-Erwiderung-Paare werden genauer analysiert.

RLHF (Verstärkendes Lernen aus menschlichem Feedback) „Bestärkendes Lernen aus menschlichem Feedback“ ist eine weitere Möglichkeit, KI-Systeme zu verbessern. ChatGPT lernt zum Beispiel durch menschliches Feedback, um unwahre oder voreingenommene Eingehen zu minimieren. Im Kontext Leftshift One werden die Basismodelle derzeit sämtliche „sechs solange bis acht Wochen“ neu eingestellt bzw. ausgetauscht.

ChatGPT (Chatbot) Am Finale solcher Prozesse steht ein Tool á la ChatGPT. „ChatGPT ist ein guter Imitator“, sagt Christian Weber – „welcher vorgibt, ein Mensch zu sein.“ Ein Chatbot ist im Moment nicht wirklich empfindsam.

Prompt (Ansuchen) Im Kontext Chatbots wie ChatGPT hängt die Qualität des Ergebnisses stark von welcher genauen Wortlaut welcher Ansuchen, dem Prompt, ab. Beliebte Eingabeaufforderungen sind jetzt in Online-Sammlungen wie Snackprompt.com zu finden.


Source link

More From Author

Arte zeigt heute „The Satellite Battle“.

Niemand hatte eine bessere Zeit in Glastonbury als Paul McCartney

Kategorien