: c't-Redaktion
: c't KI-Praxis Mit Künstlicher Intelligenz produktiv arbeiten
: Heise Zeitschriften Verlag
: 9783957883551
: 1
: CHF 11.70
:
: Informatik
: German
: 164
: Wasserzeichen
: PC/MAC/eReader/Tablet
: ePUB
Das Sonderheft c't KI-Praxis liefert Tests und praktische Anleitungen für die Arbeit mit Chatbots. Es erklärt, warum Sprachmodelle Fehler machen und wie man sie verringern kann. Dies hilft nicht nur, wenn man Fragen und Aufträge an einen der online angebotenen Chatbots übermittelt. Will oder darf man beispielsweise aus Datenschutzgründen die Cloud-Dienste nicht nutzen, kann man sich auch eine eigene Sprach-KI einrichten. Die c't-Redaktion erklärt, wo man ein geeignetes Sprachmodell findet, wie man es lokal hostet und bei welchen Dienstleistern man es hosten kann. Dass generative KI immer produktiver einsetzbar ist, birgt Chancen und Risiken zugleich. Um Chancen zu nutzen und Risiken zu minimieren, helfen geeignete Spielregeln für den KI-Einsatz in Schule, Ausbildung und Beruf.

c't magazin für computertechnik ist der meistabonnierte Computertitel Europas. Seit über 40 Jahren zeichnet sich c't durch thematisch vielfältigen, fachlich fundierten und redaktionell unabhängigen Journalismus aus. Über 80 Experten berichten regelmäßig über aktuelle Entwicklungen im IT-Bereich und nehmen im c't-Testlabor die neueste Hard- und Software unter die Lupe. Online bietet c't Computerprofis und anspruchsvollen Anwendern unter anderem eine umfassende Sammlung von Tipps und Tricks für den PC-Einsatz, Leseproben aus Magazinartikeln, umfassende Serviceleistungen sowie Informationen rund um das Magazin (z. B. Recherche im Heftarchiv). Abgerundet wird auch dieses Angebot durch ein eigenes Forum.

Freie Sprach-KIs ohne Cloud betreiben


LLaMA, Alpaca, Vicuna: In Netz finden sich haufenweise mittelgroße Sprachmodelle mitsamt allen Parametern. Die laufen auch auf dem eigenen Rechner.

VonPina Merkert

Bild: Moritz Reichartz

Nimm mir Arbeit ab, KI: „Formuliere mir eine freundliche Mail an den Support mit einer Nachfrage, wo mein Paket mit Gleitcreme abgeblieben ist.“ – Manche Aufgaben an KI-Sprachmodelle will man nicht so gern an einen Clouddienst schicken. Firmen können sogar rechtliche Probleme bekommen, wenn sie Text mit personenbezogenen Daten außerhalb der EU von KI lesen lassen. Deswegen muss man aber nicht auf Sprach-KI verzichten. Open-Source-Modelle, also neuronale Netze, deren Parameter öffentlich verfügbar sind, laufen auch ganz ohne Cloud auf der eigenen Hardware.

Die Qualität der Antworten kommt dabei durchaus an die des Sprachmodells GPT-3.5 des kostenlosen ChatGPT heran. Zusätzlich bieten die freien Modelle viel mehr Möglichkeiten, weil es Dutzende auf verschiedene Datensätze feingetunte, also nachtrainierte Varianten gibt und weil man volle Kontrolle über den Prompt hat. Mit einem eigenen Prompt kann man einem KI-Chatpartner ruckzuck zynische oder lustige Antworten entlocken, verschiedene Sprachstile vorgeben oder aktuelle Kontextinformationen, beispielweise aus einer eigenen-Datenbank vor dem Chat mitgeben.

Live on the bleeding edge

von Pina Merkert

Es ist toll, dass man inzwischen mit gigantisch großen Sprachmodellen auf dem eigenen Rechner herumspielen kann. Die Modelle sind aber alle noch sehr neu und die Software, um sie auszuführen, ist ständigen Änderungen unterworfen. Das GGML-Format hat dieses Jahr schon drei Versionen durchlaufen und es kann einem leicht passieren, dass das Datenformat eines heruntergeladenen Modells nun doch wieder nicht zur neuesten Version von llama.cpp passt.

Diese Software öffnet sich gerade durch die Umstellung auf die GGML-Variante GGUF für andere Architekturen (vor allem, um gleichzeitig LLaMA-1 und -2 zu unterstützen). Für die nicht auf LLaMA aufbauenden Falcon-Modelle gibt es aber längst einen Fork namens ggllm.cpp, bei dem nicht klar ist, ob er durch GGUF obsolet wird.

Das sind nur Beispiele für die Schnelllebigkeit der gesamten Software-Infrastruktur. Dass Bibliotheken mit neuen CUDA-Versionen funktionieren, ist ein Stück weit Glückssache. Neue Torch-Versionen können Einfluss auf Bibliotheken haben, die Torch gar nicht benutzen. Wrapper und Helper werden oft für eine bestimmte Version geschrieben und dann nicht weiter gepflegt, weil Entwickler auf ein ander