Artikelserie "Künstliche Intelligenz" - Dritter Teil
Wie können wir „Künstlichen Intelligenz“ sinnvoll nutzen?
Willkommen zum dritten Teil der Reihe zur „Künstlichen Intelligenz“. Wir bedanken uns an der Stelle für die bisher zahlreichen Zuschriften zu dem Thema. Sie zeigen ein großes Interesse, aber auch Bedürfnis nach mehr Klarheit in dieser gesellschaftlichen Debatte. In diesem Teil soll es vor allem um die praktische Nutzung in der täglichen Arbeit gehen. Wir haben ja bereits herausgearbeitet, dass KI nicht das „Allheilmittel“ zur Erhöhung der Arbeitsproduktivität ist, als das es gepriesen wird; dass aber eine sinnvolle Nutzung trotzdem möglich und auch zu empfehlen ist.
Ganz wichtig: "KI" ist keine verlässliche Quelle für Fakten! Als Instrument der Recherche eignet sich "KI" dennoch so weit, dass man damit eine bestimmte Richtung feststellen kann, die man weiter untersuchen kann. Alle präsentierten Fakten müssen aber unbedingt mit anderen Quellen überprüft werden. Sprachmodelle haben die Eigenschaft, „Fakten“ einfach zu erfinden. Tagesschau.de berichtete erst kürzlich, dass ChatGPT etwa in jedem dritten Fall (!) Fakten dazu erfindet. In einem bekannt gewordenen Fall hat ChatGPT für einen Anwalt in den USA, der Vergleichsfälle zu seinem aktuellen suchte, komplette Gerichtsurteile, einschließlich Anwälten, Angeklagten, Richtern und sogar Aktenzeichen frei erfunden¹. Wenn man die im ersten Teil erläuterte Funktionsweise verstanden hat, wird auch schnell klar warum. ChatGPT hat kein inneres Verständnis von Gerichtsurteilen. Die einzelnen Bestandteile – Aktenzeichen, Richter, Angeklagte – kann der Algorithmus in seiner Struktur erkennen. Dass diese Teile untrennbar zusammen gehören und nicht einfach neu vermischt und wieder zusammengesetzt werden dürfen, nicht. Inzwischen wurde da nachgebessert, aber das prinzipielle Problem der „Halluzinationen“ (das ist tatsächlich der etablierte Begriff dafür) bleibt. Es reicht, wenn aufgrund ähnlicher Wahrscheinlichkeiten eine „falsche Abzweigung“ bei der Erzeugung der Antwort genommen wurde, dann geht der Rest oft in eine ganz andere Richtung.
Sprachmodelle können auch nicht die antrainierten Informationen in einen zeitlichen Zusammenhang bringen und veraltete Informationen als solche erkennen. Sie stehen zunächst gleichberechtigt neben neueren, und welche davon letztendlich in der Ausgabe zur Anwendung kommt, entscheidet sich oft rein durch das quantitative Vorkommen im Trainingsmaterial.
"KI" eignet sich aber hervorragend als „Erklärbär“ für einfache Sachverhalte, wo sich der Wahrheitsgehalt recht einfach in der Praxis überprüfen lässt. Wer sich von ChatGPT erklären lässt, wie man einen Fahrradreifen wechselt, wird recht schnell merken, dass die Empfehlung, einen Wagenheber einzusetzen, nicht sinnvoll ist. Auch bei zahlreichen Anwenderfragen rund um Computer-Technik ist das ein bewährtes Mittel, um sich z.B. erklären zu lassen wie man einen Serienbrief erstellt, bestimmte Excel-Tabellen formatiert usw. ChatGPT gibt auch fertige Office-Dokumente aus. Man kann den "KI"-Chatbot übrigens bitten, die Antwort nochmal zu überprüfen, wenn etwas nicht funktioniert. Oft kommt dann eine Entschuldigung und eine andere Antwort. Auch das ist weder „Einsicht“ noch „Wissen“.
"KI" kann auch genutzt werden, um stichpunktartige Notizen in vollständige Texte umzuwandeln. Auch wenn man Schwierigkeiten beim Formulieren hat, kann "KI" helfen richtige Texte zu formulieren z.B. für Briefe. Auch hier muss man das Erzeugte unbedingt gründlich gegenlesen, dass keine Fehler eingebaut wurden, Personen oder Orte auf einmal anders heißen usw. Bewerbungsanschreiben und ähnliches sollte man lieber nicht damit machen; die meisten Personaler erkennen inzwischen generierte Texte an bestimmten typischen Formulierungen.
Viele Chatbots sind übrigens Sprachunabhängig und beherrschen die gängigen Sprachen entsprechend ihrer Häufigkeit im Internet. Englisch liefert deshalb tendenziell etwas bessere Antworten.
Ganz schlecht ist "KI" in der Form der Sprachmodelle übrigens in Mathematik. Viel besser ist "KI" stattdessen darin, einen Algorithmus zu entwickeln, der das o.g. Problem lösen kann. Wegen der im Vergleich zu menschlicher Sprache sehr viel einfacheren Struktur und häufigen Wiederholung in Programmiersprachen sind mit "KI" tatsächlich beachtliche Fortschritte in der Software-Entwicklung möglich. Trotzdem ersetzt die "KI" die eigene Ausbildung nicht. Wer die Materie grundsätzlich versteht, mitlesen kann was da generiert wird und ggf. korrigierend eingreifen, erspart sich jede Menge mühseliger Tipperei. Wer eigentlich keine Ahnung hat und das generierte Programm nur positivistisch in der Praxis überprüft, „ob’s läuft“, baut zwangsläufig Fehler ein, die später schwer zu entdecken sind. Leider ist das eben wegen des kapitalistischen Zwangs zum Maximalprofit immer öfter der Fall. Die praktischen Folgen davon werden wir in Zukunft noch öfter erleben.
Ganz wichtig ist bei all dem, immer die Datensicherheit zu beachten. Die teure "KI"-Technik ist nur deshalb in großen Teilen kostenlos für jedermann nutzbar, weil jede Eingabe und Nutzung auch für das weitere Training verwendet wird.
Deshalb sollte man ChatGPT & Co. grundsätzlich keine privaten, vertraulichen oder anderweitig schützenswerten Informationen geben. Man kann Anfragen bewusst allgemein formulieren, also nicht „Wie erstelle ich eine Tabelle zur Auswertung unserer Spendenkampagne“, sondern „Wie erstelle ich eine Tabelle mit laufenden Einnahmen und Soll/Ist-Vergleich“, das erzielt auch bessere Ergebnisse.
Hier geht es zum Ersten Teil der Serie: Geschichte der „Künstlichen Intelligenz“ - was ist das eigentlich?
Hier geht es zum Zweiten Teil der Serie: Wie beurteilen wir die Entwicklung der „Künstlichen Intelligenz“?