Artikelserie "Künstliche Intelligenz" - Erster Teil
Geschichte der „Künstlichen Intelligenz“ - was ist das eigentlich?
In der öffentlichen Debatte hört man mehr Mythen als Wissen, wenn es um die sogenannte "Künstliche Intelligenz" geht. Wir werden in lockerer Folge weitere Artikel dieser Serie veröffentlichen, die einen Beitrag zum Wissen über die Technologie leisten will. Schon der Begriff „Künstliche Intelligenz“ ist zwar in aller Munde, ist aber unwissenschaftlich. Intelligenz ist an Bewusstsein gebunden, das eine Maschine nicht hat und nicht haben kann.
Bereits 2022 analysierte der „Revolutionäre Weg“: „Der übermütige Begriff »Künstliche Intelligenz« (KI) fasst Computertechniken zusammen, mit denen Elemente und Prozesse logischen Denkens automatisiert werden, die über einfache kausale Beziehungen hinausgehen. Sie können auf empirischem Niveau für begrenzte Aufgabenfelder Lösungen finden und sich innerhalb der von Menschen vorgegebenen Regeln selbst optimieren. Aus dieser Fähigkeit entwarfen viele Computerspezialisten ein Traumbild, wonach KI künftig menschliche Intelligenz ersetzen oder gar übertreffen könne. Bei aller Schnelligkeit und der unglaublichen Menge verarbeiteter Daten ist das keiner KI möglich. Solche Rechenkapazitäten mit dialektischem Denken gleichzusetzen, ist der blanke Positivismus. Er leugnet letztlich die Notwendigkeit und Möglichkeit schöpferischer Erkenntnisse der Menschen über Natur, Gesellschaft und menschliches Denken. (Revolutionärer Weg 37/2022, „Die Krise der bürgerlichen Ideologie und des Opportunismus“, S. 90f)“
Wenn heute von „künstlicher Intelligenz“ die Rede ist, sind damit meist große Sprachmodelle (Large Language Models, LLMs) wie ChatGPT oder DeepSeek gemeint. Große Sprachmodelle sind vereinfacht gesagt nichts anderes als eine stark erweiterte Form der Auto-Vervollständigung, die wir vom Smartphone schon länger kennen, die aber nicht nur den nächsten Wortvorschlag macht, sondern ganze Sätze, Geschichten und Lösungen schreibt.
Bevor das Modell etwas kann, muss es erstmal lernen. Und zwar gewaltig.
- Was passiert: Die Entwickler füttern das Modell mit einer gigantischen Menge Text aus dem Internet (Bücher, Artikel, Websites, etc.). Das sind Abermilliarden von Sätzen.
- Die Lernaufgabe: Das Modell bekommt unvollständige Sätze gezeigt. Seine Aufgabe ist es, immer das nächste Wort vorherzusagen.
- Beispiel: Der Input ist "Die Katze sitzt auf der ..."
- Das Modell muss raten: Ist es "Matte", "Couch", "Treppe"?
- Feedback: Nach jedem Versuch bekommt es gesagt, welches Wort tatsächlich kam. So lernt es langsam, welche Wörter in welchem Zusammenhang wahrscheinlich sind. Es erkennt Muster in Grammatik, Faktenwissen, Stil usw.
Durch diese simple Übung, trillionenfach wiederholt, bildet das Modell ein unfassbar komplexes statistisches Modell unserer Sprache und Welt. Es „weiß“, dass nach "Deutschland" wahrscheinlich "liegt in" kommt, und dass "Queen" oft mit "Elisabeth" assoziiert wird. Es hat aber kein "Wissen" wie eine Datenbank, sondern kennt nur Wahrscheinlichkeiten. Entscheidend verbessert wurde diese Technik durch die Entwicklung des sog. Transformers, eines Algorithmus, mit dem Sätze so zerlegt werden können, dass auch weit entfernt voneinander stehende Begriffe als „zusammenhängend“ abgespeichert werden können. Zu guter Letzt werden Sprachmodelle in der Regel von Menschenhand optimiert auf einen bestimmten Sprachstil durch erneutes Feedback „guter“ und „schlechter“ Antworten. Die "Intelligenz" ist also im Kern ein Meisterwerk der Mustererkennung und Wahrscheinlichkeitsberechnung, nicht des Denkens oder Verstehens wie bei einem Menschen. Es imitiert unser Wissen und unsere Sprache so gut, dass es sich wie ein Gespräch mit einem wissenden Gegenüber anfühlt.
Die Grundlagen dieses „maschinellen Lernens“ gehen bis in die 1950er Jahre zurück. Bereits damals gab es Überlegungen, wie man das machen könnte; es gab jedoch bei weitem nicht die Hardware, die dafür nötig gewesen wäre. 1966 entwickelte Joseph Weizenbaum das experimentelle Computerprogramm "Eliza", das einen Psychotherapeuten simulierte und mehr oder weniger sinnvolle Antworten auf menschliche Fragen gab. Erst in den 1990er Jahren fand die Technik zunehmend praktische Anwendung für die Analyse großer Datenmengen, in den 200er Jahren entstehen erste maschinelle Übersetzer u.a. auf Grundlage dieser Technik. 2017 stellt Google den oben erwähnten Transformer vor, der den Rechenaufwand bei der Analyse und Verarbeitung großer Textmengen erheblich reduziert. Trotzdem bleibt die Anwendung vorerst auf relativ spezialisierte Gebiete beschränkt. Für die Konstruktion eines universell einsetzbaren Modells wäre es immer noch notwendig, irre Summen an Geld für irrsinnig viel Hardware auszugeben.
An dieser Stelle kommt entscheidend die Entwicklung des Kapitalismus ins Spiel. Die fortschreitende Überakkumulation des Kapitals bei den internationalen Übermonopolen, die Suche nach immer neuen Anlagemöglichkeiten und der wachsende Konkurrenzdruck durch die Entstehung neuimperialistischer Länder führen dazu, dass Investoren und Übermonopole wie Amazon und Google tatsächlich bereit und in der Lage sind, irre Summen an Geld für irrsinnig viel Hardware auszugeben. Nochmal aus dem „Revolutionären Weg“: „Da die Imperialisten in ihrem Konkurrenzkampf große Hoffnungen auf die Potenziale der KI zur Profitmaximierung setzen, rücken sie diese heute verstärkt in den Fokus der gesellschaftlichen Debatte und malen ihre Potenziale in den schillerndsten Farben. (ebenda, S. 91)“
Um es mal in ein paar Zahlen nachvollziehbar zu machen: das chinesische Sprachmodell DeepSeek hat 671 Milliarden „Parameter“, die die Beziehung zwischen erkannten Wörtern und Begriffen beeinflussen. Das komplette Modell hat eine Größe in komprimierter Form von etwa 450GB, komplett in den Speicher geladen benötigt es etwa 1.400GB (Der Rechner oder das Smartphone, an dem du das hier liest, hat wahrscheinlich irgendwo zwischen 4 und 16GB Speicher). Für jedes nächste Element in der Antwort muss ein großer Teil dieser 1.400GB durchlaufen werden, etwa 30-60 mal pro Sekunde. Und das für eine Anfrage. DeepSeek verarbeitet grob geschätzt im Schnitt 30.000 Anfragen pro Minute. Man kann also davon ausgehen, dass DeepSeek von Maschinen mit insgesamt mehreren Millionen GB Speicher und entsprechender Rechengeschwindigkeit angetrieben wird. Man weiß, dass DeepSeek auf Nvidia H800 Beschleunigern läuft, von denen einer neu etwa 69.000 Dollar kostete (inzwischen auf eBay für schlappe 30.000€ zu haben). Um die oben genannte Leistung zu erreichen, braucht man etwa 20.000 Stück davon, macht zusammen 1,38 Mrd Dollar nur für die eigentliche Hardware. Alles drumherum – Server, Stromversorgung, Kühlung, Infrastruktur – sind derartige Rechenzentren mehrere Millarden schwere Investitionen. Für ChatGPT liegen wenig Informationen vor, man geht davon aus, dass ChatGPT 4 etwa 1.500 Milliarden Parameter hat, alles zuvor genannten Werte kann man sich entsprechend hochrechnen. Diese riesige Kapitalaufwand ist Hemnis des Ausbaus dieser Systeme und treibt gleichzeitig den tendenziellen Fall der Profitrate voran.
Im Wettlauf um das beste und schnellste Modell ist da immer noch kein Ende in Sicht. Meta-Chef Mark Zuckerberg kündigte bereits an, ein Rechenzentrum so groß wie Manhattan (20km²) bauen zu wollen und dafür mehrere 100 Milliarden (!) Dollar investieren zu wollen.¹ Das Rechenzentrum würde etwa 5 Gigawatt an Strom benötigen, das entspricht dem Bedarf von etwa 10 Millionen deutscher Haushalte. Dafür sollen eigene Atomkraftewerke gebaut werden. Microsoft hat bereits einen Deal abgeschlossen, das durch einen katastrophalen Atomunfall bekannt gewordene AKW auf Three Mile Island zu reaktivieren und den gesamten produzierten Strom der nächsten 20 Jahre abzunehmen.² Das Kraftwerk heißt seitdem "Clean Energy Center"... „Künstliche Intelligenz“ wird also unter den Bedingungen des Kapitalismus zu einem gewaltigen Motor der Umweltzerstörung und der begonnenen Umweltkatastrophe.
Es gibt erhebliche Zweifel, dass in der Gesamtheit die bisherigen und geplanten Investitionen am Ende die Rendite abwerfen, die erhofft wird. Der Wettlauf hat bereits jetzt den Charakter einer Vernichtungsschlacht, wer am Ende gewinnt und die Maximalprofite einstreicht und wer als Verlierer vom Feld geht.