Warum uns (noch) keine KI zerstören möchte

Wenn wir an eine Zukunft mit Künstlicher Intelligenz denken, stellen wir uns oft Roboter-Soldaten und superintelligente Computer vor, welche versuchen die Menschheit zu unterdrücken und zu zerstören. Bereits heute sind viele Menschen skeptisch gegenüber KIs wie ChatGPT & Co. Wir verstehen nicht so ganz, weshalb diese Programme so gut funktionieren und es gibt viele Spekulationen, ob diese Maschinen ein Bewusstsein besitzen oder nicht und ob sie uns nur etwas vormachen. Kommt die Apokalypse bald? Wie nah wir an einem solchen Zukunftsszenario sind, klären wir in den nächsten Zeilen!

Nicolas
24.10.2023

Schwache KIs

Es gibt viele verschiedene Arten von Künstlicher Intelligenzen. Es gibt KIs, welche Bilder erstellen können, es gibt KIs, welche Texte erstellen können, es gibt mittlerweile sogar KIs, welche Videos produzieren können! Auf der anderen Seite gibt es auch KI-Systeme, welche lediglich Daten analysieren und basierend darauf Entscheidungen treffen (diese KIs sind in Unternehmen häufig anzutreffen, z.B. zur Qualitätsanalyse von Maschinenteilen, Analyse von Röntgebildern oder zur KI-gestützten Lagerplanung). Diese Art von Künstlicher Intelligenz wird als “schwache KI” bezeichnet, denn: sie können nur die Aufgabe ausführen, für welche sie entwickelt wurden.

Deshalb kann ChatGPT z.B. keine Bilder erstellen und eine KI zur Qualitätsanalyse kann nicht plötzlich auch Texte erstellen. Aber wieso geht das nicht?

Es gibt verschiedene KI-Modelle

Jede KI basiert auf einem eigenen Modell. Mit dem folgenden Bild erhaltet ihr einen Einblick, wie ein solches Modell stark vereinfacht aussieht:

Vereinfachte Darstellung eines KI-Modells

Jeder Kreis repräsentiert ein Neuron und jeder Pfeil eine Verbindung zwischen den Neuronen - also wie in einem Gehirn. Nur - ein solches Modell funktioniert noch lange nicht wie unser Gehirn! Wir haben die genaue Funktionsweise eines menschlichen Hirns und deren Denkprozesse noch lange nicht entschlüsselt, im Gegenteil. Wir wissen kaum, wie es im Detail funktioniert. Aus diesem Grund entwickeln wir heute verschiedene KI-Modelle für verschiedene Aufgaben. Mittlerweile existieren unzählige solche Modelle mit unterschiedlichen “Architekturen”. Es folgen einige Abkürzungen solcher Modelle, welche du aber direkt wieder vergessen kannst: es gibt z.B. LLMs, GANs, Diffusion Models, DNNs, CNNs, und noch viele, viele mehr!

Übersicht über einige KI-Modelle (Quelle: https://www.asimovinstitute.org/neural-network-zoo/)

Jedes dieser Modelle funktioniert in einem spezifischen Anwendungsgebiet, hat eigene Algorithmen, Machine Learning Ansätze und eigene Trainingsdaten. Somit ist es unmöglich, dass ein bestehendes Modell über ihre Disziplin hinauswachsen kann und plötzlich höhere Fähigkeiten entwickelt, welche es bisher noch nicht hatte.

Deshalb wird ChatGPT auch König der Bullshitter genannt, denn ChatGPT ist einfach extrem gut im Wörter zusammensetzen und Sätze bauen, ChatGPT hat jedoch kein Bewusstsein und keine höheren kognitiven Fähigkeiten. Streng genommen generiert ChatGPT also ständig Texte, von welchen es eigentlich gar keine Ahnung hat.

Könnte es wirklich zu einer allwissenden KI kommen?

Theoretisch ja. Praktisch können wir eine allwissende KI (auch AGI - Artificial General Intelligence genannt) erst entwickeln, wenn wir das Geheimnis der menschlichen Intelligenz und die Funktionsweise des Gehirns gelüftet haben. Ob wir das in 5, 10 oder 100 Jahren schaffen wissen wir nicht. Aktuell sind wir jedoch noch meilenweit davon entfernt.

Das Zukunftsszenario mit den zerstörerischen Robotern können wir deshalb beruhigt aus unseren Köpfen nehmen ;).