Was KI nicht gut macht

Grenzen und Risiken der KI

Die Ausgabe von Sprachmodellen und Bildgeneratoren ist stark vom Zufall geprägt und kann daher variieren. Alle KI- Modelle verfügen nicht über ein Bewusstsein für ihr eigenes Nichtwissen und sind nicht in der Lage, klar anzugeben, wenn ihnen Informationen fehlen oder Unsicherheiten bestehen. Stattdessen neigen sie dazu, Lücken eigenständig zu füllen und Details zu erfinden – ein Phänomen, das als „Halluzination“ bezeichnet wird.

Eine KI kann etwas falsch verstehen

Werden Informationen korrekt ausgewertet?
Künstliche Intelligenz (KI) kann als eine äußerst leistungsfähige, aber manchmal übereifrige Assistentin betrachtet werden. Sie verfügt über eine beeindruckende Fähigkeit zur Informationsverarbeitung und Analyse, doch ist es stets ratsam, ihre Ergebnisse kritisch zu überprüfen.

Besonders wenn es darum geht, Informationen auszuwerten – sei es die Zusammenfassung eines Textes, die Analyse von Daten oder das Erfassen von Inhalten aus einer Webseite im Internet – besteht die Möglichkeit, dass Fehler auftreten.

Die KI kann beispielsweise Nuancen übersehen, Zusammenhänge falsch interpretieren oder Inhalte verkürzt wiedergeben, sodass wesentliche Details verloren gehen. Daher sollte man sich nicht ausschließlich auf ihre Ergebnisse verlassen, sondern diese stets mit einer eigenen Prüfung oder durch weitere Quellen absichern.

Ein gutes wenn auch tödliches Beispiel war eine Fehlklassifizierung einer Radfahrerin 2018 durch eine KI die diese als eine Plastiktüte klasifizierte und überfuhr. Tragischerweise hatte auch die beaufsichtigende Beifahrerin in diesem Moment nicht auf die Straße gesehen. Angeklagt wurde natürlich nicht die KI oder der entwickelnde Konzern sondern die zu beaufsichtigende Person.


Eine KI ist unberechenbar

Prompten ist nicht dasselbe wie Programmieren

Beim klassischen Programmieren wird ein Computer durch einen klar definierten Algorithmus gesteuert. Der Programmcode gibt Schritt für Schritt genau vor, welche Anweisungen der Computer ausführen soll. Sobald das Programm einmal geschrieben ist, führt es dieselben Befehle immer wieder in identischer Weise aus – ohne Abweichungen oder Interpretationsspielräume. Das Verhalten des Computers ist somit vorhersehbar und reproduzierbar.

Beim sogenannten Prompten, also der Eingabe von Anweisungen für eine Künstliche Intelligenz (KI), verhält es sich jedoch anders. Anders als herkömmliche Computerprogramme arbeitet eine KI nicht nach einem festgelegten Skript, sondern orientiert sich an statistischen Modellen und Wahrscheinlichkeiten, um menschenähnliche Antworten oder Lösungen zu generieren. Dies bedeutet, dass das Ergebnis einer KI-Abfrage nicht immer exakt vorhersehbar ist – selbst wenn derselbe Prompt mehrfach verwendet wird. Der Zufallsfaktor und die flexible Anpassung an unterschiedliche Kontextinformationen führen dazu, dass die KI auf eine Aufgabe nicht immer auf die gleiche Weise reagiert.

Im Durchschnitt liefern moderne KI-Modelle zwar oft erstaunlich präzise und nützliche Ergebnisse, doch im Einzelfall kann keine absolute Korrektheit garantiert werden. Daher ist es wichtig, KI-generierte Antworten stets kritisch zu hinterfragen, insbesondere wenn es um sensible oder komplexe Themen geht.

Gerade bei Bildern die komplexe Inhalte beschreiben kann man schnell peinliche oder sogar verstörende Fehler übersehen.


Wie Künstliche Intelligenz Vorurteile übernimmt

BIAS“ werden übernommen

Ein zentrales Problem beim Einsatz von Künstlicher Intelligenz (KI) ist die Übernahme und Verstärkung von Biases – also systematischen Verzerrungen oder Vorurteilen, die in den zugrunde liegenden Trainingsdaten enthalten sind.
Da KI-Modelle aus riesigen Mengen von Daten lernen, sind sie in hohem Maße von der Qualität und Ausgewogenheit dieser Daten abhängig. Wenn das verwendete Datenmaterial unausgewogen ist oder bestehende gesellschaftliche Stereotype enthält, besteht die Gefahr, dass die KI diese Verzerrungen nicht nur übernimmt, sondern sogar verstärkt. Die KI lernt Muster aus den Daten und reproduziert sie, ohne selbst zu hinterfragen, ob sie objektiv oder fair sind.
Ein besonders anschauliches Beispiel für solche Verzerrungen zeigt sich bei KI-gestützten Bildgeneratoren. Diese Systeme greifen auf große Bilddatensätze zurück, um Begriffe visuell darzustellen. Aufgrund historischer und kultureller Muster in den Daten neigen sie dazu, bestimmte Rollenbilder zu zementieren. So kann es vorkommen, dass ein Bildgenerator auf das Wort „Doktor“ fast ausschließlich mit Darstellungen älterer, weißer Männer reagiert, während der Begriff „Kassierer“ häufig mit einer weiblichen Person mit Migrationshintergrund assoziiert wird.
Solche Beispiele verdeutlichen, dass Künstliche Intelligenz nicht neutral ist. Sie spiegelt die Vorurteile wider, die in den Trainingsdaten enthalten sind. Deshalb ist es essenziell, beim Entwickeln und Nutzen von KI-Systemen besonders darauf zu achten, dass die Datenquellen divers und repräsentativ sind, um Verzerrungen möglichst zu minimieren. Außerdem sollten Nutzer KI-generierte Ergebnisse stets kritisch hinterfragen und sich der potenziellen Fehlerquellen bewusst sein.

KI ist auch nicht gut für die Umwelt und kann uns abhängig machen

Wir müssen darauf acht geben was wir in welcher Menge von wem konsumieren

Das Training und der Betrieb von Künstlicher Intelligenz erfordern leistungsstarke Spezialcomputer mit KI-Chips. Diese verbrauchen enorme Mengen an Energie und Kühlwasser, was zu hohen CO₂-Emissionen führt.
Besonders ressourcenintensiv ist die Bildgenerierung: Das Erstellen eines einzigen KI-Bildes verbraucht etwa so viel Energie wie das vollständige Aufladen eines Smartphones. Da der KI-Einsatz rasant wächst, bleibt die Umweltbelastung ein zentrales Problem, das nachhaltige Lösungen erfordert.

KI-Dienste wie ChatGPT laufen in der sogenannten Cloud, was bedeutet, dass unsere Daten und Prompts an die Rechenzentren großer Technologieunternehmen übermittelt werden. Dies stellt ein erhebliches Datenschutzrisiko dar, da sensible Informationen außerhalb der eigenen Kontrolle verarbeitet werden.
Zudem führt die Nutzung solcher Dienste zu einer zunehmenden Abhängigkeit von Konzernen wie Microsoft, Google und Meta. Die spezialisierten Hochleistungscomputer, die für den Betrieb moderner KI erforderlich sind, sind extrem teuer und technisch anspruchsvoll – sodass fast ausschließlich diese großen Unternehmen über die notwendigen Ressourcen verfügen. Dadurch konzentriert sich die technologische Macht in den Händen weniger Akteure, was Fragen nach Datensouveränität und fairer Wettbewerbsfähigkeit aufwirft.