Wie Künstliche Intelligenz Vorurteile übernimmt
BIAS“ werden übernommen
Ein zentrales Problem beim Einsatz von Künstlicher Intelligenz (KI) ist die Übernahme und Verstärkung von Biases – also systematischen Verzerrungen oder Vorurteilen, die in den zugrunde liegenden Trainingsdaten enthalten sind.
Da KI-Modelle aus riesigen Mengen von Daten lernen, sind sie in hohem Maße von der Qualität und Ausgewogenheit dieser Daten abhängig. Wenn das verwendete Datenmaterial unausgewogen ist oder bestehende gesellschaftliche Stereotype enthält, besteht die Gefahr, dass die KI diese Verzerrungen nicht nur übernimmt, sondern sogar verstärkt. Die KI lernt Muster aus den Daten und reproduziert sie, ohne selbst zu hinterfragen, ob sie objektiv oder fair sind.
Ein besonders anschauliches Beispiel für solche Verzerrungen zeigt sich bei KI-gestützten Bildgeneratoren. Diese Systeme greifen auf große Bilddatensätze zurück, um Begriffe visuell darzustellen. Aufgrund historischer und kultureller Muster in den Daten neigen sie dazu, bestimmte Rollenbilder zu zementieren. So kann es vorkommen, dass ein Bildgenerator auf das Wort „Doktor“ fast ausschließlich mit Darstellungen älterer, weißer Männer reagiert, während der Begriff „Kassierer“ häufig mit einer weiblichen Person mit Migrationshintergrund assoziiert wird.
Solche Beispiele verdeutlichen, dass Künstliche Intelligenz nicht neutral ist. Sie spiegelt die Vorurteile wider, die in den Trainingsdaten enthalten sind. Deshalb ist es essenziell, beim Entwickeln und Nutzen von KI-Systemen besonders darauf zu achten, dass die Datenquellen divers und repräsentativ sind, um Verzerrungen möglichst zu minimieren. Außerdem sollten Nutzer KI-generierte Ergebnisse stets kritisch hinterfragen und sich der potenziellen Fehlerquellen bewusst sein.
KI ist auch nicht gut für die Umwelt und kann uns abhängig machen
Wir müssen darauf acht geben was wir in welcher Menge von wem konsumieren
Das Training und der Betrieb von Künstlicher Intelligenz erfordern leistungsstarke Spezialcomputer mit KI-Chips. Diese verbrauchen enorme Mengen an Energie und Kühlwasser, was zu hohen CO₂-Emissionen führt.
Besonders ressourcenintensiv ist die Bildgenerierung: Das Erstellen eines einzigen KI-Bildes verbraucht etwa so viel Energie wie das vollständige Aufladen eines Smartphones. Da der KI-Einsatz rasant wächst, bleibt die Umweltbelastung ein zentrales Problem, das nachhaltige Lösungen erfordert.
KI-Dienste wie ChatGPT laufen in der sogenannten Cloud, was bedeutet, dass unsere Daten und Prompts an die Rechenzentren großer Technologieunternehmen übermittelt werden. Dies stellt ein erhebliches Datenschutzrisiko dar, da sensible Informationen außerhalb der eigenen Kontrolle verarbeitet werden.
Zudem führt die Nutzung solcher Dienste zu einer zunehmenden Abhängigkeit von Konzernen wie Microsoft, Google und Meta. Die spezialisierten Hochleistungscomputer, die für den Betrieb moderner KI erforderlich sind, sind extrem teuer und technisch anspruchsvoll – sodass fast ausschließlich diese großen Unternehmen über die notwendigen Ressourcen verfügen. Dadurch konzentriert sich die technologische Macht in den Händen weniger Akteure, was Fragen nach Datensouveränität und fairer Wettbewerbsfähigkeit aufwirft.