Künstliche Intelligenz: Gewinn oder Gefahr für ökologische Nachhaltigkeitsziele?

Grit Marti Lange


#Green IT
KI@2X

Intro

In einer zunehmend digitalisierten Welt, in der künstliche Intelligenz (KI) unsere kreativen Grenzen erweitert, stellt sich eine drängende Frage: Welchen Preis zahlen wir für diese Innovationen? Das Tech Review Journal des MIT zeigte kürzlich auf, dass die Generierung eines einzigen Bildes durch die KI Dall-E so viel Energie verbraucht wie das vollständige Aufladen eines Smartphones. Diese Erkenntnis wirft einen kritischen Blick auf die ökologischen Auswirkungen von künstlicher Intelligenz und legt den Fokus auf die Schattenseiten einer Technologie, die oft als Lösung für zahlreiche Herausforderungen unserer Zeit betrachtet wird.

Künstliche Intelligenz und Nachhaltigkeit

Spätestens seit der Veröffentlichung des Large Language Models ChatGPT ist KI aus dem Alltag vieler Menschen nicht mehr wegzudenken. Die vielfältigen Anwendungen reichen von Effizienzsteigerungen in verschiedenen Branchen bis hin zu innovativen Produktentwicklungen. KI gilt als aussichtsreiches Schlüsselinstrument für den Klimaschutz von morgen, etwa bei der Gestaltung intelligenter Stromnetze, der Entwicklung emissionsarmer Infrastrukturen, der Modellierung von Klimawandelprognosen oder dem präziseren Einsatz von Pestiziden in der Landwirtschaft. Doch hinter diesen vermeintlichen Vorteilen verbergen sich oft soziale und ökologische Herausforderungen, die von Kritiker:innen vermehrt in den Fokus gerückt werden.
Die intransparenten Datensätze, mit denen KI-Modelle trainiert werden, stehen im Zentrum dieser Bedenken. Kritiker:innen befürchten, dass neben Datenschutzverstößen auch bestehende Diskriminierungen und Ausschlüsse durch KI potenziell verstärkt werden könnten. Das Training der KIs mit realen digitalen Datensätzen birgt die Gefahr, dass sich darin strukturelle Gewaltmuster wie Rassismus, Hassreden oder Gewalt gegen Frauen reproduzieren. Im Streben nach einem umfassenden Nachhaltigkeitsbegriff, der über ökologische Aspekte hinausgeht, bildet das aktuelle Trainingsverfahren künstlicher Intelligenz somit ein komplexes Risikogefüge.
Doch nicht nur auf sozialer Ebene sind Bedenken angebracht. Forschende weisen vermehrt auf die ökologischen Folgen der KI-Innovationen hin, insbesondere im Hinblick auf den hohen Wasser- und Stromverbrauch der Rechenzentren dahinter. Die Umweltauswirkungen sind schwer abzuschätzen, da es noch immer an präzisen einheitlichen Messverfahren für digital erzeugte CO2-Emissionen fehlt. Dennoch prognostizieren Forscher:innen einen drastischen Anstieg des Stromverbrauchs durch KI bis 2027, der zwischen 85 und 134 Terrawattstunden pro Jahr liegen könnte – das entspricht in etwa dem jährlichen Energiebedarf der Niederlande.
KI polarisiert entsprechend: Einerseits kann sie dazu beitragen, die Auswirkungen der Klimakrise zu mindern, andererseits ist sie selbst ein bedeutender Verursacher von Kohlenstoffemissionen. In diesem Spannungsfeld zwischen Innovation und ökologischen Kosten müssen wir beginnen, Lösungen für einen verantwortungsvollen Umgang mit künstlicher Intelligenz zu finden.

Nachhaltige KI braucht Regulierung

Das ambivalente Verhältnis von KI zu Nachhaltigkeit stand im Mittelpunkt der Konferenz "KI: Immer größer statt grüner?", die im Januar 2024 von der Heinrich-Böll-Stiftung in Kooperation mit dem ThinkTank iRightsLab initiiert wurde. Intensiv wurden dort die Chancen und Risiken für Nachhaltigkeitsziele beim Einsatz von KI diskutiert – unter anderem auch notwendige politische Rahmenbedingungen.

Insbesondere die KI-Verordnung der EU stand im Fokus des Dialogs: Dieser erste Gesetzesvorschlag für eine umfassende Regulierung künstlicher Intelligenz kategorisiert drei Risikostufen:

  1. Inakzeptable Risiken, wie z. B. der Einsatz für staatliches Social Scoring (wie in China praktiziert) sind verboten.
  2. Systeme, die ein Hochrisiko für die Gesundheit und Sicherheit oder für die Grundrechte von Personen darstellen (etwa zur Verwaltung von Migration, Asyl und Grenzkontrollen) unterliegen speziellen rechtlichen Anforderungen und werden während ihres gesamten Lebenszyklus bewertet.
  3. Anwendungen mit begrenztem Risiko bleiben weitgehend unreguliert. Sie sollen minimale Transparenzanforderungen erfüllen, etwa Nutzer:innen darauf aufmerksam machen, dass sie mit KI interagieren.

Diese EU-Verordnung ist umstritten: Während die Einen argumentieren, dass sie die europäische Wettbewerbsfähigkeit im internationalen KI-Markt potenziell beeinträchtigen könnte, kritisieren Andere, dass Unternehmen innerhalb dieses Regulierungsrahmens noch immer nicht ausreichend zur Verantwortung gezogen werden würden. Am 13. März 2024 erzielten EU-Parlament und -Rat eine Einigung über das KI-Gesetz. Es fehlt noch das Votum der EU-Staaten, welches für Ende April erwartet wird und als reine Formsache gilt. Bis zur vollständigen Gültigkeit des Gesetzes wird es trotzdem noch mindestens zwei Jahre dauern.

Künstliche Intelligenz kann nicht nur Produktionsprozesse effizienter und damit wirtschaftlicher machen, sondern auch die Nachhaltigkeit steigern.

KI Fortschrittszentrum der Fraunhofer Gesellschaft

Wirtschaftsverbände und viele Unternehmen wie Google und Microsoft sind der Meinung, dass KI einen positiven Beitrag für die Umsetzung von Nachhaltigkeitszielen leisten kann, beispielsweise um die Umweltauswirkungen des Klimawandels zu minimieren.

Ein Beispiel für ein solches Vorhaben ist das vom Bundesumweltministerium geförderte Projekt RecycleBot. Ziel des Projektes ist es, die Recyclingquote von Kunststoffabfällen zu erhöhen, indem der Sortiervorgang mittels KI optimiert wird.

Ein weiteres Beispiel ist EKI – ein Leuchtturmprojekt des Bundesumweltministeriums, welches die Energieeffizienz der Trainings von KI-Systemen verbessern soll. Für das Training von DeepLearning-Netzwerken ist derzeit ein hoher Energieaufwand nötig, der mit zunehmender Genauigkeit der Berechnung ansteigt. Hierfür setzt das EKI-Projekt z. B. auf ein Verfahren des absichtlich ungenauen Rechnens (Approximation). Diese Berechnungen sind gerade noch so genau, dass sie für die erforderliche Qualität der Ergebnisse als akzeptabel gelten. So kann EKI den Rechenaufwand bei der Nutzung von KI-Systemen reduzieren und dadurch deutliche Energieeinsparungen erzielen.

Eine im Auftrag von Microsoft durchgeführte Studie hat die wirtschaftlichen Auswirkungen des Einsatzes von KI im Umweltmanagement der Sektoren Landwirtschaft, Wasser, Energie und Verkehr modelliert. Die Studie prognostiziert, dass man in diesen Bereichen mittels KI die weltweiten Treibhausgasemissionen bis 2030 um 4 % reduzieren könnte – was zusammengenommen den jährlichen CO2-Emissionen von Australien, Kanada und Japan gleichkäme.Wie dieser Einsatz jedoch konkret aussehen könnte, mit welchen Kosten er verbunden wäre und wie er sich auf reale Arbeitsplätze auswirken würde – darüber gibt die Studie keine Auskunft.
Auch die deutsche Fraunhofer Gesellschaft wirbt für den Einsatz von KI: Vor allem Produktionsabläufe ließen sich durch künstliche Intelligenz maßgeblich optimieren. Ihre 2022 erschienene Studie weist jedoch auch darauf hin, dass KI mehr für wirtschaftliche Zwecke und weniger in nachhaltigen Anwendungsbereichen eingesetzt wird. Erst wenn Nachhaltigkeit sich auch wirtschaftlich rechnet, würde sie für viele Unternehmen interessant. Fakt ist: KI-Tools wurden in erster Linie zur Vereinfachung von Prozessen erdacht und nicht unbedingt zur Optimierung von Nachhaltigkeit. Wir kommen zum Schluss: Erst, wenn Nachhaltigkeit sich auch wirtschaftlich rechnet, wird sie für viele Unternehmen interessant.

KI und Nachhaltigkeit? Ein Widerspruch!

Während KI zwar durchaus bei der Bewältigung von Umweltproblemen helfen kann, bringt ihre rasante Entwicklung derzeit noch kaum absehbare ökologische und soziale Folgen mit sich. So könnte die zunehmende Nutzung von KI dazu beitragen, dass sich der Strombedarf von Rechenzentren bis 2026 verdoppelt. Ein erhöhter Strombedarf verbraucht mehr Ressourcen und da längst nicht alle Rechenzentren über erneuerbare Energien betrieben werden, führt er unweigerlich zu mehr CO2-Emissionen. Auch der Wasserverbrauch für die Kühlung von Rechenzentren gibt bereits jetzt Anlass zur Sorge, und die vielen Chips, die für den Betrieb von KI-Software benötigt werden, landen früher oder später auf dem ohnehin gigantischen Berg von Elektronikschrott.

Im Januar 2024, auf der Konferenz “KI: Immer größer statt grüner?”, setzen sich unter anderem Friederike Rohde (wissenschaftliche Mitarbeiterin am Institut für ökologische Wirtschaftsforschung, IÖW) und Dr. Anne Mollen (AlgorithmWatch, Leiterin des Projekts SustAIn) mit der kritischen Perspektive auf KI auseinander. Beide sind Autorinnen einer kürzlich erschienenen Studie, die politische Maßnahmen zur Verbesserung der Nachhaltigkeit von KI-Systemen vorschlägt. Ihre Argumentation: Nachhaltig eingesetzte KI-Systeme brauchen zwingend eine transparente und zugängliche Dokumentation ihrer Möglichkeiten, Grenzen, Verwendungszwecke und potenziellen Risiken, um vertrauenswürdig zu sein. Zwar sind KI-Systeme in den letzten Jahren immer effizienter und damit ressourcenschonender geworden, allerdings wird diese Entwicklung weitestgehend vom Trend zu immer komplexeren Systemen überlagert, deren hohe Rechenleistung auch den Energiebedarf in die Höhe treibt. Dieses Phänomen, in der Forschung auch als “Rebound-Effekt” beschrieben, macht deutlich: Eine kritische Auseinandersetzung mit dem Ressourcenverbrauch von KI-Systemen und den damit verbundenen ökologischen Folgen ist unabdinglich.

Beim Projekt SustAIn, einer Kooperation des IÖW mit AlgorithmWatch, wurden daher Guidelines für die Nachhaltigkeit von KI-Anwendungen definiert und ein entsprechendes Bewertungstool vorgestellt. Dieses ist für Betriebe und Organisationen ausgelegt, die selbst KI entwickeln oder einsetzen. Es basiert auf Kriterien der sozialen, ökologischen und ökonomischen Nachhaltigkeit, wie “Transparenz und Verantwortungsübernahme”, “Nicht-Diskriminierung und Fairness”, “Inklusives und partizipatives Design” oder “Energieverbrauch, CO2- und Treibhausgasemissionen”. Nach Beantwortung des Fragebogens erhalten die Teilnehmenden ein Bewertungsdokument mit “Best-Case”-Handlungsvorschlägen.

KI & Nachhaltigkeit: Wo stehen wir gerade?

Der Hype um KI, ob im privaten, kommerziellen oder für den politischen Gebrauch, befindet sich gegenwärtig auf einem Höchststand. Außerdem lassen sich vermehrt erste Bemühungen in Richtung eines nachhaltigen Umgangs mit den von KI Systemen benötigten Ressourcen beobachten. Trotzdem wäre es fahrlässig, einzig auf die potentiellen Chancen und Gewinne von künstlicher Intelligenz zu verweisen. Zwar kann sie sich positiv auf Nachhaltigkeitsziele auswirken, doch ist die Kehrseite dieser Effizienzsteigerungen bisher kaum erforscht. Das tatsächliche Ausmaß der Auswirkungen von KI auf unsere Umwelt lässt sich bisher bloß schätzen, mit – je nach Auftraggebenden – unterschiedlichen Ergebnissen.
Die Untersuchung der aktuellen Auswirkungen von KI macht vielmehr deutlich: Künstliche Intelligenz ist nicht die “One Size Fits All”-Lösung, als welche sie häufig proklamiert wird. Auf einem Markt, der zunehmend von KI-Tools geprägt ist, liegt es deshalb in unserer Verantwortung, sowohl den Erfolg als auch den verantwortungsvollen Einsatz dieser Technologien im Blick zu behalten. Unser Ziel bei CHORA ist es, eine Kultur der nachhaltigen Nutzung von künstlicher Intelligenz zu fördern, informierte ethische Entscheidungen zu treffen und unsere Kund*innen in diesen Fragen zu unterstützen.

Die sieben Prinzipien für verantwortungsbewusste Nutzung von KI (herausgegeben von Wholegrain Digital)

  1. Achtsamkeit: Bewerten Sie die Notwendigkeit ebenso wie die Vor- und Nachteile von KI-Anwendungen. Bedenken Sie dabei auch unbeabsichtigte Folgen und mögliche Alternativen.
  2. Menschliche Überprüfung: Lassen Sie KI-generierte Informationen von Expert:innen prüfen, um die Verbreitung von Fehlinformationen zu vermeiden.
  3. Bias-Überprüfung: Minimieren Sie aktiv Biases in KI-Tools durch Tests und Einbeziehung verschiedener Perspektiven bei der Analyse von Ergebnissen.
  4. **Datenschutz:**Verwenden Sie für personenbezogene Daten nur KI-Tools mit DSGVO-Konformität.
  5. Transparenz der Urheber*innenschaft: Stellen Sie innerhalb der Teams sicher, dass Inhalte in erster Linie von Menschen erarbeitet werden, und kennzeichnen Sie KI-generierte Erzeugnisse, sofern erforderlich.
  6. Geistiges Eigentum: Minimieren Sie das Risiko, mittels KI Kopien zu generieren und streben Sie stattdessen die Entwicklung Ihrer eigenen kreativen Ausrichtung an.
  7. Vermeidung von Fake-Medien: Verzichten Sie darauf, neue Inhalte basierend auf realen Personen zu generieren, um die Verbreitung von Fehlinformationen einzudämmen.
Foto von Grit Lange

Grit Marti Lange / Research