Herausforderungen beim Einsatz von KI für Nachhaltigkeit

Dass die KI so einige Chancen bereithält, dürfte jedem klar sein. Zu jeder Chance gehören aber auch Herausforderungen – hier bildet die künstliche Intelligenz keine Ausnahme. Dennoch sind auch hier mögliche Lösungen am Horizont.

Hoher Energiebedarf von KI-Modellen

Um große KI-Modelle zu trainieren und die Daten zu verarbeiten, wird viel Rechenpower benötigt. Das wiederum sorgt in Rechenzentren für einen gewaltigen Stromverbrauch. Gleichzeitig ist die Kühlung der Zentren ein wichtiger Punkt, sodass hier ein ziemlich großer CO₂-Fußabdruck entsteht. In Sachen Nachhaltigkeit ist das daher ein gewaltiges Problem. Forscher entwickeln allerdings schon jetzt Algorithmen, durch die weniger Rechenoperationen benötigt werden (zum Beispiel Sparse Models).

Es gibt außerdem einige Fortschritte in der Hardware-Entwicklung, wie unter anderem energieeffizientere Grafikprozessoren oder anwendungsspezifische integrierte Schaltkreise (ASICs). Diese können den Energieverbrauch weiter senken. Dazu kommt, dass moderne Rechenzentren auf erneuerbare Energiequellen (Solar- oder Windkraft beispielsweise) setzen, um den Betrieb möglichst klimaneutral zu gestalten. Es wird sogar mit Unterwasser-Rechenzentren experimentiert, um von der natürlichen Kühlung des Ozeans zu profitieren.

Energiefresser 
Rechenzentren für Künstliche Intelligenz haben einen enormen Strombedarf.  KI-Anwendungen könnten nach einer Studie von Golfdman Sachs zwischen 2023 und 2030 einen zusätzlichen Verbrauch von 200 Terawattstunden pro Jahr verursachen. Bild: Depositphotos.com
Energiefresser
Rechenzentren für Künstliche Intelligenz haben einen enormen Strombedarf. KI-Anwendungen könnten nach einer Studie von Golfdman Sachs zwischen 2023 und 2030 einen zusätzlichen Verbrauch von 200 Terawattstunden pro Jahr verursachen. Bild: Depositphotos.com

Datenschutz und ethische Bedenken

Wann immer große Datenmengen von einem KI-Modell verarbeitet werden, birgt das natürlich auch Gefahren für die Privatsphäre. Hier stehen vor allem der unzureichende Schutz sensibler Informationen oder der Missbrauch sowie unbefugte Zugriff Dritter im Fokus. Ein Lösungsansatz ist das sogenannte Federated Learning. Hierbei bleiben die Daten lokal auf den Geräten – sie werden also nicht zentral gespeichert. Die KI-Modelle werden in dem Fall dezentral trainiert, indem sie von den verteilten Geräten lernen, aber die Rohdaten die Geräte nicht verlassen.

Eine weitere Möglichkeit sind auch anonymisierte Datensätze, bei denen die Daten so bearbeitet werden, dass keine Rückschlüsse auf einzelne Personen möglich wären. Hier spielen auch Methoden wie „Differential Privacy“ eine Rolle, die eine Art künstliches Rauschen hinzufügen, um die Identität von Einzelpersonen zu schützen. Generell müssen Unternehmen allerdings in Bezug auf diesen Punkt für klare und öffentlich zugängliche Richtlinien zur Datennutzung sorgen. Die Datenschutz-Grundverordnung (DSGVO) kann hierfür einen rechtlichen Rahmen bieten.

Transparenz und Erklärbarkeit von KI-Entscheidungen

KI-Modelle sind bekanntermaßen sehr komplex und lassen sich teilweise nur schwer nachvollziehen. Das macht sowohl das Vertrauen als auch Bewertungen nicht gerade einfacher, vor allem, wenn es um sensible Themen wie Klimaschutz oder eine nachhaltige Wirtschaft geht.

Durch XAI-Methoden wird die Entscheidungsfindung von KI-Algorithmen nachvollziehbarer. Das kann durch Visualisierungen (beispielsweise durch Heatmaps in neuronalen Netzen) erfolgen. Dadurch wird sichtbar, welche Eingaben die Ergebnisse in welcher Hinsicht beeinflusst haben. Modelle wie LIME analysieren ebenfalls die Entscheidungslogik von KI-Systemen. Generell können KI-Systeme auch mit hybriden Modellen kombiniert werden, sodass diese datengetrieben als auch regelbasiert arbeiten. Dadurch bleiben Ergebnisse nachvollziehbar und überprüfbar.

Ungleiche Datenverfügbarkeit

Das soziale Ungleichgewicht könnte sich möglicherweise dadurch verstärken, dass nicht in jeder Region ausreichender Zugang zu qualitativ hochwertigen KI-Daten möglich ist. Hierfür setzen sich allerdings bereits die Open-Data-Initiativen ein, bei denen Organisationen und Regierungen offene Datenplattformen bereitstellen, auf denen anonymisierte und qualitativ hochwertige Datensätze zugänglich gemacht werden können. Der Austausch von Daten wird außerdem von Initiativen wie Open Government Data gefördert.

Generell können Partnerschaften helfen, um in entsprechenden Regionen die Infrastruktur für die Erhebung und Analyse von Daten auszubauen. Das deutsche Projekt Agri-Gaia, das Standards für eine herstellerübergreifende Infrastruktur und Vernetzung schaffen will, damit Künstliche Intelligenz in der Landwirtschaft zukünftig einfacher und schneller in die Praxis gebracht werden kann, ist hierfür ein gutes Beispiel. Auch synthetisch generierte Daten könnten in Regionen mit begrenzten Daten eine Alternative sein.

Risikomanagement bei KI-Entscheidungen

Sowohl Unternehmen als auch Privatpersonen wissen bereits, dass KI-Modelle auch Fehlentscheidungen treffen können. Je nachdem, wie die künstliche Intelligenz eingesetzt wurde, kann das zu fatalen und vor allem unbeabsichtigten Konsequenzen führen. Abläufe könnten ineffizienter werden oder Vorhersagen treten schlichtweg nicht in der Form ein.

Besonders kritische Entscheidungen sollten daher auch in der aktuellen und sehr fortschrittlichen Zeit nicht von der KI getroffen werden. Die menschliche Expertise ist hilfreich, um Ergebnisse der KI zu validieren, unter Umständen neu zu interpretieren und gegebenenfalls zu korrigieren. Grundlegend müssen KI-Modelle zudem kontinuierlich aktualisiert werden, um mit den Bedingungen und Daten unserer Welt Schritt zu halten. Gleichzeitig müssen KI-Modelle weiter trainiert werden, damit sowohl die Relevanz als auch die Genauigkeit besser werden.

Welche Potenziale hat KI, unser Leben und unseren Alltag zu verändern? Darauf gehen wir im letzten Teil ein.

Artikel teilen

Kommentar absenden

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert