Wie wir KI ethisch und verantwortungsvoll gestalten

Wie wir KI ethisch und verantwortungsvoll gestalten
by Midjourney

Heute erst erhielt ich eine interessante kritische Perspektive auf einen meiner Beiträge über Künstliche Intelligenz (KI). Der Kommentar lautete: „Für KI? Diese hat nur in ganz speziellen Fällen ihre Berechtigung. Solange KI mit gestohlenem Inhalt gefüttert wird, auch mit Desinformation gefüttert werden kann, dadurch politisch für weitere Desinformation genutzt werden kann und wird, KI strukturell rassistisch ist: NEIN!"

Diese Aussage verweist auf eine Reihe legitimer Herausforderungen, denen sich die KI-Forschung und -Anwendung stellen muss. In diesem Blogbeitrag möchte ich genauer auf diese Problematik eingehen und untersuchen, welche Verantwortung Entwickler, Unternehmen, Politiker – und nicht zuletzt auch wir als Gesellschaft – bei der Nutzung von KI tragen.

Daten: Das Herzstück der Künstlichen Intelligenz

Bevor wir tiefer in die ethischen Fragen einsteigen, müssen wir verstehen, dass Daten das Herzstück jeder KI sind. KI-Systeme werden mit enormen Datenmengen trainiert. Diese Daten bilden die Grundlage für ihre Entscheidungen und Vorhersagen. Doch woher kommen diese Daten? Und wie zuverlässig sind sie?

Ein zentrales Problem ist die Herkunft der Daten. Oft werden KI-Systeme mit Daten aus dem Internet gefüttert, ohne dass diese einer eingehenden Prüfung auf Qualität, Wahrhaftigkeit oder ethische Vertretbarkeit unterzogen werden. Viele dieser Datenquellen sind durch menschliche Fehler, Vorurteile oder gar manipulative Absichten geprägt, was dazu führen kann, dass sich diese negativen Aspekte in den Trainingsdaten widerspiegeln. Dies kann zur Folge haben, dass die KI nicht neutral arbeitet und bestehende Vorurteile sogar verstärkt.

Zum Beispiel gibt es häufig unausgewogene Datensätze: Ein Bilderkennungssystem, das hauptsächlich mit Fotos von hellhäutigen Menschen trainiert wird, erkennt dunkelhäutige Gesichter möglicherweise schlechter oder gar nicht. [1][2] Historisch verzerrte Daten sind ein weiteres Problem: Ein KI-System zur Personalauswahl, das mit historischen Einstellungsdaten trainiert wird, kann die darin enthaltene Bevorzugung männlicher Bewerber reproduzieren. [3] Auch fehlerhafte Kennzeichnungen können sich negativ auswirken: In einem Datensatz zur Objekterkennung könnte ein Pilz fälschlicherweise als Löffel gekennzeichnet sein, was dazu führt, dass das KI-Modell falsche Zusammenhänge lernt. [4]

Diese Beispiele zeigen, dass KI-Systeme, wenn sie mit verzerrten oder fehlerhaften Daten trainiert werden, gesellschaftliche Ungleichheiten reproduzieren und verfestigen können. Dies kann bis hin zu strukturellem Rassismus führen, da KI-Systeme systematisch die gleichen diskriminierenden Muster anwenden, die ihnen in den Trainingsdaten vermittelt wurden.

Es ist daher unerlässlich, die Qualität der Daten nicht nur technisch, sondern auch ethisch zu bewerten und zu filtern. Dies bedeutet, dass KI-Entwickler sowohl technologische Mechanismen zur Gewährleistung der Datenqualität als auch ethische Überprüfungen implementieren müssen. Eine Möglichkeit besteht darin, diversifizierte und ausgewogene Datensätze zu nutzen, die sicherstellen, dass verschiedene Perspektiven und Bevölkerungsgruppen berücksichtigt werden. Darüber hinaus sollten Daten auch regelmäßig auf Bias und Diskriminierung hin überprüft werden, um sicherzustellen, dass die KI möglichst neutral bleibt. Die Verantwortung beginnt also bereits bei der Datenbeschaffung und zieht sich durch den gesamten Entwicklungsprozess hindurch.

Die Verantwortung der Entwickler und Unternehmen

Hier kommen wir zur Verantwortung der Entwickler und der Unternehmen, die KIs entwickeln. Wenn KI-Systeme zur Desinformation genutzt werden oder strukturelle Diskriminierung verstärken, dann liegt das nicht unbedingt an der Technologie selbst, sondern oft an den Menschen, die sie entwickeln oder einsetzen. Ein klassisches Beispiel ist der Fall von Amazons KI-basiertem Rekrutierungstool: Amazon entwickelte ein KI-System zur Vorauswahl von Bewerbern, das jedoch systematisch Frauen benachteiligte. [5] Das System wurde mit historischen Bewerbungsdaten trainiert, die überwiegend von männlichen Bewerbern stammten. In der Folge bevorzugte die KI männliche Bewerber und stufte sogar indirekte Hinweise auf das weibliche Geschlecht, wie die Mitgliedschaft in Frauenvereinen, negativ ein. Die Entwickler tragen eine enorme Verantwortung dafür, welche Daten genutzt und wie sie verarbeitet werden. Eine ethische Prüfung der verwendeten Daten ist dabei unabdingbar. Es reicht jedoch nicht, sich nur auf die Datenqualität zu konzentrieren; vielmehr sind auch transparente und faire Trainingsmethoden sowie kontinuierliches Monitoring notwendig, um solche Verzerrungen zu vermeiden.

Es genügt also nicht, sich ausschließlich auf die Datenqualität zu fokussieren. Auch die Trainingsmethoden und Algorithmen, die angewendet werden, können Einfluss auf die Ergebnisse der KI haben. Ein einfaches Beispiel: Wenn ein Modell so trainiert wird, dass es historische Daten verwendet, die diskriminierende Entscheidungen enthalten, wird das Modell diese Muster vermutlich wiederholen. Entwickler sollten daher nicht nur sicherstellen, dass die Daten qualitätsgesichert sind, sondern auch, dass die eingesetzten Algorithmen keine verzerrten Muster verfestigen. Dies kann durch eine sorgfältige Anpassung der Modellparameter, das Einführen von Mechanismen zur Bias-Reduktion und das kontinuierliche Monitoring der KI-Outputs erreicht werden.

Leider wird die Dringlichkeit, ethische Standards zu implementieren, häufig der Marktdynamik und dem wirtschaftlichen Druck untergeordnet. [6] Oftmals müssen Unternehmen schnelle Ergebnisse liefern, um im Wettbewerb zu bestehen – dies geht auf Kosten einer sorgfältigen ethischen Abwägung. Unternehmen sollten jedoch erkennen, dass langfristiger Erfolg und Vertrauen in ihre Technologien nur durch eine verantwortungsvolle und transparente Entwicklung erreicht werden können. Eine kurzfristige Profitmaximierung auf Kosten ethischer Standards wird früher oder später zu negativen Konsequenzen führen – sowohl für das Unternehmen als auch für die Gesellschaft.

Klare Regularien und ethische Standards

Um eine verantwortungsvolle und transparente Nutzung von Künstlicher Intelligenz (KI) zu gewährleisten, sind klare Regularien und ethische Standards unverzichtbar. Diese sollten gesetzlich verankert werden, um sicherzustellen, dass KI-Systeme zuverlässig und gerecht arbeiten. Unternehmen müssen verpflichtet werden, Transparenz darüber zu schaffen, wie ihre KI-Systeme trainiert werden und welche Datenquellen dabei genutzt werden.

Die EU hat bereits Schritte in diese Richtung unternommen – etwa durch den „AI Act“, der Rahmenbedingungen für die Entwicklung und Nutzung von KI schafft. [7] Dieser Schritt ist von großer Bedeutung, reicht aber alleine nicht aus. Eine weltweite Zusammenarbeit ist notwendig, damit Künstliche Intelligenz allen Menschen dient und bestehende Ungleichheiten nicht weiter verfestigt. Im Folgenden beleuchten wir die Entwicklungen auf der ganzen Welt.

Der EU AI Act als Vorreiter

Der Artificial Intelligence Act der Europäischen Union, der am 1. August 2024 in Kraft getreten ist, stellt den ersten umfassenden rechtlichen Rahmen für KI weltweit dar. Einige zentrale Aspekte sind:

  • Risikobasierter Ansatz: KI-Anwendungen werden in verschiedene Risikokategorien eingeteilt, von "inakzeptabel" bis "minimales Risiko".
  • Verbot bestimmter KI-Praktiken: Beispielsweise werden biometrische Identifikationssysteme im öffentlichen Raum untersagt.
  • Strenge Anforderungen für Hochrisiko-KI: Dazu gehören Transparenz, menschliche Aufsicht und Robustheit.
  • Regulierung von General-Purpose AI: Für leistungsstarke Modelle gelten zusätzliche Evaluierungspflichten.
  • Extraterritoriale Wirkung: Die Regeln gelten auch für Anbieter außerhalb der EU, wenn ihre Systeme in der EU genutzt werden.

Entwicklungen in den USA

In den USA gibt es bisher keinen einheitlichen bundesweiten Rechtsrahmen, stattdessen entwickeln einzelne Bundesstaaten eigene Gesetze:

  • Kalifornien: Der vorgeschlagene "California AI Transparency Act" würde Unternehmen mit über 1 Million monatlichen Besuchern verpflichten, KI-generierte Inhalte klar zu kennzeichnen. [8]
  • Colorado: Ein kürzlich verabschiedetes Gesetz verpflichtet Entwickler und Anwender von Hochrisiko-KI-Systemen, angemessene Sorgfalt walten zu lassen, um algorithmische Diskriminierung zu vermeiden. [9]

Globale Initiativen

Die Vereinten Nationen haben kürzlich eine erste globale Resolution zu KI verabschiedet.[10] Obwohl nicht rechtsverbindlich, fordert sie Länder auf:

  • Menschenrechte zu schützen
  • Persönliche Daten zu sichern
  • KI-Systeme auf Risiken zu überwachen

Bilaterale Abkommen

Großbritannien und die USA haben ein bilaterales Abkommen unterzeichnet, um bei der Prüfung fortschrittlicher KI zusammenzuarbeiten. [11] Dies umfasst:

  • Gemeinsame Testübungen an öffentlich zugänglichen Modellen
  • Austausch zwischen staatlich geführten KI-Sicherheitsinstituten

Asiatisch-Pazifischer Raum

Auch im APAC-Raum entwickeln sich KI-Regulierungen rasch:

  • Japan arbeitet an einem "Basic Law for the Promotion of Responsible AI", der sich auf KI-Grundlagenmodelle mit erheblichen gesellschaftlichen Auswirkungen konzentrieren soll. [12]
  • Vietnam hat einen Gesetzentwurf zur digitalen Technologieindustrie vorgelegt, der unter anderem verbotene KI-Praktiken definiert. [13]

Diese Entwicklungen zeigen, dass weltweit Bemühungen im Gange sind, rechtliche Rahmenbedingungen für KI zu schaffen. Dabei zeichnen sich einige gemeinsame Themen ab:

  • Schutz der Grundrechte und Vermeidung von Diskriminierung
  • Transparenz und Kennzeichnungspflichten für KI-generierte Inhalte
  • Besondere Aufmerksamkeit für Hochrisiko-Anwendungen
  • Förderung von Innovation bei gleichzeitiger Risikominimierung

Ethische Standards auf Unternehmens- und globaler Ebene

Neben Regularien auf der Makroebene sollten allerdings auch Unternehmen intern ethische Standards implementieren und klare Verantwortlichkeiten definieren. Dazu gehört beispielsweise die Etablierung unabhängiger Ethik-Komitees, die die Entwicklung und Anwendung von KI-Systemen überwachen. Dafür benötigt es Zertifizierungsprozesse die entwickelt werden müssen, die sicherstellen, dass KI-Systeme bestimmten ethischen Standards entsprechen. Dies könnte ähnlich wie bei Datenschutzregelungen funktionieren, bei denen Unternehmen eine Zertifizierung durchlaufen müssen, bevor sie ihre Produkte auf den Markt bringen können. Eine solche Zertifizierung würde das Vertrauen der Öffentlichkeit in KI-Systeme erheblich steigern und sicherstellen, dass ethische Prinzipien eingehalten werden.

Es ist zu erwarten, dass sich diese regulatorische Landschaft in den kommenden Jahren weiter entwickeln und verfeinern wird, während Gesetzgeber weltweit versuchen, mit dem rasanten technologischen Fortschritt Schritt zu halten.

Das Problem der Desinformation

Ein weiteres, ernstzunehmendes Problem ist die Möglichkeit, dass KI für die Verbreitung von Desinformation eingesetzt wird. Generative KI-Modelle sind in der Lage, Texte, Bilder und Videos zu erstellen, die oft kaum von der Realität zu unterscheiden sind. Diese Technik kann von verantwortungslosen Akteuren für politische oder wirtschaftliche Manipulation genutzt werden.

Desinformation ist ein globales Problem, das tiefgreifende Auswirkungen auf die Demokratie und das Vertrauen der Öffentlichkeit hat. Ein falsches Narrativ kann gezielt verbreitet werden, um politische Entscheidungen zu beeinflussen, Misstrauen zu säen oder sogar soziale Unruhen auszulösen. Besonders gefährlich sind Deepfakes, die auf den ersten Blick täuschend echt erscheinen und dazu genutzt werden können, falsche Aussagen oder Handlungen von politischen Figuren zu simulieren. Hier braucht es sowohl technische Lösungen, um Deepfakes schnell zu erkennen, als auch gesetzliche Rahmenbedingungen, um die Verbreitung solcher manipulierten Inhalte zu unterbinden.

Um dieses Problem zu adressieren, müssen wir neben den Regularien auch Aufklärungsarbeit leisten. Es braucht eine breite gesellschaftliche Bildung darüber, wie KI funktioniert, wo die Gefahren liegen und wie man Desinformation erkennen kann. Einige erfolgreiche Bildungsinitiativen sind beispielsweise das deutsche Projekt „Klicksafe" [14], das umfassende Materialien zur Medienkompetenz bereitstellt, oder das finnische Programm „Elements of AI" [15], das Bürgern grundlegende Kenntnisse über Künstliche Intelligenz vermittelt. Solche Programme sind essenziell, um das Wissen über die Funktionsweise von KI und die Erkennung von Risiken in der breiten Bevölkerung zu verankern.

Dies beginnt in den Schulen und sollte Teil einer modernen, digitalen Bildung sein. Die Fähigkeit, Informationen kritisch zu hinterfragen und Quellen zu überprüfen, muss zu einer Grundkompetenz in der heutigen digitalen Gesellschaft werden. Zudem sollten Medienplattformen verstärkt in die Verantwortung genommen werden, um sicherzustellen, dass Desinformation schnellstmöglich entfernt wird und klare Richtlinien zur Nutzung von KI-generierten Inhalten etabliert werden.

Technologie für das Gemeinwohl einsetzen

Abschließend möchte ich betonen:

💡
Technologie an sich ist weder gut noch böse

– es kommt darauf an, wie wir sie nutzen. KI kann dabei helfen, Krankheiten zu diagnostizieren, den Klimawandel zu bekämpfen oder Bildung weltweit zugänglicher zu machen. Sie birgt enormes Potenzial, wenn wir verantwortungsvoll mit ihr umgehen.

Deshalb setze ich mich politisch dafür ein, dass Künstliche Intelligenz für das Gemeinwohl genutzt wird. Ich glaube an eine Zukunft, in der wir als Gesellschaft von den Fortschritten der Technologie profitieren, ohne dabei ethische Grundsätze zu vernachlässigen. Eine KI, die für alle Menschen da ist, die unsere Werte reflektiert und zum Wohl aller beiträgt – das ist das Ziel, für das es sich zu kämpfen lohnt.

Ein weiterer wichtiger Aspekt ist die Förderung von Innovation im Bereich gemeinnütziger KI-Anwendungen. Hierbei sollten Regierungen und Unternehmen gemeinsam Programme auflegen, die die Entwicklung von KI für den sozialen Nutzen unterstützen – sei es in der Medizin, im Bildungsbereich oder im Umweltschutz. Ein Beispiel ist der Einsatz von KI zur Überwachung des Klimawandels: Durch die Analyse von Satellitendaten können KI-Systeme genaue Vorhersagen über Umweltveränderungen treffen und helfen, die Auswirkungen des Klimawandels besser zu verstehen und Maßnahmen zu ergreifen.

Technologie kann auch zur Unterstützung von marginalisierten Gruppen eingesetzt werden. KI kann genutzt werden, um Barrieren für Menschen mit Behinderungen abzubauen, etwa durch automatisierte Übersetzungen, intelligente Assistenten, die den Alltag erleichtern, oder durch spezielle Technologien wie Eye-Tracking-Software, die Menschen mit motorischen Einschränkungen die Nutzung von Computern ermöglicht. Ein weiteres Beispiel sind KI-gestützte Navigationshilfen für sehbehinderte Menschen, die ihnen dabei helfen, sich in unbekannten Umgebungen sicherer zu bewegen. Das Ziel sollte immer sein, die Technologie so einzusetzen, dass alle Menschen profitieren und niemand benachteiligt wird. Nur so können wir sicherstellen, dass die digitale Transformation zu einem Werkzeug des Fortschritts für die gesamte Menschheit wird.


Quellen

  1. Findley, Beth. „Why Racial Bias Is Prevalent in Facial Recognition Technology“, 3. November 2020. https://jolt.law.harvard.edu/digest/why-racial-bias-is-prevalent-in-facial-recognition-technology.
  2. Nicol Turner Lee, Paul Resnick, und Genie Barton. „Algorithmic Bias Detection and Mitigation: Best Practices and Policies to Reduce Consumer Harms“, 22. Mai 2019. https://www.brookings.edu/articles/algorithmic-bias-detection-and-mitigation-best-practices-and-policies-to-reduce-consumer-harms/.
  3. Maude Lavanchy. „Amazon’s Sexist Hiring Algorithm Could Still Be Better than a Human“, November 2018. https://www.imd.org/research-knowledge/digital/articles/amazons-sexist-hiring-algorithm-could-still-be-better-than-a-human/.
  4. Curtis G. Northcutt, Anish Athalye, und Jonas Mueller. „Pervasive Label Errors in Test Sets Destabilize Machine Learning Benchmarks“, 7. November 2021. https://arxiv.org/pdf/2103.14749.
  5. „Amazon scrapped ‚sexist AI‘ tool“. 10. Oktober 2018. https://www.bbc.com/news/technology-45809919.
  6. „AI Ethics Part One: Navigating Pressures for Responsible AI“. ALVAREZ & MARSAL®, 20. August 2024. https://www.alvarezandmarsal.com/insights/ai-ethics-part-one-navigating-pressures-responsible-ai.
  7. „Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates“, 13. Juni 2024. https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX:32024R1689.
  8. „Governor Signs Landmark AI Transparency Bill, Empowering Consumers to Identify AI-Generated Content“. Sacramento, CA, 19. September 2024. https://sd13.senate.ca.gov/news/press-release/september-19-2024/governor-signs-landmark-ai-transparency-bill-empowering.
  9. James McPhillips. „Colorado’s New Comprehensive AI Legislation“, 22. Juli 2024. https://www.cliffordchance.com/insights/resources/blogs/talking-tech/en/articles/2024/07/colorado-new-comprehensive-ai-legislation.html.
  10. General Assembly. „Seizing the opportunities of safe, secure and trustworthy artificial intelligence systems for sustainable development“. Vereinten Nationen, 1. April 2024. https://documents.un.org/doc/undoc/gen/n24/087/83/pdf/n2408783.pdf.
  11. „Collaboration on the Safety of AI: UK-US Memorandum of Understanding“. GOV.UK - Department for Science, Innovation & Technology, 2. April 2024. https://www.gov.uk/government/publications/collaboration-on-the-safety-of-ai-uk-us-memorandum-of-understanding/collaboration-on-the-safety-of-ai-uk-us-memorandum-of-understanding.
  12. Hiroki Habuka und David U. Socol de la Osa. „Shaping Global AI Governance: Enhancements and Next Steps for the G7 Hiroshima AI Process“, 24. Mai 2024. https://www.csis.org/analysis/shaping-global-ai-governance-enhancements-and-next-steps-g7-hiroshima-ai-process.
  13. Thai Gia Han. „Special Alert | Vietnam: A New Chapter for Digital Technology Industry“. IndochineCounsel, 22. August 2024. https://indochinecounsel.com/special-alert-vietnam-a-new-chapter-for-digital-technology-industry.
  14. https://www.klicksafe.de/
  15. https://www.elementsofai.de/