Hast du dich schon einmal gefragt, wie oft am Tag du Künstliche Intelligenz (KI) nutzt? Wie oft du KI-basierte Entscheidungen triffst? Zum Beispiel, wenn du bei Google-Maps den besten Weg suchst, natürlich unter Berücksichtigung aktueller Verkehrsdaten, oder du eine neue Band bei Spotify vorgeschlagen bekommst, und du einfach mal reinhörst. KI kann unser Leben einfacher machen und bereichern, aber gleichzeitig unsere Perspektive einschränken. Denn woher soll der Algorithmus von Spotify wissen, dass dir spanischer Flamenco gefällt, wenn du es vielleicht selbst noch nicht weißt oder einfach noch nie ein Lied aus dem Genre bei Spotify gesucht hast?
KI ist in unserem Alltag angekommen, jedoch ist nicht immer transparent, wann und wie sie eingesetzt wird. Wie kommen zum Beispiel Preise für Flüge, Bahnfahrten oder Konzerte zustande? In den meisten Fällen errechnet das ein KI-Programm im Hintergrund. Außerdem gibt es Bereiche, in denen KI bewusst (noch) nicht eingesetzt wird, zum Beispiel bei Verwaltungsentscheidungen in Deutschland. Andere Länder in Europa haben bereits Erfahrungen mit dem Einsatz von Algorithmen gesammelt. Zum Beispiel suchten Steuerbehörden in den Niederlanden KI-gestützt nach möglichem Betrug bei Kinderbetreuungsleistungen. Nachdem wiederholt falsche Entscheidungen getroffen wurden, wurde die Behörde zu einer Strafzahlung verurteilt und der Einsatz der KI gestoppt.
Je nach Risiko gelten für KI-Anwendungen zukünftig unterschiedliche EU-Regeln
Mit dem KI-Gesetz hat die EU weltweit ein erstes umfängliches Regulierungswerk geschaffen, das KI-Anwendungen nach ihrem Risiko für die Nutzer*innen und die Gesellschaft bewertet. Je nach Risiko gelten für die Unternehmen und Anbieter unterschiedlich strenge Regeln. Zum Beispiel muss offengelegt werden, mit welchen Datensätzen ein Algorithmus trainiert wurde. Denn eine Gesichtserkennungssoftware, die beispielsweise nur mit Gesichtern von weißen Menschen „gefüttert“ wurde und dazu dient, Raubtäter*innen auf Videomaterial schnell zu erkennen, kann zu weitreichenden Fehlern bei der Identifizierung führen. Zum Beispiel bei schwarzen Menschen, deren Gesichter für die Software dann alle gleich aussehen. Softwaresysteme, die die Auswahl von Bewerber*innen für ein Unternehmen erleichtern sollen, bewerten die Lebensläufe von Frauen schlechter als die von Männern – einfach deswegen, weil Frauen oftmals eine Lücke auf Grund der Geburt von Kindern vorweisen.
Das bedeutet nicht, dass KIs „bewusst“ rassistisch oder sexistisch sind – sie treffen “nur” oftmals mathematisch klare Entscheidungen, die auf Daten fußen, mit denen sie trainiert wurden. Wenn die Auswahl dieser Daten unausgewogen getroffen wird, dann führt das zu Schäden für den Einzelnen. Und außerdem müssen KI-generierte Inhalte wie Bilder, Videos oder Texte als solche kenntlich gemacht werden. So soll eine missbräuchliche Nutzung, indem beispielsweise ein „KI-Olaf-Scholz“ eine Verschwörungserzählung unterstützt, verhindert werden.
Gleichzeitig werden bestimmte Anwendungen in der EU grundsätzlich verboten, da das Risiko als nicht hinnehmbar eingestuft wird. So dürfen Menschen nicht aufgrund ihrer Hautfarbe, Religion oder sexuellen Orientierung in Kategorien eingeteilt werden. Echtzeit-Gesichtserkennung im öffentlichen Raum soll nur in engen Grenzen für Sicherheitsbehörden möglich sein.
Warum du auch ohne Informatik-Kenntnisse mitreden solltest
Auf europäischer Ebene wurde dieses Jahr ein Rahmen beschlossen, in dem KI-Anwendungen sich weiter entwickeln werden. Dies ist jedoch nur ein erster Schritt, weitere werden folgen müssen. Ich bin davon überzeugt, dass wir ein Bewusstsein entwickeln müssen, wann und wie wir KI-Systeme nutzen. Sowohl im Privaten als auch beruflich, als Anwender*in und Verbraucher*in. Zudem brauchen wir eine gesellschaftliche Debatte darüber, wo und wie KI zukünftig eingesetzt werden soll. Soll ein Algorithmus eigenständig Entscheidungen darüber treffen, zu welchen Konditionen dir eine Versicherung angeboten wird? Ab wann braucht es eine „menschliche“ Prüfung? Wie kann KI Ärzt*innen bei ihrer Diagnose-Arbeit unterstützen?
Neben den beschriebenen Einsatzszenarien benötigen wir Qualitätsstandards für Datensätze, die zur Entwicklung von Algorithmen verwendet werden. Denn durch unausgewogene Datensätze werden Modellierungsentscheidungen getroffen, die in erster Linie unbewusst bewertend und nicht technisch sind. Deswegen müssen wir uns auch mit diesen ethischen Fragen auseinandersetzen, mit einer Vielfalt an Perspektiven und in der Breite der Gesellschaft.
Foto: AdobeStock_613883313
Hi
Ganz deiner Meinung.
Weiter viel Erfolg.
Gruß aus der alten Heimat