Gesetzliche Neuerung: Gesichtserkennungssoftware endgültig verboten

0

Die EU hat reagiert und den AI Act verabschiedet, um den wachsenden Herausforderungen im Bereich der künstlichen Intelligenz zu begegnen. Das Gesetz zielt darauf ab, bedenkliche Praktiken wie die Gesichtserkennung von Suchmaschinen zu regulieren und die Sicherheit sowie Anonymität der Menschen zu gewährleisten. Durch die Zustimmung des EU-Parlaments und die Verschärfung der Regelungen wird ein wichtiger Schritt in Richtung umfassender KI-Regulierung unternommen.

Durchbruch in der KI: Erster regulierter Wirtschaftsraum

Die EU hat den ersten Schritt unternommen, um künstliche Intelligenz gesetzlich zu regulieren, indem die Europäische Kommission einen Gesetzesentwurf am 21. April 2021 vorgelegt hat. Nach der Festlegung der Position durch das Europäische Parlament am 14. Juni 2023 können nun Verhandlungen zwischen den EU-Institutionen beginnen, um das Gesetz in seine endgültige Form zu bringen.

Die EU-Vorschriften für KI legen großen Wert auf einen ausgewogenen Ansatz, der sowohl die technologische Innovation fördert als auch die Einhaltung grundlegender ethischer und rechtlicher Prinzipien sicherstellt. Sie setzen auf eine ganzheitliche Herangehensweise, um sicherzustellen, dass KI-Systeme sicher, fair und verantwortungsvoll entwickelt und eingesetzt werden, um die Interessen der Bürger und der Gesellschaft insgesamt zu schützen.

Übersicht: Was umfasst das vorgeschlagene Gesetz?

Das geplante Gesetz zur Regulierung von KI-Systemen beruht auf einer umfassenden Definition, die von autonomen maschinengestützten Systemen spricht. Diese Systeme können Vorhersagen, Empfehlungen oder Entscheidungen generieren, die das physische oder virtuelle Umfeld beeinflussen. Durch die Einteilung der KI-Systeme nach der von ihnen ausgehenden Gefahr soll eine angemessene Regulierung gewährleistet werden.

Verbotene KI-Methoden: Gefahren minimieren, Regeln setzen

Schließlich sollten KI-Systeme, die in der Lage sind, autonome Waffensysteme zu steuern, verboten werden. Die Verwendung solcher Technologien kann die Sicherheit der Menschen in unakzeptabler Weise gefährden, da sie potenziell außer Kontrolle geraten können und unvorhersehbare Folgen haben, insbesondere in Kriegssituationen, in denen Menschenleben auf dem Spiel stehen.

  • KI-Systeme verwenden manipulative und täuschende Techniken, um Personen zu schädigen, jedoch nicht in therapeutischen Anwendungen.
  • Die Ausbeutung oder das Ausnutzen der Schwäche oder des Schutzbedarfs von Personen basiert auf bekannten oder vorhergesagten Persönlichkeitsmerkmalen, der sozialen oder wirtschaftlichen Situation, dem Alter oder den körperlichen/geistigen Fähigkeiten und erfolgt durch den Einsatz entsprechender Techniken.
  • Sensible Merkmale wie Geschlecht und ethnische Zugehörigkeit können mittels biometrischer Systeme kategorisiert werden. Solche Systeme nutzen spezialisierte Technologien und Algorithmen, um objektive Messungen dieser Merkmale zu ermöglichen. Es ist jedoch zu beachten, dass diese Systeme in erster Linie für nicht-therapeutische Zwecke entwickelt wurden, sondern beispielsweise für die Identifikation von Personen in Sicherheitssystemen, die Überwachung von Bevölkerungstrends oder die Erforschung sozialer Phänomene.
  • Systeme zur Bewertung des sozialen Verhaltens nutzen fortschrittliche Technologien, um menschliches Verhalten in sozialen Situationen zu überwachen und zu bewerten. Sie können beispielsweise Kameras, Mikrofone oder Sensoren einsetzen, um Daten zu sammeln, die dann mithilfe von Algorithmen analysiert werden. Diese Systeme können in verschiedenen Anwendungen eingesetzt werden, wie zum Beispiel bei der Autismusdiagnostik, der Personalentwicklung oder der Überwachung von öffentlichen Interaktionen.
  • Durch den Einsatz von biometrischen Systemen kann die Identifizierung von Personen an öffentlichen Orten in Echtzeit oder nachträglich aus der Ferne erfolgen. Diese Systeme nutzen ein breites Spektrum biologischer Merkmale, darunter die Analyse der Herzfrequenz oder die Erkennung der Handflächenlinien, um eine zuverlässige und effektive Identifizierung von Personen zu ermöglichen.
  • Mithilfe von KI-gestützten Analysemethoden werden Profile und Standortdaten von Personen genutzt, um das Risiko von Straftaten oder erneuter Straffälligkeit zu bewerten. Diese Technologie ermöglicht es, frühzeitig auf potenzielle Risikofaktoren zu reagieren, indem entsprechende Ressourcen und Unterstützung bereitgestellt werden, um das Wiederauftreten von Straftaten zu verhindern und individuelle Rehabilitation zu fördern.
  • Die Entwicklung von KI-Systemen ermöglicht es, Datenbanken zur Gesichtserkennung zu erzeugen oder zu erweitern, indem sie Bilder aus dem Internet oder Überwachungskameras analysieren. Diese Technologie hat das Potenzial, die Effizienz von Identifikationsprozessen in verschiedenen Bereichen wie Sicherheit, sozialen Medien oder Kundenservice zu verbessern.
  • In zahlreichen Bereichen wie Strafverfolgung, Grenzmanagement, Arbeitsplatz und Bildungseinrichtungen sind KI-Systeme im Einsatz, um Emotionen zu erkennen. Diese Systeme nutzen hochentwickelte Sensortechnologien und Algorithmen, um emotionale Daten zu analysieren und Rückschlüsse auf das Verhalten, das Sicherheitsrisiko oder den Lernfortschritt von Personen zu ziehen.

Risikomanagement: Herausforderungen der künstlichen Intelligenz

Bestimmte KI-Systeme stellen aufgrund ihres erheblichen Risikos für die Gesundheit, Sicherheit und Grundrechte von Personen sowie für die Umwelt eine besondere Gefahr dar. Der Anhang III des Gesetzesentwurfs bietet einen Rahmen für die Identifizierung und Klassifizierung solcher hochriskanter Systeme, darunter zum Beispiel KI-Systeme für den Einsatz in Verkehr und Transport oder im Bereich der kritischen Infrastrukturen. Unternehmen sollten sich bewusst sein, dass der Anhang von der Kommission überarbeitet werden kann und daher eine fortlaufende Überprüfung ihrer KI-Anwendungen erforderlich ist, um mit den sich entwickelnden Regulierungen Schritt zu halten.

Flexibler Umfang von Anforderungen bei verschiedenen Risiken

Die Erfüllung einer Vielzahl von Anforderungen ist von großer Bedeutung, um die Sicherheit und Transparenz von KI-Anwendungen zu gewährleisten. Dazu gehören die Registrierung in einer EU-Datenbank vor der Marktzulassung, die Umsetzung von Risiko- und Qualitätsmanagementverfahren, die Aufsicht durch menschliche Instanzen sowie die Offenlegung der Generierung von Deepfake-Fotos, um sie von authentischen Bildern unterscheiden zu können.

Förderung und Schutz der Bürger: Risikostufen aktualisiert

Der vorliegende Gesetzesentwurf für risikoarme KI legt den Fokus auf die Einhaltung grundlegender Grundsätze wie menschliche Kontrolle und Überwachung, technische Robustheit und Schutz vor Schäden und Cyberangriffen. Zudem sind Datenschutzgrundsätze von großer Bedeutung, um die Vertraulichkeit der Daten zu gewährleisten, und es werden Maßnahmen zur Verhinderung von Diskriminierung ergriffen.

Um den praktischen Einsatz von KI-Anwendungen zu optimieren, werden spezifische Ausnahmen für Forschungstätigkeiten eingeführt, wobei ein besonderes Augenmerk auf die Förderung von Reallaboren gelegt wird. Reallabore ermöglichen es Behörden, KI-Anwendungen unter realen Bedingungen zu erproben und somit deren Praxistauglichkeit zu validieren und weiterzuentwickeln.

Durch den AI Act der EU werden bedeutsame Vorteile erzielt. Der Gesetzentwurf zielt darauf ab, die Privatsphäre und Sicherheit der Menschen zu schützen, indem er den Einsatz von KI-Systemen mit fragwürdigen Praktiken einschränkt und untersagt. Darüber hinaus stellt der AI Act sicher, dass KI in Europa den grundlegenden Werten entspricht und stets durch menschliche Aufsicht kontrolliert wird.

Die Bedrohung der Anonymität und Sicherheit durch Gesichtserkennungssoftware wie PimEyes hat zu einer zunehmenden Besorgnis in der Gesellschaft geführt, da Personen praktisch überall und jederzeit identifiziert werden können. Um den Schutz der Bürger zu gewährleisten, hat die Europäische Union den AI Act eingeführt, ein Gesetz zur Regulierung künstlicher Intelligenz, das strengere Regeln für den Einsatz solcher Technologien festlegt und den Fokus auf den Schutz der Privatsphäre und Anonymität legt.

Die EU steht kurz davor, Künstliche Intelligenz gesetzlich zu regulieren und damit eine Vorreiterrolle in der globalen Wirtschaft einzunehmen. Nachdem die Europäische Kommission den Entwurf des KI-Gesetzes im April 2021 präsentiert hat und das Europäische Parlament im Juni 2023 über seine Position abgestimmt hat, stehen nun die Verhandlungen zwischen Kommission, Parlament und Rat an, um das endgültige Gesetz zu verabschieden.

Die EU hat Maßnahmen ergriffen, um sicherzustellen, dass die Entwicklung und Nutzung von Künstlicher Intelligenz innerhalb der Union den Rechten und Werten entspricht. Diese Maßnahmen umfassen die Einbeziehung menschlicher Aufsicht, die Berücksichtigung von Sicherheitsanforderungen, die Gewährleistung des Datenschutzes und der Transparenz, die Vermeidung von Diskriminierung sowie den Schutz von Gesellschaft und Umwelt vor möglichen Gefahren.

Beschreibung: Das Europäische Parlament definiert ein KI-System als eine Art von technischem System, das mit unterschiedlichem Grad an Autonomie arbeiten kann und Ergebnisse produziert, die das physische oder virtuelle Umfeld beeinflussen. Diese Definition umfasst verschiedene Arten von Software und bildet die Grundlage für die Kategorisierung von KI-Systemen entsprechend den geplanten Vorschriften.

Die Forderung, bestimmte KI-Praktiken zu verbieten, basiert auf einer Pressemitteilung, in der betont wird, dass diese Praktiken die menschliche Sicherheit in inakzeptabler Weise gefährden. Die verbotenen Techniken umfassen KI-Systeme, die sensiblen Merkmalen wie Geschlecht oder ethnische Zugehörigkeit zur biometrischen Kategorisierung nutzen, mit Ausnahme in therapeutischen Anwendungen.

Schließlich werden auch KI-Systeme zur Erkennung von Emotionen genannt, die in Bereichen wie Strafverfolgung, Grenzmanagement, Arbeitsplatz und Bildung eingesetzt werden. Diese Systeme sind umstritten, da sie eine potenzielle Überwachung und Manipulation der emotionalen Zustände der Menschen ermöglichen könnten, was wiederum ernsthafte Bedenken hinsichtlich der Privatsphäre und der individuellen Freiheit aufwirft.

Es gibt eine Reihe von KI-Systemen, die aufgrund ihres erheblichen Risikos für die Gesundheit, Sicherheit und Grundrechte von Personen oder für die Umwelt als hochriskant betrachtet werden. Der Gesetzesentwurf enthält im Anhang III des Dokuments acht Kategorien solcher Systeme, die Unternehmen beachten sollten, da sich dieser Anhang in Zukunft ändern könnte, basierend auf den Entscheidungen der Kommission.

Die Anforderungen an KI-Systeme umfassen auch die Einhaltung ethischer Grundsätze und die Berücksichtigung möglicher sozialer Auswirkungen. Dies beinhaltet eine umfassende Bewertung potenzieller Risiken und eine angemessene Mitwirkung von Experten, um sicherzustellen, dass KI-Systeme verantwortungsbewusst entwickelt und eingesetzt werden, um negative Folgen für Individuen und die Gesellschaft zu vermeiden.

Die im Gesetzesentwurf formulierten Vorgaben für Künstliche Intelligenz mit minimalem oder keinem Risiko sind vergleichsweise schwach. Die KI-Systeme müssen lediglich einige generelle Prinzipien berücksichtigen, wie etwa die Notwendigkeit menschlicher Kontrolle und Überwachung, technische Robustheit, Schutz vor Schäden und Cyberangriffen, Einhaltung der Datenschutzbestimmungen und Verhinderung von Diskriminierung.

Eine Möglichkeit, Forschungstätigkeiten zu unterstützen, besteht darin, spezifische Ausnahmen zu schaffen, insbesondere durch die Förderung von Reallaboren. Diese Labore dienen dazu, Behörden die Gelegenheit zu geben, KI-Anwendungen in realen Szenarien zu testen und somit Erkenntnisse über ihre Wirksamkeit, Effizienz und etwaige ethische oder rechtliche Aspekte zu erlangen.

Mit dem AI Act werden bedeutende Vorteile geschaffen, um die Privatsphäre und Sicherheit der Menschen im Zusammenhang mit KI-Systemen zu schützen. Durch die Regulierung und Einschränkung von KI-Systemen mit bedenklichen Praktiken stellt das Gesetz sicher, dass KI den europäischen Werten entspricht und von menschlicher Aufsicht begleitet wird. Unternehmen sollten ihre eigenen Systeme frühzeitig überprüfen, um potenzielle Geldbußen zu vermeiden, die bei der Verwendung nicht konformer KI-Systeme drohen können. Obwohl die endgültige Anwendung der Verordnung voraussichtlich erst 2026 erfolgen wird, ist es ratsam, bereits jetzt die erforderlichen Anpassungen vorzunehmen, um den gesetzlichen Anforderungen gerecht zu werden.

Lassen Sie eine Antwort hier