Was ist der EU AI Act?
Bei dem Artificial Intelligence Act, kurz EU AI Act, handelt es sich um eine neu beschlossene Fassung der Europäischen Union. Die Verordnung soll mögliche Risiken beim Einsatz von speziellen KI-Systemen mithilfe von einheitlichen Regeln regulieren.
Den ersten Vorschlag der Verordnung machte die EU-Kommission bereits im April 2021. Im Dezember 2023 haben sich EU-Parlament und Mitgliedsstaaten auf die vorläufige Fassung geeinigt und diese im März 2024 beschlossen. Mit einer geplanten Übergangsfrist von 24 Monaten sollen Organisationen ausreichend Zeit erhalten, die entsprechenden Anforderungen umzusetzen.
Warum ist eine KI-Verordnung innerhalb der EU erforderlich?
Eine einheitliche Regelung für KI-Systeme in den EU-Mitgliedsstaaten ist erforderlich, um die Sicherheit von Land und Einwohnern zu gewährleisten. Denn künstliche Intelligenz steckt noch in den Anfängen und keiner kann voraussehen, was die Entwicklung von KI mit sich bringt. Ist die Nutzung von künstlicher Intelligenz eine Bereicherung für den Menschen oder wird die KI eines Tages zur Gefahr für die Menschheit? Um den Gefahren vorzubeugen, soll die Verordnung zukünftig die Richtlinien vorgeben.
Auch der Missbrauch von KI-Programmen in Bezug auf Waffenherstellung, Wahlmanipulation und Terrorismus lässt kritische Stimmen ertönen. Technologie-Berater warnen mit ihren Worten von einer möglichen Tötung vieler Menschen durch KI. Da sich bisher die meisten KI-Modelle nicht kontrollieren und steuern lassen, sind dringend globale Regulierungen nötig.
Welche Regeln stehen im AI Act der Europäischen Union?
Der EU AI Act beinhaltet einerseits die Nutzung spezieller KI-Systeme unterteilt in die drei verschiedenen Risikoebenen: minimales Risiko, hohes Risiko und unannehmbares Risiko. Weiterhin gelten besondere Regeln für allgemeine Modelle von künstlicher Intelligenz.
Dazu gehören unter anderem Vorgaben für risikoreiche KI-Systeme in Sicherheitsbehörden und Personalverwaltungen. Entsprechend dem EU AI Act muss eine menschliche Kontrolle über künstliche Intelligenz vorhanden sein. Weiterhin sind Organisationen verpflichtet, eine technische Dokumentation der Nutzung von KI-Tools sowie ein ausreichendes Risikomanagement zu garantieren.
Auch ein Verbot von bestimmen KI-basierenden Programmen, mit unannehmbarem Risiko, ist im AI Act der EU formuliert: KI-Systeme, die menschliches Verhalten beeinflussen oder deren freien Willen begrenzen, sind in Zukunft verboten. Zudem darf künstliche Intelligenz sich nicht an menschlichen Schwächen bedienen, die altersbedingt sind oder aufgrund einer Behinderung bestehen. Bei Interaktionen mit Menschen ist zudem ein Nutzungshinweis erforderlich.
Die Dokumentation, Überwachung sowie Qualitäts-, Transparenz- und Risikoanforderungen beim Einsatz von bestimmten KI-Systemen und Modellen sind künftig von KI-Entwicklern und Anwendern zu erfüllen. Der EU AI Act soll eine gefahrenlose Nutzung von Künstlicher Intelligenz in der Zukunft ermöglichen.
Wann soll der EU AI Act in Kraft treten?
Der AI Act wurde im März 2024 von der Europäischen Union beschlossen. Organisationen wird empfohlen, frühzeitig mit der Umsetzung zu beginnen, um einerseits die komplexen Anforderungen der EU zu erfüllen und sich einen Wettbewerbsvorteil bei Markteinführung von „sicheren“ KI-Systemen zu verschaffen.
Auch der Erfolg von Unternehmen, die Künstliche Intelligenz auf dem europäischen Markt einsetzen, hängt in Zukunft von der Sicherheit und Qualität der eingesetzten KI-Systeme ab. Das gilt vor allem für Unternehmen, die auf dem asiatischen und amerikanischen Markt aktiv sind. Denn eine Regulierung von KI auf internationaler Ebene war bereits Thema – unter anderem auf den G-7-Treffen.
Fazit: Der AI Act der EU soll mögliche Risiken von künstlicher Intelligenz unterbinden
Künstliche Intelligenz gehört mittlerweile zum Alltag, aber niemand weiß, welche Gefahren ihr Einsatz mit sich bringen kann. Daher sind einheitliche Regeln bei der Entwicklung und Anwendung von KI-Systemen und Modellen unverzichtbar – und zwar weltweit! Der AI Act der Europäischen Union soll die Sicherheit beim Einsatz von künstlicher Intelligenz regeln. Die Verordnung wurde im März 2024 verabschiedet, sodass Organisationen schnellstmöglich mit der Umsetzung beginnen sollten.