Europas Plan für eine sichere künstliche Intelligenz
8. April 2019, 14:05
16 Postings
Ethikleitlinien einer EU-Expertengruppe sollen "vertrauenswürdige und
sichere KI" realisierbar machen
Künstliche Intelligenz (KI) könnte unsere Gesellschaft nachhaltig
verändern. – von selbstfahrenden Autos über selbstlernende
Überwachungssysteme bis hin zu automatisierten Finanztransaktionen und
medizinischen Diagnosen. Dabei stellt sich die Frage, wie sichergestellt
werden kann, dass diese intelligenten Systeme nicht missbraucht werden
und so konzipiert sind, dass sie Menschen keinen Schaden zufügen können.
Eine Expertengruppe der Europäischen Kommission von mehr als 50
Wissenschaftern, Entwicklern, Rechtsexperten und Industrievertretern hat
nun Ethikleitlinien zur Entwicklung vertrauenswürdiger künstlicher
Intelligenz vorgestellt.
Fundament, Methoden und Überprüfung
Nach diesem Rahmen wird erstens das ethische Fundament definiert, auf
dem die Entwicklung von KI aufsetzen soll. Zweitens werden technische
und nichttechnische Methoden festgehalten, die die Implementierung der
ethischen Prinzipien über die gesamte Laufzeit einer KI ermöglichen
sollen. Und drittens wird eine konkrete Checkliste für vertrauenswürdige
KI bereitgestellt, die Entwicklern und Herstellern bei der Prüfung ihrer
Systeme hilft.
Diesen drei Komponenten müsste man über die über die gesamte Laufzeit
eines Systems gerecht werden, heißt es in den Leitlinien.
Vertrauenswürdige KI sollte daher gesetzeskonform und ethisch sowie aus
technischer und sozialer Sicht robust sein.
Instrument fürs Allgemeinwohl
Ziel dieser Leittlinien ist es, die 2018 von der Europäischen Kommission
kommunizierte Vision von "ethischer, sicherer und hochmoderner KI,
entwickelt in Europa", realisierbar zu machen. Dieser Vision nach sollen
die öffentlichen und privaten Investitionen in KI gesteigert,
Vorbereitungen für die sozioökonomischen Veränderungen getroffen und ein
entsprechender ethischer und rechtlicher Rahmen zur Stärkung der
europäischen Werte geschaffen werden.
"Wir glauben, dass KI das Potenzial hat, die Gesellschaft zu
transformieren", schreibt die Expertengruppe. "KI ist ein
vielversprechendes Instrument, um das menschliche Gedeihen zu fördern
und damit das individuelle und gesellschaftliche Wohlergehen zu steigern
und zugleich für Fortschritt und Innovation zu sorgen." Speziell könne
gemeinnützig eingesetzte KI dazu beitragen, die UN-Ziele für die
nachhaltige Entwicklung zu erreichen. Dazu gehören die geschlechtliche
Gleichstellung, die Eindämmung des Klimawandels sowie eine Verbesserung
der individuellen und allgemeinen Gesundheit oder der umsichtige Umgang
mit natürlichen Ressourcen und die Verbesserung von
Produktionsprozessen.
Reale Gefahren
Obwohl sich KI-Entwicklung noch in einem Frühstadium befindet, ist das
Risiko eines schädlichen oder gar missbräuchlichen Einsatzes dieser
Technologien groß, warnen Experten. Angefangen von Überwachungssystemen,
die aufgrund fehlerhafter oder manipulierter Daten bestimmte
Bevölkerungsgruppen grundlos ins Visier nehmen bis hin zu autonomen
Fahrzeugen oder Industrierobotern, die Menschen aufgrund technischer
Mängel oder Unzulänglichkeiten verletzen können. Ein weiteres Problem
stellt die oftmals schwierige Nachvollziehbarkeit von KI-Entscheidungen
dar. So können beispielsweise Entwickler von Übersetzungssoftware schon
heute nicht mehr die Prozesse rekonstruieren, die Google Translate und
Co zur Übersetzung von Texten einsetzen. Ein Problem, das sich hier
nicht gravierend auswirkt. Bei intelligenten Waffensystemen wäre ein
derartiger Mangel an Transparenz wiederum deutlich problematischer.
Test und Realisierbarkeit
Die EU-Expertengruppe, der mit den Professoren Sabine Theresia Köszegi
und Mark Coeckelbergh auch Vertreter der TU Wien und der Universität
Wien angehören, schickt die ethischen Leitlinien zur Entwicklung
vertrauenswürdiger künstlicher Intelligenz im Sommer in eine Pilotphase,
um Feedback zur praktischen Umsetzung sammeln zu können. Interessenten
können im Rahmen der "European AI Alliance" teilnehmen. Eine adaptierte
Fassung, die die Rückmeldungen aller Interessenvertreter berücksichtigt,
soll Anfang 2020 der Europäischen Kommission vorgelegt werden.
Die EU-Kommission ist mit ihren Anstrengungen hinsichtlich
vertrauenswürdiger KI nicht allein. Bereits 2018 gab in den USA
beispielsweise das AI Now Institute der New York University einen
Bericht mit Empfehlungen für die gesetzliche Regulierung von KI heraus.
Auch das Massachusetts Institute of Technology setzt bei seiner
KI-Entwicklung Richtlinien ein, die für sichere Systeme sorgen sollen.
Eine staatliche Initiative dazu gibt es bislang jedoch nicht. (zw,
8.4.2019)
Links
Ethikleitlinien zur Entwicklung vertrauenswürdiger künstlicher
Intelligenz
https://derstandard.at/2000101017693-406/Europas-Plan-fuer-eine-sichere-kuenstliche-Intelligenz
Andere Staaten haben bereits seit den
70-ziger Jahren des vorigen Jahrhunderts dies erkannt!
Was ist "hochmoderne"
Intelligenz ?
Was ist "vertrauenswürdige"
Intelligenz ?
Was ist sichere Intelligenz ?