Handlungsempfehlungen für eine »vertrauenswürdige KI«
»Künstliche Intelligenz« (KI) beeinflusst schon heute unser Leben und wird dies in Zukunft noch stärker tun. KI-basierte Technologien bringen viele Vorteile, aber ebenso Risiken mit sich. Ein neues Policy Paper des vom Fraunhofer ISI koordinierten Forschungsverbunds Forum Privatheit gibt in diesem Kontext 15 Empfehlungen, wie die menschliche Selbstbestimmung trotz Künstlicher Intelligenz nicht nur erhalten, sondern sogar gefördert werden kann.
In den letzten Jahren haben KI-Technologien rasante Fortschritte gemacht und werden bereits in den unterschiedlichsten Ausprägungen in Wirtschaft, Industrie oder der Medizin sowie vielen anderen Bereichen eingesetzt. Im Fokus stehen häufig die Vorteile, welche KI unbestritten mit sich bringt: So kann der Einsatz von KI-Technologien im Gesundheitswesen etwa bei Menschen mit Seh- oder Hörbehinderungen Wahrnehmungseinschränkungen ausgleichen. Ein weiteres, weit verbreitetes Einsatzgebiet ist personalisierte Werbung, die etwa auf das persönliche Profil von Nutzerinnen und Nutzern von Social-Media-Plattformen zugeschnitten ist.
Wenn personalisierte Werbung allerdings in Abhängigkeit von psychometrisch ermittelten Persönlichkeitseigenschaften individualisiert, also mittels »Micro-Targeting« ein psychologisches Profil erstellt bzw. die Persönlichkeit eines Menschen digital ausgelesen wird, ist dies durchaus problematisch. Die auf solche Weise erzeugten individualisierten Marketing- oder Wahlkampfbotschaften können Verhaltensmanipulation begünstigen, was in fundamentalem Widerspruch zur Idee menschlicher Selbstbestimmtheit steht. Dies gilt ebenfalls, wenn Algorithmen über Kreditwürdigkeit und Bildungschancen von Menschen »entscheiden« oder selbstlernende Computersysteme täuschend echte Bilder, Texte oder Videos synthetisch erstellen und diese dazu eingesetzt werden, um Menschen zu schaden (»Deepfakes«).
Grundlagen für eine »vertrauenswürdige KI«
Um einem derartigen missbräuchlichen Einsatz vorzubeugen, sollte KI der Idee einer gemeinwohlorientierten Technikentwicklung folgen, die den Erhalt und Ausbau demokratischer Werte und Grundrechte zum Ziel haben. Daher ist es besonders wichtig, schon heute die Grundlagen für eine vertrauenswürdige KI zu legen, gerade weil eine vollständige Transparenz und Kontrolle über KI – so wie auch über andere komplexe Technologien – gar nicht möglich und auch nicht realistisch ist. Dennoch sollten Menschen KI-basierte Entscheidungslogiken verstehen können, weshalb Prinzipien wie Transparenz und Nachvollziehbarkeit eine wichtige Rolle zukommt.
Der vom Fraunhofer ISI koordinierte Forschungsverbund Forum Privatheit hat in diesem Kontext ein Policy Paper zum Thema »Künstliche Intelligenz und Selbstbestimmung« verfasst und dabei 15 Handlungsempfehlungen für eine vertrauenswürdige KI formuliert, welche menschliche Selbstbestimmung trotz Künstlicher Intelligenz nicht nur erhalten, sondern sogar fördern können.
Handlungsempfehlungen
Eine der Empfehlungen lautet, dass algorithmischen Entscheidungssystemen mit Auswirkungen auf das menschliche Zusammenleben demokratisch festgelegte Fairnesskriterien zugrunde liegen müssen. Zudem sollte der Grad an Schutzmechanismen – etwa durch Regulierung seitens des Gesetzgebers – mit steigendem Schädigungspotenzial einer KI zunehmen. Neben verstärkten Pflichten für Produkt- bzw. Technologiehersteller potentiell gefährlicher KI-Anwendungen sollte auch die Vertretung von Betroffeneninteressen gestärkt werden. Zivilgesellschaftliche Initiativen und Intermediäre wie Datenschutz-Aufsichtsbehörden oder Verbraucherschutzorganisationen würden bei einer derartigen Konzeption einerseits Beratung über Risiken durch KI anbieten und andererseits bei der kritischen Bewertung von KI-Anwendungen, ihrer Zertifizierung und der Vertretung von Betroffeneninteressen mitwirken.
Kritische Bewertungskompetenzen stärken
Murat Karaboga, Privacy-Forscher am Fraunhofer ISI und Mitautor des Policy Paper, unterstreicht: »Künftig sollte die kollektive Beteiligung an der Gestaltung von KI ein stärkeres Gewicht erhalten. Neben der Förderung der kritischen Bewertungskompetenz bei den Verbraucherinnen und Verbrauchern meint dies insbesondere die Stärkung von Einrichtungen wie Datenschutzbehörden oder Verbraucherschutzorganisationen, um unabhängige Kontrollen im KI-Bereich durchführen zu können. Schließlich möchte Deutschland und Europa den so genannten ‚dritten Weg‘ gemeinwohlorientierter KI und nicht den des rein profitorientierten Digitalkapitalismus weltweit dominanter IT-Firmen oder des totalitären Digitalautoritarismus chinesischer Spielart gehen.«
Das Policy Paper ist Teil der Forschungsaktivitäten des Fraunhofer ISI im Bereich Künstliche Intelligenz. Dabei werden die Entwicklung und Implementierung von KI aus einer Innovationsperspektive analysiert. Der KI-Forschung am Fraunhofer ISI liegt ein systemischer Ansatz zugrunde, der die technischen, wirtschaftlichen, politischen und gesellschaftlichen Aspekte in den Blick nimmt und sowohl Potenziale als auch kritische Effekte von KI benennt.
Das Fraunhofer-Institut für System- und Innovationsforschung ISI analysiert Entstehung und Auswirkungen von Innovationen. Wir erforschen die kurz- und langfristigen Entwicklungen von Innovationsprozessen und die gesellschaftlichen Auswirkungen neuer Technologien und Dienstleistungen. Auf dieser Grundlage stellen wir unseren Auftraggebern aus Wirtschaft, Politik und Wissenschaft Handlungsempfehlungen und Perspektiven für wichtige Entscheidungen zur Verfügung. Unsere Expertise liegt in der fundierten wissenschaftlichen Kompetenz sowie einem interdisziplinären und systemischen Forschungsansatz.