Ein Grossteil der Weiterbildungsanbieter sieht ethische Risiken, wenn es um den Einsatz von KI geht. Das zeigt die FOCUS-Studie des SVEB. Wie sie dennoch einen vertretbaren Umgang mit KI pflegen können, erklärt Expertin Insa Reichow.
Gemäss den Ergebnissen der Anbieterumfrage 2024 des SVEB gehen 60 Prozent der Schweizer Weiterbildungsanbieter davon aus, dass KI ethische Risiken für die Weiterbildung mit sich bringt. Stimmen Sie dieser Einschätzung zu? Wenn ja, welche ethischen Risiken sehen Sie beim Einsatz von KI in der (Weiter-)Bildung?
Die Frage in der Anbieterumfrage ist sehr allgemein gestellt. Da «KI» nicht näher definiert ist, können wir nur mutmassen, was sich die Befragten jeweils unter «KI» vorgestellt haben: Die Verwendung von Sprachmodellen zur Unterstützung beim Erstellen von Unterrichtsentwürfen? Bildgeneratoren zur Bebilderung von Lehrmaterialien? Ein Empfehlungssystem, das passende Online-Weiterbildungen empfiehlt? Ein KI-basiertes System für die automatische Auswahl von Bewerberinnen und Bewerbern? Sicherlich unterscheidet sich die Einschätzung ethischer Risiken allein in diesen Szenarien sehr deutlich voneinander. Um mögliche ethische Risiken sinnvoll einzuschätzen, müssen wir uns daher auf konkrete Technologien in konkreten Anwendungsfällen beziehen. Um ethische Risiken näher zu bestimmen, können Frameworks helfen. Diese zeigen auf, welche ethischen Aspekte bei KI-Technologien häufig eine Rolle spielen. Die Hochrangige Expertengruppe für KI der Europäischen Kommission definierte beispielsweise «Fairness», «Erklärbarkeit», «Schadensverhütung» und «Achtung der menschlichen Autonomie» als Grundsätze vertrauenswürdiger KI-Systeme und definiert weitere sieben Kernanforderungen, wie «Transparenz» und «technische Robustheit und Sicherheit». Zu diesen recht allgemeinen Anforderungen kommen noch ethische Prinzipien, die insbesondere im Bildungsbereich eine besondere Rolle spielen, beispielsweise, dass der Technologieeinsatz der Förderung von Bildungsgerechtigkeit oder dem Erreichen konkreter Bildungsziele dient. Dass der Bildungsbereich ein sensibler Bereich ist, in dem wir besondere Vorsicht walten lassen sollten, spiegelt sich auch in der KI-Verordnung der Europäischen Union wider. Die KI-Verordnung soll bestimmte KI-Technologien EU-weit regulieren und wählt dafür einen risikobasierten Ansatz. Der Bildungsbereich ist dabei ein Hochrisikobereich, der Anbietern von Bildungstechnologien besondere Pflichten abverlangt, bevor diese Systeme überhaupt in die breite Nutzung kommen dürfen. Neben unserem eigenen ethischen Kompass, den wir nutzen können, um Technologien zu hinterfragen, wird es also zukünftig innerhalb der Europäischen Union auch rechtliche Auflagen geben. Insgesamt zeigen diese Entwicklungen rund um die KI-Verordnung, die stetig wachsende Zahl an Ethik-Leitlinien und auch die Ergebnisse der Anbieterumfrage, dass wir für das Thema Ethik sensibilisiert sind. Die Wahrnehmung, dass ethische Risiken bestehen, führt im besten Falle dazu, dass wir die zur Verfügung stehenden Technologien kritisch prüfen, Massnahmen ergreifen, um ihren Einsatz vertretbar zu gestalten – oder bestimmte Technologien oder Einsatzzwecke eben auch informiert ablehnen.
Sie sprechen sich für einen «ethisch unbedenklichen Einsatz von KI» im Bereich der Bildung aus. Was bedeutet das genau?
Technologien, die gänzlich frei von ethischen Bedenken für alle Beteiligten sind – von den Entwicklerinnen über die Produzenten bis zu den Endnutzerinnen – gibt es nicht. Vielleicht wäre daher hier «ethisch vertretbar» die bessere Formulierung. Eine Prüfung auf ethische Vertretbarkeit umfasst dabei gesellschaftliche, soziale, kulturelle und wertebasierte Aspekte, die zwar (noch) nicht Teil der offiziellen Rechtsprechung, jedoch zentral für eine zuverlässige und tragfähige Ausgestaltung technischer Systeme sind. Dies sind solche Aspekte wie die oben angesprochenen, z.B. Transparenz und Fairness. Ein «ethisch vertretbarer» Einsatz einer Technologie setzt voraus, dass sich all diese möglichen ethischen Aspekte für den konkreten Einsatzzweck überhaupt bewusst gemacht wurden. Dazu müssen die verschiedenen Akteure, ob das Lehrende, Lernende, Weiterbildungsanbieter oder Arbeitgeber sind, miteinander sprechen. Wer profitiert wie von der Nutzung einer Technologie? Was sind mögliche, auch langfristige, Nachteile einer Nutzung für unseren Bildungskontext? Sehen wir beispielsweise, dass bestimmte Personengruppen an einem Tool nicht teilhaben können? Befürchten wir, dass unsere Lernenden nicht mehr autonom über ihre eigenen Bildungsverläufe entscheiden, wenn Algorithmen automatisiert immer die vermeintlich besten Lernpfade vorgeben? Das sind einige der Fragen, die man miteinander spezifisch für die jeweilige Technologie ausdiskutieren muss. Wir haben in diesem Zusammenhang gute Erfahrungen mit dem MEESTAR-Modell gemacht. MEESTAR ist ein Modell zur ethischen Evaluation sozio-technischer Arrangements. Das Modell wurde im Kontext Pflege und alters gerechte Assistenzsysteme entwickelt, ist aber gut für Technologien im Bildungsbereich adaptierbar. In üblicherweise zweitägigen Workshops werden ethische Herausforderungen und Dimensionen einer Technologie in der Tiefe herausgearbeitet und mögliche Handlungsoptionen für die weitere Projekt- bzw. Technologieentwicklung abgeleitet. Manche der zahlreichen ethischen Fragestellungen lassen sich sicherlich nicht vorab klären und ebenso soll mein Plädoyer für die ethische Debatte nicht bedeuten, dass man alles zerreden und nichts mehr ausprobieren soll. Ganz im Gegenteil: Oft braucht es den praktischen Einsatz in der Bildungsrealität, um zu sehen, was eine Technologie tatsächlich bewirkt. Wenn die verschiedenen ethischen Aspekte für verschiedene Akteursgruppen reflektiert wurden, Massnahmen ergriffen wurden, um Risiken möglichst zu minimieren und man gemeinsam zu dem Schluss kommt, dass der Einsatz einer Technologie in einem bestimmten Bildungsbereich sinnvoll ist, dann würde ich diesen Einsatz für ethisch vertretbar halten.
Welche Schritte kann eine Weiterbildungsorganisation unternehmen, um KI ethisch vertretbar einzusetzen?
Weiterbildungsorganisationen sollten einerseits die Rechtslage im Blick behalten. Insbesondere Weiterbildungsorganisationen, die innerhalb der Europäischen Union tätig sind, sollten beobachten, wie die tatsächliche Umsetzung der KI-Verordnung erfolgt und welche Pflichten sich aus der KI-Verordnung für die Organisation selbst ergeben (Stichwort: Ausbildung von KI-Kompetenz). Es ist denkbar, dass sich einige Aspekte der KI-Verordnung auch in der Schweiz als Standard etablieren. Andererseits gibt es neben diesem rechtlich-bindenden Bereich den frei zu gestaltenden Bereich der Ethik. Leider bleibt für ethische Reflexionen in der Geschäftigkeit des Alltags oft wenig Raum. Das gemeinsame Diskutieren, das Verständigen über ethische Prinzipien und das Einbeziehen verschiedener Fachhintergründe benötigt Zeit und einen dezidierten Ort. Ich kann sehr empfehlen, dass sich Weiterbildungsorganisationen die Zeit einräumen, um spezifische Ethik-Workshops durchzuführen. Also mehrstündige Diskussionsrunden einplanen, in denen Vertreterinnen und Vertreter verschiedener Stakeholdergruppen zusammenkommen, sich darüber verständigen, welche ethischen Aspekte für den eigenen Kontext eigentlich relevant sind und einmal gemeinsam reflektieren, wo der geplante Technologieeinsatz kritisch sein könnte. Danach kann man gemeinsam überlegen, welche Massnahmen ergriffen werden können, um diese kritischen Aspekte etwas zu schmälern. Wir haben für solche Ethik-Workshops bislang das MEESTAR-Modell (s.o.) als Ausgangspunkt genutzt. Und keine Angst: Man muss kein Ethikstudium absolviert haben, um solche ethischen Reflexionen durchzuführen. Der gesunde Menschenverstand und vor allem das Wissen um die Zielgruppe und den Einsatzbereich sind völlig ausreichend, um lohnende Diskussionen zu führen. Sowohl bei solchen dezidierten Ethik-Diskussionen, aber auch im öffentlichen Diskurs ist es dabei zunehmend wichtig, zu benennen, was genau wir mit «KI» jeweils meinen. Das Feld der KI-gestützten Technologien ist auch im Bildungsbereich mittlerweile so gross, dass wir spezifischer werden müssen, um sinnvolle Diskurse zu führen.
Dr. Insa Reichow arbeitet seit Juni 2021 als Senior Researcher im Educational Technology Lab des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI). Sie hat Kognitionswissenschaften und Lehr-Lern-Forschung studiert und beforscht nun Einsatz und Wirkung von KI-basierten Technologien (z.B. Chatbots, adaptive Lernplattformen) in Bildungsprozessen u.a. im Metavorhaben der BMBF-Förderlinie INVITE (Digitale Plattform berufliche Weiterbildung).