Böse Gamer?!

Ein Beitrag von Moritz Schillo und Kevin Baum

Mit seiner Aussage auch die Gamer*innen-Szene nach der schrecklichen Tat in Halle unter dem Blickwinkel rechter Tendenzen beobachten zu wollen, sorgte Horst Seehofer (CSU) für einigen Wirbel. Insbesondere die angesprochene Gamer*innen-Szene machte ihrem Unmut und Ärger mit beißendem Spott in sozialen Netzwerken Luft. Oft anzutreffende Beiträge arbeiteten sich daran ab, wie harmlose und friedliebende Spiele die Beitragsschreiber*in radikalisierten, und knüpften damit an den Killerspiele-Diskurs der frühen 2000er Jahre an. Ob Horst Seehofer den Zusammenhang zwischen Verhaltensmustern und Computerspielen überhaupt meinte, blieb dabei unangetastet.

„Böse Gamer?!“ weiterlesen

Der Zugriff von Behörden auf Alexa & Co.

In den vergangenen Wochen erregte ein Vorstoß der Innenministerkonferenz zum Zugriff von Sicherheits- und Strafverfolgungsbehörden auf die aufgezeichneten Daten von Alexa und anderen Sprachassistenten bundesweite Aufmerksamkeit. Neben Datenschützern warnte unter anderem auch der Digitalverband Bitkom davor, den Behörden Zugriffsmöglichkeiten einzuräumen. Doch ist der Zugriff durch die Strafverfolger überhaupt ein erheblicher Eingriff in das Privatleben des Betroffenen und wo ist hierbei die Grenze zu ziehen?

Ein Beitrag von Stefan Hessel

„Der Zugriff von Behörden auf Alexa & Co.“ weiterlesen

Die 10 Gebote für den Einsatz von Künstlicher Intelligenz in der Personalarbeit?

Photo by Ashley Whitlatch on Unsplash

Der Ethikbeirat HR-Tech veröffentlichte vor kurzem 10 Richtlinien für den verantwortungsvollen Einsatz von Künstlicher Intelligenz in der Personalarbeit. Was sagen diese Richtlinien aus, wie weit tragen sie, wie sieht es mit den Richtlinien im Einsatz aus, und was haben Sie mit internationalen Leitlinien für vertrauenswürdige Künstliche Intelligenz (KI) zu tun? Ein Beitrag von Markus Langer.

Wer erklärt uns den guten Einsatz von KI?

In den letzten Monaten kam es immer wieder zu Kontroversen bezüglich des Einsatzes digitaler Technologien in Unternehmen. Besonders das Thema Künstliche Intelligenz erregt die Gemüter und feuert die öffentliche Diskussion an. Es gibt Vertrauensprobleme beim Einsatz Künstlicher Intelligenz in Unternehmen, Mitarbeiter, sowie Klein- und Mittelständische Unternehmen fühlen sich durch die rasante Entwicklung teilweise abgehängt (was auch Demonstrationen der letzten Wochen zeigen), KI-Empfehlungen sind von Anwendern (und teilweise auch Entwicklern) nicht überprüfbar, und zu allem Übel kommt es auch noch zu Diskriminierungsproblematiken (wie beispielsweise Amazon bei ihrer Personalauswahl-KI erfahren musste). 

Was daraus folgt? Trotz des KI-Hypes und des offensichtlichen Interesses an KI in der Personalarbeit, sind Unternehmen hinsichtlich des Einsatzes von KI teils skeptisch, Anbieter von KI-Lösungen versuchen händeringend die Akzeptanz für den Einsatz zu erhöhen und generell scheint ein Klima der Unsicherheit hinsichtlich des Einsatzes von KI zu herrschen. Solche Unsicherheit im Einsatz von Technologien ruft förmlich nach Richtlinien für den Einsatz KI-basierter Technologien – Richtlinien, die Entwicklern und Anwendern einen Rahmen für den verantwortungsvollen Einsatz neuer Technologien geben. Diesen Ruf nach Richtungsweisung und Rahmengebung haben die Mitglieder des „Ethikbeirat HR Tech“ vernommen und entwickelten in den letzten Monaten Richtlinien für den verantwortungsvollen Einsatz von Künstlicher Intelligenz (und weiterer digitaler Technologien) in der Personalarbeit.

„Die 10 Gebote für den Einsatz von Künstlicher Intelligenz in der Personalarbeit?“ weiterlesen

Algoright im Vortragsmarathon

Vorlesungssaal.

Es ist nicht etwa still geworden um Algoright. Im Gegenteil. Wir sind derzeit mit vielen Vorträgen zu unterschiedlichen Themen im Bereich des ethischen Einsatzes von Algorithmen auf Tour. Sechs Vorträge in einem Monat. Anzahl steigend!

Den Auftakt machten Timo Speith und Kevin Baum beim Tag der offenen Tür der Universität des Saarlandes. Timo sprach zum Thema »Philosophische Dimensionen von Maschinenerklärbarkeit« und Kevin beleuchtete in seinem Vortrag »Warum wir KI und Algorithmen verstehen können sollten« u.a. den Zusammenhang von moralischer Verantwortung und erklärbaren Algorithmen (in einem Sinne des Wortes, demnächst folgt ein Artikel zu den unterschiedlichen Formen von Transparenz und Erklärbarkeit).

Am 11.06. hält Kevin dann einen Vortrag auf der 372. Saarländischen Schmerzkonferenz (SSK) einen Vortrag zu ethischen Aspekten des Einsatzes von Algorithmen in der Medizin. Nur einen Tag später, am 12.06.2019., spricht er auf der 37. Konferenz der Informationsfreiheitsbeauftragten (IFK) zum Thema »Transparenz und Erklärbarkeit algorithmischer Entscheidungssysteme«. Passend dazu bot sich heute schon ein Anlass, diesem Vortrag auf Twitter vorzugreifen.

Am 24.06.2019 gibt es einen weiteren Vortrag von Kevin am St. Jakobus Hospiz im Rahmen Saarbrücker Hospizgespräch Juni 2019 zum Thema »Wenn Computer Lebenserwartung vorhersagen«. Einen Tag später behandelt er bei einer Veranstaltung zum Thema “New Connectivity” der AG Technik-Innovation-Forschung (TIF) des Arbeitskreises Wirtschaft in seinem Vortrag »Vertrauenswürdige KI« Fragen der Chancen, Risiken und Regulierung von KI in Zeiten von IoT. Hier verspricht er, das Schlagwort »Trustworthy AI« mit Inhalt zu füllen.

Am 10.07.2019 werden dann Sarah Sterz und Markus Langer bei einer Podiumsdiskussion der htw saar über Künstliche Intelligenz und ihren Einfluss auf verschiedene Lebensbereiche teilnehmen.

Bei Gelegenheit finden sich hier im Blog dann Zusammenfassung zentraler Punkte der Vorträge.

Erklärbare intelligente Systeme – was soll das sein und warum braucht man das?

Warum man erklärbare intelligente Systeme braucht und wie wir als Teil eines hochgradig interdisziplinären Forschungsprojekts daran forschen, wie man sie bekommt.
Ein Bericht von Kevin Baum, Markus Langer und Timo Speith.

Transparenz, Nachvollziehbarkeit, Verständlichkeit und Vertrauen sind allesamt Begriffe, die neben ihren angestammten Wortbedeutungen zunehmend im Zusammenhang mit künstlicher Intelligenz (KI) genannt werden. Oft findet man auch die Kombination »Erklärbare KI« und hört Forderungen nach Erklärbarkeit als eine Voraussetzung für sogenannte menschenzentriere KI (human-centered AI). Sie soll erlauben, menschliche Autonomie zu bewahren, Fragen der Zuständigkeit und Verantwortung zu beantworten, KI insgesamt vertrauenswürdig machen und insgesamt diese eben aufgezählten und weitere zentralen Werte der westlichen Zivilisation im Kontext KI zu schützen – da sind sich die Autor_innen der KI-Strategie des Bundes und der brandneuen europäischen Richtlinien für vertrauenswürdige KI einig. Aber was ist mit diesen Begriffen jeweils gemeint und wie hängen sie zusammen? Und wie ist es um die technische Machbarkeit von erklärbarer KI bestellt?

Diese Fragen gilt es zu beantworten und daher freuen wir uns, mitteilen zu können, dass gleich mehrere Mitglieder des Algoright-Teams Teil eines neuen Forschungsprojektes an der Universität des Saarlandes sind, das helfen soll, Licht ins Dunkel zu bringen: Explainable Intelligent Systems – kurz: EIS. Im Rahmen des Förderangebots »Künstliche Intelligenz – Ihre Auswirkungen auf die Gesellschaft von morgen« unterstützt die Volkswagenstiftung eine Anschubphase von neun Monaten mit dem Ziel, einen Vollantrag auf einen Zuschlag für eine mehrjährige Forschungsphase zu erreichen.

Bei EIS geht es darum, was Erklärungen intelligenter Systeme eigentlich ausmachen, wie die Erklärungen präsentiert werden sollen und inwieweit diese Erklärungen überhaupt erreicht werden können – ergo: was überhaupt möglich ist. Diese Fragen bedingen sich gegenseitig und sind einer Vielfalt an Fachrichtungen zuzuordnen – von Philosophie, über Psychologie und Informatik bis hin zur Rechtswissenschaft. Ohne begriffliche Differenzierung und moralisch-gesellschaftliche wie auch rechtliche Zielvorgaben besteht die Gefahr, dass bei KI ›gebastelt‹, etikettiert und zertifiziert wird, wie es Entwickler_innen und Unternehmen passt. Ohne die Frage der angemessenen Darbietungsform und Akzeptanz zu klären, scheint aber auch eine theoretisch vertrauenswürdige KI wenig erstrebenswert, denn eine vertrauenswürdige KI, der keiner de facto vertraut und die keiner einsetzen will, ist nicht das, wonach man strebt. Weiterhin ergibt es wenig Sinn, das Was und das Wie des Wünschenswerten zu beantworten ohne Kenntnisse der technischen Rahmenbedingungen und Grundlagen, denn erst, wenn wir ein technisch-informiertes Was und Wie bestimmt haben, ist es sinnvoll über konkrete neue Regulierungen und deren Einbettung in bestehende Rechtsstrukturen nachzudenken.

Der Reihe nach: Um was geht es genau?

„Erklärbare intelligente Systeme – was soll das sein und warum braucht man das?“ weiterlesen

Podiumsdiskussion mit den Kandidat*innen zur Oberbürgermeister*innenwahl: “Saarbrücken – digital?”

Der AStA der Universität des Saarlandes veranstaltet zusammen mit Algoright auf dem Campus eine Podiumsdiskussion zur Kommunal- und Oberbürgermeister*innenwahl unter dem Titel “Saarbrücken – digital?”.

Passend zur Kommunalwahl und der Wahl des/r Saarbrücker Oberbürgermeister*in am 26. Mai, veranstalten der AStA der Universität des Saarlandes zusammen mit Algoright eine Podiumsdiskussion mit den Kandidat*innen zum Thema “Saarbrücken – digital?” Dazu laden wir die interessierte Öffentlichkeit am 02. Mai ab 16:30 Uhr in den Günter-Hotz-Hörsaal der Universität (Gebäude E 2 2, Campus Saarbrücken).

Die Kandidat*innen stellen sich kritischen Fragen zur digitalen Zukunft unserer Landeshauptstadt und erläutern ihre Visionen. Auch dem direkten Austausch und Diskussionen – unter den Gästen, aber auch mit dem Publikum – wird Platz eingeräumt werden.

Fragen der Veranstaltung werden insbesondere sein:

  • Welche Veränderungen bringt die Digitalisierung der Arbeitswelt für die Stadt Saarbrücken mit sich und wie kann Saarbrücken davon profitieren?
  • Welche Vision haben Sie für die digitale Entwicklung von Kindergärten, Schulen und Hochschulen der Stadt Saarbrücken?
  • Wie soll die digitale Infrastruktur der Stadt verbessert werden?

Zur Veranstaltung eingeladen sind Vertreter von CDU, SPD, Grünen, FDP und Linkspartei.

Zugesagte Teilnehmer*innen:

Wir halten Sie hier und auf unseren social-media Kanälen (Twitter und Facebook) über Zu- und Absagen und etwaige Änderungen auf dem Laufenden. Die Veranstaltung wurde auch als Event bei Facebook angelegt.

Aufruf: Haben Sie drängende Fragen zum Thema Digitalisierung in Saarbrücken? Schreiben Sie uns eine Email oder twittern Sie uns! Vielleicht schafft es Ihre Frage aufs Podium.

360° – Bildung für eine nachhaltige und digitale Welt

Während in den sozialen Medien weiterhin der Konflikt schwelt, ob dem Zeitalter der Digitalität personalisiertes Lernen mithilfe von Learning Analytics oder doch eher Projektarbeit angemessen ist, ziehen derzeit vor allem Pilotprojekte die Aufmerksamkeit auf sich und werden als Best Practices präsentiert und anschließend kontrovers diskutiert. Welche Potenziale und welche Hindernisse lassen sich anhand solcher Projekte erkennen? Wie können sie den Schulen den Weg in die digitale Realität weisen? Diesen Fragen durfte ich auf der Didcata in Köln nachgehen. Konkret ging es dabei um die Präsentation eines 360°-Film-Projekts zu den 17 Nachhaltigkeitszielen der UN, in dem sich Schüler*innen anwendungsnah mit dem 360°-Filmen und den sogenannten “Sustainable Development Goals” auseinandersetzten.

Ein Beitrag von Torsten Becker

Die Vorgeschichte

SDG © UN

Die nachfolgenden Erkenntnisse verdanke ich vor allem meinen Schülerinnen und Schülern. Denn sie waren es, die sich auf eine Anfrage des Zentrums für Medienbildung und des Zentrums Bildung für nachhaltige Entwicklung im Saarland eingelassen haben. Anlass für diese Anfrage war eine internationale Initiative der UN im Rahmen der Action Campaign zu den 17 Nachhaltigkeitszielen. Wir nahmen also die Herausforderung an und standen ab sofort via Mail und Videochat mit Lisa Jobson von Digital Promise in Kontakt. Zusammen mit Oculus war sie es in erster Linie, die uns mit Arbeitsmaterial und Ideen unterstützte.

„360° – Bildung für eine nachhaltige und digitale Welt“ weiterlesen

Kommentar: Datenschutz vs Chancen der KI?

Föderiertes Lernen könnte es erlauben, Datenschutz und gemeinwohlorientierte Verwendung von KI in datenschutzkritischen Anwendungsszenarien miteinander zu vereinen. Wie soll das funktionieren und was ist dran?

Ein Kommentar von Kevin Baum und Markus Langer

Daten verhalten sich zu Künstlicher Intelligenz (KI) wie Öl zu Motoren: Ohne das eine läuft das andere nicht rund — oder gar nicht. Das stimmt zumindest für die vielgepriesenen Methoden des Maschinellen Lernens (ML). ML erlaubt es beispielsweise, selbstständig Muster in Daten zu erkennen (unüberwachtes Lernen) oder auf Grundlage großer Mengen ‚beschrifteter‘ (labeled“) Daten, Klassifikationsaufgaben zu erlernen (überwachtes Lernen). Ein Beispiel für unüberwachtes Lernen ist es, wenn eine solche angelernte KI in medizinischen Datensätzen aufschlussreiche Zusammenhänge aufdeckt (zum Beispiel zwischen genetischen Eigenheiten von Patienten, deren Lebensweisen und dem Ansprechen der Patienten auf bestimmte Therapien). Lernt eine Bilderkennungs-KI hingegen anhand von ausgewählten Trainingsdaten, zukünftig selbst Straßenschilder richtig zu kategorisieren, handelt es sich um ein Beispiel überwachten Lernens.

Gefahren, Chancen, Ängste, Hoffnungen

Die Möglichkeiten von KI werden manchmal überschätzt und es werden ‘Chancen’ postuliert, die unrealistisch sind. In anderen Fällen werden Risiken übertrieben und teils unbegründete Ängste geschürt. Oft werden reale Fehler in der Datenauswahl übersehen oder es wird blauäugig auf die Interaktion von menschlichen Experten und ‚künstlichen Experten‘ geblickt und dabei Fragen der Verantwortung leichtfertig übergangen. All das ist beklagenswert und es bedarf einer detaillierteren Betrachtung (der wir uns nach und nach in diesem Blog widmen wollen und werden).
Aber eine weitere Gefahr stellen wiederholt fälschlich in den Raum gestellte Dichotomien dar. Einige Beispiele:

  • Wollen wir Rechtsstaatlichkeit und moralische Verantwortung oder im Bereich der KI, der mehr und mehr intransparenter Black-Box-Algorithmen hervorbringen wird, endlich aufholen? (Dazu bald mehr.)
  • Brauchen wir KI-Bildung und Informatik als Pflichtfach oder muss der Fachunterricht schlicht durchorganisiert werden? (Siehe dazu den Artikel von Sarah Sterz und Torsten Becker)
  • Nehmen wir Datenschutz und informationelle Selbstbestimmung ernst oder wollen wir KI auch in der medizinischen Forschung endlich gewinnbringend einsetzen?

In all diesen Fällen (und in vielen mehr), wird fälschlicherweise ein Entweder-Oder postuliert, obwohl eigentlich ein Sowohl-Als-Auch die richtige Antwort ist. Anlässlich eines Artikels auf Technology Review wollen wir uns heute der letztgenannten falschen Gegenüberstellung widmen.

Privacy und Datenschutz vs. KI?

Richtig ist: gerade in Bereichen, in denen KI und ML vielversprechende gemeinwohlfördernde Anwendungen finden könnten, sind die Daten, die man dafür benötigt,  besonders heikel und folglich nur schwer in der notwendigen Menge zu bekommen und datenschutzrechtlich einwandfrei zu verarbeiten. Ein Beispiel dafür sind medizinische Daten, die beispielsweise benötigt würden, um die oben skizzierte Anwendung von der Erkennung der Therapie-Eignung umzusetzen. Dies ist ein bekanntes Problem und in der KI-Strategie der Bundesregierung findet sich entsprechend dieses Zitat:

Eine zentrale Herausforderung ist die umfassende Zusammenführung und Interoperabilität von Gesundheitsdaten aus Versorgung und Forschung. Der Aufbau von Datenintegrationszentren an Universitätskliniken im Rahmen der Medizininformatik-Initiative sei hier beispielhaft für die Zusammenführung von Daten aus verteilten Datenquellen genannt. Neben der Berücksichtigung der Anforderungen des Datenschutzes wird die Datensouveränität gezielt gefördert, damit Patientinnen und Patienten aktiv mitbestimmen können, wie ihre Daten gebraucht und weiterverwendet werden.”

— S. 18 der KI-Strategie der Bundesregierung

Das Problem besteht hier also schlicht darin, dass so sensible Informationen wie Gesundheitsdaten nicht ohne Weiteres von A nach B verschoben werden dürfen. Datenschutzrechtliche Bestimmungen sind sowohl für den Transfer der Daten als auch für die Speicherung und den Speichernden zu berücksichtigen. Aber müssen die Daten tatsächlich irgendwo zusammengeführt würden?

Föderiertes Lernen: Dezentralisierung als Lösung?

Was, wenn man lokal, in den Krankenhäusern und in den Arztpraxen direkt aus den dort hinterlegten Daten lernen könnte und nur das Gelernte (man spricht von Modellen) an einen zentralisierten Service verschickt, der dann die partiell und lokal angelernten Modelle zu einer Gesamt-KI zusammenführt?

Wie traditionelles, zentralisiertes Maschinelles Lernen abläuft.

Genau das ist die Idee des föderierten Lernens. Dabei handelt es sich um eine Form dezentralen Lernens: Statt die Daten aus verschiedenen Quellen — hier: Krankenhäusern und Arztpraxen — zentral zusammenzuführen und dann dort aus ihnen ein Modell anzulernen, lernt man vor Ort aus den dort verfügbaren Daten jeweils ein lokales Modell an. Da man damit für den jeweiligen Lernprozess weniger Daten zur Verfügung hat, kann man natürlich lokal nicht die Qualität erreichen, die man mit allen Daten erreichen könnte. Aber man gibt sich auch nicht mit diesen lokalen Modellen zufrieden, sondern führt die lokal angelernten Modelle zusammen. So müssen nicht die Daten übertragen werden, sondern die Ergebnisse des Lernens: die Modelle. Das fertige Gesamtmodell wird wieder an die lokalen Lernstationen verteilt, die dann mit den dort neu anfallenden Daten weiterlernen können. So entstehen iterativ immer bessere Modelle, ohne dass die heiklen Daten fließen müssten.

Wie föderiertes, dezentralisiertes Maschinelles Lernen abläuft.

Was einfach klingt, ist in der Realität ein anspruchsvolles Ingenieursproblem. Die klassischen Optimierungsalgorithmen, die das Lernen erst ermöglichen, sind nicht in dem notwendigen Sinne zerleg- und kombinierbar. Ein Google-Team hat das Problem 2017 weitgehend gelöst, um individuelles Nutzerverhalten in ein Gesamtmodell zu integrieren. Ohne sich zu weit aus dem Fenster zu lehnen, dürfte es Google dabei vor allem darum gegangen sein, möglichst viel Lernleistung (und damit Stromverbrauch) auf die Geräte der Endnutzer auszulagern. Gleichzeitig aber erhöht dieses Vorgehen den Grad an Privacy ganz nebenher.

Föderiertes Lernen könnte also eine Lösung für viele Datenschutzprobleme bei der Nutzung von sensiblen Daten für ML-Anwendungen sein. Konkret wird durch föderiertes Lernen das Sammeln von Daten an einer zentralen Stelle umgangen. Es bestehen jedoch weiterhin Herausforderungen, die zu Problemen mit den resultierenden Algorithmen führen könnten.

Ein Problem weniger — viele Herausforderungen verbleiben

Ein Beispiel hilft, um zu sehen, dass noch einige Herausforderungen bleiben. Gehen wir dafür einmal davon aus, dass die Krankendaten von Krankenhäusern überall in Europa genutzt werden sollen, um daraus Algorithmen anzulernen. Die Krankenhausdichte in skandinavischen Ländern unterscheidet sich eventuell von der in südosteuropäischen Ländern. Ähnliches gilt für die Ausstattung der Krankenhäuser und die Anbindung an die digitale Infrastruktur. Geht man nun unbedacht bei der Erhebung der Daten oder dem Training der Algorithmen vor, könnte es sein, dass die Ergebnisse und daraus folgenden Empfehlungen entsprechend verzerrt sind. Die Daten aus manchen Ländern können überrepräsentiert sein oder es entstehen weitere systematische Verzerrungen im Rahmen der Datenerhebung. In anderen Worten: Wenn jedes Krankenhaus in Schweden bei der Datensammlung beteiligt ist aber nur jedes dritte in Ungarn, könnte dies zu Verzerrungen (Bias) in den Algorithmen führen. Wenn nur Personen unter 50 in Erhebungen in Ungarn einfließen, während in Schweden eine repräsentative Stichprobe zwischen 16 und 85 erhoben wird, könnte dies ebenfalls zu Verzerrungen in den Algorithmen führen. Inwiefern dies bedenkliche Auswirkungen auf die Qualität und Aussagekraft der Modelle hätte, ist mindestens eine offene Frage, die nicht vernachlässigt werden darf. Insbesondere in Anbetracht der Black-Box-Problematik vieler ML-Techniken.

Dieses Problem kann auch innerhalb Deutschlands konkretisiert werden. Beispielsweise leben in ländlichen Regionen Deutschlands im Vergleich zu Städten im Schnitt eher ältere Menschen. Somit unterscheidet sich auch die Zusammensetzung der Patienten in ländlichen Krankenhäusern von denen in städtischen Krankenhäusern. Auch die Ausstattung von ländlichen Krankenhäusern könnte sich systematisch von den städtischen unterscheiden. Wenn ländliche Krankenhäuser bei der Datensammlung für föderales Lernen unterrepräsentiert sind, könnte dies womöglich zu Herausforderungen bei der Entwicklung vertrauenswürdiger Algorithmen führen.

Diese sogenannten „Sampling Probleme“, also Probleme die bei der Datenerhebung auftauchen können, sind allerdings keine unlösbaren Herausforderungen und es ist schon gar kein Problem des föderierten Lernens: Der Datensatz, aus dem gelernt wird, bliebe schließlich derselbe, egal ob man zentralisiert oder dezentralisiert lernt. Wie bei der Entwicklung von jeder Art von ML-Algorithmus (und bei jeder Art von Datenerhebung) sollte man sich bereits bei der Datenerhebung besonders viel Mühe geben, um eine möglichst gute Datenqualität zu erreichen. Das heißt: repräsentative Stichproben, kontrollierte Datenerhebung, Qualitätskontrollen und Beachtung potentiell systematischer Unterschiede bei den einzelnen Stichproben aus denen die Daten kommen (z.B. einzelne Krankenhäuser). Diese Datenqualität kann beispielsweise durch gezielte Förderung von einheitlichen Erhebungsstandards oder einheitlichen Datenqualitätsmanagementinstanzen erreicht werden. Die Potenziale des föderierten Lernens sind es sicherlich Wert, Anstrengungen in das Datenqualitätsmanagement zu stecken statt aus Furcht vor möglichen Problemen KI-lose Alternativen zu wählen. Kurzum: Föderiertes Lernen schickt sich tatsächlich an, ein notwendigerweise zu lösendes Problem zu lösen — das Privacy-Problem —, löst damit aber nicht alle wichtigen Probleme. Was folgt daraus? Auf jeden Fall sollten wir uns den verbleibenden Problemen nun intensiviert widmen (aus Perspektive der Forschung) und föderiertes Lernen explizit fordern und fördern (aus regulatorischer, politischer Perspektive).

Es ist jedoch deutlich zu betonen, dass beim föderierten Lernen im Vergleich zu traditionellen Erhebungen innerhalb einzelner Institutionen zusätzliche Herausforderungen hinsichtlich der Datensammlung an weiteren Stellen entstehen könnten. Statt einer Verzerrung der Datengrundlage durch den Fakt, dass nur besonders motivierte Patienten überhaupt an Datenerhebungen innerhalb eines Krankenhauses teilnehmen, könnten Verzerrungen aufgrund der Tatsache entstehen, dass nur besonders motivierte (oder informierte) Krankenhäuser an Datenerhebungen partizipieren (Stichwort: Unikliniken, die sich eher an Forschung beteiligen). Das gilt insbesondere, wenn die Infrastruktur des föderierten Lernens tatsächlich ML/KI-Experten an Krankenhäusern erfordern würden wie es im Technology Review-Artikel nahegelegt wird (was unserer Meinung nach aber nicht zwingend der Fall sein müsste, wenn man die richtigen Strukturen und Prozesse etabliert).

Statt beim Trainieren eines Algorithmus an einer Klinik, könnten Biases an jeder Klinik innerhalb der Trainingsphase der Algorithmen unentdeckt bleiben und sich dann bei der Aggregierung der Algorithmen gegenseitig verstärken. Gleichzeitig können auch erst bei dieser großflächigen Aggregierung Biases entstehen, die vielleicht nur Implikationen für einzelne Länder oder Krankenhäuser haben und in gut repräsentierten Ländern oder Regionen gar nicht zum Tragen kommen. Kurzum: Die Komplexität der Entwicklung von nachvollziehbaren und vertrauenswürdigen Algorithmen wird durch föderales Lernen nicht geringer, das Gegenteil steht gar zu befürchten. Gerade im Gesundheitssektor ist Vertrauen in Entscheidungen sowie deren Hinterfragbarkeit aber besonders wichtig.

Fazit

Die Idee, föderiertes Lernen einzusetzen, um das mühsame und datenschutzrechtlich anspruchsvolle Sammeln von medizinischen Daten überflüssig zu machen, ist vielversprechend. Sie zeigt außerdem, dass ethisch-gesellschaftliche Probleme, die mit der Entwicklung und der Anwendung von Technologien einhergehen, gelegentlich eine technische Lösung haben. Es bleibt aber wichtig und richtig, daraus nicht zu schließen, dass alle Herausforderungen in diesem Bereich auf einen Schlag gelöst würden. Es gilt darauf zu achten, ob man sich neue Probleme ‘einfängt’. Im Falle des föderierten Lernens ergeben sich zwar neue Anforderungen, in unseren Augen fällt die Gesamtbilanz aber klar positiv aus. Wir empfehlen, konkrete Projekte zu fördern und evaluativ zu begleiten und im Erfolgsfall regulatorisch zu fördern und zu fordern. Dann gilt es das Augenmerk verstärkt auf Probleme der Datenerhebung zu legen und in die Erforschung der Erklärbarkeit von KI zu investieren. Europäische KI muss unsere Grundwerte akzeptieren, Chancen nutzen und Risiken minimieren. Auf dem Weg dorthin gilt es noch viele Herausforderungen zu meistern. Föderiertes Lernen zeigt, dass Fortschritte möglich sind.

——————————————

In Kommentaren beziehen wir zu aktuellen Diskussionsbeiträgen Stellung und versuchen so, zu deren Einordnung beizutragen. Kommentare sind kürzer und bleiben stärker an der Oberfläche als unsere ausführlicheren Debattenbeiträge. Sie sollen helfen, unsere allgemeinen Themen an die tagesaktuellen Entwicklungen anzubinden.

Chancen und Perspektiven von KI beim Safer Internet Day 2019

Timo Speith hat zum Auftakt des Safer Internet Days 2019 einen Vortrag an der Landesmedienanstalt Saarland gehalten und seine Positionen später bei einer Podiumsdiskussion und einem Interview verteidigt. Hier ist seine Zusammenfassung der Veranstaltung.

Die Technologie der künstlichen Intelligenz (KI) hat in den letzten Jahren in fast allen Bereichen unseres Lebens Einzug gehalten, egal ob im privaten oder im beruflichen Alltag. Digitale Assistenten, Kameras mit Gesichtserkennung, selbstfahrende Autos usw. ahmen kognitive Funktionen nach, wie etwa Lernen oder Problemlösen, die gemeinhin mit dem menschlichen Verstand in Verbindung gebracht werden. Für die Entwickler steht dabei die Innovation und die damit verbundenen Chancen im Vordergrund, die Erwartungen sind hoch. Verbraucher und Arbeitnehmer sind verunsichert: Wie können Algorithmen uns dabei unterstützen, bessere Entscheidungen zu treffen? Wann werden wir Menschen zu bloßen Knopfdrückern und so zu willfährigen Erfüllungsgehilfen der Algorithmen? Und wo liegt die Verantwortung für die Entscheidungen?

Um diese und ähnliche Fragen zu beantworten, habe ich am 05. Februar 2019 im Rahmen des Safer Internet Days 2019 an der Landesmedienanstalt Saarland (LMS) einen Vortrag  mit dem Titel „Verantwortung und Erklärbarkeit von Künstlicher Intelligenz – Warum KI verständlich sein muss!“ gehalten. Dabei standen folgende Fragestellungen im Mittelpunkt: Was ist der aktuelle Forschungsstand von KI-Technologie? Welche Bedingungen müssen erfüllt sein, um einen verantwortungsvollen Umgang mit KI-Systemen zu ermöglichen? Wie weit sind existierenden Systeme von diesem Soll-Zustand entfernt? Die Aufklärung und Sensibilisierung für das Thema KI sowie der Abbau von vorhandenen Ängsten bildeten dabei einen Schwerpunkt. Nachfolgend fasse ich die wichtigsten Punkte nochmals zusammen.

KIs werden in Zukunft immer mehr Entscheidungen für uns übernehmen. Das kann, muss jedoch nichts Schlechtes sein: Einerseits macht der immer schneller werdende technologische Fortschritt unser Leben immer komfortabler.  Andererseits müssen wir uns der Gefahren bewusst sein, die mit ihm einhergehen. In einer liberalen Gesellschaft muss die Möglichkeit bestehen, Entscheidungen zu hinterfragen und anzufechten. Dies wird durch den rasch zunehmenden Einsatz von inhärent intransparenten KIs in (gesellschaftlich relevanten) Entscheidungssituationen erschwert. Erklärbarkeit und Transparenz von KI-Entscheidungsprozessen bilden folglich eine Grundsäule einer moralisch und gesellschaftlich adäquaten Anwendung von KI. Dies wird besonders an Entscheidungen deutlich, die eine gewisse Relevanz haben: Für Musikempfehlungen ist es womöglich egal, warum mir Phil Collins und nicht etwa Sting empfohlen wird, aber wenn jemand einen Job nicht bekommt, ist der Grund dafür unter Umständen sehr relevant. Eine Person, die meint, eine Stelle aus diskriminierenden Beweggründen nicht bekommen zu haben, hat ein Anrecht darauf, diese Entscheidung zu hinterfragen und gegebenenfalls anzufechten. Auch aus Sicht des menschlichen Entscheiders ist Transparenz wichtig: Denn nur durch einen angemessenen Zugang zum Entscheidungsfindungsprozess der Systeme kön­nen Men­schen, die auf Grund­la­ge von KI‐Empfehlungen Ent­schei­dun­gen tref­fen, verantwortlich für ihre Entscheidung sein. Ansonsten ist ihre eigentliche Entscheidung von anderer Art: Der KI-Entscheidung blind folgen oder ihr unbegründet zuwiderhandeln.

Die Wichtigkeit von transparenten und erklärbaren KI-Systemen kann am Beispiel des Falles von Eric Loomis demonstriert werden. Loomis wurde 2013 wegen verschiedener Delikte vom US-Amerikanischen Staat Wisconsin angeklagt und zu sechs Jahren Haft verurteilt. Zur Festlegung dieses Strafrahmens wurde eine Risikobewertung von Loomis durch die Software “COMPAS” zu Rate gezogen. Während sowohl die Informationen, mit denen der Algorithmus gespeist wurde,1 als auch sein Ergebnis bekannt sind (hohes Rückfallrisiko in drei Kategorien),2 ist seine Funktionsweise ein Geschäftsgeheimnis des Herstellers Northpointe (heute Equivant). Aus diesem Grund ging Loomis gegen das Urteil vor, da die Benutzung des Algorithmus (i) sein Recht, aufgrund zutreffender Informationen verurteilt zu werden, verletze; (ii) sein Recht auf ein individuelles Urteil verletze; und (iii) eine Bewertung konstituiere, die unsachgemäß das Geschlecht berücksichtige.3 Loomis’ Einspruch wurde jedoch vom Wisconsin Supreme Court abgewiesen, da laut diesem das Strafmaß auch ohne Einsatz des Algorithmus dasselbe gewesen wäre. Hier lassen sich zwei Beobachtungen anführen:

Erstens ist nicht klar, wie sehr eine solche Begründung nur eine Post-Hoc-Rationalisierung (d.h. eine nachträgliche Plausibilisierung) ist. Im Nachhinein lässt sich nur schwer rekonstruieren, wie stark das Ergebnis des Algorithmus wirklich in die Urteilsfindung eingeflossen ist. Es ist jedoch plausibel anzunehmen, dass das Ergebnis (wenigstens unbewusst) eingeflossen ist. Ein Lehrer, der aus einer dritten Quelle negative Informationen über einen Schüler bekommen hat, wird diesem (ungerechtfertigterweise) wahrscheinlich eine schlechtere Note geben, obwohl er sich dessen nicht bewusst ist – jedem könnte die Untersuchung bekannt sein, die unbewussten Einfluss im Hinblick auf die Vorbelastung bestimmter Namen (vor allem hinsichtlich des Namens “Kevin”) aufgezeigt hat.4 Darüber hinaus gibt es Studien, die es als plausibel erscheinen lassen, dass in diesem Fall Loomis weniger geglaubt wird als dem Algorithmus.5 Besonders erschreckend ist dieser Umstand in Anbetracht von Studien, die zeigen, dass Laien zu mindestens genauso guten Ergebnissen wie COMPAS kommen.6

Zweitens ist Loomis kein Einzelfall. COMPAS wird in einer großen Anzahl von amerikanischen Gerichten zu Rate gezogen und dementsprechend wahrscheinlich ist es, dass es viele Fälle gibt, bei denen der Algorithmus signifikant zur Urteilsfindung beigetragen hat. Derartig wichtige Entscheidungen, die gravierende Konsequenzen für das Leben eines Menschen nach sich ziehen, dürfen sich gerade innerhalb einer liberalen Demokratie nicht durch mangelnde Verstehbarkeit und Nachvollziehbarkeit auszeichnen. Nichts anderes ist jedoch in diesem und ähnlichen Beispielen der Fall.

Nichtsdestotrotz sollte dies keinen Grund dafür liefern, Algorithmen generell zu verteufeln, da sie unleugbar Vorteile mit sich bringen können. Eine Studie hat beispielsweise gezeigt, dass Richter härtere Urteile fällen, wenn sie hungrig und müde sind.7 Algorithmen kennen keinen Hunger, sind also wenigstens gegenüber manchen kognitiven Verzerrungen, wie sie Menschen zuhauf haben, per se immun. Solange Algorithmen aber aus Daten lernen, die von menschengemachten Systemen generiert wurden – in diesem Fall dem Strafverfolgungs- und Justizsystem –, lernen sie mindestens einige unsere Fehler. Um die Hoffnung zu erfüllen, dass Algorithmen objektivere Entscheidungen als Menschen treffen können, weil durch sie menschliche kognitive Verzerrungen verringert werden können, müssen wir zunächst verstehen, wie die Algorithmen eigentlich genau zu ihren Entscheidungen gelangen. Dementsprechend appellierte ich für ein Miteinander von Mensch und KI: Zusammen können sie sich ergänzen und die Schwächen des jeweils anderen ausbügeln. Eine notwendige Voraussetzung dafür ist allerdings, dass der Mensch die Entscheidungen und Empfehlungen der KI nachvollziehen kann. Sie muss verständlich sein!

Eine Diskussionsrunde mit einem Vertreter der Arbeitskammer des Saarlandes (Dr. Matthias Hoffmann) und dem Direktor der Landesmedienanstalt Saarland (Uwe Con­radt) sowie ein Interview im Anschluss an die Veranstaltung machten schließlich deutlich, dass es Zertifikate und Zertifizierungen für erklärbare Algorithmen geben sollte. Entsprechende Zertifizierungsprozesse gilt es nun zu konzipieren und zu etablieren. Eine große Aufgabe, der auch wir von Algoright uns auf absehbare Zeit widmen wollen.

Links:

Fußnoten

  1. Unter anderem ein sehr fragwürdiger Fragebogen, der vom Angeklagten ausgefüllt wurde bzw. ausgefüllt werden musste: https://assets.documentcloud.org/documents/2702103/Sample-Risk-Assessment-COMPAS-CORE.pdf. Man beachte insbesondere die Fragen 112 – 120.
  2. Genauer: “pretrial recidivism risk”, “general recidivism risk” und “violent recidivism risk”. 
  3. Vgl. Supreme Court of Wisconsin, Case No. 2015AP157-CR, S. 13 ff.
  4. http://astrid-kaiser.de/forschung/projekte/vornamensstudien.php
  5. Vgl. Stephen A. Fennell & William N. Hall, Due Process at Sentencing: An Empirical and Legal Analysis of the Disclosure of Presentence Reports in Federal Courts, 93 Harv. L. Rev. 1613, 1668–70 (1980); Thomas Mussweiler & Fritz Strack, Numeric Judgments Under Uncertainty: The Role of Knowledge in Anchoring, 36 J. Experimental Soc. Psychol. 495, 495 (2000); Amos Tversky & Daniel Kahneman, Judgment Under Uncertainty: Heuristics and Biases, 185 Science 1124, 1128–30 (1974).
  6. Unter anderem http://advances.sciencemag.org/content/4/1/eaao5580
  7. http://www.nature.com/news/2011/110411/full/news.2011.227.html

Unterricht unter den Bedingungen einer digitalen Realität

Ein Beitrag von Sarah Sterz und Torsten Becker

Wir leben in einer digitalen Zeit, in der digitale Kenntnisse und Fähigkeiten immer mehr an Bedeutung gewinnen. Um als mündige Bürger*innen gelten zu können, müssen wir Fähigkeiten haben, die unsere Eltern und Großeltern noch nicht haben mussten. Um heute Selbstbestimmung und Urteilsfähigkeit zu erlangen, müssen Bürger*innen in wesentlichen Zügen verstehen, wie die digitale Welt funktioniert, nachvollziehen können, warum sie so funktioniert, und sich ein begründetes und informiertes Urteil über einzelne Aspekte davon bilden können. 

Kinder und Jugendliche, die gerade in ihrer Schulzeit sind, entstammen schon längst einer Generation, die mit digitalen Medien groß geworden ist. Sie gelten gemeinhin als sogenannte „Digital Natives“. Dennoch bringen auch sie nicht alle Grundlagen mit, die es für eine digitale Mündigkeit braucht. Da es unumstrittenes Ziel von Schulen ist, ihre Schüler*innen zu mündigen Bürger*innen zu machen, ist es die Aufgabe der Schule, auch bestimmte digitale Grundkompetenzen zu vermitteln.

Wie sollen Schulen das bewerkstelligen? Dabei sind zunächst einmal drei Fragen zu klären und daraus resultierende Herausforderungen zu bewältigen:

1. Was soll unterrichtet werden?

Erstens stellt sich die Frage, welche Kompetenzen es eigentlich genau zu vermitteln gilt. Häufig werden dabei algorithmisches Denken (sogenanntes „Computational Thinking“) und technische Grundlagen auf der einen und Mediennutzungskompetenzen auf der anderen Seite in den Fokus gerückt. Dabei begegnet einem in der Debatte oft die falsche Dichotomie zwischen verpflichtendem Informatikunterricht für alle und einer digitaleren Ausrichtung von Fächern wie Deutsch und Politik. Die richtige Reaktion darauf ist, wenig überraschend, dass beides wichtig ist, um sich in einer digitalen Welt zurechtzufinden.

Wir benötigen algorithmisches Denken und technisches Basiswissen, mithilfe dessen wir nachvollziehen können, was in unseren Smartphones passiert, wie ein Filteralgorithmus unsere Wahrnehmung von der Welt verzerren kann, wie Machine-Learning-Algorithmen zu einem Urteil über unsere Kreditwürdigkeit kommen oder was aus unseren persönlichen Daten unter Umständen geschlossen werden kann. All das und mehr ist wichtig, um überhaupt zu verstehen, aus welchen Bausteinen unser digitales Leben besteht und wie sich diese im Großen und Ganzen zu der digitalen Welt zusammensetzten, in der wir alle leben. Dieses Basisverständnis könnte in einem verpflichtenden Fach unterrichtet werden.

Aber nicht zwingend jede der zu vermittelnden Kompetenzen sollte sich zwangsläufig in einen solchen Unterricht wiederfinden: Wie wir auf einzelne Informationen zugreifen, welche Dienste, Quellen und Methoden wir in unserem persönlichen, digitalen Leben benutzen sollten und welche besser nicht, können wir umso besser einschätzen, je besser unsere Medienkompetenz ist. So können wir Fehlinformationen besser als solche entlarven und einschätzen, wie zuverlässig eine Onlinequelle ist. Wir sind weniger anfällig für Scams und Phishing und können informierte Entscheidungen darüber treffen, welche persönlichen Daten wir online für welches Publikum freigeben wollen. Auch das sind unverzichtbare Fähigkeiten, die wir als digital mündige Bürger*innen haben sollten. Sie sollten dort vermittelt werden, wo es sich thematisch inhaltlich anbietet, z. B. im Rahmen etablierter Fächer.

Algorithmisches Denken, technisches Grundlagenwissen und Mediennutzungskompetenz alleine reichen aber noch nicht aus, um die digitale Welt in ihrer Gesamtheit zu verstehen. Denn meistens fokussieren wir uns nur auf die Teile, die uns unmittelbar selbst betreffen: meine Daten, mein Newsfeed, meine Onlinerecherche, meine Kreditentscheidung. Wir müssen aber auch das große Ganze erfassen können, denn Digitalisierung passiert und wirkt im gesamtgesellschaftlichen Maßstab und geht damit weit über unsere individuelle Online-Erfahrung hinaus. Wie sonst soll der Bürger*in von morgen entscheiden können, ob die DSGVO nur der Bürokratie dient, oder ob sie – bei allen nervigen Auswirkungen – letztlich ein zentrales Instrument zum Schutz unserer liberalen Demokratie vor der Unterwanderung durch Silicon-Valley-Algorithmen großer Marketingunternehmen ist? Wenn unsere Welt digitaler wird, werden politische Entscheidungen mit digitalem Inhalt auch unvermeidlich immer häufiger und weitreichender. Um eine gute Wahlentscheidung zu treffen oder sich souverän in den gesellschaftlichen Diskurs einbringen zu können, müssen Bürger*innen lernen, all dem Rechnung zu tragen, müssen also digitale Mündigkeit erlangen. Dieser Lernprozess muss schon in der Schule beginnen, die alle nötigen digitalen Fähigkeiten vermitteln sollte – inklusive gesellschaftlicher, politischer und moralischer Kompetenzen.

Die Kultusministerkonferenz (KMK) hat das Referenzmodell „Kompetenzen in der digitalen Welt“ herausgegeben, das explizieren soll, welche Kompetenzen Schüler*innen vermittelt werden sollen. Dieses Modell ist jedoch mit mindestens zwei Schwierigkeiten behaftet: Zum einen müssen solche Dokumente immer ein gewisses Abstraktionsniveau besitzen, um auch über längeren Zeitraum Gültigkeit zu behalten. Das wiederum macht es schwieriger, Fragen der Umsetzung zu klären und kann Lehrer*innen deshalb nur wenig Handlungsanleitung zur Unterrichtsgestaltung bieten. Zum anderen stellt sich im konkreten Fall der KMK-Ziele die Frage nach einer Vollständigkeit. Insbesondere gesellschaftliche, politische und moralische Kompetenzen kommen hier zu kurz. Im Bereich der rechtlichen Kompetenzen ist das Modell hingegen konkreter. Sowohl für die Themen Urheberrecht und Persönlichkeitsrechte (3.3), als auch für den Datenschutz (4.2) existieren konkrete Teilkompetenzen.

Mit dem Referenzmodell der KMK werden wir uns noch einmal ausführlicher in einem separaten Blogbeitrag beschäftigen.

2. Wie soll das unterrichtet werden?

Um diese Frage zu beantworten, braucht es Methoden, Materialien, Zeit und vor allem eine Strategie. Viele gesellschaftliche Diskussionen legen derzeit entweder nahe, die Informatiklehrer*innen könnten den kompletten Kompetenzerwerb einer digitalen Realität übernehmen, oder, vielleicht noch gravierender, jeder müsste nun quasi Informatik studieren. Beides ist in Anbetracht der vielfältigen Kompetenzen, die es zu vermitteln gilt, nicht plausibel. Denn weder kann es von einer Informatiklehrerin verlangt werden, dass sie ethische Aspekte mit Schüler*innen diskutiert, noch muss ein Politiklehrer alle technischen Details, die ein Informatikstudium vermittelt, kennen, um gesellschaftliche Aspekte der Digitalisierung zu unterrichten. Die geforderten „digitalen Kompetenzen“ sind häufig Meta-Kompetenzen, die nicht in einem einzelnen Fach zu verorten sind. Es braucht also fächerübergreifende Zusammenarbeit, die Schüler*innen zu einer möglichst fundierten digitalen Basis verhilft. Die Herausforderung hierbei ist, dass es für digitale Bildung größtenteils noch keine etablierten Ansätze gibt und geben kann, sondern die Gestaltung der digitalen Bildung parallel zur Digitalisierung mitwachsen muss.

Ein Beispiel dafür sind Prüfungsverfahren, die der digitalen Welt oft nicht gerecht werden: Leistungskontrollen in Einzelarbeit und ohne Hilfsmittel entsprechen nicht der Wirklichkeit. Zeitgemäße Ansätze müssen es ermöglichen, neben klassischen Prüfungsverfahren auch solche Formate zu bieten, die „digitale Kompetenzen“ angemessen prüfen können. Wenn zum Beispiel geprüft werden soll, ob Schüler*innen digitale Kollaborationstools nutzen können, dann kann dies nicht mit Stift und Papier in einer Klassenarbeit geschehen.

Zum einen wurden viele Bildungspläne der Länder hinsichtlich digitaler Kompetenzvermittlung noch nicht hinreichend überarbeitet und Freiräume für digitale Bildung fehlen oftmals. Zum anderen fällt mit Blick auf die Lehrpläne auf, dass existierende Anknüpfungspunkte in der Praxis nicht genutzt werden. Das Verständnis von „digitalen Kompetenzen“ als Meta-Kompetenzen muss seinen Weg in die Lehrpläne finden, vor allem durch eine durchdachtere und nachhaltigere Vernetzung der Fächer.

 3. Wer soll das unterrichten?

Nur mündige Lehrer*innen können Schüler*innen zu mündigen Bürger*innen ausbilden. Vielen Lehrer*innen fehlen allerdings selbst die nötigen digitalen Kompetenzen. Lehrer*innen müssen also ihrerseits erst einmal die Möglichkeit bekommen, zu digital mündigen Bürger*innen zu werden, weshalb „digitale Kompetenzen“ (und die Vermittlung derselben) integraler Bestandteil der Lehrer*innenaus- und Weiterbildung werden muss. Aus- und Weiterbildung brauchen jedoch Zeit, die die aktuelle Generation von Schüler*innen jedoch nicht hat. Umso wichtiger ist der Zusammenhalt und das gemeinsame Ausarbeiten zentraler Ziele anhand bestehender Unterrichtsbeispiele und -konzepte.

Ein solches Projektbeispiel hat Torsten Becker auf der letzten Didacta in Köln vorgestellt. Informationen hierzu finden Sie in einem separaten Blogbeitrag.

Im Zuge der pluralen digitalen Herausforderungen sollten wir uns auch vom Bild des reinen Fachexperten verabschieden, der seine Autorität den Schüler*innen gegenüber vordergründig durch seine hohe Expertise bezieht. Stattdessen müssen kreative Lösungen gefunden werden, die Lehrer*innen helfen, ihren Schüler*innen auf dem Weg zur digitalen Mündigkeit zu unterstützten, ohne selbst zwangsläufig Experten der Digitalisierung zu sein. Dennoch ist es wichtig, dass Lehrer*innen selbst mindestens das Maß an digitalen Grundkompetenzen in den Unterricht mitbringen müssen, das ihre Schüler*innen am Ende haben sollen. Nur so kann gewährleistet werden, dass Lehrer*innen ihrer Aufgabe gerecht werden können. Hier darf man gespannt sein, welche Wirkung z. B. die „Qualitätsoffensive Lehrerbildung“ mit ihrer neuen Förderrichtlinie entfalten wird.

Fazit

Schüler*innen müssen zu digitaler Mündigkeit befähigt werden. Dazu sollten wir uns auch darüber klar werden, welche Kompetenzen es dafür überhaupt zu vermitteln gilt. Obwohl es dazu rege Diskussionen gibt, werden bestimmte, wichtige Kompetenzen, nämlich die Befähigung zur gesamtgesellschaftlichen und moralischen Bewertung, häufig aus dem Blick verloren, obwohl sie für den Fortbestand unserer liberal-demokratischen Grundordnung elementar sind. Ein Konsens, wie man „digitale Kompetenzen“ im Unterricht vermitteln kann, hinkt hinter der Geschwindigkeit der Digitalisierung her und auch die Aus- und Weiterbildung von Lehrer*innen kann momentan nicht mit den rasanten Entwicklungen in der Welt mithalten. Um diesen und anderen Problemen gerecht zu werden, braucht es interdisziplinäre Zusammenarbeit, neue Konzepte und unkonventionelle Strategien. Wir wollen mit Algoright zukünftig unseren Teil dazu beitragen, Lösungen zu entwickeln.