NewIn: Marcello Ienca
Neue Erkenntnisse auf den Gebieten der Künstlichen Intelligenz (KI) und der Gehirnforschung beschleunigen sich gegenseitig. Die entstehenden Technologien werden unser Leben tiefgreifend verändern. In welcher Form das geschieht, haben wir aber selbst in der Hand, sagt Marcello Ienca. Der Professor für Ethics of AI and Neuroscience erzählt in dieser Folge von ,,NewIn" von den Potenzialen und Risiken der aktuellen Entwicklungen.Durch Programme wie Chat GPT bekommen Computer menschenähnliche Fähigkeiten, gleichzeitig gab es zuletzt gleich mehrere bahnbrechende Forschungsarbeiten, in denen Menschen durch KI-basierte Implantate wieder sprechen oder laufen gelernt haben. Gibt es da einen Zusammenhang?
Auf jeden Fall. Wir haben es gerade mit einer wissenschaftlichen Revolution zu tun. Fortschritte in der KI und in der Neurowissenschaft beflügeln sich gegenseitig. Sie bilden einen ,,Virtuous Circle" - das Gegenstück zum Teufelskreis.
Das klingt sehr optimistisch. KI birgt doch schon für sich genommen viele Gefahren: Intransparenz, Diskriminierung, fehlerhafte Entscheidungen...
Natürlich gibt es Gefahren. Es ist zum Beispiel prinzipiell denkbar, dass sich aus Neurodaten mithilfe von Machine Learning Informationen wie die sexuelle Orientierung eines Menschen ableiten lassen. Daraus ergeben sich neue Fragen zur Selbstbestimmung. Unser Gehirn ist immer weniger eine Festung, die streng von der digitalen Welt getrennt ist - wir haben immer mehr Zugriff auf die neurologische Basis von Gedankenprozessen. Deshalb müssen wir als Gesellschaft Überlegen, was wir wollen und wo wir rote Linien ziehen.
Und darum brauchen wir Ethik?
Ja. Aber Ethik bedeutet für mich nicht nur, Gefahren und Risiken zu vermeiden, sondern auch darum, Gutes zu tun. Das machen wir, in dem wir Technologien entwickeln, die den Hunderten von Millionen Menschen mit neurologischen und psychiatrischen Störungen helfen können. Vor allem, wenn wir ethische Überlegungen von Anfang an durch eine auf den Menschen ausgerichtete Technologieentwicklung einbeziehen.
Ist es dafür nicht schon zu spät?
Für Neurotechnologien: Nein. Beim Thema KI wurde nur reaktiv gehandelt und auf bestehende Technologien reagiert. Diesmal handeln wir proaktiv. Es gibt beispielsweise seit 2019 Richtlinien für eine verantwortungsbewusste Entwicklung von Neurotechnologien der OECD, der internationalen Organisation für wirtschaftliche Zusammenarbeit und Entwicklung. Daran habe ich selbst mitgearbeitet. Auch der Europarat und UNESCO erarbeiten Grundsätze zu diesem Thema.
Sind die Richtlinien denn auch für Firmen relevant? Elon Musks Unternehmen Neuralink hat kürzlich verkündet, einem Patienten ein Hirnimplantat eingesetzt zu haben. Apple hat sich 2023 ein Patent für die Messung von Hirnströmen mit AirPod-Kopfhörern gesichert. Für mich klingt das eher beunruhigend.
Teilweise herrschen in der Privatwirtschaft tatsächlich Wildwestzustände. Neuralink ist ein Beispiel für eine Firma, die kein Interesse an Ethik hat. Aber: Viele andere Unternehmen haben Ethikkommissionen eingerichtet und waren aktiv an den OECD-Richtlinen beteiligt. Wir müssen - und können - sicherstellen, dass eine Mehrheit der Neurotech-Unternehmen eine Kultur der verantwortungsbewussten Innovation pflegt.
Das bedeutet, neue Gesetze sind nicht zwingend notwendig?
Wir können Gesetze erlassen, die regulieren, welche Produkte in Europa auf den Markt gebracht werden dürfen. Zwang ist aber nicht immer die einzige Lösung. Es ist auch im Interesse der Unternehmen, dass es in den nächsten Jahren nicht zu einem Skandal wie bei Cambridge Analytica kommt. Das hätte verheerende Auswirkungen auf das ganze Feld.
Abgesehen von der Arbeit an den Richtlinien: Woran forschen Sie selbst gerade?
An vielen Projekten. In einem kollaborativen internationalen Projekt arbeiten wir zum Beispiel mit Menschen mit Hirnimplantaten zusammen. Wir wollen den Blick der Betroffenen auf ethische Aspekte einholen und auf Basis ihrer Erfahrungen zukünftige Implantate verbessern. Ein weiteres Beispiel: Mit Kollegen aus der Informatik an der TUM arbeiten wir an der Entwicklung von transparenter KI für die Neurotechnologie und datenschutzfreundlicher Verarbeitung von neuronalen Daten.