KI-Systeme für die Anwendung in Gefahrensituationen trainieren

    -     English

Systeme, die auf Künstlicher Intelligenz beruhen, müssen auch in selten auftretenden und gefährlichen Situationen zuverlässig funktionieren. Wie sie dafür ,,trainiert" werden können, untersuchen Wissenschaftler der Universität Heidelberg in einem Verbundprojekt mit Forscherinnen und Forschern aus Frankreich und Japan. Die Arbeiten auf Heidelberger Seite, die von der Deutschen Forschungsgemeinschaft über einen Zeitraum von drei Jahren mit rund 300.000 Euro gefördert werden, leitet Carsten Rother vom Interdisziplinären Zentrum für Wissenschaftliches Rechnen (IWR).

,,In naher Zukunft werden KI-basierte Systeme in vielen Bereichen unseres Lebens eingesetzt und mit dem Menschen in sich dynamisch verändernden Umgebungen koexistieren", sagt Rother. ,,Trotz erheblicher Fortschritte im Bereich des maschinellen Lernens, funktionieren derartige Systeme jedoch noch nicht in allen Szenarien zuverlässig. Das gilt insbesondere für Situationen, die gefährlich sind und im Alltag selten auftreten." Vor diesem Hintergrund wollen die Wissenschaftler dedizierte Softund Hardware entwickeln, um auf der Basis von Bildern und Videoaufnahmen neue Daten für das maschinelle Lernen zu generieren. Dies soll Forscherinnen und Forscher in die Lage versetzen, gezielt seltene Szenarien zu erzeugen und dadurch eigene Anwendungen der Künstlichen Intelligenz zu testen und zu verbessern.

Kooperationspartner in dem Gemeinschaftsprojekt mit dem Titel ,,Verständnis und Generierung dynamischer 3D-Welten für sichere KI-Systeme" sind die École des Ponts ParisTech und die Universität Kyoto in Japan. Es ist eines von insgesamt neun trilateralen Vorhaben im Bereich Künstliche Intelligenz, die von der Agence Nationale de la Recherche und der Japan Science and Technology Agency zusammen mit der Deutschen Forschungsgemeinschaft mit rund sieben Millionen Euro gefördert werden. Hier kooperieren jeweils Wissenschaftlerinnen und Wissenschaftler aus Deutschland, Frankreich und Japan.


This site uses cookies and analysis tools to improve the usability of the site. More information. |