
Max Losch mit Doktorhut.
Am 11. April 2025 verteidigte Max Losch erfolgreich seine Dissertation mit dem Titel „Improving Trustworthiness of Deep Learning via Inspectable and Robust Representations“. Max Losch kam 2017 als Doktorand unter der Betreuung von Professor Bernt Schiele an die Universität des Saarlandes und an das Max-Planck-Institut für Informatik. Er war Mitglied der Saarbrücker Graduate School of Computer Science und der International Max Planck Research School. Sein Doktortitel wurde von der Universität des Saarlandes verliehen.
Der Abstract der Dissertationsschrift:
Immer mehr Deep-Learning-Systeme werden in der realen Welt eingesetzt und haben potenzielle Auswirkungen auf das Leben der Menschen: autonome Autos, unterstützte medizinische Diagnose oder Social Scoring. Da immer komplexere Modelle auf immer größeren Datensätzen trainiert werden, sind diese Anwendungen nützlich geworden, da sie so trainiert werden, dass sie genaue Vorhersagen machen können. In der Regel wird dies erreicht, indem nur die Genauigkeit optimiert wird, während zwei kritische Schwachpunkte des Deep Learning, die seit seiner Einführung bestehen, außer Acht gelassen werden. Erstens macht es die Komplexität der verwendeten Modelle schwierig, die Ursachen für fehlerhafte Vorhersagen zu erklären und zu verstehen - dies wird als Blackbox-Eigenschaft bezeichnet. Zweitens sind Modelle anfällig für ungünstige Beispiele - geringfügige, für den Menschen nicht wahrnehmbare Eingabestörungen -, die zu dramatischen Veränderungen der Vorhersagen führen können. Es gibt zwar Ansätze zur Abschwächung dieser Anfälligkeit, doch sind diese oft teuer zu trainieren und werden daher in der Praxis nicht standardmäßig angewandt. Beides mindert die Vertrauenswürdigkeit von Deep Learning und könnte die weitere Verbreitung von Deep Learning für reale Probleme bremsen. In dieser Dissertationsverteidigung diskutiere ich Abhilfemaßnahmen für beide Probleme in zwei Teilen. Im ersten Teil erörtere ich die von uns vorgeschlagenen semantischen Engpässe, die Zwischenrepräsentationen explizit an menschlich bedeutsamen Konzepten wie Füßen, Beinen, Holz usw. ausrichten und gleichzeitig die Dimensionalität reduzieren, um das Black-Box-Problem anzugehen, und zeige, dass diese Engpässe für die Fehleranalyse nützlich sein können.
Im zweiten Teil erörtere ich zwei Möglichkeiten, um das Risiko gegnerischer Beispiele zu mindern, wobei der Schwerpunkt auf der Verringerung des Rechenaufwands beim konventionellen Training mit gegnerischen Beispielen liegt:
(i) Training auf Teilmengen von Daten und
(ii) die Verwendung von Lipschitz-Grenzen zur Zertifizierung.