Im Herbstworkshop der Felix-Klein-Akademie stellen international renommierte Wissenschaftler die neuesten Techniken und aktuelle Fortschritte aus verschiedenen Bereichen der Diskreten Optimierung vor und diskutieren Herausforderungen auf reale Probleme. Einer der Experten ist Prof. Dr. Sebastian Pokutta. Er ist Vizepräsident des Zuse Instituts Berlin (ZIB) und Professor für Mathematik an der TU Berlin mit Forschungsschwerpunkt Künstliche Intelligenz und Optimierung. Wir haben ihm drei Fragen zu seiner aktuellen Arbeit gestellt:

Sie halten heute zwei Vorträge unter den Überschriften »Discrete Optimization and Machine Learning« und »Current Challenges at the Interface of Discrete Optimization and Machine Learning«. Worum geht es in Ihren Vorträgen?

Ich spreche über die Schnittstelle von Machine Learning und Decision Making, was auch gemeinhin oft als AI bezeichnet wird. Hier geht es in erster Linie darum, Beobachtungen (z.B. durch Sensoren) in Einsichten zu überführen (Machine Learning), welche dann zum Treffen von Entscheidungen (Decision Making) genutzt werden. Diese Methoden haben in den letzten Jahren erheblich an Bedeutung gewonnen durch ihre breite Anwendbarkeit und die potentiellen Folgen (positiv sowie negativ) auf Gesellschaft, Ökonomie und generelles Miteinander dürfen nicht vernachlässigt werden. Zur gleichen Zeit steht es völlig außer Frage, dass diese Technologien erheblich an der zukünftigen Wohlstandssicherung beteiligt sein werden.

Im ersten Teil gebe ich einen sehr allgemeinen Überblick über Möglichkeiten und Risiken dieser Technologien. Im zweiten Teil werde ich konkret zwei Verfahren aus meiner Forschung vorstellen, das dazugehörige mathematische Konstrukt beschreiben, also auch an Beispielen aufzeigen, dass diese in Anwendungen sehr gute Performance erzielen können.

Was war für Sie ausschlaggebend, an dem Workshop teilzunehmen?

Wissenschaftler tragen eine gesellschaftliche Verantwortung, nicht nur Methoden zu entwickeln, sondern auch über deren Einsatz etc. nachzudenken. Aus diesem Grunde nehme ich gerne die Gelegenheit wahr, sowohl über die eigentlichen Methoden und Algorithmen zu sprechen als auch den Kontext darzulegen, in welchem sie existieren. In meinen Augen sind diese beiden Aspekte untrennbar.

Wo gibt es Anknüpfungspunkte zu Ihrer aktuellen Forschungsarbeit?

Meine Forschung beschäftigt sich mit der Entwicklung von Methoden an der Schnittstelle zwischen Machine Learning und Discrete Optimization. Wir versuchen beispielsweise verstärkt Fairness-Aspekte etc. von Anfang an direkt in die Algorithmen zu integrieren – im Gegensatz zur oft unzureichenden Modifikationen der Methoden im Nachhinein.