Grenzen durchschneiden

Yuansi Chen ist seit Anfang dieses Jahres ausserordentlicher Professor für Statistik im Departement Mathematik. Seine Forschungsinteressen bewegen sich rund um Probleme der Bayes'schen Statistik und des maschinellen Lernens, sind jedoch disziplinübergreifend – ein Motiv, das sich auch in seiner Lehre widerspiegelt.

Yuansi Chen ist jemand, der gerne auf Entdeckungsreisen geht. Im Alter von 18 Jahren zog er von seinem Heimatland China nach Frankreich. Dort besuchte er zunächst das Lycée Hoche in Versailles, um sich auf den Eintritt in die Grandes Écoles vorzubereiten, und studierte danach von 2010 bis 2013 an der École Polytechnique. Dies war eine Zeit, in der maschinelles Lernen (ML) und künstliche Intelligenz (KI) zu boomen begannen. Chen wandte sich interessiert den mathematischen Feinheiten dieses sich schnell entwickelnden Felds zu und war so fasziniert, dass er beschloss zu diesem Thema zu promovieren, in der Gruppe von Bin Yu an der University of California, Berkeley (USA).

Yuansi Chen
«Die konvexe Geometrie ist ein Gebiet, das von der rechnerischen Komplexität recht weit entfernt ist, und die Literatur war für mich zunächst schwierig zu lesen. Aber am Ende konnte ich viele Intuitionen und kreative Ideen daraus gewinnen».

Eine der Fragen, mit denen er sich beschäftigte, war, wie man effizient Zufallsstichproben aus einer bekannten Verteilung erzeugen kann. Dies ist eine rechnerische Herausforderung nicht nur in der KI und im ML, sondern auch im Operations Research, in der Statistik und in einer ganzen Reihe anderer Felder, die sich mit stochastischen Modellen beschäftigen. Chen begann, so genannte Markov-Chain-Monte-Carlo-Algorithmen (MCMC-Algorithmen) zu untersuchen, und allmählich kristallisierte sich heraus, was die Leistungsfähigkeit dieser Algorithmen limitiert. «Wir begannen zu erkennen, dass der wahre Engpass für solche Algorithmen die Geometrie des Problems ist», sagt Chen. Diese Erkenntnis sollte zu einem bahnbrechenden Ergebnis führen, das grosse Aufmerksamkeit erregte.  

Forschung am «cutting edge»

Die Erforschung der Verbindungen zwischen der rechnerischen Komplexität von Sampling-Algorithmen und der Geometrie – konkret der konvexen Geometrie – erwies sich als ebenso herausfordernd wie fruchtbar, sagt Chen: «Die konvexe Geometrie ist ein Gebiet, das von der rechnerischen Komplexität recht weit entfernt ist, und als ich mich mit der Literatur befasste, war es zunächst schwierig, diese Arbeiten zu lesen. Aber am Ende habe ich viele Intuitionen und kreative Ideen in diesem für mich neuen Gebiet schätzen gelernt.» Diese Reise führte ihn insbesondere zu der so genannten Kannan-Lovász-Simonovits-Vermutung (KLS-Vermutung).

Die KLS-Vermutung bezieht sich auf die Frage, wie eine konvexe Form mit dem kürzesten Schnitt in zwei gleichgrosse Stücke geteilt werden kann. Chens Kreativität scheint durch, wenn er das Problem erklärt: «Stellen wir uns vor, wir müssen Käsestücke in gleiche Hälften schneiden und dabei die freiliegende Oberfläche minimieren, damit der Käse so frisch wie möglich bleibt.» Bei einem scheibenförmigen Camembert ist die Lösung nicht überraschend: Ein gerader Schnitt durch die Mitte des Laibes. Bei einem keilförmigen Stück Käse ist der optimale Schnitt jedoch weniger intuitiv: Es handelt sich nicht um eine gerade Linie, sondern um eine gekrümmte (siehe Video). Die eigentliche Herausforderung besteht nun darin, den besten Schnitt, einschliesslich gekrümmter Schnitte, in höheren Dimensionen zu finden. Das Problem ist herausfordernd und gleichzeitig von grosser Bedeutung, insbesondere deshalb, weil kürzeste Schnitte in konvexen Formen mit Engpässen in dynamischen Problemen in Verbindung stehen und in Letzteren die Geschwindigkeit begrenzen, mit der sich zum Beispiel ein «Irrfahrer» (random walker) – oder der Geruch von Käse – fortbewegen kann.

Mit dem Abspielen des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.Mehr erfahren OK
Was ist der optimale Schnitt bei einem keilförmigen Brie? Yuansi Chen beantwortet diese Frage im Video.

Diese Erweiterung auf höhere Dimensionen ist das Problem, das der KLS-Vermutung zugrunde liegt. Die Vermutung wurde 1995 formuliert und baut auf Jean Bourgains «Slicing-Problem» von 1984 auf. Die Schlüsselfrage, die die Forscher jahrzehntelang beschäftigte, war, wie schnell die Zahl «versteckter» Engpässe, die durch gekrümmte Schnitte (im Vergleich zu geradlinigen Schnitten) entstehen, mit zunehmender Dimension einer konvexen Form wächst. Chen mag sich dem Problem als «Aussenstehender» genähert haben, aber er war derjenige, der nachweisen konnte, dass es eine nahezu konstante untere Schranke gibt. Kurz gesagt, er zeigte, dass die Komplexität mit zunehmender Dimension nur sehr mässig wächst. Dies war ein starkes und langersehntes Ergebnis in der konvexen Geometrie, aber es hat auch direkte Auswirkungen auf eine breite Palette von Anwendungen, indem es beispielsweise statistische Garantien dafür lieferte, wie schnell verschiedene Algorithmen echte Zufallsstichproben liefern können.

Chens bahnbrechendes Ergebnis, das 2021 veröffentlicht wurde, fand breite Beachtung und Anerkennung, darunter Einladungen zu Vorträgen im Rahmen der Simons Institute Breakthroughs Lecture Series und der Nirenberg Lectures in Geometric Analysis im Jahr 2021. Chen hatte inzwischen seine Promotion abgeschlossen und kam im Juli 2019 als Postdoktorand an die ETH Zürich, wo er am Seminar für Statistik und an den ETH Foundations of Data Science unter der Leitung von Peter Bühlmann arbeitete. Im März 2021 nahm er eine Stelle als Assistenzprofessor an der Duke University (USA) an, wo er mehrere prestigeträchtige Stipendien und Auszeichnungen erhielt, darunter ein Sloan Research Fellowship, einen NSF CAREER Award und einen Ralph E. Powe Junior Faculty Enhancement Award, bevor er im Januar 2024 schliesslich in die Schweiz zurückkehrte.

«Am Anfang mag es eine Art Kulturschock geben, aber nach und nach lernt man die neue Kultur zu schätzen.»
Yuansi Chen über das Wagnis in neue unbekannte Bereiche der Mathematik vorzustossen

Geschätzte Kulturschocks

Chen vergleicht das Leben in verschiedenen Ländern damit, sich in verschiedene Bereiche der Mathematik zu wagen: «Am Anfang mag es eine Art Kulturschock geben, aber nach und nach lernt man die neue Kultur zu schätzen.» Als Beispiel kommt er auf das Thema Käse zurück: «Bevor ich nach Europa kam, hatte ich noch nie Käse gegessen. Als ich in Paris zum ersten Mal Camembert Poêlé probierte, war das ein Schock: sowohl der stechende Geruch als auch der reichhaltige und genussvolle Geschmack. Später habe ich mich in die verschiedenen Käsesorten verliebt; neben dem Genuss des köstlichen Essens lernt man auf diese Weise auch die Menschen, die Geografie und das Klima der Regionen kennen, aus denen die Produkte stammen.»

Im Rahmen seiner Forschung ist es Chen ein Anliegen, die jüngere Generation mit auf die Reise durch die Disziplinen zu nehmen (während er bei den kulturellen Erkundungen von seiner Frau und seiner einjährigen Tochter begleitet wird). Im vergangenen Frühjahrssemester führte er den Master- und Doktorierendenkurs «Diffusion Models, Sampling and Stochastic Localization» ein, der die Studierenden auf die akademische Forschung zu aktuellen Themen an der Schnittstelle von Statistik und Informatik vorbereitet, wie MCMC-Sampling-Algorithmen und generative Diffusionsmodelle. Der Kurs stösst bei den Studierenden der Departemente Mathematik und Informatik gleichermassen auf grosses Interesse. Und angesichts der vielen weiteren Verbindungen, die Chen zwischen der angewandten Statistik und verschiedenen anderen Bereichen sieht, wird seine Suche nach neuen Forschungsideen – und möglicherweise neuen Kursangeboten – wohl nicht so bald enden.

JavaScript wurde auf Ihrem Browser deaktiviert