BaCAI Lectures

In den BaCAI Lectures präsentieren exzellente Referentinnen und Referenten aus verschiedenen Themengebieten der Künstlichen Intelligenz ihre Forschung. Die Zielgruppe sind durch den Fokus auf Forschung und der Hauptsprache Englisch hauptsächlich Universitätsangehörige, die Vorlesungen sind aber offen für alle Interessierten.

Veranstaltungsdetails (sofern nicht anders angegeben):

Multi-Agenten-Pfadplanung auf gerichteten Graphen

Multi-Agent-Pfadplanung (MAPF) ist das Problem der Entscheidung über die Existenz oder der Generierung eines kollisionsfreien Bewegungsplans für eine Gruppe von Agenten, die sich auf einem Graphen bewegen. Aufgrund seiner Relevanz für Themen wie u.a. Intralogistik, Luftverkehrskoordination und Videospiele hat dieses Problem in letzter Zeit viel Interesse gefunden.

Nach einem Überblick über theoretische Ergebnisse und algorithmische Ansätze, die verwendet werden um das Problem zu lösen, werde ich mich auf die Variante konzentrieren, bei der der Graph gerichtet ist. Während die nicht-optimierende Variante der Multi-Agenten-Pfadplanung auf ungerichteten Graphen seit fast vierzig Jahren als Polynomialzeit-Problem bekannt ist, war ein ähnliches Ergebnis für gerichtete Graphen lange unbekannt. Erst 2023 wurde gezeigt, dass dieses Problem NP-vollständig ist. Für stark zusammenhängende gerichtete Graphen ist das Problem jedoch polynomiell. Und beide Ergebnisse gelten auch dann, wenn man synchrone Rotationen auf voll besetzten Zyklen zulässt.

Über Prof. Dr. Bernhard Nebel

Bernhard Nebel studierte an der Universität Hamburg und schloss sein Studium als Dipl.-Inform. 1980 ab. 1989 promovierte er zum Dr. rer. nat. an der Universität des Saarlandes. Zwischen 1982 und 1993 arbeitete er in verschiedenen KI-Projekten an der Universität Hamburg, der TU Berlin, ISI/USC, IBM Deutschland, und am Deutschen Forschungszentrum für KI (DFKI). Von 1993 bis 1996 war er C3-Professor an der Universität Ulm. Von 1996 bis 2022 war er C4/W3-Professor an der Albert-Ludwigs-Universität Freiburg und leitet die Arbeitsgruppe Grundlagen der Künstlichen Intelligenz. Seit April 2022 ist er im Ruhestand.

Bernhard Nebel war Mitglied des SFB TR/14 Automatic Verification and Analysis of Complex Systems (AVACS) (2004-2015), und war Sprecher der Freiburger Gruppe im SFB TR/8 Spatial Cognition (2003-2014).

Neben anderen Tätigkeiten war er Ko-Programmkomiteevorsitzender der dritten International Conference on Principles of Knowledge Representation and Reasoning (KR'92), Ko-Programmkomiteevorsitzender der 18. German Annual Conference on AI (KI'94), Organisator der 21. German Annual Conference on Artificial Intelligence (KI'97), Programmkomiteevorsitzender der 17. International Joint Conference on Artificial Intelligence (IJCAI'01) und Ko-Konferenzorganisator der 18. International Conference on Automated Planning and Scheduling (ICAPS'08). 2001 wurde er zum EurAI Fellow ernannt. Seit 2009 ist er gewähltes Mitglied der deutschen Akademie der Naturforscher Leopoldina. 2010 wurde er zum AAAI Fellow ernannt, und seit 2011 ist er Mitglied der Academia Europaea. 2019 wurde er von der GI als einer der 10 prägenden Köpfe der deutschen KI-Geschichte ausgezeichnet und seit 2022 ist er ein ACM Fellow. Außerdem wurde er 2022 mit dem Donald E. Walker Distinguished Service Award ausgezeichnet.

Bernhard Nebel ist (Ko-)Autor und (Ko-)Editor von 14 Büchern und Konferenz-Proceeding-Bänden und (Ko-)Autor von mehr als 200 begutachteten Artikeln in wissenschaftlichen Zeitschriften, Büchern und Konferenz-Proceedings.

Vergangene Termine der BaCAI Lectures

Unsicherheitsquantifizierung beim Maschinellen Lernen: Von Aleatorisch zum Epistemisch

Aufgrund der stetig wachsenden Bedeutung des Maschinellen Lernens (ML) für praktische Anwendungen, von denen viele mit Sicherheitsanforderungen einhergehen, hat der Begriff der Unsicherheit in der Forschung zu ML in der jüngsten Vergangenheit zunehmend an Bedeutung gewonnen. In diesem Vortrag werden Fragen zur Darstellung und zum adäquaten Umgang mit (prädiktiver) Unsicherheit im (überwachten) ML behandelt. Ein besonderer Schwerpunkt liegt dabei auf der Unterscheidung zwischen zwei wichtigen Arten von Unsicherheit, die oft als aleatorisch und epistemisch bezeichnet werden, und auf der Frage, wie diese Unsicherheiten in Form von geeigneten numerischen Maßen quantifiziert werden können. Grob gesagt ist die aleatorische Unsicherheit auf die Zufälligkeit des Datenerzeugungsprozesses zurückzuführen, während die epistemische Unsicherheit durch die Unkenntnis des Lernenden über das wahre zugrunde liegende Modell verursacht wird.

Zu Prof. Dr. Eyke Hüllermeier

Eyke Hüllermeier ist ordentlicher Professor am Institut für Informatik der LMU München, wo er den Lehrstuhl für Künstliche Intelligenz und Maschinelles Lernen innehat. Er studierte Mathematik und Wirtschaftsinformatik, promovierte 1997 in Informatik an der Universität Paderborn und habilitierte sich 2002. Bevor er an die LMU kam, hatte er Professuren an mehreren anderen deutschen Universitäten (Dortmund, Magdeburg, Marburg, Paderborn) inne und verbrachte zwei Jahre als Marie-Curie-Stipendiat am IRIT in Toulouse (Frankreich).

Seine Forschungsinteressen konzentrieren sich auf Methoden und theoretische Grundlagen der Künstlichen Intelligenz, mit einem besonderen Schwerpunkt auf Maschinellem Lernen, Präferenzmodellierung und Argumentation unter Unsicherheit. Er hat mehr als 400 Artikel zu verwandten Themen in hochrangigen Fachzeitschriften und auf großen internationalen Konferenzen veröffentlicht, und mehrere seiner Beiträge wurden mit wissenschaftlichen Preisen ausgezeichnet. Professor Hüllermeier ist Hauptherausgeber von "Data Mining and Knowledge Discovery", einer führenden Fachzeitschrift im Bereich der Künstlichen Intelligenz, und gehört den Redaktionsausschüssen mehrerer anderer Fachzeitschriften für Künstliche Intelligenz und Maschinelles Lernen an. Er ist derzeit Präsident der European Association for Data Science (EuADS), Mitglied des Strategy Board des Munich Center for Machine Learning (MCML) und Mitglied des Steering Committee der Konrad Zuse School of Excellence in Reliable AI (relAI).

A cautionary tale of health AI development and deployment

In diesem Vortrag geht es um die verschiedenen Herausforderungen, die sich bei der Entwicklung und dem Einsatz von KI-Algorithmen in großem Maßstab in verschiedenen Regionen ergeben. Insbesondere die generative KI ist vielversprechend, um Zugangsbarrieren abzubauen und die Qualität der Gesundheitsversorgung auf der ganzen Welt zu verbessern. Es ist jedoch wichtiger denn je, sicherzustellen, dass diese Algorithmen ordnungsgemäß validiert und getestet werden und genügend Investitionen getätigt werden, um zu gewährleisten, dass ihre Vorteile gleichmäßig über verschiedene Bevölkerungsgruppen verteilt werden.

Zu Ira Ktena, PhD

Ira Ktena ist Wissenschaftliche Mitarbeiterin bei Google DeepMind und arbeitet an der Forschung zum sicheren und zuverlässigen Maschinellen Lernen (ML). Zuvor war Sie leitende Forscherin für ML im Cortex Applied Research Team bei Twitter UK, wo sie sich auf Echtzeit-Personalisierung konzentrierte, während sie an der Schnittstelle von Empfehlungssystemen und algorithmischer Transparenz forschte. Über deren Forschungen zur algorithmischen Verstärkung politischer Inhalte auf Twitter berichteten unter anderem der Economist und die BBC.

Warum müssen sich LLMs Sorgen machen?

Vorlesungssprache: Englisch

Die Achillesferse der Forschung im Bereich der natürlichen Sprachverarbeitung war lange Zeit Rauschen in Datensätzen, insbesondere ungenaues Labelling. Obwohl es einen Paradigmenwechsel von kleinen Expertenmodellen, die auf gelabelten Datensätzen trainiert werden, zu großen Sprachmodellen (LLMs) gegeben hat, die auf weitgehend unmarkierten Daten trainiert werden und eine Vielzahl von Aufgaben lösen können, bleiben die Probleme der Überschätzung und Verzerrungen bestehen. In diesem Vortrag werde ich einige Methoden zur Unsicherheitsabschätzung in aufgabenorientierten Dialogen vorstellen und diese zur automatischen Korrektur der Beschriftungen in den zugrunde liegenden Datensätzen nutzen. Ich werde Hypothesen aufstellen, wie dies die Tür zur Lösung verwandter Probleme in LLMs öffnen könnte.

Über Prof. Dr. Milica Gašić:

Milica Gašić ist Professorin der Gruppe Dialogsystems and Machine Learning an der Heinrich-Heine-Universität Düsseldorf. Ihre Forschung konzentriert sich auf grundlegende Fragen der Dialogmodellierung zwischen Mensch und Computer und liegt im Schnittpunkt von natürlicher Sprachverarbeitung und maschinellem Lernen. Vor ihrer jetzigen Position war sie Dozentin für Spoken Dialogue Systems am Department of Engineering der Universität Cambridge, wo sie die Dialogue Systems Group leitete. Zuvor war sie Research Associate und Senior Research Associate in der gleichen Gruppe und Research Fellow am Murray Edwards College. Sie schloss ihre Promotion unter der Leitung von Professor Steve Young ab. Das Thema ihrer Dissertation war Statistical Dialogue Modelling, für die sie einen EPSRC PhD Plus Award erhielt. Sie hat einen MPhil-Abschluss in Computer Speech, Text and Internet Technology von der University of Cambridge und ein Diplom (BSc. equivalent) in Mathematik und Informatik von der Universität Belgrad. Sie ist Mitglied der ACL, Mitglied von ELLIS und Seniormitglied von IEEE sowie Mitglied des internationalen wissenschaftlichen Beirats des DFKI.

Probabilistische und Deep Learning-Techniken für Roboternavigation und automatisiertes Fahren

Die Fähigkeit, Umgebungen robust wahrzunehmen und Aktionen auszuführen ist das ultimative Ziel bei der Entwicklung von autonomen Robotern und automatisiertem Fahren. Die größte Herausforderung besteht darin, dass keine Sensoren oder Aktoren perfekt sind. Roboter und Autos müssen daher in der Lage sein, mit der daraus resultierenden Unsicherheit angemessen umzugehen. In diesem Vortrag werde ich den probabilistischen Ansatz in der Robotik vorstellen, der eine strenge statistische Methodik im Umgang mit Zustandsschätzungsproblemen bietet. Darüber hinaus werde ich erörtern, wie dieser Ansatz mit modernster Technologie des Maschinellen Lernens kombiniert werden kann, um mit komplexen und sich verändernden realen Umgebungen umzugehen.

Zu Prof. Dr. Wolfram Burgard

Prof. Dr. Wolfram Burgard ist ein angesehener Professor für Robotik und Künstliche Intelligenz an der Technischen Universität Nürnberg, wo er auch den Gründungslehrstuhl der Fakultät für Ingenieurwissenschaften innehat. Zuvor war er von 1999 bis 2021 Professor für Informatik an der Albert-Ludwigs-Universität Freiburg, wo er das renommierte Forschungslabor für Autonome Intelligente Systeme aufbaute. Seine Fachgebiete sind Künstliche Intelligenz und mobile Roboter, wobei er sich auf die Entwicklung von robusten und adaptiven Verfahren zur Zustandsschätzung und -steuerung konzentriert. Zu Wolfram Burgards Erfolgen gehört der Einsatz des ersten interaktiven mobilen Führungsroboters Rhino im Deutschen Museum Bonn im Jahr 1997. Außerdem entwickelten er und sein Team 2008 einen bahnbrechenden Ansatz, der es einem Auto ermöglichte, autonom durch ein komplexes Parkhaus zu navigieren und selbst einzuparken. Im Jahr 2012 entwickelten er und sein Team den Roboter Obelix, der sich autonom wie ein Fußgänger vom Campus der Technischen Fakultät in die Freiburger Innenstadt bewegte. Wolfram Burgard hat über 350 Beiträge und Artikel auf Konferenzen und in Fachzeitschriften für Robotik und Künstliche Intelligenz veröffentlicht. Außerdem ist er Mitautor der beiden Bücher "Principles of Robot Motion - Theory, Algorithms, and Implementations" und "Probabilistic Robotics". Im Jahr 2009 wurde er mit dem Gottfried Wilhelm Leibniz-Preis ausgezeichnet, dem renommiertesten Forschungspreis in Deutschland. Er ist Mitglied der Heidelberger Akademie der Wissenschaften und der Nationalen Akademie der Wissenschaften Leopoldina.

Besonderheiten und Herausforderungen für Maschinelles Lernen in der intraoperativen Bildgebung

Auf dem Weg zu Präzision und Intelligenz in dynamischen Umgebungen mit hoher Intensität

Vortrag auf Englisch

In den letzten zehn Jahren haben die rasanten Fortschritte im Bereich des Maschinellen Lernens (ML) verschiedene Bereiche revolutioniert und unser Leben erheblich beeinflusst. In diesem Vortrag werden wir in den Bereich der medizinischen Anwendungen eintauchen und die Herausforderungen und Möglichkeiten untersuchen, die mit der Integration dieser Spitzentechnologien in computergestützte Interventionen verbunden sind. Unser Hauptaugenmerk liegt dabei auf der Förderung der Akzeptanz und des Vertrauens in ML und Robotiklösungen im medizinischen Bereich, was oft den Weg über Intelligence Amplification (IA, "Intelligenz-Verstärkung") erfordert. Mit Augmented Reality (AR) können wir IA nutzen, um die menschliche Intelligenz und Expertise zu erweitern, was letztlich den Weg für die nahtlose Integration von Künstlicher Intelligenz (KI) und Robotik in klinischen Lösungen ebnet.

Ausgehend von einigen bahnbrechenden Forschungsarbeiten, die am Lehrstuhl für Computer Aided Medical Procedures (computergestützte medizinische Verfahren) an der TU München und der Johns Hopkins University durchgeführt wurden, werde ich eine Reihe neuartiger Techniken vorstellen, die für die besonderen Anforderungen medizinischer Anwendungen entwickelt wurden. Insbesondere werden wir ihre praktischen Implementierungen in verschiedenen Bereichen untersuchen, darunter die robotergestützte Ultraschallbildgebung, die multimodale Datenanalyse und semantische Szenegraphen für die ganzheitliche Modellierung des chirurgischen Bereichs. Darüber hinaus werde ich überzeugende Beispiele dafür vorstellen, wie AR-Lösungen als Katalysator für die Einführung von KI in der computergestützten Chirurgie dienen können. Indem wir uns die Macht von IA zunutze machen, können wir das volle Potenzial von KI-Technologien freisetzen, die Akzeptanz fördern und die Zukunft computergestützter Eingriffe vorantreiben. Begleiten Sie mich auf dieser aufschlussreichen Reise durch die komplizierten Überschneidungen von Maschinellem Lernen, medizinischem Fortschritt und dem Weg von der "Intelligenz-Verstärkung" zur Künstlichen Intelligenz im Gesundheitswesen.

Zu Prof. Dr. Nassir Navab

Prof. Dr. Nassir Navab ist ordentlicher Professor und Direktor des Lehrstuhls für Computer Aided Medical Procedures (CAMP) an der Technischen Universität München (TUM) und außerplanmäßiger Professor an der Johns Hopkins Universität. Er ist auch Leiter der zweimal jährlich stattfindenden Medical Augmented Reality Vorlesungsreihe an der Balgrist Klinik in Zürich. Er ist Mitglied der Academia Europaea und erhielt 2021 den prestigeträchtigen MICCAI Enduring Impact Award und 2015 den IEEE ISMAR 10 Years Lasting Impact Award. Im Jahr 2001, als er als angesehener technischer Mitarbeiter bei Siemens Corporate Research (SCR) in Princeton tätig war, erhielt er die renommierte Siemens Inventor of the Year Auszeichnung für seine Arbeit auf dem Gebiet der Interventionellen Bildgebung. Außerdem erhielt er den SMIT Technology Innovation Award im Jahr 2010 und wird im Jahr 2024 Medical AR Pioneer in der AWE XR Hall of Fame. Seine Studierenden haben viele Auszeichnungen für ihre Arbeiten erhalten, darunter 15 Auszeichnungen bei den renommierten MICCAI-Veranstaltungen, 5 bei IPCAI, 2 bei IPMI und 4 bei IEEE ISMAR. Er ist Fellow der MICCAI Society und war im Vorstand von 2007 bis 2012 und von 2014 bis 2017. Er ist außerdem ein IEEE Fellow und Fellow der Asia-Pacific Artificial Intelligence Association (AAIA) und einer der Gründer des IEEE Symposium on Mixed and Augmented Reality (ISMAR) und ist seit 2001 Mitglied des Lenkungsausschusses seit 2001. Er ist ein Area Chair für ECCV 2024. Er ist Autor von Hunderten von wissenschaftlichen Arbeiten und über 100 erteilten US- und internationalen Patenten. Im April 2024 wurden seine Arbeiten über 76.600 Mal zitiert und haben einen h-Index von 117.

Wie man Künstliche Intelligenz menschlicher machen kann

Die Beziehung zwischen Menschen und Maschine, insbesondere im Kontext Künstlicher Intelligenz (KI), ist von Hoffnungen, Bedenken und moralischen Fragen geprägt. Auf der einen Seite bieten Fortschritte in der KI große Hoffnungen: Sie verspricht Lösungen für komplexe Probleme, verbesserte Gesundheitsversorgung, effizientere Arbeitsabläufe und vieles mehr. Doch gleichzeitig gibt es berechtigte Bedenken hinsichtlich der Kontrolle über diese Technologie, ihrer potenziellen Auswirkungen auf Arbeitsplätze und Gesellschaft, sowie ethischer Fragen im Zusammenhang mit Diskriminierung und dem Verlust menschlicher Autonomie. Der Vortrag wird das komplexe Spannungsfeld zwischen Innovation und moralischer Verantwortung in KI Forschung beleuchten und illustrieren.

Zu Prof. Dr. Kristian Kersting

Prof. Dr. Kristian Kersting ist Kodirektor des Hessischen Zentrums für Künstliche Intelligenz (hessian.AI) und leitet das Fachgebiet KI und Maschinelles Lernen an der TU Darmstadt. Seine Forschung umfasst Deep Probabilistic Programming and Learning sowie Explainable AI. Er ist Fellow der Association for the Advancement of AI (AAAI), der European Association for AI (EurAI) und des European Lab for Learning and Intelligent Systems (ELLIS), Buchautor ("Wie Maschinen lernen") und Träger des "Deutschen KI-Preises 2019”.  Er schreibt eine monatliche KI-Kolumne in der Welt.