Research Colloquium and Colloquium for Doctoral Candidates

General Information

The research colloquium of the CogSys group is a forum for scientific discussion between lecturers, doctorate candidates and master students (interested bachelor students are welcome, too). Talks cover concepts and results of theses as well as current research in the field cognitive systems. Furthermore, current subjects of more general interest can be presented and discussed. Sometimes external researchers are invited.

If you want to be informed about current talks and want to look up the login information, please sign up for the  course KogSys: General Information in the virtual campus.

Please also note the talks of the BaCAI lecture series.

Talks SS 24

Kolloquium Donnerstag, 26.09.2024, 14:00-15:00 Uhr, WE5_05.013

Leonhard Kestel: MA-Verteidigung "Tree-Vitality Classification from Image Data. A Comparison of Multispectral Indices and Deep Learning Approaches"

Abstract:
With climate change as threat and staff shortage in forestry, tree detection and vitality classification from UAV-based data is becoming a crucial task in order to preserve and maintain our forests. However it is very challenging, particularly in deciduous and mixed forests. While most studies have relied on multispectral data (RGB + NIR + RE), recent advancements in deep learning models have shown promising results using only RGB data, which would make these kinds of analyses cheaper and more accessible. This study aims to compare the efficacy of these data sources as the foundation for tree crown detection and vitality classification. I trained models on 3-band RGB and 5-band multispectral data collected from forests around Bamberg, Germany. Two instance segmentation algorithms, Mask R-CNN and Mask2Former, were employed for Individual Tree Crown Delineation (ITCD) along with ResNet-50 for vitality classification. At an IoU (Intersection over Union) threshold of 0.5, the best segmentation algorithm (Mask R-CNN on RGB data) achieved a precision of 0.46, recall of 0.31 and thus an F1-score of 0.37 on the test set. The ResNet classifiers based on both types of data demonstrated an overall accuracy exceeding 0.8, with the RGB-trained model achieving the highest accuracy of 0.85. For vitality classification, the RGB model achieved an F1-score of 0.91 for the vital class, 0.79 for the dead class, and 0.48 for the degrading class. The multispectral model showed slightly lower performance with F1-scores of 0.89, 0.77, and 0.51 for the vital, dead, and degrading classes, respectively. Notably, multispectral data increased the recall for degrading trees by 13 percent points, which resulted in a slightly higher F1-score. Incorporating the genus label as additional information for the model significantly enhanced the precision of the dead class by 8% on RGB data and by 13% on multispectral data. This study demonstrates that RGB data is a viable alternative for tree health monitoring and that genus labels contain valuable information for vitality classification. Hence, a multi-label learning approach is proposed to leverage it. The aim of this thesis is to contribute to the overarching goal of an end-to-end application for the segmentation and classification of trees from airborne data, both RGB or multispectral.

Kolloquium Montag, 16.09.2024, 11:00-12:00 Uhr, WE5_05.013

Satyam Pant: MA-Verteidigung "Model Revision for Images Based on Near-Misses and Near-Hits Explanation-Guided Augmentation"

Abstract:
The growing reliance on artificial intelligence (AI) in critical real-world applications, such as healthcare diagnostics and industrial quality control, demands models with high predictive accuracy and reliability. However, developing such models is often hindered by the limited availability of high-quality labeled data and class imbalances, leading to challenges in achieving robust predictions, particularly for minority classes. To address these issues, this work introduces ExTRe (Explanation Guided Training Revision), a novel approach that enhances model performance through interactive, explanation-driven revision. ExTRe involves human experts correcting misclassified instances and examining near hits and near misses, thereby refining the model’s decision boundaries. The corrected labels are used to augment the training data, guiding targeted model improvements. The method was evaluated on two binary image classification tasks: a subset of MNIST (distinguishing between digits 3 and 8) and a real-world welding seams dataset (classified as good or bad). For the welding dataset, ExTRe improved the baseline accuracy from 73% (ROC AUC of 0.81) to 95% (ROC AUC of 0.92). Similarly, for MNIST, ExTRe increased the baseline accuracy from 93% (ROC AUC of 0.99) to 99% with a perfect ROC AUC of 1.00. Precision, recall, and F1-score also showed notable improvements. This study demonstrates that ExTRe provides a cost-effective method for refining model decision boundaries, particularly in data-scarce environments, while enhancing model interpretability. These results validate ExTRe’s effectiveness and lay the groundwork for future advancements in AI-driven model revision techniques.

Kolloquium Montag, 26.08.2024, 14:00-15:00 Uhr, WE5_05.013

Johannes Langer: MA-Verteidigung "A Neuro-symbolic Single-path Approach for Solving Raven’s Progressive Matrices"

Abstract:
The ability to reason in abstract domains is a key component of human intelligence, and is tested in common intelligence tests such as Raven’s Progressive Matrices (RPM). In this work, I explore a Neuro-symbolic architecture for solving RPM problems with the goal of combining state of the art computer vision models with the ability to learn programs from only a few examples provided by Inductive Logic Programming. It aims to segment relevant parts of raw images, create disentangled representations of the image parts using a Variational Autoencoder, and learn the relational structure of the problem from these representations using ILP. The only labels required are the masks of relevant objects for the training of the instance segmentation module, which makes it easily transferable to adjacent domains. While a complete integration of the proposed system was not possible at this time, I am able to show promising results for each of the submodules.

Kolloquium Mittwoch, 22.07.2024, 10:00-11:30 Uhr, WE5_05.013

Barbara Blank: MA-Verteidigung "Umsetzung von NLP-Methoden für ein Intelligentes Tutorsystem zur Konzeptvermittlung mittels sokratischem Dialog – Erschließung des Themenfelds heimische Bäume für die Grundschule"

Abstract:
Diese Arbeit beschreibt Schritt für Schritt, wie ein intelligentes tutorielles System in Form eines Chatbots mit der Domäne “Bäume des heimischen Waldes” unter Verwendung von Dialogflow erstellt und in eine Webpage integriert werden kann. Die Beschreibung erfolgt beispielhaft anhand von Einzelteilen des Chatbots. Die Gesamtheit aller verknüpften Einzelteile wird durch die Präsentation des vollständigen Entscheidungsbaumes veranschaulicht. Die Domäne des Chatbots umfasst den Themenbereich “Bäume des heimischen Waldes”. Da der Chatbot mit Menschen kommunizieren soll, ist er zur Verarbeitung menschlicher Sprache mittels NLP-Methoden fähig. Hierbei liegt der Fokus auf der Verarbeitung kindlicher Sprachmuster, da der Chatbot für den Einsatz in der Grundschule konzipiert ist. Der Konversationsstruktur des Chatbots liegt der sokratische Dialog als Methode des Unterrichtsgesprächs zu Grunde. Die Arbeit beinhaltet außerdem eine empirische Evaluation des Chatbots, der in der Grundschule bereits zum Einsatz gekommen ist.

Kolloquium Montag, 15.07.2024, 14:00-15:00 Uhr, WE5_05.013

Christian Dormagen: MA-Verteidigung "Inductive Learning of System-level Process Behaviour Explanations - A Hybrid Machine Learning Approach for Process Mining"

Abstract:

Classical event logs in process mining often treat data as abstract tokens, which fail to capture the semantics of process behavior. In addition, the process of extracting event logs from relational databases introduces artifacts and information about the interactions between objects. To address these limitations, this work leverages Semantic Web technologies to construct a semantic event log that better captures the underlying process behavior and uses it to learn partial process models to explain patterns within the data. We first develop an OWL 2 DL-based process mining upper ontology based on the Object Centric Event Data metamodel, which provides a schema for representing process data. This ontology is instantiated with event data to create a semantic log, enriched with system-level events that encode specific patterns of interest across multiple traces, and DECLARE constraints to increase its expressiveness. Using DL-Learner, an inductive logic programming system for OWL ontologies, we then derive explanations for system-level patterns in the semantic log as partial DECLARE models. This approach allows us to validate our semantic log in a first

use case and to improve our understanding of system-level process behavior. By focusing on system-level behaviors and separating the data into those that are affected by them and those that are not, we avoid the problems that inductive logic programming for process mining usually faces in the need for negative examples. Our methodology is validated through application to synthetic and real event data, demonstrating the potential of integrating Semantic Web technologies with process mining to improve the accuracy and semantic expressivity of event logs. Initial results indicate that our approach can be used to represent process data and apply existing SemanticWeb technologies to learn partial DECLARE models, although further work is needed, particularly when it comes to reducing the complexity.

Kolloquium Mittwoch, 10.07.2024, 16:00-17:30 Uhr, WE5_05.013

Leonhard Kestel: MA-Zwischenpräsentation "Tree Vitality Classification from Image Data - A Comparison of Multipectral Index Scores and Deep Learning Approaches"

Kolloquium Mittwoch, 10.07.2024, 15:00-16:00 Uhr, WE5_05.013

Corbinian Weithmann: MA-Verteidigung "Erklärbare Fehlerklassifikation in der bildbasierten industriellen Qualitätskontrolle: Anwendung von CNNs und Identifikation von Klassenprototypen für die Entwicklung von Statoren"

Abstract:
Ausgangssituation:
In der Abteilung EA-343 der BMW Group soll eine Künstliche Intelligenz (KI) zur Fehlerdetektion bei der Entwicklung von Elektromotor-Komponenten eingeführt werden. Als Pilotkomponente wird der Stator verwendet. Ziel ist es, die automatisierte Erkennung von Produktionsfehlern durch ein Convolutional Neural Network (CNN) zu testen.
Problem:
Fehler wie Blasen oder Risse im Stator können während der Produktion oder in den Testzyklen auftreten und sind manuell schwer zu erkennen. Diese Fehler beeinträchtigen die Produktqualität erheblich. Ein CNN-Modell soll entwickelt werden, um diese Fehler zuverlässig zu identifizieren und zu klassifizieren, um die Produktqualität zu verbessern.
Methode:
In der ersten Stufe wird mit Hilfe eines trainierten CNN-Modells entschieden, ob ein Fehler vorliegt. In der zweiten Stufe wird die Art des Fehlers bestimmt. Um die Qualität der Fehlererkennung mittels CNN zu verbessern, werden Methoden der erklärbaren KI (xAI) zur Analyse und Verbesserung des Modells eingesetzt.
Erwartete Ergebnisse und Nutzen:
Die automatisierte Fehlererkennung durch CNN soll Ingenieuren in der Entwicklungsphase helfen, Fehler frühzeitig zu identifizieren und zu klassifizieren. Durch den Einsatz von xAI wird die Vertrauenswürdigkeit der Ergebnisse erhöht, sodass Ingenieure fundierte Entscheidungen zur Verbesserung von Design und Prozessen treffen können.

Kolloquium Mittwoch, 26.06.2024, 09:00-10:00 Uhr, WE5_05.013

Maren Stümke: MA-Verteidigung "Identifying and Overcoming Student’s Misconceptions in Chemistry: An Intelligent Tutoring System to Teach Chemical Equations with Worked-out Analogical Examples"

Abstract:
Intelligent Tutoring Systems (ITS) aim to provide students with comparable instructional advantages to that of a human tutor by responding to individual needs and providing immediate feedback. Originally dating back to the 1980s, they have proven useful in different academic and educational contexts, especially in STEM-related domains (VanLehn, 2011). However, an ITS helping students to understand the underlying system of building and solving chemical formulae is lacking although many students struggle with these concepts (Taskin and Bernholt, 2012). Consequently, this Master Thesis provides the implementation and some first testing of an ITS for chemical formulae, especially redox reactions. It follows the classic architecture of an ITS with a background knowledge comprising the rules of deriving equations, a student module identifying errors or misconceptions in students’ answers, a simple interface, and a feedback module where structurally analogous examples are selected. We chose analogies as a feedback method as they enable students to not only solve the example at hand but also grasp the underlying schemata. This is essential to truly understand chemical formulae. The ITS was tested in a qualitative evaluation study and proved to be processing reliably and being reasonably easy to understand.

Kolloquium Mittwoch, 19.06.2024, 16:00-17:00 Uhr, WE5_05.013

Annabel Lindner (FAU): "How to Deal with Transformative Topics in Computer Science Education: An Analysis Based on the Topic of Artificial Intelligence"

Kolloquium Mittwoch, 29.05.2024, 16:00-17:30 Uhr, WE5_05.013

Lukas Gernlein: "Towards Explainable and Interactive Machine Learning for Multi-Label Classification"

Abstract:
The opaque nature of neural networks hinders applicants from fully retracing the prediction done by deep learning classifiers. When employing neural networks in critical applications such as medical diagnosis or autonomous driving, predictions relying on incorrect decision boundaries can have fatal effects. Therefore, methods are needed to explain the prediction process of deep learning classifiers and to interact with these explanations to prevent malicious behaviour. Our work provides a method to interact with classifiers explanations and enable feedback through a novel loss function, producing robust and reliable models for complex multi-label tasks. We introduce the multi-label right for the right reason loss function (MuLRRR), which, besides right answers, ensures correct reasoning by using label-specific annotation masks on integrated gradient explanations corresponding to a classifier’s prediction, where outlying gradients are penalized. Our contribution is combining and extending two approaches in the XIML research. We use integrated gradients to explain a classifier’s prediction, which is constrained over the extended right for the right reason loss function. Additionally, we derive a metric to evaluate a model’s multi-label explanation performance. This multi-label explanation score (MuLX) uses integrated gradients for explanations and is a ratio of correctly highlighted parts of the input to incorrect activated locations, which indicates how well a model focuses on correct parts for its forecasts. The experiments showed that our MuLRRR loss function enhanced classification metrics and the proposed MuLX score compared to common binary cross entropy constraints.

Kolloquium Mittwoch, 22.05.2024, 16:00-17:30 Uhr, WE5_05.013

Thomas Schultze-Gerlach: "Using Large Language Models to Augment (Rather Than Replace) Human Feedback in Higher Education Improves Perceived Feedback Quality"

Abstract:
Formative feedback on assignments such as essays or theses is deemed necessary for students’ academic development in higher education. However, providing high quality feedback can be time-intensive and challenging, and students frequently report dissatisfaction with feedback quality. Here we explore a possible solution, namely using large language models (LLMs) to augment feedback provided by instructors. In a pre-registered study, participants (N = 112) evaluated original human-generated versus LLM-augmented feedback on a previous assignment. Participants rated the quality of LLM-augmented feedback substantially higher and strongly preferred it over the human-generated original. Our findings demonstrate the potential of LLMs to solve the persistent problem of low perceived feedback quality in higher education.

Kolloquium Montag, 15.04.2024, 12:00-13:00 Uhr, WE5_05.013

Daniel Gramelt: MA-Verteidigung "Explanatory interactive machine learning for welding seam quality assessment"

Abstract
Daniel Gramelt aims to use explainable artificial intelligence to classify irregular welding seams at the Porsche factory. He will discuss the challenges involved in implementing such a system and present new technologies that could enable this system to be integrated into the current production process

Kolloquium Donnerstag, 11.04.2024, 17:00-18:00 Uhr, WE5_05.013

David Cerna (Czech Academy of Sciences): "Anti-unification: Introduction, Applications, and Recent Results"

Abstract
Anti-unification is a method for symbolically generalizing formal expression. It was introduced independently by Plotkin and Reynolds as an operation for inductive inferencing. Though conceptually simple, it is an effective tool for abstraction and templating. Since the seminal work, the number of applications has grown tremendously with uses in program analysis, program repair, library compression, automated reasoning, and beyond. With the growth of applications, there has been an effort to strengthen the theoretical foundations of the subject. In this talk, we introduce anti-unification, overview the existing applications, and discuss recent theoretical results concerning equational and high-order anti-unification.

Talks WS 23/24

Kolloquium Mittwoch, 17.01.2024, 16:00-17:30 Uhr, WE5_05.013

Alexander Köbler (Doktorand Siemens Digital Industries: "Human-Centered AI Using Domain Knowledge"

Kolloquium Donnerstag, 21.12.2023, 13:00-14:00 Uhr, WE5_05.013

Jonas Amling: MA-Verteidigung "Explainable AI for Mixed Data Clustering"

Kolloquium Mittwoch, 20.12.2023, 12:00-13:00 Uhr, WE5_05.013

Shamim Miroliaei : MA-Verteidigung "Exploring Potential Biases in Sequential Data Classification for Hand Gesture Recognition using Layer-wise Relevance Propagation and Cluster Analysis"

Abstract:
In recent years, significant improvements have been made in Machine Learning (ML) based models. Primarily, improving these models aims to increase their learning rate. However, the functionality of ML, especially models with Convolutional Neural Network (CNN) architecture, is still complex for humans to understand. A significant method to explore the intricacies of the CNN model is to analyze the models with Layer-wise Relevance Propagation (LRP). This research examines the model’s performance trained on sequential data extracted from the hand gesture recognition dataset. To understand the model’s performance and possible biases, gender-based comparisons were made on the analysis results with different LRP rules, and then the results were clustered. Various biases were revealed by examining the LRP methods and clustering of the relevance maps generated via LRP. Detected biases are classified as sampling bias (for example, recognizing a face, accessory, or sleeve when detecting hand gestures), omitted variable bias (inability to see the entire hand), and representation bias (finger movements and incorrect hand angles that cause fuzzy hand gesture recognition), and algorithmic bias (overlap detection in detected clusters that cause misinterpreted results). Interpreting the results of the bias in the dataset emphasizes the importance of choosing LRP rules and using appropriate clustering methods. The obtained results can be used to reduce any obvious discriminatory tendencies in the CNN model. It is essential to acknowledge the inherent limitations of the dataset, particularly its inadequacy in covering all potential hand gestures.

Kolloquium Montag, 04.12.2023, 15:30 Uhr, WE5_05.013

Adrian Völker: MA-Verteidigung "OS4ITS: A Distributed Shell-based Platform for Integrated Knowledge- and Learner-Modeling and Curriculum Management Across Different Tutoring Systems"

Kolloquium Mittwoch, 29.11.2023, 14:00 Uhr, WE5_05.013

Oraz Serdarov, Master Angewandte Informatik: "Explainable Unsupervised Learning for Fraud Detection" (in coop with HUK Coburg)

Kolloquium Mittwoch, 29.11.2023, WE5_05.013

Martin Schmeißer, Master Angewandte Informatik: "Evaluating methods for transcompiling high-level programming languages" ( in cooperation with Siemens)

Kolloquium Mittwoch, 8.11.2023, 12:00 Uhr

Simon Schramm: Promotion " ILP for explainable graph clustering" (in Kooperation mit BMW)
Abstract
Graph clustering is a popular method to understand 
networks and make them accessible for downstream Machine Learning tasks. Especially for large networks, the results of graph clustering are difficult to explain, since visualizations can be chaotic and the metric used for clustering can be non-interpretable. We propose a method to use Inductive LogicProgramming to provide a post-hoc, local explanation for the results of an arbitrary graph clustering algorithm. Our interactive approach is based on three steps: (1) Formalizing graph data as input for the Inductive Logic Programming system Popper, (2) Qualifying entities from the graph as instances for the variables in the resulting formal logic statements and (3) Re-integrating user feedback on the provided, comprehensible statements into Popper. Compared to other benchmark graph clustering explanation approaches, the proposed method shows superior behaviour in terms of interpretability of the rules and clauses as well as in terms of interactivity on six benchmark datasets.

Kolloquium Mittwoch, 18.10.2023

Judith Knoblach und Leon Kestel: "Bericht über die European Summer School on Artificial Intelligence"

Kolloquium Montag, 09.10.2023, 11 Uhr

Richard Niedling: Master Angewandte Informatik "Unsupervised Machine Learning via Feature Extraction and Clustering to Classify Tree Species from High-Resolution UAV-based RGB Image Data"

Kolloquium Montag, 05.10.2023, 11 Uhr

Holger Fehr: Master Angewandte Informatik "Explainable Link Prediction in Knowledge Graphs with Text Literals - Enhancing the MINERVA Algorithm with SBERT"
In Knowledge Graphs (KGs), information is stored and as triples composed of entities and relations. However, KGs are sometimes incomplete, which has led to the development of several approaches for Link Prediction - the task of finding unknown relations - that allow the inference of new knowledge from existing knowledge.
 Text Literals, which contain the names and descriptions of the entities and relations, are however not considered in most approaches. This paper presents an approach for Link Prediction that allows the use of Text Literals as part of the learning process while maintaining the explainability of the model. This is intended to incorporate previously unused contextual information into link prediction in order to improve the results.  As a basis for this approach, MINERVA, an explainable Link Prediction approach based on Reinforcement Learning, is used. SBERT is used to generate the representation of the textual contents while InputXGradient contributes to maintain the explainability of the model. The approach is evaluated using the LiterallyWikidata data set. 

Talks SS 23

Kolloquium Dienstag, 19.09.2023, 10 Uhr

Felix Hempel: Master Angewandte Informatik "Explanatory and Interactive Machine Learning with Counterfactual Explanations for Ordinal Data"

Kolloquium Mittwoch, 23.8. um 16 Uhr in WE 5.013

Zeynep G. Saribatur (TU Wien): Foundations for Projecting Away the Irrelevant in ASP Programs
Abstract
Simplification of logic programs under the answer-set semantics has been studied from the very beginning of the field. One natural simplification is the removal of atoms that are deemed irrelevant. While equivalence-preserving rewritings are well understood and incorporated in state-of-the-art systems, more careful rewritings in the realm of strong or uniform equivalence have received considerably less attention. This might be due to the fact that these equivalence notions rely on comparisons with respect to context programs that remain the same for both the original and the simplified program. In this work, we pursue the idea that the atoms considered irrelevant are disregarded accordingly in the context programs of the simplification, and propose novel equivalence notions for this purpose. We provide necessary and sufficient conditions for these kinds of simplifiability of programs, and show that such simplifications, if possible, can actually be achieved by just projecting the atoms from the programs themselves. We furthermore provide complexity results for the problems of deciding simplifiability and equivalence testing.

Kolloquium Montag, 28. August 2023, 11:00 Uhr, WE5/05.013

Alexander Hatzold, Master Angewandte Informatik: Semantic and Syntactic Analogical Reasoning in Large
Language Models (LLMs): Effects of Different Types of Prompting on the Performance of ChatGPT

Abstract:
Analogical reasoning is a fundamental aspect of human cognition that has received limited attention in the evaluation of Large Language Models (LLMs). This research fo- cuses on the performance of ChatGPT, a LLM, in solving semantic and syntactic analo- gies. The impact of prompt format and formulation on analogical reasoning is explored. The research question aims to assess the performance of ChatGPT in solving word analogies and letter-string analogies of varying complexity. The thesis involves find- ing a suitable prompt format and generating multiple prompts for experimentation. Prompts are automatically generated using a dedicated framework, and some prompts are manually crafted for comparison.
The results indicate that multiple-choice prompting for word analogies and gener- ative prompting for letter-string analogies achieve the best performance. Automatic prompt generation demonstrates good performance on semantic analogies, with a mean accuracy of 62% across three datasets compared to the best-performing man- ual prompt having 66% mean accuracy. However, for syntactic analogies, automatic prompt generation yields lower results with a mean accuracy of 21% over five problem types compared to the best-performing manual prompt with an accuracy of 65%. These findings emphasize the importance of the prompt format and formulation in analogical reasoning with LLMs. The research contributes to understanding the impact and effects of different prompts on the performance of ChatGPT in analogical reason- ing and highlights the potential of automatic prompt generation for semantic analogies. However, further investigation is needed to improve the performance of LLMs in solv- ing syntactic analogies.

Kolloquium Mittwoch, 19.07.2023

Prof. Dr. CC Carbon "Verschwörungstheorien und -mythen: Was, woher, warum - was machen sie mit uns und wie gehen wir mit ihnen um, und das in Zeiten von DeepL, ChatGPT, DALL-e und Kolleg*innen?"
Abstract
Wir leben in einer Zeit, in der neurowissenschaftliche Methoden zu Standardmethoden geworden sind, die von vielen Forschern leicht angewendet werden können. Dies bietet zwar hervorragende Möglichkeiten, die mit der ästhetischen Verarbeitung verbundenen Gehirnaktivitäten zu verstehen, doch stehen wir vor dem Problem, ausgefeilte Techniken ohne eine angemessene und gültige theoretische Grundlage der Ästhetik einzusetzen. Ein weiteres Problem ergibt sich daraus, dass die ausgefeilten Methoden oft strenge Auflagen für die Präsentation und das Erleben ästhetischer Reize erfordern. Beim Erleben ästhetischer Gegenstände spielen jedoch Kontextfaktoren eine Rolle, z. B. sind soziale und situative Abhängigkeiten wesentlich, um ein echtes und tiefes "Kunsterlebnis" auszulösen. Darüber hinaus ist in der Kunst oft nicht das Kunstwerk als Objekt entscheidend, sondern die enge Beziehung zum Kunstwerk und die Verarbeitung desselben. Kunst ist jedoch nur eine Facette des gesamten ästhetischen Bereichs, neben z.B. Design, Architektur, Alltagsästhetik, Tanz, Literatur, Musik und Oper. Im vorliegenden Beitrag schlage ich eine dynamische und ganzheitliche ästhetische Perspektive vor, die den jeweiligen Kontext, die Situation, die kognitiven und affektiven Eigenschaften und den Zustand des Betrachters, laufende Verstehensprozesse, den Zeitgeist und andere kulturelle Faktoren einbezieht und auf verschiedene ästhetische Bereiche angewendet werden kann. Wenn wir solche zeitlichen und dynamischen Faktoren außer Acht lassen, werden wir die Qualia der ästhetischen Verarbeitung nicht verstehen. Diese Überlegungen könnten Forschern auf dem Gebiet der Ästhetik helfen, das Erleben ästhetischer Gegenstände besser zu verstehen-­-wenn wir allerdings diese Faktoren ignorieren, entgeht uns das Wesentliche der Erfahrung ästhetischer Objekte, insbesondere von Kunstwerken. Der Vortrag soll helfen, das Erleben von Ästhetik in verschiedenen Bereichen besser zu verstehen und um Möglichkeiten zu schaffen, dieses Erlebnis messbar zu machen.

Kolloquium Dienstag, 04.07.2023, 14:00 Uhr WE5_05.013

Martin Schmeißer, Bachelor Angewandte Informatik: "Large Language Models for Transcompiling: Evaluation of Translating Visual Basic Script to JavaScript"

Kolloquium Montag, 03. Juli 2023, 14:00 Uhr, WE5/05.013

Christoffer Löffler, FAU Nürnberg: Imitating Active Learner Ensembles
Abstract:
In recent years Deep Learning has revolutionized many fields in computer science such as Computer Vision, Natural Language Processing, and Information Retrieval. For many potential applications, (historic) data is available which can be used for learning. However, the data may often lack annotations, that are mandatory for many of the most successful learning approaches.
The generation of high-quality (class) labels is typically a task that involves human labor. However, such human participation may take time and be costly. The optimization of this cost may be performed by Active Learning, that puts humans into the training loop and queries them for the most informative annotations only. However, the choice of a suitable algorithm for Deep Active Learning is especially difficult, because it depends on the models and the dataset at hand.
We propose an imitation learning scheme that imitates the selection of the best-performing expert heuristic at each stage of the learning cycle in a batch-mode pool-based setting. We train a transferable policy on a dataset and later apply it to different datasets and deep classifier architectures. The policy reflects on the best choices from multiple expert heuristics given the current state of the active learning process, and learns to select samples in a complementary way that unifies the expert strategies. Our experiments on well-known image datasets show that we outperform state of the art imitation learners and heuristics.

Kolloquium Donnerstag, 15. Juni 2023, 18:00 Uhr, WE5/01.006

Adish Singla, MPI-SWS, Saarbrücken: AI-Driven Educational Technology for Introductory Programming
Abstract: 
Computational thinking and basic programming skills are essential for everyone to thrive in nowadays digital society. Consequently, there is an increasing need to introduce computing and programming education at an early age, starting at elementary-level grades. However, given the conceptual and open-ended nature of programming tasks, novice learners often struggle when solving these tasks on their own. Given the scarcity of human tutoring resources to provide individualized assistance, AI-driven educational technology has the potential to provide scalable and automated assistance to struggling learners. In this talk, I will present our research on AI-driven techniques for automatically synthesizing new programming tasks, generating personalized feedback, and modeling learners' knowledge. I will highlight unique challenges and insights in the programming domain, which can also drive the next scientific breakthroughs in AI-driven education for other subject domains. I will conclude with directions for future work on AI-driven educational technology to make programming education effective and accessible for all.

Kolloquium Mittwoch 24.05.2023

Bettina Finzel: "Concept- and Relation-based Explanations"

Kolloquium Mittwoch, 24.05.2023, 11:45 Uhr

Sarem Seitz: Promotion ""

Kolloquium Montag, 15.05.2023, 15:00 Uhr

Ines Rieger: Promotion ""

Kolloquium Mittwoch 10.05.2023

Bettina Finzel: "Pixy - ein Tool für Reasoning auf Graphen (im Speziellen Neo4j)"

Kolloquium Donnerstag, 20.04.2023

Bettina Finzel: "Write Reviews: A How To"

Talks WS 22/23

Kolloquium am 09.03.2023

Mareike Müller: Masterarbeit Verteidigung zum Thema "Dynamic Fingerspelling Recognition Using Sequential Deep Learning"
Abstract: 
Computer Vision bears new possibilities for inclusiveness and accessibility. Methods can be adapted for automated Sign Language Recognition, i.e. translating the meaning of signs from visual input such as videos. Many existing tools for fingerspelling recognition are based on object recognition disregarding dynamic signs like "J" or "Z" which involve movement. Applied methods from Human Action Recognition aid in the recognition of dynamic signs like "J" or "Z". Using the RWTH German Fingerspelling Database, we develop a fingerspelling recognition system capable of recognizing dynamic signs utilizing human keypoints extracted from face and body parts. The size of the data set allowed testing the applicability of the used methods for low resource languages. For sequence modeling we use a Long Short Term Memory Recurrent Neural Network and compare it with a Transformer based network as well as an Spatio-Temporal Graph Convolution Network. Our fingerspelling recognition system achieves state of the art classification accuracy considering the small training data set. The Long Short Term Memory model has a lower inference latency than the additionally tested transformer and graph based models and was integrated and tested in a GUI. Methods for recognizing dynamic fingerspelling bridges the gap to Isolated Sign Language Recognition. Sign Language Recognition systems bear the potential to ease digital communication between Deaf and hearing people and are potential accessibility aids.

Kolloquium am 02.03.2023

Christoph Wehner: "Docker Einführung"

Kolloquium am 16.02.2023 um 18:00 Uhr

Franz Motzkus: "Quantifizierung von lokalen Heatmapping xAI Methoden"

Kolloquium am 02.02.2023

Maximilian Rosilius: Bachelor Arbeit "Fehlerauswirkungen in der Mensch-Maschine-Interaktion auf die menschliche Leistung und Akzeptanz"

Kolloquium am 19.01.2023

Stefan Raab: "Active Learning for interactive labeling of RGB UAV forest data"
Johannes Rabold & Johannes Langer: "A Brief Overview of Transformer Models and their Architecture"

Kolloquium am 20.12.2022

Thomas Sedlmeir: Betrugserkennung in Dokumenten: Untersuchung von Methoden des Maschinellen Lernens für die Identifikation manipulierter Zeichen
Abstract: 
Große Fortschritte in Soft- und Hardware ermöglichen es selbst Laien, immer einfa-
cher und professioneller Bilder bzw. Fotos zu bearbeiten und zu optimieren. Gleichzei-
tig werden so jedoch auch neue Möglichkeiten geschaffen, Dokumente, wie Rechnun-
gen oder Formulare, zu fälschen. Werden entsprechende Manipulationen nicht erkannt,
können enorme Schäden entstehen.
In dieser Arbeit soll die Frage beantwortet werden, ob es möglich ist, manipulier-
te Zeichen in Dokumenten lediglich aufgrund der Positionen und Größen aller Zei-
chen ohne Einbezug weiterer Merkmale oder von semantischem Inhalt zu identifizie-
ren. Dazu wird ein System vorgestellt und getestet, das mithilfe von Bounding-Box-
Daten durch den Vergleich direkt benachbarter Zeichen einer Zeile verschiedene Fea-
tures berechnet, mit denen Random Forest- und Multilayer-Perzeptron-Klassifikatoren
trainiert werden. Mit diesen sollen anschließend manipulierte Zeichen in neuen und
unbekannten Dokumenten identifiziert werden. Zur Beurteilung der gefundenen Er-
gebnisse und der Modelle werden darüber hinaus sowohl visuelle als auch textuelle
Erklärungen generiert, die angeben sollen, welche Features am meisten für oder gegen
eine Klassifikation sprechen.
Zwar konnten durch die Tests des Systems mit Rechnungsdokumenten keine zu-
friedenstellenden Ergebnisse für eine praxistaugliche Anwendung erzielt werden, ins-
besondere bei der Verwendung der Multilayer-Perzeptron-Modelle. Denn u. a. auf-
grund von Overfitting wurden zu viele Manipulationen gar nicht erkannt oder zu viele
falsch-positive Ergebnisse gefunden. Dennoch konnte durch eine erweiterte Auswer-
tung sowie genauere Betrachtung der falsch-positiven Ergebnisse gezeigt werden, dass
Fehler in der verwendeten Version der OCR-Engine Tesseract sowie eine zu geringe
Anzahl von Trainingsdokumenten zu den Hauptfaktoren für die ungenügenden Ergeb-
nisse zählen und der zugrunde liegende Ansatz prinzipiell zu funktionieren scheint.
Die Kombination von visuellen und textuellen Erklärungen trägt zum Verständnis bei,
warum Vorhersagen – auch falsch-positive Ergebnisse – getroffen wurden.

Kolloquium am 14.11.2022 um 16:00 Uhr

David Tafler: "The Object-Centric Concept Learner - An Interpretable Framework for Learning Relational Visual Concepts"

Kolloquium am 10.11.2022 um 12:15 Uhr 

Zeynep Saribatur: "Towards Comprehensible ASP Reasoning by Means of Abstraction"

Kolloquium am 25.10.2022 um 14:00 Uhr

Amit Singh: "Does Contrastive Attention Guidance Facilitate Action Recall? An Eye- tracking Study"

Kolloquium am 05.10.2022 um 10:00 Uhr

Louisa Heidrich: "Combining Explanatory Interactive Learning and Fair Machine Learning – Interacting with Explanations to Uncover and Reduce Human and Machine Biases"

Talks SS 22

Kolloquium am 18.07.2022

Shireen Iqbal: "Identifying Ground Truth in Expert Labeled Customer Order Behavior (COB) Data Using a Web Application"

Kolloquium am 05.07.2022

Felix Schweinfest: "Comparing the Performance of MemoryAugmented Neural Networks inReinforcement Learning"

Kolloquium am 23.06.2022

Alexander Becker: "Certified Data Removal in Sum Product Networks"
Abstract: Due to legal requirements like the GDPR or the California Consumer Privacy Act, customers and users gain more control over their personal data that is collected and processed by institutes and companies.
This not only requires data deletion, but also ensuring that sensitive information can no longer be reconstructed from statistics or models utilising this data. Thus, we need machine learning models to be able to forget about certain data points on demand, which is generally referred to as machine unlearning.
In this talk, we will take a look at sum product networks (SPNs) as our model class of interest and how we can adapt their training such that the resulting SPN allows data removal with strong privacy guarantees.

Kolloquium am 12.05.2022

Matthias Uhl: "People Prefer Moral Discretion to Algorithms"

Kolloquium am 13.04.2022

Mareike Müller: "Automatic Sign Language Recognition"

Talks WS 21/22

Kolloquium am 24.03.2022

Christoph Wehner: "Root-Cause Detection in the Wild -  The first steps of the project "KIProQua""

Kolloquium am 16.02.2022  um 17:00 Uhr

Aliya Hammad: "Optimizing Hierarchical Classification for Resource-Constrained Systems Using Reinforcement Learning Methods"

Kolloquium am 13.01.2022

Emanuel Slany: "Recent Advances in the hKI-Chemie Project: An Incremental Attribution Method for Gaussian Processes" (hKI-Chemie)

Kolloquium am 07.12.2021, 17:00 Uhr

Pascal Hitzler: Concept Induction for Explainable AI
Abstract: 
It remains a fundamental quest how to explain the behavior of trained deep learning systems. In this presentation, we report on our work in progress of using concept induction over class hierarchies for explainability.
Link: https://uni-bamberg.zoom.us/j/94576719976
Keycode: #&yz*5

Kolloquium am 02.12.2021

Sarem Seitz: "Gaussian Processes come with (almost) free explainability"

Kolloquium am 25.11.2021

Oliver Mey: "Prediction of Energy Consumption for Variable Customer Portfolios Including Aleatoric Uncertainty Estimation"

Kolloquium am 29.10.2021

Christoph Wehner: Master's Defense with the topic: "Interpretable Lane Change Prediction"

Kolloquium am 07.10.2021

Simon Kuhn: "Verifying Convolutional Neural Networks: A Landmark-based Approach for Quantitative Evaluation of Facial Action Unit Classification"

Talks SS 21

23rd of September: Maximilian Muschalik: Beyond Contrastive Explanations for Deep Learning Models in Physical Relational Domains

15th of July, 16:15: Christian Wirth: Scalable Probabilistic Deep Learning: An Engineers Guide to the State of the Art

5th of July, 14:30: Ploy Schneider: Counterfactuals as an Approach to Test Fairness in Machine Learning -- And Why Fairness in Machine Learning Affects Everyone

1st of July, 16:15: Alexander Schneider: How to Train a NER Model from Annotation to Model

24th of June, 16:15: Wolfgang Kratsch (Credium): Fusion von unterschiedlichen Datenquellen für semi-automatisiertes Labelling und Closed-Loop Machine Learning Cycle

10th of June, 16:15: Dennis Müller: Mathematical Knowledge Management Across Formal Libraries

27th of May, 16:15: Oliver Mey: Self-Masking Adversarial Networks

20th of May, 16:15 via Teams: Joscha Eirich, Jakob Bonart (BMW): The interactive clustering and labeling of acoustic signature patterns of electrical engines

6th of May, 16:15: Lisa Lengenfelder: "Are Relations Relevant in CNNs?"

29th of April: Jan Tinapp: Debugging Causal Models. Later: Johannes Rabold: Discussion Research Proposition (Humanly plausible feature vector clustering) 

15th of April, 16:15: Bettina Finzel: Interactive Machine Learning

Talks WS 20/21

Kolloquium am 29.03.2021, 15:00 - 16:00 Uhr

Christoph Wehner (Project Presentation): Lane Changing Prediction Based on a Digital Twin
Abstract:

There exists a digital twin by the Providentia++ consortium of an autobahn section close to the Munich airport. This project is about exploring the data of the digital twin and identifying a suitable approach to predict lane changes of vehicles. A long short-term memory recurrent neural network (LSTM) based on a paper by Sajan Patel et al. is identified as suitable. [1] In this project, the LSTM is implemented and tested. The lane change prediction model is refactored to make live predictions in a data stream application and is deployed in a demonstrator by the IBM Watson Center. Finally, a theoretic outlook shall be given on the challenges of explaining high-frequency prediction AI models for data stream applications by the example of predicting lane changes.
1. Patel, S., Griffin, B., Kusano, K., Corso, J.J.: Predicting future lane changes of other highway vehicles using rnn-based deep models. (2018)

Kolloquium am Fr, 05.03.2021 14:30 - 15:30 Uhr (s.t., via Zoom)

Namrata Jain (Master International Software Systems Science): Deep Transfer Learning for Timeseries Regression in Chemical Production.
Abstract:
This thesis introduces the systematic approach of using transfer learning for time-series regression to build softsensors for the chemical industry. Motivated by the recent success of transfer learning in image related tasks, we show the applicability of transfer learning on time-series data. In this thesis, we refer to low resolution data for manually drawn laboratory samples and to high-resolution data for automatically generated process data by sensors. The approach to predict a target component in low-resolution starts with the modeling of a Long short term memory (LSTM) machine learning model on high-resolution data and use the trained model on low-resolution data for prediction. Comparing model predictions using root mean square error (RMSE) shows that LSTM outperforms machine learning algorithms like Linear Regression, Decision Tree Regression, Random Forest Regression, and K-Nearest Neighbor Regression.

15th of April : Bettina Finzel: Interactive Machine Learning: Approaches and Examples

25th of March, 16 c.t.: Gesina Schwalbe: Concept Analysis for Verification

18th of March 17 c.t.: Lennart Thamm: Intermediate Presentation of thesis results

11th of March: mgm: AI assisted labelling tool

21st of January, 16:00 c.t.: Tobias Huber (Uni Augsburg): "Benchmarking Perturbation-based Saliency Maps for Explaining Deep Reinforcement Learning Agents" and "Do Deep Neural Networks Forget Facial Action Units? - Exploring the Effects ofTransfer Learning in Health Related Facial Expression Recognition"

20th of January, 10:00 s.t.: René Kollmann (Master Applied Computer Science): "Explaining Facial Expressions with Temporal Prototypes"

14th of December, 16:00 s.t.: Regina Siegers (Master Survey Statistics, Uni Bamberg) "Vector(s) and the Search for Happiness: A Comparison of Constraint-based Causal Discovery Methods
on Time-series Data from Multiple Contexts with Latent Variables."

10th of December, 16:00 c.t.: Bettina Finzel (Uni Bamberg) "Sustainability in Machine Learning: From Nomads to Data Centers and Back."

26th of November, 16:00 c.t.: Sarem Seitz (Uni Bamberg) "Bayesian mixtures of interpretable experts"

25th of November, 10:00 c.t.: Andreas Gilson (MA WI): "Semantic Segmentation of Crops Using Spherical-Sub-Sampling: A novel approach for point clouds that combines sub-sampling with data augmentation" (in collaboration with Fraunhofer IIS/EZRT)

19th of November, 16:00 c.t.: Deniz Neufeld (Bosch / Uni Bamberg) "Recurrent Neural Network Architecture based on Dynamic Systems Theory for Data Driven Modelling of Complex Physical Systems"

12th of November, 16:00 c.t.: Namrata Jain (Master's Thesis at Wacker AG) "Deep (Transfer) Learning for Timeseries Regression (Intermediate Presentation)"

5th of November, 17:00 c.t. (!): Durgesh Nandini (Uni Bamberg) "Answer Set Programming"

29th of October, 16:00 c.t.: Mena Leemhuis (IFIS Uni Lübeck) "Cones, Negations and all that"

15th of October, 16:00 c.t.: Gesina Schwalbe (Continental Corporation / Uni Bamberg) "AI Safety"

1st of October, 16:00 ct.: KI2020 Recap

Talks SS 20

17th of September: Kick-Off in Preparation of Winter Term

23rd of July, 16:00 c.t.: Gesina Schwalbe (Continental Corporation / Uni Bamberg) and Johannes Rabold (Uni Bamberg): "Expressive Explanations of DNNs by Combining Concept Analysis with ILP"

9th of July, 16:00 c.t.: Joscha Eirich (BMW, Doktorand am Lehrstuhl für Informationssysteme, Schwerpunkt soziale Netzwerke): "VIMA: Modeling and visualization of high dimensional machine sensordata leveraging multiple sources of domain knowledge"

In Summer 2020 the following master theses were defended without public attendance:

29.6.2020, Malte Büttner (MA AI): The Role of Local Versus Global Features in Convolutional Neural Networks: A Comparison of State of the Art Architectures

28.4.2020, Alexis Thomas (MA International Software System Science): Investigating Explanatory Graphs to Make CNN Classifications Transparent 

Talks WS 19/20

Kolloquium 19.03.2020

Regina Siegers: "Parallelized Causal Inference with Latent Variables"

Due to the current coronavirus pandemic, we decided to give the colloquium fully virtual.

Kolloquium, 09.03.2020

Sascha Riechel (MA AI, in collaboration with Fraunhofer IIS/LA): Meta-Learning Character Recognition on Trajectories from Optical and Inertial Sensors

Kolloquium 13.02.2020

Tobias Hepp: "Latent Class Distributional Regression"

Kolloquium 30.01.2020

Sarem Seitz: "End-to-end prototype-based reinforcement learning"

Kolloquium, 19.12.19, 14:00 Uhr, WE5/05.013

Kristina Prümer (MA CitH):  A Cognitive Tutor Generating Error-Specific Feedback for English Grammar Learning

The ability to speak English is an important skill in today’s globalised society, not only to communicate in private life but especially regarding a professional and academic context. A possibility to support students in their process of language learning is the use of cognitive tutors, which offer immediate and error-specific feedback on the learner’s solution path. In this thesis, the CET  (Cognitive English Tutor) is introduced, a cognitive tutor which additionally uses analogies to enhance the student’s learning gain and to help identifying misconceptions. Furthermore, suggestions will be presented on how the system might be further evaluated in the future. Finally, it is observed that cognitive tutors are a good tool to support students in language learning but that systems of this sort also need to be further developed and evaluated regarding their potential and limitations

Kolloquium, 13.11.19, 09:30 Uhr, WE5/05.013

Manuel Dumdey (MA AI):  Untersuchungen zum Einsatz von Methoden des probabilistischen
 Programmierens für Intelligente Künstliche Spiele-Agenten

Maschinelles Lernen erfreut sich in immer mehr Bereichen, von der Handykamera bis hin zum selbstfahrendem Auto, einer immer größer werdenden Beliebtheit auch im Bereich der Videospiele spielt maschinelles Lernen eine immer wichtigere Rolle. Diese Arbeit beschäftigt sich mit Untersuchungen von Methoden probabilistischen Programmierens, zum Einsatz in intelligenten, künstlichen Spiele-Agenten. In dieser Arbeit wird ein Spiele-Agent, basierend auf probabilistischen Methoden, im Spiel Angry Birds eingesetzt. Als probabilistische Methoden werden die bayessche Modellierung sowie die probabilistische induktive Logikprogrammierung auf ihre Anwendung untersucht. Mithilfe der bayesschen Modellierung wird gezeigt wie Rückschlüsse auf, im Spiel, unbekannte Parameter möglich sind. Außerdem wird ein probabilistisches Modell mithilfe der probabilistischen induktiven Logikprogrammierung erstellt, welches in der Lage ist, relationale Zusammenhänge zwischen Spielobjekten zu erkennen und somit eine effektive Kandidatenauswahl für Zielobjekte im Spiel Angry Birds ermöglicht.

Kolloquium, 16.10.19, 12:00 Uhr, WE5/05.013

Bettina Finzel(MA AI): Explanation-guided Constraint Generation for an Inverse Entailment Algorithm
In medical diagnosis it is of great importance to correctly classify deceases in order to choose an effective treatment for a patient. To better perform in the task of classification, medical experts could be supported by high-performing machine learning algorithms, like deep neural nets. However, these approaches remain a black-box, hiding the reasons for a classification outcome in complex relationships of weights and parameters. Explainable articial intelligence (XAI) approaches regain popularity in contrast to or in combination with black-box classiers. One approach to XAI is inductive logic programming (ILP), which generates declarative classication rules based on labeled examples and knowledge about these examples. With respect to real-world data sets, the classication of examples and the generation of explanatory rules in ILP may suffer from incomplete and noisy data. Noisy data may occur due to mistakes and errors in the data selection, creation and annotation process. Although a human expert might be able to identify and remove noise, a high number of noisy examples makes the cleaning task tedious. The approach presented in this thesis lets an expert provide corrective feedback to an ILP algorithm to make it exclude noisy examples from rule generation. To implement the approach we use inverse entailment (IE) provided by the Aleph framework. Corrective feedback is realized through constraints which are integrated into the algorithm's decision process. For convenience, the expert can directly interact with explanations generated by the IE algorithm. Constraints are generated from user feedback. The evaluation of the implementation shows that guiding the classification process by user-defined constraints can help to identify noise and to overcome insufficient classification and explanation quality. We further present an user interface we created on top of the approach. It was implemented for a medical data set and a family data set, but is usable with other data sets as well. In the future the interface could be integrated into a larger medical expert companion system. With the help of mutual explanation, which constitutes a cooperative process between the system and the expert, medical diagnosis could be pushed forward. This applies especially to scenarios, where automatic systems reach higher prediction accuracy than human decision makers and vice versa.

Kolloquium, 10.10.19

Lisa Schatt, Master AI, in context of the Dare2Del project: Title Generating Explanations For Classification of Irrelevant Files
In the course of a lifetime people do not only hoard several items and documents but also digital files whose amount and size is constantly on the rise. The evaluation whether these files are still needed and thus relevant is getting more difficult over time and with increasing number of files. The application concept of Dare2Del offers the possibility to analyze files in a file system to suggest deletion candidates and explain those with a textual reasoning. This thesis focusses on one hand on the implementation of a prototype of the application and on the other hand on extending the logic in a way to enable near misses as counterexamples for a higher explanation comprehensibility. These near missed files fulfill nearly all criterias for irrelevance to be classified as deletion candidates but not all of them. This leads to a clarification of the comparison of relevant and irrelevant files for the user by corresponding examples.

Talks SS 19

Kolloquium, 24.09.19, 09:15 Uhr, WE5/05.013

Thilip: "Optimizing alert timings"

Kolloquium, 29.08.19

Clemens Bartnik: "Der Einfluss von Erklärungen auf Vertrauen in Dare2Del - Studienvorstellung"

Kolloquium, 25.07.19

Sebastian Seufert, Ferdinand Lang: "Pepper"

Kolloquium, 24.07.19, 13:30 Uhr, WE5/05.013

Hannah Deininger: Inductive Logic Programming Theories as Explanations for Image Classification: How Number and Semantic Distance of Contrasting Classes Influence Explanation Complexity
Abstract: Deep Learning models such as Convolutional Neural Networks are successfully applied to image classi cation because of their outstanding performance regarding their accuracy. However, they su er from not being comprehensible in their internals by humans. Especially, it is unclear how Deep Learning models learn to di erentiate between classes. To get insight into the learning process of Black-Box models, this master's thesis improved the explainable AI system LIME-Aleph 2.0 resulting in LIME-Aleph 2.1. LIME-Aleph 2.1 combines the predictive power of Deep Learning models with logic rules generated with the ILP system Aleph to obtain comprehensible explanations for the classi cation result of the Black-Box classi er. Concretely, this master's thesis aims to answer questions regarding the influence of contrasting classes on the generated explanations' complexity. To investigate if and to what extent contrasting classes influence the generated explanations' complexity, two experiments were conducted based on LIME-Aleph 2.1. It could be shown that the number of contrasting classes influences explanation complexity, whereas a variation of the semantic distance of the contrasting class seems to have no impact on explanation complexity. Overall, this master's thesis is one step in the direction of making Deep Learning more understandable for humans.

Kolloquium, 24.07.19, 12 Uhr, WE5/05.013

Daniel Schäfer: Comparing Feature-based, Sequential, and Logic Machine Learning Approaches for Trajectory Mining

The goal of this thesis is to investigate the possibility to predict transportation modes of parts of a trajectory. From these parts only certain features are known, that describe them and a sequence of previous parts of that same trajectory, that are direct predecessors. These sequences are created with a sliding window approach. Predecessors of a segment are set into relation to the part of the trajectory that is investigated. The utilised ALEPH framework then produces human readable rules based upon these features and relations among the segments. For each transportation mode that is investigated one or more rule is produced. Throughout this thesis is investigated, if a Positive Only (PosOnly) approach can compete with
inducing by the regular One-Against-All (OAA) setting. The evaluated results are compared to a Conditonal Random Field (CRF) approach, that was earlier realised for predicting Transportation Modes (TMs).

Kolloquium, 17.07.19, um 13:00 Uhr, WE5/05.013

Krist Fama: A Learning Chatbot - Incremental Learning for Advice Giving
Abstract: Human-machine conversations aim to make the communication between users and machines easier via natural language. This communication often happens with the help of chatbots. These agents nowadays can be realised by using Natural Language Understanding (NLU) services which make it possible for a machine to understand human language. In this work, an intelligent chatbot for the back pain domain is realised. This realisation is achieved by using the Rasa Framework for NLU and handling the dialog management. The input recognition using a Support Vector Machine (SVM) classifier and the output prediction using a Recurrent Neural Network (RNN) are then evaluated.

Kolloquium, 11.07.19 um 17:15 Uhr 

Sarem Seitz: "Making Reinforcement Learning agents efficient for learning and acting in the real-world"

Kolloquium, 04.07.19 

Jan Boockmann: "Towards the Inference of Shape Predicates from Memory Graphs"

Kolloquium, 04.07.19 um 14:00 Uhr

Malte Büttner: "Iterative visual reasoning beyond convolutions"

Kolloquium, 29.05.19, 14 Uhr, WE5/05.013

Simon Hoffmann: Comparing Non-Pretrained Deep Learning Architectures for Subcellular Protein Pattern Classification in Confocal Microscope Images

 Accurately classifying of subcellular protein-patterns in microscope images remains a major challenge for experts and deep learning systems. The nature of cells – including cell division, variable states and fine-grained structures – poses an extraordinary recognition setting. Due to their excellent recognition capability, high-performance deep neural networks are predestined for an efficient and accurate analysis of these sophisticated medical images. Adequate networks could enhance the understanding of proteins and subcellular functions, which is crucial to defeat serious diseases such as cancer. However, network architectures that can cope with these complex pictorial features have been inadequately evaluated so far. Hence, this master’s thesis aims at evaluating appropriate state-of-the-art deep learning architectures in order to highlight their performance in subcellular protein pattern classification in images of the Cell Atlas dataset. For this purpose, the four deep learning architectures DenseNet, Inception-ResNet-V2, DFL-CNN and GapNet-PL are implemented. Furthermore, the classification performance and computational requirements of all architectures are compared against each other. For reasons of objectivity, all models are utilised without prior training. The results of the evaluation provide crucial insights into the suitability of the architectures for dealing with complex cell characteristics. Ultimately, this study shows that all investigated architectures demonstrate exceptional accomplishment – albeit divergent - in classifying fine-grained protein and subcellular pattern in confocal microscope images.

Kolloquium, 23.05.2019, 14:00, WE5/05.013

Felix Hitzler (MA Computing in the Humanties): Reinforcement Learning to Evaluate Different Branching Heurstics for Constraint Satisfaction Problems
The thesis has been realised In cooperation with the CAS Software AG. The goal has been to extend the CAS Configurator Merlin such that Boolean constraint satisfaction problems for product configurations can be solved. Accordingly, a framework for testing different branching heurstics with reinforcement learning has been developed.

Kolloquium 29.04.2019, 14:30 s.t., WE5/05.013

Ludwig Schallner (MA AI): Effekt verschiedener Methoden zur Generierung von Superpixeln auf die visuellen Erklärungen von LIME

Im Rahmen dieser Masterarbeit werden Modelle, welche auf verschiedene Datensätze (gestresste Tabakpflanzen, Malaria) trainiert wurden mit unterschiedlichen Superpixel-Berechnungsmethoden in Kombination mit LIME betrachtet. Die unterschiedlichen Superpixel-Ansätze werden anhand ihres Effektes auf die visuelle Erklärbarkeit von LIME untersucht.

Kolloquium 29.04.2019, 13:00 s.t., WE5/05.013

Andreas Wiegand (MA AI): Rekonstruktion von 3D-Modellen  mit Generative Adversarial Networks

Ziel der Arbeit ist es, das Konzept der GANs auf 3D-Punktwolken von Tabakblättern anzuwenden, um die Wahrscheinlichkeitsverteilung von 3D-Daten zu erlernen. Des weiteren soll geprüft werden, ob es mit Hilfe von GANs möglich ist, Punktwolken zu ergänzen, welche beim Erfassen durch ein Scan-Verfahren unvollständig erfasst worden sind. Dabei wird auf Verfahren zurückgegriffen, welche bei 2D-Daten, wie Bildern, zur Rekonstruktion verwendet worden ist, so zum beispielsweise Conditional-GANs (C-GAN, Dong, Loy, He, & Tang, 2016a). Die Ergebnisse dieser Arbeit zeigen auf, dass es möglich ist, die Punktwolken von Tabakblättern zu erlernen und neue Blätter zu produzieren. Die Qualität der generierten Daten ist jedoch eher mittelmäßig. Es zeichnet sich jedoch eine Qualitätssteigerung der Rekonstruktion, durch unterschiedliche Aufbauten von GANs, ab.

Kolloquium, 18.04.2019

Thomas Voit, TH Nürnberg: "Lernen über Spiele/Ähnlichkeit von Spielen"

Talks WS 18/19

Kolloquium am 20.02.2019

Mark Gromowski: "Projektupdate PainFaceReader (Schwerpunkt Datenrepräsentation)"

Kolloquium am 20.02.2019 um 17:00 Uhr 

Bettina Finzel: "Constraint-based Explanations in Aleph"

Kolloquium am 20.02.2019 

Hannah Deininger: "Masterarbeit zur expliziten Erklärungsfindung für komplexe Neuronale Netze"

Kolloquium 20.12.2018, 16:00 s.t., WE5/05.013

Gesina Schwalbe, AI Lab Continental: Überblick über die Absicherung von DNNs im autonomen Fahren

Viele herkömmlichen Methoden zur Sicherstellung der Betriebssicherheit sind auf autonome Fahrzeuge mit DNNs nicht (direkt) anwendbar. Der Vortrag ist ein Schnelldurchlauf durch die wichtigsten Fragestellungen und Unterschiede, den aktuellen Stand und mögliche Ausblicke zur Absicherung von DNNs.

Kolloquium 18.12.2018, 14:00 s.t., WE5/05.013

Harshit Gupta (MA IntSoSySc): Explanation Generation from Reasoning Traces

In this thesis, we explain the reasoning trace of a Prolog program using simple English sentences. The goals are requested from the user via a graphical user interface and resultant goal with intermediate trace rules are “textualized” and presented to the user within the graphical user interface. We present this thesis as a white box model to explain the results of a Prolog program, along with comparing the explanations of white box models to black box models.

Kolloquium 13.12.2018, 16:00 s.t., WE5/05.013

Michael Nigsch und Mel Walter, ibindo GmbH München: ibindo – ein Chatbot gegen Liebeskummer

ibindo richtet sich an Menschen, die verlassen worden sind und unter einer Trennung leiden. Liebeskummer verläuft in der Regel in vier, nicht voneinander abgrenzbaren, Phasen:
 • Leugnung,
 • aufbrechende Gefühle,
 • Neuorientierung und dem
 • Neubeginn.
ibindo arbeitet wie ein Coach oder ein Therapeut und begleitet die Betroffenen durch diese Phasen. Er ist psychoedukativ und arbeitet mit Methoden basierend auf der systemischen Therapie und der dialektisch-behaviouralen Therapie (DBT).
Menschen, die unter Liebeskummer leiden, erleben häufig starke Emotionen: Verzweiflung, Angst, Einsamkeit oder Wut. Ibindo bietet hierfür spezielle Programme an, um die Betroffenen darin zu unterstützen besser mit diesen Emotionen umgehen zu können.
Bisher bildet ibindo freie (kontextuell eingeschränkte) Eingaben durch NLP auf einfache Absichten ab und definiert User als ein Objekt mit bestimmten Attributen (“hat Hoffnung”, “ist wütend”) – hierzu stellt der Bot gezielte Fragen. Zukünftig soll ein User als Menge von typischen [Sprachmodi und Gefühlszuständen] unabhängig von erwartbaren Antworten modelliert und der Gesprächsverlauf in seiner Gesamtheit einer Klassifizierung (Typ “Leugnung”, Typ “Aufbrechende Gefühle” usw.) zugrunde gelegt werden. Auch eine kleine Anzahl von Aussagen könnte so bereits früh zu einer praktikablen Einschätzung führen. Den Datensatz, anhand dessen die Typen abgegrenzt und eine KI trainiert würde, sollen längere Eingaben liefern, zu denen der User derzeit schon an kritischen Stellen aufgefordert wird. Die Positionsbestimmung des Users (als Abbildung des Verlaufs von Gesprächsbeginn bis zum momentanen Befinden) soll zunehmend anpassungsfähiger und dynamischer werden, um Dialoge nur zu relevanten, aktuellen Themen zu erzeugen. Das Programm begleitete den User dann noch zuverlässiger durch die Phasen der Therapie und riefe im Idealfall den Bewusstseinszustand eines “glücklichen und zufriedenen” Menschen hervor, dessen Selbstbewusstsein wiederhergestellt ist und der sich aus seiner emotionalen Krise befreien konnte.

Kolloquium 06.12.2018

Johannes Rabold: "Bayesian Deep Learning"

Kolloquium 29.11.2018

Explanation Generation Frameworks

Kolloquium Mittwoch, 24.10.2018, 10:00 Uhr, WE5/05.013

Florence Rat (MA CitH): Intention Recognition in a Probabilistic Logic Framework -- Investigating Navigation Behaviour in Complex Tables

This paper examines an approach to intention recognition in a probabilistic logical framework  in the context of the cognitive support system Dare2Del and the use case of a table-based  work scenario. The approach is based on the logic of the situation calculus and combines  it with probability theory to determine the most likely intention of an observed agent. The  goal is to extend this probabilistic logical approach to the use case of table navigation so  that context such as cell content or cell position can be integrated, and to evaluate its basic  feasibility and applicability to a particular use case scenario. This includes the realisation of  the presented approach and its extension as well as the research and realisation of a tool for  tracking user actions during navigation in tables. In addition, the human navigation behaviour  in complex tables is observed and evaluated. The user data for the evaluation were collected  in the context of a user study. The probabilistic logical approach for intention recognition  proves to be suitable for the extension and integration of context information. However, the  estimation of probabilities must be improved and adjusted.

Kolloquium Donnerstag, 11.10.2018, 17:00, WE5/05.013

Johannes Rabold (MA AI): Enriching LIME with Inductive Logic Programming: Explaining Deep Learning Classifiers with Logic Rules in a Companion System Framework

With the rise of black-box classifiers like Deep Learning networks, the need for interpretable and complete explanations for them becomes apparent. Users need to have the possibility to ask why a classifier inferred a particular result. Logic clauses induced by Inductive Logic Programming systems are superior in expressibility over visual explanations alone. This thesis uses the ideas of LIME, a visual explanation framework, and enriches it with an ILP component to get comprehensible and powerful ex planations for the inference results of Deep Learning Networks for images. The background knowledge for the predicates is obtained both automatically and by an annotation system that lets humans annotate labels and relations. The human labeling system and the explanation component form a Companion System where not only AI helps the user but also the other way round.

Talks SS 18

Kolloquium Donnerstag, 19.9.18, 10:00 Uhr, WE5/05.013

Katharina Weitz (MA CitH): Applying Explainable Artificial Intelligence for Deep Learning Networks to Decode Facial Expressions of Pain and Emotions

Deep learning networks are successfully used for object and face recognition in images and videos. In order to be able to apply such networks in practice, for example in hospitals as a pain recognition tool, the current procedures are only suitable to a limited extent. The advantage of deep learning methods is that they can learn complex non-linear relationships between raw data and target classes without limiting themselves to a set of hand-crafted features provided by humans. However, the disadvantage is that due to the complexity of these networks, it is not possible to interpret the knowledge that is stored inside the network. It is a black-box  learning procedure. Explainable Artificial Intelligence (XAI) approaches mitigate this problem by extracting explanations for decisions and representing them in a  human-interpretable form. The aim of this master’s thesis is to investigate different XAI methods and apply them to explain how a deep learning network distinguishes facial expressions of pain from facial expressions of emotions such as happiness and  disgust. The results show that the CNN has problems to distinguish between pain and happiness. By the usage of XAI it can be shown that the CNN discovers features for happiness in painful images, when the person shows no typical pain related facial expressions. Furthermore, the results show that the learned features of the network are dataset-independent. It can be concluded that model-specific XAI approaches seem to be a promising base to make the learned features visible for humans. This is on the one hand the first step to improve CNNs and on the other hand,  to increase the comprehensibility of such black box systems.

Kolloquium Donnerstag, 13.9.18, 16:00 Uhr, WE5/05.013

Michael Groß  (MA AI): Exploring Deep Learning for Relational Domains A Case Study with Michalski Trains
In this master thesis the ability of deep neural networks to learn basic relations with as less prior knowledge as possible is observed. For this, the relational domain of the Michalski trains is used, due to its versatility in presentation, complexity in possible classification rules, and easy understandability. Therefore, a convolutional neuronal network was implemented to let it learn the relations from pictures of the trains, which separates the needed knowledge of the domain, i.e. the size of the image, from the semantics of its relations. The empirical results show, that the used CNN is well able to classify the trains correctly, but also that the diffculty to learn the rule may be solely attributed to the number of patterns needed for classifying a train correctly, but not its logical complexity.

Mittwoch, 19. Juli, 12:15 Uhr, WE5/05.013

Rambabu Gupty (MA IntSoSySci): Applying Deep Learning for Classifying Images of Hand Postures in the Rock-Paper-Scissors Game

The goal of our research is to build a model for visual recognition. First, I described Convolutional neural networks, its methods and techniques. Moreover, I also presented briefly the history of deep learning. After that, introduction about few architectures of convolutional neural networks were discussed. The crucial thing about this experiment is that we are dealing with fewer amounts of data for deep learning training and spend less computation power to perform training as architecture is relatively small. I also include several models with different methods and techniques to achieve the best accuracy on CIFAR10 datasets. In the experiment, architecture has to be designed, to classify images of three hand postures of ”Rock-Paper-Scissors” game. An intelligent agent (named NAO) plays this game with people. So, deep learning model has to be built for identifying different hand postures of image. Based on results, similar architecture (with techniques and methods) which obtained higher accuracy in that experiment has been used to classify hand postures of the game.

Dienstag, 16. Mai, 14 Uhr, WE5/05.013

Mark Gromowski: Extending Hidden Markov Models to Set-Valued Observations: A Comparison of Different Approaches on Sequences of Facial Expressions

The present thesis describes the implementation of a classification system based on the concept of Hidden Markov Models. Combinations of parallel observations that occur in the course of an observation sequence are handled either by representing them as separate symbols in the alphabet of possible observations or by using an updated HMM concept processing them as sets of observations. The classification system, which is realized as an extension of the data mining software RapidMiner, is evaluated by applying it to sequences of Action Units representing facial expressions. The system achieves modest results in classifying facial expressions decoding pain and other sentiments. Generalising or completely removing AUs that are irrelevant for the classification of pain leads to a higher recall for the class pain but can result in a decrease of the overall performance. Processes applying the updated HMM concept require more computation time but fewer states and iterations of the training process in order to achieve their optimal results.

Donnerstag, 22. Februar 2018, 12:00 Uhr, WE5/05.013

Marco Dorner (MA AI):  Ein lernbasierter Companion-Ansatz zur Transformation von semi-strukturierten in strukturierte Daten – Systematische Evaluation der FlashMeta Technologie

 Die Automatisierte Erzeugung von Programmen ist eine Problemstellung die im professionellen wie im privaten „Computer-Alltag“ relevant ist. Immer dann, wenn ein Computernutzer sich mit repetitiven Aufgaben konfrontiert sieht, wäre ein kleines Programm sinnvoll. Für Benutzer ohne Programmierkenntnisse ist das allerdings nahezu unmöglich.
In dieser Arbeit wird das PROSE Framework betrachtet, ein von Microsoft entwickeltes Framework zur automatisierten Programmsynthese anhand von Beispielen. Zur Programmsynthese werden Beispiele für die gewünschte Programmausgabe spezifiziert. Programme werden dann mit Hilfe einer vorher definierten Grammatik erstellt. Der Synthesealgorithmus ist prinzipiell domänenunabhängig. Zur Effizienzsteigerung kommt für verschiedene Operatoren domänenspezifisches Wissen zum Einsatz. Um die Funktionsweise von PROSE zu analysieren wurden für drei domänenspezifische Sprachen mehrere Programme synthetisiert.  Diese Programme sollten unterschiedliche Datenextraktionsaufgaben aus einem generisch erzeugten Tabellensatz erledigen. Nicht immer konnte das richtige Programm erzeugt werden. Die Ergebnisse deuten darauf hin, dass der Einsatz eines Companions gerade bei Unregelmäßigkeiten in den Daten durch Rückfragen hilfreich sein kann.

 

Montag, 13. November 2017, 12:00 Uhr, WE5/05.013

Dr. Michael S. Bittermann: Kognition als Kontinuum der  Pareto-Nichtdominiertheit
im Raum der Entscheidungsvariablen

Ein rechnerisches Modell der Kognition ist Gegenstand des Vortrags. Kognition wird in dieser Arbeit definiert als Bereitschaftszustand, unverzüglich das Beste zu tun, unter Einbeziehung der Einmaligkeit des Umstands in dem sich der/die kognitiv Handelnde befindet. Das „Beste“ bedeutet, dass die Handlung eine minimale Veränderung des Umstands bewirkt, der veränderte Umstand jedoch die Zielsetzungen, welche vom Handelnden verfolgt werden, maximal erfüllt. Von dieser Warte aus erscheint Kognition als eine Form robuster, unmittelbarer Optimierung. Im vorliegenden rechnerischen Modell wird die Formation von Kognition durch stochastische Mehrzieloptimierung abgebildet, deren Resultate über ein selbst-assoziatives Radiale-Basisfunktionen-Netz verallgemeinert werden. Das so trainierte Netz wird mit einem Tupel stimuliert, welches den Umstand darstellt, in dem sich der/die kognitiv Handelnde gegenwärtig befindet. Dies führt am Netzwerkausgang zu einem Tupel, das den durch Einsatz der Kognition veränderten Umstand darstellt. Der zu erwartende Unterschied zwischen Eingangs- und Ausgangstupel identifiziert die „beste“ Tat gemäẞ obiger Definition. Die vorwärts gerichtete, parallele Kopplungsstruktur des Netzwerks sorgt dafür, daẞ die Antwort unmittelbar nach der Stimulation des Netzes vorliegt. Der Einsatz sich überlappender Radiale-Basisfunktionen sorgt für die Robustheit und Einmaligkeit der Antwort. Zur Überprüfung der Gültigkeit des Modells wurden Computerexperimente ausgeführt. Deren Resultate weisen nach, dass das Radiale-Basisfunktionen-Netz mathematisch gesehen einem Kontinuum im Raum der Entscheidungsvariablen entspricht. Nämlich es stellt ein Hypervolumen oder eine Hyperoberfläche dar, das nicht-dominierte von dominierten Regionen des Entscheidungsraums unterscheidet. Rechnerisch betrachtet entspricht Kognition demnach dem Streben im mehrdimensionalen Entscheidungsraum, einen Punkt, welcher sich auẞerhalb des Kontinuums der Nichtdominanz befindet, durch neuronale Informationsverarbeitung auf sozusagen „kürzestem“ Weg an das Kontinuum heranzuführen. Diese Konzeption des Kognitionsphänomens ist neu, und durch ihr mathematisches Wesen ist ihre Undeutlichkeit minimal.

 

Dienstag, 27. Februar 2018, 11:00 Uhr, WE5/05.013

Tobias Hecht (MA AI): Context Aware Robot Assistance - Applying Reinforcement Learning to Make Pepper Offer Help to a Human Memory Player

In this thesis the question is examined, whether it is possible to equip the humanoid robot Pepper with learning means to adapt to social circumstances. Therefore, a reinforcement learning algorithm was designed and implemented on Pepper. To evaluate the practicability and possibility of learning from a task-oriented social interaction, the robot was put in a shared spatial environment together with a human. The task was to find all corresponding pairs in a Memory game with as less card turns as possible. Although results from the conducted evaluation study show that learning from social interaction is basically possible, the implemented algorithm is only of limited use and needs several improvements.

Donnerstag, 19. April 2018, 12:00 Uhr, WE5/05.013

Verteidigung der Masterarbeit
Andreas Foltyn (MA AI):  Towards automated segmentation of plants – An exploration of deep neural networks for leaf isolation in agricultural crops

Plant phenotyping describes the quantitative analysis of observable plant traits and is gaining importance especially for effective plant breeding. Increasingly,the manual examination of plants is replaced by image-based methods, for which raw data often has to be segmented into semantically coherent parts, such as leaves. To this end, this thesis examines how deep neural networks can be used to segment 3D point clouds of plants, semantically as well as instance-base. In semantic segmentation, the plant is divided into distinct classes, while instance segmentation also distinguishes between individual instances of these classes. For this purpose, two approaches were selected for each case, which were compared with each other. The results show that for semantic segmentation existing methods are already performing well. Although satisfactory results have been achieved for instance segmentation, this task still poses a challenge and requires further research.  

 

Donnerstag, 19. April 2018, 10:00 Uhr, WE5/05.013

Master-Projekt Präsentation
Krist Fama, Daniel Schäfer (MA AI Projekt):  Pain Recognition with Cartesian Genetic Programming

Pain recognition has recently received significant attention. Over the past years a lot of work is done in this field, trying to find the one equation which defines the pain expression of all humans. Hence it is not a trivial challenge and it depends on a lot of factors. Different methods has been tried in automating pain recognition and some of them achieved good results. We chose Cartesian Genetic Algorithm(CGP) to identify pain by generating a Regular Expression(RegEx) that combines Action Units(AUs). We systematically review the mutation, fitness function and the evolutionary algorithm to achieve good results. The implementation steps are summarized and the statistical result are shown. There are two underlying motivations for us to write this paper. First, wheather it is possible to achieve a simple RegEx which correctly identifies pain expressions of all humans and second to find out how CGP fits with our problem and what results it achieves.

Donnerstag, 26. April 2018, 09:30 Uhr, Raum WE5/02.020

Verteidigung der Masterarbeit
Louisa Maaß (MA AI):  Lernen regulärer Ausdrücke aus wenigen Nutzerinteraktionen
 für intelligentes Ersetzen in Texten

Der Einsatz von regulären Ausdrücken in der Textverarbeitung bietet das Potential, auch komplizierte Aufgaben mit relativ wenig Aufwand zu bewältigen. Vielen Nutzern fehlen jedoch Kenntnisse über das Schreiben regulärer Ausdrücke, wodurch oftmals eine Anpas- sung der Texte per Hand erfolgt. In der vorliegenden Arbeit wird ein Ansatz für intelligen- tes Ersetzen vorgestellt, mithilfe dessen der Nutzer lediglich Beispiele bereitstellen muss, um einen Vorschlag für ein automatisiertes Anpassen zu erhalten. Ein Algorithmus für das Lernen regulärer Ausdrücke aus Beispielen wurde implementiert, welcher unter geringer Laufzeit zwei Beispiele abstrahiert und aus diesen Abstraktionen reguläre Ausdrücke er- zeugt. Durch das Einbinden der Programming–by–Example–Technologie PROSE können Anpassungen, die der Nutzer im Text vornimmt, verallgemeinert und auf weitere Beispiele angewandt werden. Der Nutzer muss somit lediglich zwei Beispiele verändern und kann im Anschluss diese Veränderung auf den Rest des Textes übertragen.

 

Mittwoch, 09. 05. 2018, 12:00 Uhr, Raum WE5/05.013

Verteidigung der Masterarbeit
Ines Rieger (MA CitH): Head Pose Estimation Using Deep Learning

Head poses are an important mean of non-verbal human communication and thus a  crucial element in human-computer interaction. While computational systems have  been trained with various methods for head pose estimation in the recent years, approaches based on convolutional neural networks (CNNs) for image processing have  so far proven to be one of the most promising ones. This master’s thesis starts of  improving head pose estimation by reimplementing a recent CNN approach based on  the shallow LeNet-5. As a new approach in head pose estimation, this thesis focuses  on residual networks (ResNets), a subgroup of CNNs specifically optimized for very  deep networks. To train and test the approaches, the Annotated Facial Landmarks in  the Wild (AFLW) dataset and the Annotated Faces in the Wild (AFW) benchmark  dataset were used. The performance of the reimplemented network and the implemented ResNets of various architectures were evaluated on the AFLW dataset. The  performance is hereby measured in mean absolute error and accuracy. Furthermore,  the ResNets with a depth of 18 layers were tested on the AFW dataset. The best  performance of all implemented ResNets was achieved by the 18 layer ResNet adapted  for an input size of 112 x 112 pixels. In comparison with the reimplemented network  and other state-of-the-art approaches, the best ResNet performs equal or better on the AFLW dataset and outperforms on the AFW dataset.

 

Dienstag, 12. Juni. 2018, 11:00 Uhr, Raum WE5/05.013

Verteidigung der Masterarbeit

Matthias  Delfs (MA CITH): Forecasting in the Supply Chain with MachineLearning Techniques (joint with Siemens Healtheneers)

This thesis was written in cooperation with Siemens Healthineers. The goal was to predict future sales figures of X-ray systems for the supply chain management. The product line consists of five different systems. Sales figures are predicted for all systems as a single quantity and also individually. The historic data supplied covered 15 years and consisted of 180 data points. These data points are a monthly census of sales related figures. The research question was to compare the performance of traditional time series modeling techniques from statistics with newly emerging machine learning approaches. The established time series modeling techniques were exponential smoothing and ARIMA. The machine learning techniques consisted of modeling feedforward neural networks and random forests. The performance of all methods was measured with the mean absolute percentage error. The best performance of all implemented methods resulted from an extended ARIMA model (ARIMAX). Moreover, the thesis included implementing a software tool for the supply chain management to make forecasts in practice.

Talks WS 16/17

Freitag, 11. November, 10:15 Uhr, WE5/05.013

Adrian Schwaiger: Model selection - Hoeffding Races and Bernstein Stopping

Model selection is an important part of machine learning --
either selecting between different learning algorithms or within the
same algorithm using different parameters (parameter optimization).
Evaluating the performance of every model using cross-validation can be
cumbersome or even unfeasible. In this talk methods will be presented
which render the need to complete all cross-validations obsolete.
Candidate models are eliminated ahead of time if they will necessarily
be outperformed.

Talks SS 16

Dienstag, 02.05.2016, 15 Uhr, WE5/05.013

Marina Jobst: Sequenzbasierte Vorhersage des Kaufverhaltens unter Verwendung von Clickstream-Daten

Laut dem jährlich erscheinenden Global B2C E-Commerce Report der E-Commerce Foundation haben im Jahr 2015 ca. 73% der Bevölkerung in Deutschland über das Internet eingekauft (Willemsen, Abraham, & van Welie, 2016). Seit der Einführung des elektronischen Handels in den 90ern hat sich der Sektor rapide entwickelt, auch im Jahr 2016 wurden zweistellige Wachstumsraten erreicht. Jedoch müssen im E-Commerce alle traditionellen Geschäftsmechanismen überdacht werden, da die Beziehungen zwischen dem Kunden und dem Händler einen Wandel durchlebt. Die Nutzer können einfach zwischen verschiedenen Online-Shops wechseln und beispielsweise Preise vergleichen. Um sich einen Vorteil vor der Konkurrenz zu verschaffen, ist es wichtig den Kunden exakt zu kennen und dessen Verhalten zu analysieren und vorherzusagen. Eine der wichtigsten Quellen von Informationen über das Verhalten der Kunden sind Clickstream-Daten. Diese werden definiert als der elektronische Rekord der Aktivität des Nutzers im Internet (Bucklin & Sismeiro, 2009). In dieser Arbeit wird eine Klassifikation von Clickstream-Daten des BAUR-Online-Shops mittels Hidden Markov Modellen durchgeführt. Hierbei wird eine Einteilung der Kunden in Käufer und keine Käufer vorgenommen. Die Clickstream-Daten werden auf verschiedenen Ebenen betrachtet, die sich im Detaillierungsgrad unterscheiden. Bei einer ersten Evaluation konnten sehr gute Ergebnisse bei der Accuracy erreicht werden. Jedoch müssen für den Einsatz im Real-Time-Umfeld noch Fragen geklärt werden, wie beispielsweise zu welchem Zeitpunkt einer Session eine Klassifikation sinnvoll ist oder wie die Sortimente geschnitten werden müssen, um möglichst genaue Vorhersagen zu treffen.

From 2014 to 2016 we participated in the Monday Afternon Club (MAC), a joint colloquium of the groups of theory (Mendler), programming languages (Lüttgen) and cognitive systems (look for the VC-course).

 

Dienstag, 08.11.2016,  16:15 Uhr, WE5/04.003 (MAC)

Johannes Rabold: "Exploring Deep Learning for Image Data -- Effort and Performance for Learning a Classifier for Facial Expressions of Pain" (BA Thesis Presentation)

This thesis describes the workflow of automatically recognizing the occurrence of pain in a facial image. A technique called convolutional neural network from the deep learning context will be described and utilized for this task. The traditional way of detecting pain in faces relied on hand-crafted features. These can be error-prone and sometimes not be suitable for the given task. Deep learning techniques provided promising performance results in the recent years. In order to explore the potential of deep learning for the pain detection task, we designed multiple convolutional network architectures and trained them on the popular UNBC Pain Archive. The results of our tests are promising and with a little improvement can reach the performance of current classifiers for pain detection.

 

Freitag, den 23.9. um 10 Uhr in 5.013 (Lab)

Lea-Louisa Maaß: A Webbased Frontend for Easy Interaction with the Inductive Programming System Igor - Inference of Constructor Terms from Examples and Interactive Testing of Generated Programs (Probevortrag für eine Präsentation, Microsoft Research in Redmond, Washington, USA)

A developer’s work can get quite repetitive. This tedious part of his or her job decreases work time efficiency by a considerable amount. Inductive programming systems can provide a solution to this issue. These tools require only input- and output examples provided by the user to generate the needed functions.
One of these systems is called IGOR II and has been developed by the University of Bamberg. Because of the necessity to use constructor terms instead of native representations of certain data types, interaction with IGOR II is rather elaborate, which distinctly limits its accessibility.
In my talk I will present the newly developed user interface easyIGOR, which allows one to easily interact with IGOR II. On top of providing examples in a readable manner comprehensible for almost everybody, it now is also possible to easily test the function that IGOR II generates with new inputs. At this point, IGOR II is usable by a broad audience and ready to be tested thoroughly.

Bachelorarbeit zum Thema

 

Talks SS 16

Montag, 30.5.2016,  14-18 Uhr, WE5/05.005

"Workshop on Symbol-Level Learning"

14 - 16 Uhr:

Prof. Dr. Fritz Wysotzki, TU Berlin: Zur Modellierung des Assoziativen Gedächtnisses in Beziehung zu Gehirnstrukturen und tieferen Ebenen.

In Ergänzung zu Vorträgen zur Modellierung des Assoziativen Gedächtnisses auf der Basis von Assoziationsmatrizen und episodischen Grundstrukturen, die bereits von mir in Bamberg vorgetragen worden sind, werden im nächsten Vortrag (nach einer vereinfachten Kurzdarstellung des o.g. ersten Teils) wichtige und für ein tieferes Verständnis notwendige Folgeprozesse betrachtet:

  • die Bildung (das "Lernen") von Narrativen (subjektive "Erzählungen", aus Grundbestandteilen des ersten Teiles gebildet),
  • die Wechselwirkung mit speziellen Gehirnteilen, insbesondere mit dem emotionalen Gedächtnis und seinen Wechselwirkungen (Implizites Gedächtnis),
  • die Wirkung von 2 Typen von (von außen kommenden) Bewertungen, die die Effektivität von Handlungen bzw. Entscheidungen zusätzlich steuern.

16-18 Uhr (MAC):

Michael Siebers: Learning Generalized Patterns of Event Sequences with ILP

Christina Zeller: Modeling Human Rule-Based Classification Learning

Mark Wernsdorfer: Symbol Grounding as Hierarchisation of Integrated Sensorimotor Sequences

 

Donnerstag, 19.5.2016, 12 Uhr,  WE5/05.013

Christian Teichmann: Ego-Perspective Simulation of Moral Dilemmata and Identification ofBehavioural Predictors of Moral Decisions (Masterarbeit CitH)

A situation without a “back door”, including simply negative decision options, followed by an unpredictable outcome with consequences we can not estimate - this could be a moral dilemma. Is there anything worse? Everyone might act differently facing moral dilemmata or do we have something in common? How do we ascertain our decision and is there an impact of the consequences on us? There are plenty of questions we could derive from dealing with moral dilemmata. Is it possible to get an answer for each of them?

 Researchers of different decades have dealt with this topic and have developed different methods to study their hypotheses. And with the technological development new tools can be used to carry out a study. Even new media like games can be helpful for research, but to which extend? Computer games are a very new medium if you consider all other media like films or books. They become very popular within a very short time. And not only they are popular among young adults but among all age groups. This aspect makes them attractive for the research in moral dilemmata.

 In this thesis I’d like to introduce the implementation of a simulation which will be part of a study from Ena Franz and Victoria Göetz, two psychology students in the master program. We have developed a conceptual basis for the program and cooperated during the implementation phase of the game. As a short introduction I’d like to present some previous work on the topic morality. It will be followed by the conceptual groundwork and the implementation of the simulation itself. At least I wanted to say a few words to the potential for the future research.

 

Freitag, 15.4.2016, 10 Uhr,  WE5/05.013

Verteidigung der Masterarbeit von Mike Imhof (Computing in the Humanities):
Classification of ERP Components with Imbalanced Datasets
A Comparison of Linear Discriminant Analysis and Logistic Regression

 
Event-related potential (ERP) components describe voltage fluctuations in the ongoing electroencephalogram (EEG) which is a method to record electrical activity of the brain. The classification of ERP components can be used to control systems over a brain-computer interface (BCI) such as a mental typewriter. It is based on attentional selection processes of letters and can be used as a communication device by individuals who cannot use any motor system (e.g. patients with locked-in syndrome). Linear discriminant analysis (LDA) is a widely used method for classification of ERP components. Although it makes more assumptions about the underlying data compared to other methods, it is recommended to use LDA, even when the requirements are not fulfilled. It is accepted to take a loss in performance in order to gain the advantage of the simplicity of LDA. I compare LDA with linear regression (LR) that also convinces by its simplicity, but makes less assumptions. For this purpose I apply both methods to electroencephalogram data containing an error-related negativity which is an ERP component that occurs during error trials in choice reaction tasks. It belongs to the group of error-related potentials (ErrPs) and its classification has proven to improve the performance of mental typewriters and other systems using a BCI. Datasets containing ErrP components are usually characterized by class imbalance whereas the error class (target class) is under-represented. A performance evaluation using the receiver operating characteristic show that under class imbalance conditions, LR yields better results than LDA. These results indicate that LR is a more suitable candidate for ERP classification as LDA under certain conditions.

Talks WS 15/16

Donnerstag, 4.2.16, 12 - 14 Uhr, WE5/05.005

KogSys-Projekt: Das Schmerzgesicht

Abstract: Die meisten Menschen sind in der Lage, wahrzunehmen, wenn ihrGegenüber Schmerzen empfindet. Ein wichtiger Indikator ist hierbei derGesichtsausdruck des Gegenübers. Es zeigen sich aber auch andereEmpfindungen im Gesichtsausdruck. Einige davon, wie zum Beispiel Freude,können leicht von Schmerz unterschieden werden. Der Gesichtsausdruck vonEkel ist dem von Schmerz allerdings sehr ähnlich. In diesem Projekt wurde untersucht, wie sich Schmerz- undEkelgesichtsausdrücke voneinander unterscheiden. Verwendet wurden Dateneines Versuches der Physiologischen Psychologie, in dem ProbandenSchmerz-, Ekel- und neutrale Mimik zeigten. Aus den symbolischrepräsentierten Daten (keine Bilder/Videos) wurden abstrakteBeschreibungen (Klassifikatoren) gelernt und diese evaluiert.

Freitag, 4.12.15, 10:30 Uhr, WE5/05.013

Teena Hassan & Dominik Seuss (Fraunhofer IIS & Cognitive Systems Group): Automatic Facial Action Unit Detection

Facial expressions are social signals that could reveal an underlying emotional state or physiological condition. They are a key component of nonverbal behavioral analysis. Psychologists have developed a comprehensive framework for analyzing facial expressions through the basic visually distinguishable motions of facial muscles. The framework is called Facial Action Coding System (FACS) and the basic facial movements are called Action Units (AU). The framework allows an objective analysis of facial expressions by coding any facial expression as a combination of AUs along with their intensities.

In this project, we use a model-based approach to infer AU intensities from videos of facial expressions. We use a 3D deformable model of human facial geometry that describes the person-dependent and expression-related shape variations. We combine information about facial geometry and facial appearance in a state estimation framework to infer AU intensities. A motion model based on the viscoelastic properties of facial muscles is used to model the changes in AU intensities over time.

In this presentation, we will provide an overview of the approach, present some evaluation results, and briefly discuss the next steps. 

Talks SS 15

Dienstag, 13.10.15, 16:00 – 18:00 (ct), WE5/01.006

Einladung zur Abschlusspräsention: „Bamberg zaubert: Sensorbasierte Online-Prädiktion von Besucherbewegungen bei Straßenfesten“

Vom 17.-19. Juli 2015 wurde das Festival „Bamberg zaubert“ von einem studentischen Projekt der Uni Bamberg begleitet. Insgesamt 12 Studierende waren im Einsatz, um mit Hilfe von Flowtrack®-Sensoren Besucherströme zu messen, Besucher zu ihrer Mobil-Nutzung zu be-fragen und an einem Stand über das Projekt zu informieren.
Das Projekt unter der Leitung der Bamberger Informatik-Professorinnen Dr. Daniela Nicklas und Dr. Ute Schmid lädt nun zur Abschlusspräsentation der Ergebnisse ein. In drei Teams wurde un-tersucht, wie sich Besucherzahlen zum aktuellen Zeitpunkt vorhersagen können, wie Gruppen von Besuchern erkannt werden können, die gemeinsame Wege gehen, und wie Besucherströme visualiert werden.
Die Veranstaltung ist öffentlich

Do, 30.7.15, 10:00, Raum WE5/05.013

Christina Zeller: Automatische Erzeugung analoger Beispiele aus Debugging-Traces -- Konstruktion von Rückmeldungen für ein Intelligentes Tutor-System zur schriftlichen Subtraktion (Master CitH)

Die schriftliche Subtraktion stellt eine wichtige Kulturtechnik dar. Beim Erlernen werden gehäuft systematische Fehler begangen. Es ist nicht sicher, ob Lehrende dieser immer richtig erkennen und ob Lehrende genug Zeit haben um auf jeden Lernenden individuell einzugehen. Auf Grund der Systematisierung der Fehler können Diagnosemodelle entwickelt werden. Diese Diagnosemodelle können in Intelligenten Tutor-Systemen verwendet werden. Intelligente Tutor-Systeme sind computerbasierende Systeme, die einem Lernenden beim Lernen individuelle Rückmeldung geben. Diese Systeme können unterschiedlich implementiert werden. In dieser Arbeit werden die Vorteile zweier Systeme zusammengefügt. Dadurch entsteht ein System, dass zur Diagnose Algorithmic Debugging verwendet und bei der Diagnose eines Fehlers automatisch eine analoge Aufgabe unter Berücksichtigung des diagnostizierten Fehlers generiert. Die Korrektheit der einzelnen generierten analogen Spalten einer analogen Aufgabe wird mit Hilfe von Strutktureigenschaften und mathematischen Betrachtungen nachgewiesen. Es bleibt jedoch fraglich, ob eine formale Korrektheit dem Anspruch eines Experten an die analogen Aufgaben genügt. Die empirische Prüfung des Systems im Bezug auf erfolgreiches Lernen und der Einfluss auf andere lernförderlichen Variablen steht aus. Diese Prüfung erscheint erst sinnvoll, wenn weitere Forschungserkenntnisse in der graphischen Oberfläche des Systems berücksichtigt werden. Abschließend wird verdeutlicht, dass ein Intelligentes Tutor-System ein unterstützendes Werkzeug der Lehre darstellt. Es darf adaptiv und individuell auf den Lernenden eingehen. Es muss jedoch berücksichtigt werden, dass es ein bestimmtes Ziel verfolgt und dabei auch akzeptable Grenzen aufweisen darf.

MO, 27.7.15, 9:00 s.t., Raum WE5/05.013

Norman Steinmeier: Evaluation der Güte eines Partikelschwarm-Algorithmus zur Funktionsapproximation (Master AI)

In der Masterarbeit wird die Güte eines Approximationsverfahrens auf Basis von Partikelschwarmoptimierung zur Findung numerischer Gegebenheiten innerhalb einer Menge von Daten untersucht. Dabei soll ein vorgegebenes Gerüst eines mathematischen Ausdrucks so in seinen Parametern bestimmt werden, dass für vordefinierte Eingabewerte eine Näherungslösung eines Ausgabewertes möglich ist. Die Güte des Verfahrens wird durch die Abweichung vom ursprünglich vorgegebenen Ausgabewert und errechneten Ausgabewert bemessen. Ausgehend von wichtigen Grundlagen und einer Erläuterung des Untersuchungsaufbaus findet eine abschließende Bewertung der Eignung des Verfahrens für ein reales Problem statt. Außerdem sollen verschiedene Konfigurationen und Funktionsprototypen für einen Vergleich herangezogen werden.

Präsentation studentischer Arbeiten:

DO, 21.5., 9-12 Uhr, Raum WE5/05.013
Ergebnisse Studentischer Arbeiten zum Thema Induktion von Zahlenreihen

  • 9:00: Barbora Hrda und Christian Teichmann: Cognitive Models for Number Series Induction Problems -- An Approach to Determine the Complexity of Number Series (Seminar)
  • 10:00 Henrik Marquardt: Induction on Number Series - A case study with MagicHaskeller on the Web (Bachelor-Projekt)
  • 10:30 Barbora Hrda und Dea Svoboda: Alternating Number Series Problems in IGOR 2 (Master Projekt)

MO, 18.5., 16-18 Uhr, Raum WE5/03.004
Ergebnisse des Bachelor-Projekts Verteiltes Problemlösen

Daniel Bernhard, Bettina Finzel, Michael Groß, Christian Teichmann
Eine im Rahmen der Bachelorarbeit von Tina Kämmerer entwickelte Multi-Agenten-Simulation für eine Schatzsuche wurde um zwei Kooperationsstrategien ergänzt. Zum einen wird über Broadcasting kommuniziert, zum anderen über einen zentralen Agenten. Die Auswirkung der Strategie auf die Effizienz der Zielerreichung wurde systematisch untersucht.

Kolloquium Montag, 4.5.15, 16 Uhr c.t., WE5/05.003

Fritz Wysotzki (TU Berlin): Modellierung des Assoziativen Gedächtnisses

Schwerpunkt ist die Verwendung von symbolischen Repräsentationen auf der Basis eines Episodischen Gedächtnisses mit (kurzem) Bezug zu den klassischen Semantischen Netzen auf der nächsthöheren Ebene. Der Vortrag beginnt mit den theoretischen Grundlagen, folgend von anschaulichen Beispielen für die Funktion des menschlichen Erinnerns von im Gedächtnis gespeicherten Strukturen mit neuen Ergebnissen. Eine neurobiologische Interpretation erfolgt am Rande, kann aber in der auf den Vortrag folgenden Diskussion ausführlicher behandelt werden. Das Problem der verschiedenen Repräsentationsschichten und deren Zusammenhang ist z.Zt. international sehr aktuell.

Talks WS 14/15

Kolloquium Montag, 30.3.15, 10 Uhr, WE5/05.013

Sebastian Boosz: Applying Anti-Unification Strategies to Matching and Generalization of Recursive Functions - Investigating a Second-order approach for Learning from Examples (Masterarbeit AI)

Programmers seldom invent completely new programs, instead they tend to adapt existing programs by analogical reasoning. After a suitable source program has been found, it is a feasible strategy to picture the execution behavior of that program for a certain input. The programmer then tries to envision the execution behavior of the desired program for the very same input. Comparing, she can draw conclusions about what both programs have in common and where the differences are located. Adapting the existing program by applying those differences appropriately, yields the desired program. In this thesis a programming by analogy approach is investigated for recursive func- tions. Based on concrete unfoldings of source and target functions, higher-order anti- unification is used to find a generalization, revealing differences between source and target. A set of heuristics was developed which is used to match and apply those dif- ferences to the source function in order to transform it into the corresponding target function. The success of the heuristics is evaluated and possible means of improvement are suggested.

Keywords: recursion, recursive functions, higher-order anti-unification, generalization, programming by analogy, learning from examples, heuristics

Kolloquium Dienstag, 24.3.15, 10:00 Uhr, WE5/05.013

Frederic Ehmann: Künstliche Intelligenz in Computerspielen -- Lernen von Handlungsstrategien eines autonomen Agenten am Beispiel eines Jump 'n' Run Computerspiels (Masterarbeit AI)

Diese Masterarbeit handelt von dem Lernen von Handlungsstrategien eines autonomen Agenten, der ein Jump 'n' Run Computerspiel spielt. Die Stages werden zufällig generiert, um anschließend von dem Agenten gelernt zu werden. Hierbei soll von Stage zu Stage gelernt werden, um einen stetig ansteigenden Score zu erreichen. Der Score ist die Bewertung der bisherigen Errungenschaften und der Effektivität. Zum einen sollten möglichst in derselben Stage sichtbare Verbesserungen im Score durch das Lernen entstehen, zum anderen sollten von Stage zu Stage Verbesserungen im Score sichtbar werden. Ein Ausgangszustand kann durch eine Aktion (z.B. Bewegung nach rechts) in einen Folgezustand geführt werden. Hierbei entsteht ein Reward. Ein Reward bezeichnet die Bewertung für das Ausführen einer Aktion in einer bestimmten Situation. Diese Situation wird als Zustand bezeichnet. Zustände werden in dieser Arbeit nur durch ihre Eigenschaften de?niert und nicht etwa nummeriert. Der Reward wird nicht nur kurzfristig, sondern auch langfristig betrachtet (durch Q-Learning). Zunächst werden Informationen über die langfristigen Rewards von Anfangszuständen und Aktionen erhalten. Diese Informationen werden genutzt, um klassische Vorhersagealgorithmen (Linear Regression und K Nearest Neighbors) zu verwenden. Somit können ebenfalls unbekannte Anfangszustände und Aktionen einem vorhergesagten langfristigen Reward (Q^-Wert) zugeschrieben werden. So wird die Aktion mit dem höchsten vorhergesagten langfristigen Reward als vermeintlich beste Aktion bestimmt.

Kolloquium Montag, 8.12.14, 10:00 Uhr, WE5/05.004

Florian Muth & Sebastian Ulschmid: Anwendung von Feature-Extraktionsmethoden und Klassifikationslernen zur Identifikation von Fahrzeugtypen (Ergebnisse des Master-Projekts)

Wie können Fotos der Fahrzeugmodelle A4 Limusine, A5 Coupe, A7 Sportback und A3 Basis von der Firma Audi durch Verwendung von Bildverarbeitung und maschinellem Lernen zur Unterscheidung/Identifizierung der Modelle herangezogen werden? Für die Klassifizierung beschränkten wir uns zunächst auf die Features hintere Seitenscheiben, Tankdeckel sowie seitliche Reflektoren die es zu erkennen gilt. Anschließend wurde untersucht, wie globale Verfahren angewandt werden können, also Verfahren, welche nicht auf spezifische Merkmale der Fahrzeuge, sondern auf bild-eigenen Merkmalen basieren. Diese Ansätze wurden dann kombiniert, um deren Vorteile zu vereinen und eine möglichst exakte Klassifizierung zu erreichen.

MAC Dienstag, 2.12.14, 16:00 Uhr, WE5/05.004

Ute Schmid, Applying Inductive Program Synthesis to Induction of Number Series -- A Case Study with IGOR2 

Induction of number series is a typical task included in intelligence tests. It measures the ability to detect regular patterns and to generalize over them, which is assumed to be crucial for general intelligence. There are some computational approaches to solve number problems. Besides special-purpose algorithms, applicability of general purpose learning algorithms to number series prediction was shown for E-generalization and artificial neural networks (ANN). We present the applicability of the analytical inductive programming system Igor2 to number series problems.
An empirical comparison of Igor2 shows that Igor2 has comparable performance on the test series used to evaluate the ANN and the E-generalization approach. Based on findings of a cognitive analysis of number series problems by Holzman et al. (1982, 1983) we conducted a detailed case study, presenting Igor2 with a set of number series problems where the complexity was varied over different dimensions identified as sources of cognitive complexity by Holzman. Our results show that performance times of Igor2 correspond to the cognitive findings for most dimensions.

Kolloquium 13.10.14, WE5/05.013

Martina Milovec: Applying Inductive Programming to Solving Number Series Problems - Comparing Performance of IGOR with Humans (Masterarbeit AI)

Number series problems in IQ tests are challenging, especially for humans and computer programs. This thesis presents a comparison study between the IGOR algorithm and human performance on number series problems. IGOR's task was to find a correct function for number series problems with different complexity factors, in order to generate the number series from this function. IGOR's performance results bring closer the capabilities of a computer program to the human intelligence. The introduction of this thesis describes induction and the psychological background. Furthermore, different computer models for solving number series problems, such as MagicHaskeller, ANN, Semi-analytical model, Spaun, Asolver and Seqsolver, are given. A short introduction to the IGOR algorithm in Maude and representation of number series problems in IGOR is also given. The results first focus on the human performance and the preliminary study on number series problems with IGOR. Secondly, the comparison of both performances of IGOR and humans are represented and summarized. The conclusion gives an overview of the results, problems and some corresponding solution suggestions, as well as ideas for further research on number series problems with IGOR

Talks SS 14

Kolloquium, 15.9.14, 16:00 Uhr (s.t.) WE5/05.013

Tamara Engelbrecht, Norman Steinmeier:  Wahrnehmungsqualität dreidimensionaler Video Streams/Quality of Experience in Stereoscopic Video Streaming
(Ergebnisse des gemeinsamen MA Projekts mit KTR)

Entwurf eines Untersuchungsdesigns zur Klärung der Frage: Welche Art und welche Stärke von Übertragungsfehlern bei gestreamten 3D-Videos sind insbesondere qualitätsverschlechternd? Informationen zur Durchführung des Experiments, sowie anschließende Darstellung und Bewertung der Untersuchungsergebnisse. Informationen zur Weiterführbarkeit.

Kolloquium 18.7.14, 10 Uhr, WE5/05.042

P. Hohmann, S. Höpfel, A. Rohm: Results of the Bachelor-Project "Applying IGOR to Enduser Programming"

We investigated how the inductive programming system IGOR can be applied to learn programs for end-user support. Application domain was string transformations in Excel. In this domain already exists a plug-in called Flashfill. Main part of the project work was to define suitable abstract data types and specify input/output examples for IGOR. We could show that IGOR can learn the Flashfill transformations and identified some problems which are beyond Flashfill but solvable with IGOR. For a more convenient handling of IGOR and Maude, a GUI was developped.
 

Kolloquium of the SS14 Reading Club, 9.7.14, 10:00, WE5.003

Christina Zeller, Dea Svoboda, Michael Sünkel, Daniel Bernhard: Experimenting with a Humanoid Robot - Programming NAO to (Inter-)Act

In the context of the Reading Club, an application has been implemented, which allows a humanoid robot the behavior of a polite and courteous gentlemen. The robot is already trained to recognizefamiliar people. Unknown he should know and remember. During this procedure, it should always comply with pleasantries.

Kolloquium  Mo 5.5.14, 16 Uhr,  (WE5/05.005) 

Fritz Wysotzki (TU Berlin) mit großem Anteil von Jürgen Körner (FU Berlin): Übergeneralisierung mit Methoden der Künstlichen Intelligenz und Kybernetik 

Experimentelle Grundlage ist die Beschreibung des Prozesses einer neurotischen Erkrankung  anhand  zweier Fallbeispiele aus  psychoanalytischer und kybernetischer Sicht.  Ziel ist es, komplexe klinische Phänomene mithilfe von  Methoden der Systemtheorie (speziell der Entscheidungstheorie) zu modellieren und als Lerngeschichte abzubilden.
Dann erscheint z.B. der Wiederholungszwang, dem eine Patientin unterliegt, indem sie ihr altruistisches Verhalten aus der Kindheit auf alle sozialen Situationen auch außerhalb der Familie überträgt, als Folge einer Übergeneralisierung, mit der sie negative Emotionen als Kosten für Fehlentscheidungen vermeidet. Dieser Prozess  wird  in mathematisch formalisierter Form dargestellt und begründet. Es wird gezeigt, wie eine derartige Lerngeschichte in einem iterativen Prozess dazu führt, dass die Patientin nicht mehr unterscheiden kann, ob ihr neurotisches Verhalten in der aktuellen sozialen Situation angemessen ist oder nicht.
Die  Schlussfolgerungen aus dieser Betrachtung , die  auch für allgemeine Verhaltensaspekte und Gedächtnisstrukturen relevant sind, stimmen wieder mit psychoanalytischen Behandlungserfahrungen gut überein: Therapeutische Veränderungen lassen sich nicht allein mithilfe sprachlicher, also symbolischer Interventionen erzielen. Denn die unbewussten Phantasien werden nicht digital, sondern analog  nach den Prinzipien neuronaler Netzwerke verarbeitet; sie müssen z.B. in der Übertragungsanalyse erst affektiv erlebt und dadurch dem Bewusstsein zugänglich werden. 

Talks WS 13/14

Kolloquium  FR 28.3.14, 10 Uhr,  (WE5/05.013) 

Claudia Buhl: Anwendung von Methoden des maschinellen Lernens im Kontext der Simulation reaktiver Strömungen 

Bei der numerischen Simulation von reaktiven Strömungen wird die numerische Strömungsmechanik mit numerischen Methoden zur Lösung chemischer Probleme gekoppelt. Die Berechnung der chemischen Reaktionen nimmt dabei einen Großteil der gesamten Simulationszeit in Anspruch. Eine Möglichkeit, diesem Problem entgegenzuwirken, sind Flamelet-Datenbanken, in denen vor der Simulation die exakte chemische Lösung diskreter Zustände hinterlegt wird. Mittels linearer Interpolation können dann während der Simulation für beliebige Zustände die Lösungen approximiert werden. Diese Datenbanken sind jedoch extrem speicherintensiv. Aufgabe dieser Masterarbeit ist es, mittels maschinellen Lernens die Datenmengen zu reduzieren und dabei noch eine möglichst hohe Ergebnisqualität zu erreichen. Als Lernverfahren wird die Methodik K-Nächste-Nachbarn verwendet. Zunächst wird eine analytische Validierung von KNN und der linearen Interpolation durchgeführt. Des Weiteren wird für KNN eine adaptive Generierung der Trainingsdaten umgesetzt. Anschließend werden beide Verfahren mittels einer vereinfachten Flamelet-DB als Datenbasis verglichen. 

Kolloquium DI,  18.2.14, 10:00 Uhr,  (WE5/05.013) 

Johannes Folger (MA AI): Classification of Facial Expressions of Pain from Video Streams

The main concern of this thesis was the development and evaluation of an approach for classifying pain from video streams. In contrast to the analysis of individual images, videos provide temporal information that can improve the classification of facial expressions. The presented approach considered such kind of information by extracting data from temporal frames of different sizes. The method was evaluated by classifying pain, disgust, and neutral expressions within video sequences of four different subjects. As this work is considered to be a pilot study, three individual classifiers were trained and tested only in a person-dependent manner. Results showed that all classifiers obtained mean accuracy rates above chance. Additionally, no classifier could achieve outstanding performances and the size of the temporal frames seems to have no influence on the performance results. One reason for this could be the number of attributes considered for machine learning.

Kolloquium DI,  4.2.14 12:00 Uhr,  (WE5/05.013) 

Christian Reißner (MA AI): Researching Heuristic Functions to Detect and Avoid Dead Ends in Action Planning   

One approach to reduce the runtime in learning is to find dead ends by planning and use this information to avoid them efficiently. The heuristic search is a well performing planning approach. The target of this paper is the modification of the heuristic search. I will present methods to detect dead ends and run them in different planning domains. A comparison of the results decides the best method to detect dead ends in planning. I will show that the Wisp method delivers the best results and that abstraction heuristics are the best for detecting dead ends.

Kolloquium Di 28.1.14 12:00 Uhr, WE5/05.013 

Andre Kowollik (externe Masterarbeit, FAU): Mensch-Roboter-Interaktion in gestenbasierten Zweipersonenspielen -- NAO spielt Schere, Stein, Papier   

Das Spiel "Schere, Stein, Papier" ist eine Situation, in der normalerweise eine zwischen-menschliche Interaktion stattfindet. Diese Interaktion wurde auf den Roboter (NAO) übertragen, indem eine simple Spracherkennung implementiert, eine Gestenerkennung auf Basis des Frameworks OpenCV und verschiedene Spielstrategien entwickelt wurden. Die Strategien stellen dabei vereinfachte Verhaltensmuster von NAO dar. Zur Bewertung der Mensch-Roboter-Interaktion und der Verhaltensmuster wurde eine Nutzer-studie durchgeführt.    

Kolloquium Mo 27.1.14 12:00 Uhr, WE5/05.013 

Matthias Düsel (MA AI): Semantisches Matching von Freizeitaktivitäten mittels Wikipediabasierter Kategorisierung   

Diese Arbeit untersucht, inwiefern Wikipedia genutzt werden kann, um semantische Ähnlichkeit zu berechnen. Das Ziel ist es, ein Matching-System zu erstellen, in welches ein Benutzer eine Freizeitaktivität eingibt und daraufhin Einträge mit ähnlichen Aktivitäten als Ergebnis zurück bekommt. Hierbei liegt das Augenmerk auf der Bedeutung der Einträge. Die Matches sollen also aufgrund ihrer semantischen Ähnlichkeit entstehen und nicht nur, weil zwei Einträge das selbe Wort enthalten. Bei einem rein lexikalischem Vergleich gibt es kein Match zwischen "Ich würde gerne in die Oper gehen" und "Ich sehe mir heute Don Giovanni an". Semantisch sind diese Einträge jedoch verwandt, da Don Giovanni eine Oper ist.   

Kolloquium  MO 16.12. 12:00 Uhr,  WE5/05.013

Simone Schineller (MA WI): A Hierarchical Approach for Classifying Pain and Disgust by Aggegration over Facial Regions

Im Rahmen der Arbeit wurde ein zweistufiger Ansatz zur Erkennung von Schmerz und Ekel basierend auf Gesichtsdaten entwickelt, der mit Hilfe der Software Rapid Miner umgesetzt wurde. Die Besonderheit des Modells liegt in der Aufteilung des Gesichtes in einzelne Regionen und deren anschließender Klassifikation als Vorverarbeitungsschritt. Ziel der Arbeit war es, die Eignung verschiedener Klassifikatoren für die mimikbasierte Schmerz- und Ekelerkennung zu untersuchen und miteinander zu vergleichen. Weiterhin wurden sowohl individuelle als auch personenunabhängige Klassifkatoren gegenübergestellt, um zu ermitteln, ob letztere für die gestellte Aufgabe ausreichend gut geeignet sind.

Talks SS 13 

Kolloquium  DO 27.6. 14:15 Uhr,  WE5/05.013

Christian Massny (MA WI): TRAINING BY ERROR - CHESS TRAINING BY INDIVIDUAL ERROR CLASSIFICATION

Chess Engines have long surpassed all but the most potent of human chess players. The vast majority of chess players cannot even come close to beating any given engine on a personal computer with mainstream hardware.Hence chess programs are mostly used for two purposes: analyzing past games and getting used to playing new openings. The analysis is mostly done by hand, importing any past game and the replaying it with the calculations of the engine showing when mistakes were made in the game.The goal of this thesis now is to analyze past games on a larger scale using the complete game database of a particular player. The software to be programmed will import any number of games and analyze them. The analysis will both find mistakes made by the player using an open source chess engine and then classify the mistakes the player made so that statistical information regarding the type and magnitude of mistakes the player makes will be available for further training.Each mistake can be singled out and analyzed individually. At the end of this thesis the author will propose a way of using the error database to teach the player to get rid of his mistakes even better.

Kolloquium DI 11.6. 10:15 Uhr, WE5/5.013

Stefan Betzmeir (Master WI): Inducing Structural Prototypes for the Classification of Semi-Structured Data

The internet has evolved from a network of documents into a network of heterogeneous web applications. Semi-structured data offers enough structural flexibility, while providing the necessary semantic annotation to transfer information between those applications. Today the XML Data Model is the de facto standard meta-model for semi-structured data on the internet. Due to its generic nature, XML has become the foundation of numerous domain specific formats, causing an abundance of XML data that holds considerable potential for data analysis. This paper presents a case-based reasoning framework for classifying semi-structured data. It supports the extraction of a prototype tree from a cluster of data trees, as well as the classification of a data tree, based on its similarity to a set of prototype trees. By representing each cluster with only one prototype, an acceptable runtime of the classification can be maintained, even if the data clusters keep on growing.

Colloquium Archive

You find information on past talks in the Colloquium Archives [WS 12/13]  [SS12]  [WS 11/12]   [SS 11]  [WS 10/11]  [SS 10]  [WS 09/10]  [SS 09]  [WS 08/09]   [SS 08]   [WS 07/08] and the colloquium archive (old)

Donnerstag, 4.2.16, 12 - 14 Uhr, WE5/05.005

KogSys-Projekt: Das Schmerzgesicht

Abstract: Die meisten Menschen sind in der Lage, wahrzunehmen, wenn ihrGegenüber Schmerzen empfindet. Ein wichtiger Indikator ist hierbei derGesichtsausdruck des Gegenübers. Es zeigen sich aber auch andereEmpfindungen im Gesichtsausdruck. Einige davon, wie zum Beispiel Freude,können leicht von Schmerz unterschieden werden. Der Gesichtsausdruck vonEkel ist dem von Schmerz allerdings sehr ähnlich. In diesem Projekt wurde untersucht, wie sich Schmerz- undEkelgesichtsausdrücke voneinander unterscheiden. Verwendet wurden Dateneines Versuches der Physiologischen Psychologie, in dem ProbandenSchmerz-, Ekel- und neutrale Mimik zeigten. Aus den symbolischrepräsentierten Daten (keine Bilder/Videos) wurden abstrakteBeschreibungen (Klassifikatoren) gelernt und diese evaluiert.

Freitag, 4.12.15, 10:30 Uhr, WE5/05.013

Teena Hassan & Dominik Seuss (Fraunhofer IIS & Cognitive Systems Group): Automatic Facial Action Unit Detection

Facial expressions are social signals that could reveal an underlying emotional state or physiological condition. They are a key component of nonverbal behavioral analysis. Psychologists have developed a comprehensive framework for analyzing facial expressions through the basic visually distinguishable motions of facial muscles. The framework is called Facial Action Coding System (FACS) and the basic facial movements are called Action Units (AU). The framework allows an objective analysis of facial expressions by coding any facial expression as a combination of AUs along with their intensities.

In this project, we use a model-based approach to infer AU intensities from videos of facial expressions. We use a 3D deformable model of human facial geometry that describes the person-dependent and expression-related shape variations. We combine information about facial geometry and facial appearance in a state estimation framework to infer AU intensities. A motion model based on the viscoelastic properties of facial muscles is used to model the changes in AU intensities over time.

In this presentation, we will provide an overview of the approach, present some evaluation results, and briefly discuss the next steps. 

Talks SS 15

Dienstag, 13.10.15, 16:00 – 18:00 (ct), WE5/01.006

Einladung zur Abschlusspräsention: „Bamberg zaubert: Sensorbasierte Online-Prädiktion von Besucherbewegungen bei Straßenfesten“

Vom 17.-19. Juli 2015 wurde das Festival „Bamberg zaubert“ von einem studentischen Projekt der Uni Bamberg begleitet. Insgesamt 12 Studierende waren im Einsatz, um mit Hilfe von Flowtrack®-Sensoren Besucherströme zu messen, Besucher zu ihrer Mobil-Nutzung zu be-fragen und an einem Stand über das Projekt zu informieren.
Das Projekt unter der Leitung der Bamberger Informatik-Professorinnen Dr. Daniela Nicklas und Dr. Ute Schmid lädt nun zur Abschlusspräsentation der Ergebnisse ein. In drei Teams wurde un-tersucht, wie sich Besucherzahlen zum aktuellen Zeitpunkt vorhersagen können, wie Gruppen von Besuchern erkannt werden können, die gemeinsame Wege gehen, und wie Besucherströme visualiert werden.
Die Veranstaltung ist öffentlich

Do, 30.7.15, 10:00, Raum WE5/05.013

Christina Zeller: Automatische Erzeugung analoger Beispiele aus Debugging-Traces -- Konstruktion von Rückmeldungen für ein Intelligentes Tutor-System zur schriftlichen Subtraktion (Master CitH)

Die schriftliche Subtraktion stellt eine wichtige Kulturtechnik dar. Beim Erlernen werden gehäuft systematische Fehler begangen. Es ist nicht sicher, ob Lehrende dieser immer richtig erkennen und ob Lehrende genug Zeit haben um auf jeden Lernenden individuell einzugehen. Auf Grund der Systematisierung der Fehler können Diagnosemodelle entwickelt werden. Diese Diagnosemodelle können in Intelligenten Tutor-Systemen verwendet werden. Intelligente Tutor-Systeme sind computerbasierende Systeme, die einem Lernenden beim Lernen individuelle Rückmeldung geben. Diese Systeme können unterschiedlich implementiert werden. In dieser Arbeit werden die Vorteile zweier Systeme zusammengefügt. Dadurch entsteht ein System, dass zur Diagnose Algorithmic Debugging verwendet und bei der Diagnose eines Fehlers automatisch eine analoge Aufgabe unter Berücksichtigung des diagnostizierten Fehlers generiert. Die Korrektheit der einzelnen generierten analogen Spalten einer analogen Aufgabe wird mit Hilfe von Strutktureigenschaften und mathematischen Betrachtungen nachgewiesen. Es bleibt jedoch fraglich, ob eine formale Korrektheit dem Anspruch eines Experten an die analogen Aufgaben genügt. Die empirische Prüfung des Systems im Bezug auf erfolgreiches Lernen und der Einfluss auf andere lernförderlichen Variablen steht aus. Diese Prüfung erscheint erst sinnvoll, wenn weitere Forschungserkenntnisse in der graphischen Oberfläche des Systems berücksichtigt werden. Abschließend wird verdeutlicht, dass ein Intelligentes Tutor-System ein unterstützendes Werkzeug der Lehre darstellt. Es darf adaptiv und individuell auf den Lernenden eingehen. Es muss jedoch berücksichtigt werden, dass es ein bestimmtes Ziel verfolgt und dabei auch akzeptable Grenzen aufweisen darf.

MO, 27.7.15, 9:00 s.t., Raum WE5/05.013

Norman Steinmeier: Evaluation der Güte eines Partikelschwarm-Algorithmus zur Funktionsapproximation (Master AI)

In der Masterarbeit wird die Güte eines Approximationsverfahrens auf Basis von Partikelschwarmoptimierung zur Findung numerischer Gegebenheiten innerhalb einer Menge von Daten untersucht. Dabei soll ein vorgegebenes Gerüst eines mathematischen Ausdrucks so in seinen Parametern bestimmt werden, dass für vordefinierte Eingabewerte eine Näherungslösung eines Ausgabewertes möglich ist. Die Güte des Verfahrens wird durch die Abweichung vom ursprünglich vorgegebenen Ausgabewert und errechneten Ausgabewert bemessen. Ausgehend von wichtigen Grundlagen und einer Erläuterung des Untersuchungsaufbaus findet eine abschließende Bewertung der Eignung des Verfahrens für ein reales Problem statt. Außerdem sollen verschiedene Konfigurationen und Funktionsprototypen für einen Vergleich herangezogen werden.

Präsentation studentischer Arbeiten:

DO, 21.5., 9-12 Uhr, Raum WE5/05.013
Ergebnisse Studentischer Arbeiten zum Thema Induktion von Zahlenreihen

  • 9:00: Barbora Hrda und Christian Teichmann: Cognitive Models for Number Series Induction Problems -- An Approach to Determine the Complexity of Number Series (Seminar)
  • 10:00 Henrik Marquardt: Induction on Number Series - A case study with MagicHaskeller on the Web (Bachelor-Projekt)
  • 10:30 Barbora Hrda und Dea Svoboda: Alternating Number Series Problems in IGOR 2 (Master Projekt)

MO, 18.5., 16-18 Uhr, Raum WE5/03.004
Ergebnisse des Bachelor-Projekts Verteiltes Problemlösen

Daniel Bernhard, Bettina Finzel, Michael Groß, Christian Teichmann
Eine im Rahmen der Bachelorarbeit von Tina Kämmerer entwickelte Multi-Agenten-Simulation für eine Schatzsuche wurde um zwei Kooperationsstrategien ergänzt. Zum einen wird über Broadcasting kommuniziert, zum anderen über einen zentralen Agenten. Die Auswirkung der Strategie auf die Effizienz der Zielerreichung wurde systematisch untersucht.

Kolloquium Montag, 4.5.15, 16 Uhr c.t., WE5/05.003

Fritz Wysotzki (TU Berlin): Modellierung des Assoziativen Gedächtnisses

Schwerpunkt ist die Verwendung von symbolischen Repräsentationen auf der Basis eines Episodischen Gedächtnisses mit (kurzem) Bezug zu den klassischen Semantischen Netzen auf der nächsthöheren Ebene. Der Vortrag beginnt mit den theoretischen Grundlagen, folgend von anschaulichen Beispielen für die Funktion des menschlichen Erinnerns von im Gedächtnis gespeicherten Strukturen mit neuen Ergebnissen. Eine neurobiologische Interpretation erfolgt am Rande, kann aber in der auf den Vortrag folgenden Diskussion ausführlicher behandelt werden. Das Problem der verschiedenen Repräsentationsschichten und deren Zusammenhang ist z.Zt. international sehr aktuell.

Talks WS 14/15

Kolloquium Montag, 30.3.15, 10 Uhr, WE5/05.013

Sebastian Boosz: Applying Anti-Unification Strategies to Matching and Generalization of Recursive Functions - Investigating a Second-order approach for Learning from Examples (Masterarbeit AI)

Programmers seldom invent completely new programs, instead they tend to adapt existing programs by analogical reasoning. After a suitable source program has been found, it is a feasible strategy to picture the execution behavior of that program for a certain input. The programmer then tries to envision the execution behavior of the desired program for the very same input. Comparing, she can draw conclusions about what both programs have in common and where the differences are located. Adapting the existing program by applying those differences appropriately, yields the desired program. In this thesis a programming by analogy approach is investigated for recursive func- tions. Based on concrete unfoldings of source and target functions, higher-order anti- unification is used to find a generalization, revealing differences between source and target. A set of heuristics was developed which is used to match and apply those dif- ferences to the source function in order to transform it into the corresponding target function. The success of the heuristics is evaluated and possible means of improvement are suggested.

Keywords: recursion, recursive functions, higher-order anti-unification, generalization, programming by analogy, learning from examples, heuristics

Kolloquium Dienstag, 24.3.15, 10:00 Uhr, WE5/05.013

Frederic Ehmann: Künstliche Intelligenz in Computerspielen -- Lernen von Handlungsstrategien eines autonomen Agenten am Beispiel eines Jump 'n' Run Computerspiels (Masterarbeit AI)

Diese Masterarbeit handelt von dem Lernen von Handlungsstrategien eines autonomen Agenten, der ein Jump 'n' Run Computerspiel spielt. Die Stages werden zufällig generiert, um anschließend von dem Agenten gelernt zu werden. Hierbei soll von Stage zu Stage gelernt werden, um einen stetig ansteigenden Score zu erreichen. Der Score ist die Bewertung der bisherigen Errungenschaften und der Effektivität. Zum einen sollten möglichst in derselben Stage sichtbare Verbesserungen im Score durch das Lernen entstehen, zum anderen sollten von Stage zu Stage Verbesserungen im Score sichtbar werden. Ein Ausgangszustand kann durch eine Aktion (z.B. Bewegung nach rechts) in einen Folgezustand geführt werden. Hierbei entsteht ein Reward. Ein Reward bezeichnet die Bewertung für das Ausführen einer Aktion in einer bestimmten Situation. Diese Situation wird als Zustand bezeichnet. Zustände werden in dieser Arbeit nur durch ihre Eigenschaften de?niert und nicht etwa nummeriert. Der Reward wird nicht nur kurzfristig, sondern auch langfristig betrachtet (durch Q-Learning). Zunächst werden Informationen über die langfristigen Rewards von Anfangszuständen und Aktionen erhalten. Diese Informationen werden genutzt, um klassische Vorhersagealgorithmen (Linear Regression und K Nearest Neighbors) zu verwenden. Somit können ebenfalls unbekannte Anfangszustände und Aktionen einem vorhergesagten langfristigen Reward (Q^-Wert) zugeschrieben werden. So wird die Aktion mit dem höchsten vorhergesagten langfristigen Reward als vermeintlich beste Aktion bestimmt.

Kolloquium Montag, 8.12.14, 10:00 Uhr, WE5/05.004

Florian Muth & Sebastian Ulschmid: Anwendung von Feature-Extraktionsmethoden und Klassifikationslernen zur Identifikation von Fahrzeugtypen (Ergebnisse des Master-Projekts)

Wie können Fotos der Fahrzeugmodelle A4 Limusine, A5 Coupe, A7 Sportback und A3 Basis von der Firma Audi durch Verwendung von Bildverarbeitung und maschinellem Lernen zur Unterscheidung/Identifizierung der Modelle herangezogen werden? Für die Klassifizierung beschränkten wir uns zunächst auf die Features hintere Seitenscheiben, Tankdeckel sowie seitliche Reflektoren die es zu erkennen gilt. Anschließend wurde untersucht, wie globale Verfahren angewandt werden können, also Verfahren, welche nicht auf spezifische Merkmale der Fahrzeuge, sondern auf bild-eigenen Merkmalen basieren. Diese Ansätze wurden dann kombiniert, um deren Vorteile zu vereinen und eine möglichst exakte Klassifizierung zu erreichen.

MAC Dienstag, 2.12.14, 16:00 Uhr, WE5/05.004

Ute Schmid, Applying Inductive Program Synthesis to Induction of Number Series -- A Case Study with IGOR2 

Induction of number series is a typical task included in intelligence tests. It measures the ability to detect regular patterns and to generalize over them, which is assumed to be crucial for general intelligence. There are some computational approaches to solve number problems. Besides special-purpose algorithms, applicability of general purpose learning algorithms to number series prediction was shown for E-generalization and artificial neural networks (ANN). We present the applicability of the analytical inductive programming system Igor2 to number series problems.
An empirical comparison of Igor2 shows that Igor2 has comparable performance on the test series used to evaluate the ANN and the E-generalization approach. Based on findings of a cognitive analysis of number series problems by Holzman et al. (1982, 1983) we conducted a detailed case study, presenting Igor2 with a set of number series problems where the complexity was varied over different dimensions identified as sources of cognitive complexity by Holzman. Our results show that performance times of Igor2 correspond to the cognitive findings for most dimensions.

Kolloquium 13.10.14, WE5/05.013

Martina Milovec: Applying Inductive Programming to Solving Number Series Problems - Comparing Performance of IGOR with Humans (Masterarbeit AI)

Number series problems in IQ tests are challenging, especially for humans and computer programs. This thesis presents a comparison study between the IGOR algorithm and human performance on number series problems. IGOR's task was to find a correct function for number series problems with different complexity factors, in order to generate the number series from this function. IGOR's performance results bring closer the capabilities of a computer program to the human intelligence. The introduction of this thesis describes induction and the psychological background. Furthermore, different computer models for solving number series problems, such as MagicHaskeller, ANN, Semi-analytical model, Spaun, Asolver and Seqsolver, are given. A short introduction to the IGOR algorithm in Maude and representation of number series problems in IGOR is also given. The results first focus on the human performance and the preliminary study on number series problems with IGOR. Secondly, the comparison of both performances of IGOR and humans are represented and summarized. The conclusion gives an overview of the results, problems and some corresponding solution suggestions, as well as ideas for further research on number series problems with IGOR

Talks SS 14

Kolloquium, 15.9.14, 16:00 Uhr (s.t.) WE5/05.013

Tamara Engelbrecht, Norman Steinmeier:  Wahrnehmungsqualität dreidimensionaler Video Streams/Quality of Experience in Stereoscopic Video Streaming
(Ergebnisse des gemeinsamen MA Projekts mit KTR)

Entwurf eines Untersuchungsdesigns zur Klärung der Frage: Welche Art und welche Stärke von Übertragungsfehlern bei gestreamten 3D-Videos sind insbesondere qualitätsverschlechternd? Informationen zur Durchführung des Experiments, sowie anschließende Darstellung und Bewertung der Untersuchungsergebnisse. Informationen zur Weiterführbarkeit.

Kolloquium 18.7.14, 10 Uhr, WE5/05.042

P. Hohmann, S. Höpfel, A. Rohm: Results of the Bachelor-Project "Applying IGOR to Enduser Programming"

We investigated how the inductive programming system IGOR can be applied to learn programs for end-user support. Application domain was string transformations in Excel. In this domain already exists a plug-in called Flashfill. Main part of the project work was to define suitable abstract data types and specify input/output examples for IGOR. We could show that IGOR can learn the Flashfill transformations and identified some problems which are beyond Flashfill but solvable with IGOR. For a more convenient handling of IGOR and Maude, a GUI was developped.
 

Kolloquium of the SS14 Reading Club, 9.7.14, 10:00, WE5.003

Christina Zeller, Dea Svoboda, Michael Sünkel, Daniel Bernhard: Experimenting with a Humanoid Robot - Programming NAO to (Inter-)Act

In the context of the Reading Club, an application has been implemented, which allows a humanoid robot the behavior of a polite and courteous gentlemen. The robot is already trained to recognizefamiliar people. Unknown he should know and remember. During this procedure, it should always comply with pleasantries.

Kolloquium  Mo 5.5.14, 16 Uhr,  (WE5/05.005) 

Fritz Wysotzki (TU Berlin) mit großem Anteil von Jürgen Körner (FU Berlin): Übergeneralisierung mit Methoden der Künstlichen Intelligenz und Kybernetik 

Experimentelle Grundlage ist die Beschreibung des Prozesses einer neurotischen Erkrankung  anhand  zweier Fallbeispiele aus  psychoanalytischer und kybernetischer Sicht.  Ziel ist es, komplexe klinische Phänomene mithilfe von  Methoden der Systemtheorie (speziell der Entscheidungstheorie) zu modellieren und als Lerngeschichte abzubilden.
Dann erscheint z.B. der Wiederholungszwang, dem eine Patientin unterliegt, indem sie ihr altruistisches Verhalten aus der Kindheit auf alle sozialen Situationen auch außerhalb der Familie überträgt, als Folge einer Übergeneralisierung, mit der sie negative Emotionen als Kosten für Fehlentscheidungen vermeidet. Dieser Prozess  wird  in mathematisch formalisierter Form dargestellt und begründet. Es wird gezeigt, wie eine derartige Lerngeschichte in einem iterativen Prozess dazu führt, dass die Patientin nicht mehr unterscheiden kann, ob ihr neurotisches Verhalten in der aktuellen sozialen Situation angemessen ist oder nicht.
Die  Schlussfolgerungen aus dieser Betrachtung , die  auch für allgemeine Verhaltensaspekte und Gedächtnisstrukturen relevant sind, stimmen wieder mit psychoanalytischen Behandlungserfahrungen gut überein: Therapeutische Veränderungen lassen sich nicht allein mithilfe sprachlicher, also symbolischer Interventionen erzielen. Denn die unbewussten Phantasien werden nicht digital, sondern analog  nach den Prinzipien neuronaler Netzwerke verarbeitet; sie müssen z.B. in der Übertragungsanalyse erst affektiv erlebt und dadurch dem Bewusstsein zugänglich werden. 

Talks WS 13/14

Kolloquium  FR 28.3.14, 10 Uhr,  (WE5/05.013) 

Claudia Buhl: Anwendung von Methoden des maschinellen Lernens im Kontext der Simulation reaktiver Strömungen 

Bei der numerischen Simulation von reaktiven Strömungen wird die numerische Strömungsmechanik mit numerischen Methoden zur Lösung chemischer Probleme gekoppelt. Die Berechnung der chemischen Reaktionen nimmt dabei einen Großteil der gesamten Simulationszeit in Anspruch. Eine Möglichkeit, diesem Problem entgegenzuwirken, sind Flamelet-Datenbanken, in denen vor der Simulation die exakte chemische Lösung diskreter Zustände hinterlegt wird. Mittels linearer Interpolation können dann während der Simulation für beliebige Zustände die Lösungen approximiert werden. Diese Datenbanken sind jedoch extrem speicherintensiv. Aufgabe dieser Masterarbeit ist es, mittels maschinellen Lernens die Datenmengen zu reduzieren und dabei noch eine möglichst hohe Ergebnisqualität zu erreichen. Als Lernverfahren wird die Methodik K-Nächste-Nachbarn verwendet. Zunächst wird eine analytische Validierung von KNN und der linearen Interpolation durchgeführt. Des Weiteren wird für KNN eine adaptive Generierung der Trainingsdaten umgesetzt. Anschließend werden beide Verfahren mittels einer vereinfachten Flamelet-DB als Datenbasis verglichen. 

Kolloquium DI,  18.2.14, 10:00 Uhr,  (WE5/05.013) 

Johannes Folger (MA AI): Classification of Facial Expressions of Pain from Video Streams

The main concern of this thesis was the development and evaluation of an approach for classifying pain from video streams. In contrast to the analysis of individual images, videos provide temporal information that can improve the classification of facial expressions. The presented approach considered such kind of information by extracting data from temporal frames of different sizes. The method was evaluated by classifying pain, disgust, and neutral expressions within video sequences of four different subjects. As this work is considered to be a pilot study, three individual classifiers were trained and tested only in a person-dependent manner. Results showed that all classifiers obtained mean accuracy rates above chance. Additionally, no classifier could achieve outstanding performances and the size of the temporal frames seems to have no influence on the performance results. One reason for this could be the number of attributes considered for machine learning.

Kolloquium DI,  4.2.14 12:00 Uhr,  (WE5/05.013) 

Christian Reißner (MA AI): Researching Heuristic Functions to Detect and Avoid Dead Ends in Action Planning   

One approach to reduce the runtime in learning is to find dead ends by planning and use this information to avoid them efficiently. The heuristic search is a well performing planning approach. The target of this paper is the modification of the heuristic search. I will present methods to detect dead ends and run them in different planning domains. A comparison of the results decides the best method to detect dead ends in planning. I will show that the Wisp method delivers the best results and that abstraction heuristics are the best for detecting dead ends.

Kolloquium Di 28.1.14 12:00 Uhr, WE5/05.013 

Andre Kowollik (externe Masterarbeit, FAU): Mensch-Roboter-Interaktion in gestenbasierten Zweipersonenspielen -- NAO spielt Schere, Stein, Papier   

Das Spiel "Schere, Stein, Papier" ist eine Situation, in der normalerweise eine zwischen-menschliche Interaktion stattfindet. Diese Interaktion wurde auf den Roboter (NAO) übertragen, indem eine simple Spracherkennung implementiert, eine Gestenerkennung auf Basis des Frameworks OpenCV und verschiedene Spielstrategien entwickelt wurden. Die Strategien stellen dabei vereinfachte Verhaltensmuster von NAO dar. Zur Bewertung der Mensch-Roboter-Interaktion und der Verhaltensmuster wurde eine Nutzer-studie durchgeführt.    

Kolloquium Mo 27.1.14 12:00 Uhr, WE5/05.013 

Matthias Düsel (MA AI): Semantisches Matching von Freizeitaktivitäten mittels Wikipediabasierter Kategorisierung   

Diese Arbeit untersucht, inwiefern Wikipedia genutzt werden kann, um semantische Ähnlichkeit zu berechnen. Das Ziel ist es, ein Matching-System zu erstellen, in welches ein Benutzer eine Freizeitaktivität eingibt und daraufhin Einträge mit ähnlichen Aktivitäten als Ergebnis zurück bekommt. Hierbei liegt das Augenmerk auf der Bedeutung der Einträge. Die Matches sollen also aufgrund ihrer semantischen Ähnlichkeit entstehen und nicht nur, weil zwei Einträge das selbe Wort enthalten. Bei einem rein lexikalischem Vergleich gibt es kein Match zwischen "Ich würde gerne in die Oper gehen" und "Ich sehe mir heute Don Giovanni an". Semantisch sind diese Einträge jedoch verwandt, da Don Giovanni eine Oper ist.   

Kolloquium  MO 16.12. 12:00 Uhr,  WE5/05.013

Simone Schineller (MA WI): A Hierarchical Approach for Classifying Pain and Disgust by Aggegration over Facial Regions

Im Rahmen der Arbeit wurde ein zweistufiger Ansatz zur Erkennung von Schmerz und Ekel basierend auf Gesichtsdaten entwickelt, der mit Hilfe der Software Rapid Miner umgesetzt wurde. Die Besonderheit des Modells liegt in der Aufteilung des Gesichtes in einzelne Regionen und deren anschließender Klassifikation als Vorverarbeitungsschritt. Ziel der Arbeit war es, die Eignung verschiedener Klassifikatoren für die mimikbasierte Schmerz- und Ekelerkennung zu untersuchen und miteinander zu vergleichen. Weiterhin wurden sowohl individuelle als auch personenunabhängige Klassifkatoren gegenübergestellt, um zu ermitteln, ob letztere für die gestellte Aufgabe ausreichend gut geeignet sind.

Talks SS 13 

Kolloquium  DO 27.6. 14:15 Uhr,  WE5/05.013

Christian Massny (MA WI): TRAINING BY ERROR - CHESS TRAINING BY INDIVIDUAL ERROR CLASSIFICATION

Chess Engines have long surpassed all but the most potent of human chess players. The vast majority of chess players cannot even come close to beating any given engine on a personal computer with mainstream hardware.Hence chess programs are mostly used for two purposes: analyzing past games and getting used to playing new openings. The analysis is mostly done by hand, importing any past game and the replaying it with the calculations of the engine showing when mistakes were made in the game.The goal of this thesis now is to analyze past games on a larger scale using the complete game database of a particular player. The software to be programmed will import any number of games and analyze them. The analysis will both find mistakes made by the player using an open source chess engine and then classify the mistakes the player made so that statistical information regarding the type and magnitude of mistakes the player makes will be available for further training.Each mistake can be singled out and analyzed individually. At the end of this thesis the author will propose a way of using the error database to teach the player to get rid of his mistakes even better.

Kolloquium DI 11.6. 10:15 Uhr, WE5/5.013

Stefan Betzmeir (Master WI): Inducing Structural Prototypes for the Classification of Semi-Structured Data

The internet has evolved from a network of documents into a network of heterogeneous web applications. Semi-structured data offers enough structural flexibility, while providing the necessary semantic annotation to transfer information between those applications. Today the XML Data Model is the de facto standard meta-model for semi-structured data on the internet. Due to its generic nature, XML has become the foundation of numerous domain specific formats, causing an abundance of XML data that holds considerable potential for data analysis. This paper presents a case-based reasoning framework for classifying semi-structured data. It supports the extraction of a prototype tree from a cluster of data trees, as well as the classification of a data tree, based on its similarity to a set of prototype trees. By representing each cluster with only one prototype, an acceptable runtime of the classification can be maintained, even if the data clusters keep on growing.

Colloquium Archive

You find information on past talks in the Colloquium Archives [WS 12/13]  [SS12]  [WS 11/12]   [SS 11]  [WS 10/11]  [SS 10]  [WS 09/10]  [SS 09]  [WS 08/09]   [SS 08]   [WS 07/08] and the colloquium archive (old)