Modelle in der KI

Dieser Workshop wird unterstützt vom GI-Querschnittsfachausschuss Modellierung, der GI-Fachgruppe Modellierung betrieblicher Informationssysteme, der GI-Fachgruppe Wissensmanagement und dem GI-Fachbereich Künstliche Intelligenz.

Fokus und Ziele des Workshops

Mit der zunehmenden Verfügbarkeit grosser Mengen an Daten in praktisch allen Anwendungsbereichen erfährt das Gebiet der Künstlichen Intelligenz (KI) seit einiger Zeit einen neuen Aufschwung. Frühere Ansätze der KI unterlagen primär dem wissensbasierten Paradigma, d.h. die Basierung der Systeme auf domänenspezifischen Wissensbasen, welche das benötigte (Hintergrund-)Wissen zur Verfügung stellen. Der Aufbau und die Pflege solcher Domänenmodelle erfolgen weitgehend manuell, sind somit sehr zeit- und kostenintensiv, weshalb diese Ansätze schlecht skalieren.


Das neue Paradigma der datengetriebenen KI, Domänenmodelle aus Daten zu lernen und aktuell zu halten, begegnet diesen Nachteilen. Die gelernten Modelle können symbolischer Natur (z.B. Regeln, Entscheidungsbäume) oder subsymbolisch (neuronale Netze) sein. Klassisches Data Mining bedeutet jedoch ebenfalls einen erheblichen manuellen Aufwand, u.a. für das Feature Engineering. Der Aufschwung von Ansätzen des Deep Learning, welche die Bestimmung relevanter Features in die Lernverfahren selber verlagern, trägt zusätzlich dazu bei, die Erstellung von KI-Systemen zu automatisieren. Die resultierenden Systeme basieren in diesen Fällen auf statistischen Zusammenhängen und subsymbolischen Modellen.


Die datengetriebene KI basiert auf gelernten Modellen, die in der Regel nicht durch einen Menschen inspizierbar und verstehbar sind: Modelle symbolischer Natur sind viel zu komplex dafür, während subsymbolische Modelle keine von Menschen verstehbare Strukturelemente beinhalten. In vielen  Anwendungsszenarien ist es jedoch wichtig, dass Entscheidungsvorschläge eines KI-Systems von Menschen nachvollzogen und beurteilt werden können. Die Fähigkeit eines KI-Systems, konkrete Entscheidungen zu erklären, aber auch die Inspizierbarkeit und Verstehbarkeit der zugrundeliegenden, gelernten Modelle sind deshalb von zentraler Bedeutung für den zukünftigen Einsatz solcher Systeme. 

Mögliche Themen eingereichter Beiträge

  • Verfahren zum Lernen von Modellen, welche von Menschen inspizierbar und editierbar sind
  • Erklärungsfähigkeit und Validierbarkeit gelernter Modelle
  • Kombination von gelernten mit manuell erstellten, symbolischen Modellen (hybride Modelle)
  • Einsatz manuell erstellter Modelle als Hintergrundwissen für das Lernen von Modellen, z.B. zur Einschränkung des Hypothesenraums oder für die spätere Erklärungsfähigkeit
  • Trade-off zwischen Erklärungsfähigkeit und Performanz eines KI-Systems
  • Reasoning in gelernten Modellen
  • Interaktive, inkrementelle sowie an Benutzer adaptierte Erklärungen
  • Kombination von subsymbolischen Modellen (Deep Learning) mit symbolischen
  • Modellen, z.B. aus dem Kontext semantischer Technologien, Regelsysteme, Case-Based Reasoning
  • Datengetriebe Assistenzsysteme zur Unterstützung der interaktiven Modellerstellung
  • Ansätze basierend auf vordefinierten Metamodellen
  • Lernen von Metamodellen

Einreichungen

Es können Langbeiträge (12 Seiten) sowie Positionspapiere (3-6 Seiten) zu den oben genannten oder anderen, für den Workshop relevanten Themen eingereicht werden. Die Beiträge können theoretische und konzeptionelle Überlegungen enthalten oder konkrete Anwendungen sowie Fallstudien beschreiben.

Alle Einreichungen bitte via EasyChair (https://easychair.org/conferences/?conf=mod2020). Bitte wählen Sie den Track Modelle in der KI aus. Alle Papiere müssen die Springer LNBIP guidelines berücksichtigen. Akzeptierte Papiere werden im gemeinsamen Modellierung 2020 Workshops Tagungsband via CEUR-WS.org publiziert.