DDAI - Data Driven Artificial Intelligence

Ziel unseres COMET-Moduls „DDAI – Privacy Preserving Data Driven Artificial Intelligence“ ist es sichere, verifizierbare und erklärbare KI zu entwickeln die gleichzeitig die Privatsphäre schützt.

Projekt Kick-off & Pressekonferenz

Es soll die Einstiegshürde für Unternehmen und Personen drastisch herabsetzen, AI für die Analyse der eigenen Daten zu nutzen um sich damit Wettbewerbsvorteile zu sichern. Das Modul umfasst damit alle Stationen der Datenverarbeitungskette, von der zu verifizierenden Datenquelle, über kryptographische Verfahren zur sicheren Datenverarbeitung und bietet den Nutzerinnen und Nutzern von AI eine bessere, weil nachvollziehbare, Entscheidungsgrundlage.

„Unsere Arbeit wird wesentlich zu Akzeptanz und Vertrauen in KI beitragen.“

Stefanie Lindstaedt

Know-Center CEO

Data-Driven AI

Die neuen COMET-Module der Forschungsförderungsgesellschaft FFG tragen wesentlich zur Entwicklung und Innovation bei. Damit sollen zukunftweisende Forschungsthemen etabliert und neue Stärkefelder aufgebaut werden. Per Forschung auf höchstem Niveau werden neue Themenfelder etabliert, die deutlich über den bisherigen Stand der Technik hinausreichen.

 

Das mit 4 Millionen Euro dotierte Modul läuft 4 Jahre lang, der offizielle Projekt Kick-off samt Pressekonferenz fand am 10. Februar 2020 in Graz statt.

„Mit dem COMET-Modul zu Artificial Intelligence kann dieser Schwerpunkt am Know-Center in Graz gezielt ausgebaut werden.“

Henrietta Egerth und Klaus Pseiner, Geschäftsführer der Österreichischen Forschungsförderungsgesellschaft FFG

Data-Driven AI
Data-Driven AI 1 2 3

Forschungsbereiche

1Datenschutzorientierte KI-Algorithmen

Wir entwickeln sichere KI-Methoden, die keine sensitiven Informationen preisgeben und auch die Auswertung verschlüsselter Daten erlauben. Damit ermöglichen wir z.B. sicheres Cloud Computing, die KI-Modelle können leichter mit Kunden und Zulieferern ausgetauscht und private und öffentliche Datenbanken können ohne Sicherheitsrisiken kombiniert werden. Wir schreiben Datenschutz groß und arbeiten an neuen Generationen von sicheren und vertraulichkeitserhaltenden KI-Algorithmen.

2Erklärbare KI für Analysten

KI-Lösungen sollen keine Black-Box für Anwender sein, wir arbeiten daran die Entscheidungen der eingesetzten Algorithmen für Analysten verständlicher zu machen, ohne das vertrauliche Daten preisgegeben werden. So soll das Vertrauen in KI-Entscheidungen gestärkt, Modelle besser visualisiert und die entsprechenden Ergebnisse erklärbarer werden.

3Erklärbare KI für Benutzer

Die Interaktion von Endanwendern mit KI wird immer wichtiger und wir forschen daran, wie wir diese Interaktion in Zukunft verbessern können. Wir verbessern z.B. die Erklärbarkeit von personalisierten Empfehlungssystemen und entwickeln auch neue Lernparadigmen für den Umgang mit maschinellem Lernen, um Benutzerinnen und Benutzer besser zu schulen und im Umgang mit KI befähigen zu können.

Forschungsfragen

  • Kryptographie und Kryptoanalyse
  • Side-Channel Attacks
  • Maschinelles Lernen und Deep Learning
  • System Architecture
  • Homomorphic Encryption
  • Recommender Systems
  • (Social) Data Science
  • Data and Information Visualization
  • Human-Computer Interaction
  • Data-Driven Business

Ihr Ansprechpartner

Wissenschaftliche Partner

TU Graz Institute: IAIK (Prof. Christian Rechberger) und ISDS (Prof. Stefanie Lindstaedt)

KU Leuven (Kryptographie, Prof. Nigel Smart)

Universität Passau (Maschinelles Lernen, Prof. Michael Granitzer)

Universität Twente (Erklärbare KI, Ass. Prof. Christin Seifert)

Industriepartner