Auch Künstliche Intelligenz will verstanden werden

Kostenfreie Online-Teilnahme bei Hagenberger Eventreihe zu „Thinking AI“

© AdobeStock/Jackie Niam
„Die in Hagenberg vorhandenen KI-Kompetenzen von den Grundlagen bis zur industriellen Umsetzung beeindrucken mich immer wieder aufs Neue.“ Ulrich Bodenhofer, Professor für Artificial Intelligence am Campus Hagenberg der FH OÖ Bild: privat

14.02.2022

Erklärbarkeit und Interpretationsfähigkeit von KI-Algorithmen und maschinellen Lernverfahren sind Schlüsselelemente für eine zentralere Einbindung des Menschen. Expert:innen aus verschiedensten Fachrichtungen, wie beispielsweise der produzierenden Industrie, Anlagenbau, Medizin oder Wirtschaftswissenschaften, können so in die Lage versetzt werden, ihre Expertise, Wissen, Erfahrung und Intuition einzubringen. Gleichzeitig werden Maschinen, d. h. die KI-Systeme, in die Lage versetzt, die Interaktion der menschlichen Methoden-Expert:innen und Datenwissenschaftler:innen mit KI-Systemen zu beobachten, um daraus zu lernen und das menschliche Interaktionsverhalten zu unterstützen. 

Um solche Perspektiven zu eröffnen, ist es notwendig, dass sich Mensch und Maschine besser verstehen. Dies kann durch erklärbare und interpretierbare Modelle des maschinellen Lernens unterstützt werden. Menschzentrierte KI und erklärbare beziehungsweise interpretationsfähige KI sind daher enge Verwandte. Nur wenn der Mensch verstehen kann, was in einem KI-System intern vor sich geht und dessen Ergebnisse interpretieren kann, kann Vertrauen in die Methode erzielt und der/die menschliche Akteur:in umfassend miteinbezogen werden.

Künstliche Intelligenz im Softwarepark Hagenberg

In der künstlichen Intelligenz ist Lernen aktuell hauptsächlich mit maschinellem Lernen aus Daten assoziiert. Im Softwarepark Hagenberg laufende und intensiv beforschte Schwerpunkte im Themenkreis präskriptiver Analytik und künstlicher Intelligenz trachten danach, Lernen von Daten, Mensch und Maschine (KI-System) in alle Richtungen zu öffnen und zu verbinden und somit den nächsten Schritt in Richtung kognitiver Analytik zu gehen.

Wesentliche wissenschaftliche Beiträge werden zu diesen Themen in den nächsten vier Jahren in aktuellen Forschungsprojekten wie dem FTI-Projekt zum Thema Secure Prescriptive Analytics (SPA) und einem neuen kooperativen Doktoratsprogramm gemeinsam von JKU und FH OÖ (Campus Hagenberg) zum Thema Human-Centered AI (HCAI) entwickelt werden. Im Rahmen von SPA bündeln die wesentlichen Hagenberger Forschungseinrichtungen FH, RISC Software GmbH und das Software Competence Center ihre Kräfte und Methodenkompetenz in den Bereichen Optimierung, Simulation und maschinellem Lernen zur Entwicklung einer führenden Prescriptive-Analytics-Plattform. Das Projekt HCAI besteht aus fünf gemeinsam von FH- und JKU-Professor:innen betreuten und vom FWF geförderten Dissertationen, die durch Erklärbarkeit und Interpretationsfähigkeit eine tiefere und ganzheitliche Einbringung des Menschen in moderne KI Ansätze ermöglichen sollen.

Spannende Vorträge am 17. Februar 2022

Die dem Themenschwerpunkt „Explainable AI“ gewidmeten Vorträge des zweiten Vortragsabends zum Jahresthema „Thinking AI“ zeigen theoretisch und anhand konkreter Praxisbeispiele, dass Erklärbarkeit und Interpretationsfähigkeit in keinem Widerspruch zur Genauigkeit der Modelle stehen müssen. Mit modernen regelbasierten oder symbolischen Ansätzen können komplexe Zusammenhänge genau und zugleich verständlich dargestellt und leicht mit menschlicher Expertise kombiniert werden. Somit wird das Vertrauen in KI-Ansätze gestärkt.

Die Veranstaltung findet am 17. Februar 2022 ab 17 Uhr als Online-Event statt. Die Teilnahme ist kostenlos.

>> INFOS & ANMELDUNG

 

>> Hier finden Sie den Beitrag der OÖ Nachrichten


Das könnte Sie auch interessieren: