Kategorie Trusted AI

KI – es ist nicht alles Gold, was maschinell lernt

Machine Learning erscheint als der neue Heilsbringer: Mit zunehmendem Enthusiasmus wird darauf vertraut, dass selbst die komplexesten Probleme durch eine Künstliche Intelligenz (KI) gelöst werden können. Ergebnisse aus dem Labor befördern diese Erwartung. Die Erkennung einer Covid-19-Infektion mittels Röntgenbildern oder sogar Sprache, Autonomes Fahren, automatische Deepfake-Erkennung – all das ist mit KI in Laborbedingungen möglich. Doch wenn diese Modelle in die Realität transferiert werden, ist die Performance oft ungenügend. Woran liegt das? Was macht es so herausfordernd, im Labor funktionsfähiges Machine Learning in reale Umgebungen zu übertragen? Und wie können mit Blick auf den Realitäts-Check robustere Modelle gebaut werden? Dieser Blog-Beitrag hinterfragt wissenschaftliche Machine-Learning-Modelle und skizziert mögliche Wege auf, die reale Treffsicherheit von KI zu erhöhen.

Mit ‚Creation Attacks‘ KI-Systeme auf den Prüfstand stellen

Wie sicher ist künstliche Intelligenz (KI)? Sieht eine Maschine ihre Umwelt anders als der Mensch? Kann man der Einschätzung eines Algorithmus vertrauen? Mit diesen und weiteren Fragen beschäftigen wir uns im Projekt "SuKI - Sicherheit für und mit künstlicher Intelligenz". Je weiter KI in unseren Alltag integriert wird, desto mehr drängen sich diese Fragestellungen auf: Wenn kritische Entscheidungen – sei es im Straßenverkehr, im Finanzsektor oder gar im medizinischen Bereich – von autonomen Systemen getroffen werden sollen, ist es essentiell, KI vertrauen zu können.Im Rahmen von SuKI ist es uns nun gelungen, das State-of-the-Art Objekterkennungssystem YoloV3 [0] auszutricksen.