Trusted AI

Moderne IT-Systeme zeichnen sich durch eine rasant wachsende Komplexität aus. Damit die IT-Sicherheit mit dieser Entwicklung Schritt halten kann, muss die Automatisierung weiterentwickelt und neu gedacht werden. Methoden der Künstlichen Intelligenz (KI) spielen dabei eine wichtige Rolle und können den Menschen bei der Untersuchung und Absicherung sicherheitskritischer Systeme unterstützen. Genau wie herkömmliche IT-Systeme können aber auch KI-Systeme angegriffen werden. Hier gilt es, die Schwachstellen in den Algorithmen zu finden und zu beheben. 

Karla Markert

Mit ‚Creation Attacks‘ KI-Systeme auf den Prüfstand stellen

Wie sicher ist künstliche Intelligenz (KI)? Sieht eine Maschine ihre Umwelt anders als der Mensch? Kann man der Einschätzung eines Algorithmus vertrauen? Mit diesen und weiteren Fragen beschäftigen wir uns im Projekt „SuKI – Sicherheit für und mit künstlicher Intelligenz“. Je weiter KI in unseren Alltag integriert wird, desto mehr drängen sich diese Fragestellungen auf: Wenn kritische Entscheidungen – sei es im Straßenverkehr, im Finanzsektor oder gar im medizinischen Bereich – von autonomen Systemen getroffen werden sollen, ist es essentiell, KI vertrauen zu können.Im Rahmen von SuKI ist es uns nun gelungen, das State-of-the-Art Objekterkennungssystem YoloV3 [0] auszutricksen.

Weiterlesen »
Weitere Themen