Trusted AI

Moderne IT-Systeme zeichnen sich durch eine rasant wachsende Komplexität aus. Damit die IT-Sicherheit mit dieser Entwicklung Schritt halten kann, muss die Automatisierung weiterentwickelt und neu gedacht werden. Methoden der Künstlichen Intelligenz (KI) spielen dabei eine wichtige Rolle und können den Menschen bei der Untersuchung und Absicherung sicherheitskritischer Systeme unterstützen. Genau wie herkömmliche IT-Systeme können aber auch KI-Systeme angegriffen werden. Hier gilt es, die Schwachstellen in den Algorithmen zu finden und zu beheben. 

Kilian Tscharke

Anomalieerkennung mit Quantum Machine Learning zur Identifizierung von Cybersicherheitsproblemen in Datensätzen

Seit der Veröffentlichung von ChatGPT hat die Popularität des maschinellen Lernens (ML) immens zugenommen. Neben der Verarbeitung natürlicher Sprache (NLP) ist die Erkennung von Anomalien ein wichtiger Zweig der Datenanalyse, dessen Ziel es ist, auffällige und vom restlichen Datensatz abweichende Beobachtungen oder Ereignisse zu identifizieren. Am Fraunhofer AISEC forschen Cybersecurity-Experten an Methoden des Quantum Machine Learning (QML) zur Erkennung von Anomalien, um Cybersicherheitsprobleme in Datensätzen zu erkennen. Der Blogbeitrag zeigt zwei Ansätze: Die Klassifizierung von Quantenmaterie und die Berechnung von sicherheitsrelevanten Anomalien mithilfe eines Quantencomputers.

Weiterlesen »
Claudia Eckert

ChatGPT – neues Lieblingstool für Hacker?

Der KI-Software ChatGPT wird einiges zugetraut: Zeitungsartikel soll sie schreiben, Abschlussarbeiten verfassen – oder Malware programmieren. Entwickelt sich mit ChatGPT ein neues Tool, mit dem Hacker und Cyberkriminelle noch einfacher Schadsoftware erstellen können? Institutsleiterin Prof. Dr. Claudia Eckert und KI-Experte Dr. Nicolas Müller ordnen das Bedrohungspotential durch ChatGPT für die digitale Sicherheit ein.

Weiterlesen »
Nicolas Müller

KI – es ist nicht alles Gold, was maschinell lernt

Machine Learning erscheint als der neue Heilsbringer: Mit zunehmendem Enthusiasmus wird darauf vertraut, dass selbst die komplexesten Probleme durch eine Künstliche Intelligenz (KI) gelöst werden können. Ergebnisse aus dem Labor befördern diese Erwartung. Die Erkennung einer Covid-19-Infektion mittels Röntgenbildern oder sogar Sprache, Autonomes Fahren, automatische Deepfake-Erkennung – all das ist mit KI in Laborbedingungen möglich. Doch wenn diese Modelle in die Realität transferiert werden, ist die Performance oft ungenügend. Woran liegt das? Was macht es so herausfordernd, im Labor funktionsfähiges Machine Learning in reale Umgebungen zu übertragen? Und wie können mit Blick auf den Realitäts-Check robustere Modelle gebaut werden? Dieser Blog-Beitrag hinterfragt wissenschaftliche Machine-Learning-Modelle und skizziert mögliche Wege auf, die reale Treffsicherheit von KI zu erhöhen.

Weiterlesen »
Karla Pizzi

Mit ‚Creation Attacks‘ KI-Systeme auf den Prüfstand stellen

Wie sicher ist künstliche Intelligenz (KI)? Sieht eine Maschine ihre Umwelt anders als der Mensch? Kann man der Einschätzung eines Algorithmus vertrauen? Mit diesen und weiteren Fragen beschäftigen wir uns im Projekt „SuKI – Sicherheit für und mit künstlicher Intelligenz“. Je weiter KI in unseren Alltag integriert wird, desto mehr drängen sich diese Fragestellungen auf: Wenn kritische Entscheidungen – sei es im Straßenverkehr, im Finanzsektor oder gar im medizinischen Bereich – von autonomen Systemen getroffen werden sollen, ist es essentiell, KI vertrauen zu können. Im Rahmen von SuKI ist es uns nun gelungen, das State-of-the-Art Objekterkennungssystem YoloV3 [0] auszutricksen.

Weiterlesen »
Weitere Themen