Quantum_an_Classical_AI_Robustness_Against_Adversarial_Attacks_Wendlinger_Tscharke

Quantenbasierte und klassische KI-Sicherheit: Wie man robuste Modelle gegen Adversarial Attacks entwickelt

Der Fortschritt im Quantum Machine Learning (QML) bringt spannende Entwicklungen mit sich, wie z. B. höhere Effizienz oder das Potenzial, Probleme zu lösen, die für klassische Computer unlösbar sind. Doch wie sicher sind quantenbasierte KI-Systeme im Vergleich zu klassischen KI-Modellen gegen Adversarial Attacks? Eine vom Fraunhofer AISEC durchgeführte Studie geht dieser Frage nach, indem sie die Robustheit von Quanten- und klassischen Machine-Learning-Modellen in Angriffssituationen analysiert und vergleicht. Unsere Erkenntnisse über Schwachstellen und Robustheit von Machine-Learning-Modellen bilden die Grundlage für praktische Methoden zum Schutz vor solchen Angriffen, die in diesem Artikel vorgestellt werden.

Most Popular

Keinen Beitrag verpassen?

Bitte geben Sie Ihre E-Mail-Adresse ein, um keinen Blog-Beitrag zu verpassen.
Bitte füllen Sie das Pflichtfeld aus.
Bitte füllen Sie das Pflichtfeld aus.
Bitte füllen Sie das Pflichtfeld aus.

* Pflichtfeld

* Pflichtfeld

Mit dem Ausfüllen des Formulars akzeptieren Sie unsere Datenschutzerklärung.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Weitere Artikel

Ansätze zur Verifikation klassischer Software mit Quantencomputern

In diesem Beitrag untersuchen wir die Möglichkeit, die formale Verifikation klassischer Programme mithilfe von Quantencomputern zu beschleunigen. Häufige Programmierfehler wie Nullzeiger-Dereferenzierung und Zugriffe außerhalb von Array-Grenzen gehören zu den Hauptursachen für Sicherheitslücken. Unser Ansatz besteht darin, aus Codeausschnitten eine SAT-Instanz (Satisfiability) zu generieren, die genau dann erfüllbar ist, wenn das unerwünschte Verhalten im Programm vorhanden ist. Diese Instanz wird anschließend in ein Optimierungsproblem überführt, das mithilfe quantenbasierter Algorithmen gelöst wird – was potenziell eine asymptotisch polynomielle Beschleunigung ermöglicht.

Weiterlesen »

Gateway to the Danger Zone: Sicherer und authentischer Remote-Reset in der Maschinensicherheit

Die moderne Fertigung wird zunehmend digital. Dies ermöglicht neue Geschäftsmodelle und eine nie dagewesene Effizienz. Während die Fernsteuerung von Maschinen alltäglich geworden ist, erforderte die Maschinensicherheit immer noch ein persönliches, lokales Eingreifen – bis jetzt. Diese Lücke schließen wir mit einem sicheren, authentischen Remote-Reset-System für Sicherheitsereignisse und vereinen dafür zukunftssichere Kryptographie mit robustem Sicherheitsdesign. Hier erfahren Sie, wie wir die Grenzen der sicheren, dezentralen Fertigung neu definieren.

Weiterlesen »

Differentially Private Prototype Learning (DPPL): Mit Prototypen Datenschutz und Privatsphäre im Machine Learning ermöglichen

Wie kann maschinelles Lernen die Privatsphäre wahren, ohne die Fairness zu beeinträchtigen? Die prototypbasierte Methode Differentially Private Prototype Learning ermöglicht, strenge Datenschutzvorgaben einzuhalten und gleichzeitig die Genauigkeit bei der Abbildung von unterrepräsentierten Gruppen zu verbessern. Durch die Berücksichtigung von Verzerrungen gewährleistet dieser Ansatz eine ethische und integrative KI-Entwicklung ohne Leistungseinbußen.

Weiterlesen »