

Parsing von X.509-Zertifikaten: Wie sicher sind TLS-Bibliotheken?
Most Popular
Weitere Artikel

Differentially Private Prototype Learning (DPPL): Mit Prototypen Datenschutz und Privatsphäre im Machine Learning ermöglichen
Wie kann maschinelles Lernen die Privatsphäre wahren, ohne die Fairness zu beeinträchtigen? Die prototypbasierte Methode Differentially Private Prototype Learning ermöglicht, strenge Datenschutzvorgaben einzuhalten und gleichzeitig die Genauigkeit bei der Abbildung von unterrepräsentierten Gruppen zu verbessern. Durch die Berücksichtigung von Verzerrungen gewährleistet dieser Ansatz eine ethische und integrative KI-Entwicklung ohne Leistungseinbußen.

Multi-Party Computation in the Head – eine Einführung
Im Jahr 2016 kündigte das National Institute of Standards and Technology (NIST) einen Standardisierungsprozess für quantensichere kryptografische Primitive an. Ziel war es, sichere Schlüsselkapselungsmechanismen (KEM) und Signaturverfahren zu finden. Ein einzigartiger Ansatz war das PICNIC-Signaturverfahren, das das MPC-in-the-Head-Paradigma (MPCitH) nutzt und als besonders sicher gilt, weil es auf gut erforschten Blockchiffren und Hash-Funktionen beruht. PICNIC wurde vom NIST als alternativer Kandidat angekündigt. Daraufhin wurden viele auf PICNIC aufbauende Nachfolgeverfahren wie BBQ, Banquet und FEAST vorgeschlagen, die verschiedene Blockchiffren und Variationen des ursprünglichen Konstruktionsparadigmas verwenden. Im Jahr 2022 kündigte das NIST eine zweite Ausschreibung speziell für Signaturverfahren an. Auf dem MPC-in-the-Head-Paradigma basierende Signaturschemata wurden aufgrund der Fülle der Anträge zu einer eigenen Kategorie. Dieser Artikel erklärt die Kernidee und Funktionalität früher MPCitH-basierter Signaturverfahren und wie wir am Fraunhofer AISEC diese Konzepte nutzen.

Wie man passende Datensätze baut, um erfolgreich Audio-Deepfakes zu erkennen
Deepfakes stellen eine erhebliche Bedrohung für die Demokratie sowie für Privatpersonen und Unternehmen dar. Sie ermöglichen unter anderem Desinformation, den Diebstahl geistigen Eigentums oder Trickbetrug. Robuste KI-Erkennungssysteme bieten eine Lösung, doch ihre Effektivität hängt entscheidend von der Qualität der zugrunde liegenden Daten ab: »Garbage in, garbage out«. Aber wie erstellt man einen Datensatz, der für die Erkennung von Deepfakes – die sich ständig weiterentwickeln – gut geeignet ist und eine robuste Detektion erlaubt? Was macht hochwertige Trainingsdaten aus?