Den vollständigen Blog-Beitrag finden Sie auf Englisch hier:

Den vollständigen Blog-Beitrag finden Sie auf Englisch hier:
Wie kann maschinelles Lernen die Privatsphäre wahren, ohne die Fairness zu beeinträchtigen? Die prototypbasierte Methode Differentially Private Prototype Learning ermöglicht, strenge Datenschutzvorgaben einzuhalten und gleichzeitig die Genauigkeit bei der Abbildung von unterrepräsentierten Gruppen zu verbessern. Durch die Berücksichtigung von Verzerrungen gewährleistet dieser Ansatz eine ethische und integrative KI-Entwicklung ohne Leistungseinbußen.
Im Jahr 2016 kündigte das National Institute of Standards and Technology (NIST) einen Standardisierungsprozess für quantensichere kryptografische Primitive an. Ziel war es, sichere Schlüsselkapselungsmechanismen (KEM) und Signaturverfahren zu finden. Ein einzigartiger Ansatz war das PICNIC-Signaturverfahren, das das MPC-in-the-Head-Paradigma (MPCitH) nutzt und als besonders sicher gilt, weil es auf gut erforschten Blockchiffren und Hash-Funktionen beruht. PICNIC wurde vom NIST als alternativer Kandidat angekündigt. Daraufhin wurden viele auf PICNIC aufbauende Nachfolgeverfahren wie BBQ, Banquet und FEAST vorgeschlagen, die verschiedene Blockchiffren und Variationen des ursprünglichen Konstruktionsparadigmas verwenden. Im Jahr 2022 kündigte das NIST eine zweite Ausschreibung speziell für Signaturverfahren an. Auf dem MPC-in-the-Head-Paradigma basierende Signaturschemata wurden aufgrund der Fülle der Anträge zu einer eigenen Kategorie. Dieser Artikel erklärt die Kernidee und Funktionalität früher MPCitH-basierter Signaturverfahren und wie wir am Fraunhofer AISEC diese Konzepte nutzen.
Deepfakes stellen eine erhebliche Bedrohung für die Demokratie sowie für Privatpersonen und Unternehmen dar. Sie ermöglichen unter anderem Desinformation, den Diebstahl geistigen Eigentums oder Trickbetrug. Robuste KI-Erkennungssysteme bieten eine Lösung, doch ihre Effektivität hängt entscheidend von der Qualität der zugrunde liegenden Daten ab: »Garbage in, garbage out«. Aber wie erstellt man einen Datensatz, der für die Erkennung von Deepfakes – die sich ständig weiterentwickeln – gut geeignet ist und eine robuste Detektion erlaubt? Was macht hochwertige Trainingsdaten aus?