Print Friendly, PDF & Email

Adversarial Machine Learning (AML) beschäftigt sich mit dem Auffinden von potenziellen Sicherheitslücken in Verfahren des maschinellen Lernens (ML) und auch mit der Entwicklung von geeigneten Gegenmaßnahmen diesbezüglich. Da Methoden des ML und hier insbesondere das sogenannte Deep Learning wesentlich für die aktuellen Erfolge im Bereich der Künstlichen Intelligenz (KI) verantwortlich sind, stellen die gegenwärtigen Entwicklungen auf dem Gebiet des AML potenziell eine erhebliche Bedrohung für viele aktuelle KI-Systeme dar. Das erklärt die zunehmenden diesbezüglichen Aktivitäten (auch) auf der Seite der ML-Entwickler, um das Wissen über potenzielle Schädigungsmechanismen, wenn möglich, zum Schutz der Systeme zu nutzen.

Generell umfasst ML Verfahren, die es Computern erlauben, selbstständig anhand von Beispieldaten bestimmte Sachverhalte zu erlernen, z. B. ob auf einem Bild ein gewisses Objekt abgebildet ist. Im Rahmen von AML werden dabei Eingabedaten untersucht, sogenannte Adversarial Examples, die von einem Angreifer speziell mit der Absicht entworfen worden sind, Fehler bei dem entsprechenden ML-Verfahren hervorzurufen. So können manche ML-Verfahren durch subtile Veränderungen der Bildpunkte eines Bildes dazu veranlasst werden, anstatt des eigentlich dargestellten Objekts ein ganz anderes Objekt zu erkennen, obwohl das veränderte Bild für einen Menschen vom ursprünglichen Bild nicht zu unterscheiden ist.

Print Friendly, PDF & Email