Schutz und Sicherheit für Machine Learning
Potenziell ist Machine Learning ein Gamechanger, der die Zukunft der Menschheit stark und dauerhaft prägen kann. Doch was ist Machine Learning? Als Machine Learning bezeichnet man das Trainieren einer Künstlichen Intelligenz (KI), meist mit vielen Daten. Mit Hilfe des trainierten Modells können dann Vorhersagen für weitere Daten getroffen werden. Ein mögliches Beispiel ist die automatisierte Auswertung von medizinischen Daten.
Bei einer Untersuchung auf Tuberkulose wird der Patient geröntgt. Der Facharzt schaut sich das Röntgenbild an und erkennt anhand des Bildes, ob ein Patient erkrankt ist oder nicht. Für diese Auswertung benötigt der Facharzt jahrelange Erfahrung und viel Fachwissen. Mit Hilfe von Machine Learning kann dies vereinfacht und auch für Allgemeinärzte zugänglich gemacht werden. Dazu stellen wir uns einen Anbieter eines Tuberkulose-Analyse-Gerätes vor. Dieses Gerät soll das Röntgenbild des aktuellen Patienten einlesen und dann eine Entscheidung über eine Erkrankung selbstständig treffen. Dazu benötigt der Hersteller dieses Gerätes viele Röntgenaufnahmen und die zugehörigen Befunde. Mit diesen Röntgenaufnahmen wird das Gerät trainiert. Dabei entsteht ein Datenmodell, welches für die zukünftigen Vorhersagen verwendet wird. Ein wesentlicher Faktor sind dabei die verwendeten Daten. Fehlerhafte Daten müssen aussortiert werden. Es müssen die relevanten Datenpunkte erfasst und korreliert werden. Dieses Modell ist das geistige Eigentum des Herstellers dieses Gerätes. Und spätestens hier betreten die „Bösen“ die Bühne. Es wird Nachahmer geben, die ähnliche Geräte bauen wollen und dabei das geistige Eigentum unseres Herstellers verwenden wollen. Und es wird Saboteure geben, die die Vorhersagen manipulieren wollen.
Spätestens zu diesem Zeitpunkt muss sich der Hersteller Gedanken um den Schutz seines geistigen Eigentums Gedanken machen. Dieses sind die Daten, die für das Training des Modells verwendet wurden, die Trainingskonfiguration und letztendlich das trainierte Model. Dabei spielt es nur eine untergeordnete Rolle, ob das Gerät ein virtuelles Gerät in der Cloud ist oder eine Hardware, die beim Allgemeinarzt in der Praxis steht. Es gibt ein schützenswertes Datenmodell, das entweder vom lokalen Gerät ausgelesen werden kann oder welches in der Cloud an einem sicheren Ort gespeichert werden muss. Für beide Fälle bietet CodeMeter eine generische Lösung durch die Verschlüsselung des Datenmodells und damit Schutz gegen unbefugte Benutzung, Weitergabe und Analyse.
Dies ist ein einfaches Beispiel, bei dem KI und Machine Learning etwas können, was ein erfahrener Arzt auch kann. Ein aktuelles Beispiel, Covid-19, offenbart uns aber das Potenzial von Machine Learning, was über das menschliche Gehirn hinausgeht. So werden aus Inselperspektiven in verschiedenen Studien und Auswertungen einzelne Faktoren herausgenommen und analysiert, z.B. schwere Verläufe in Abhängigkeit der Impfquote. Mit Machine Learning könnte man über diesen Mikrokosmos hinaus eine globale Sicht auf die Faktoren erhalten. Es könnten dazu Daten wie Alter, Vorerkrankungen, Umwelteinflüsse wie Temperatur, soziale Einflüsse wie Kontakte, familiäre Einflüsse wie Anzahl und Alter der Kinder sowie Hygienegewohnheiten erfasst werden. Mit Hilfe von Machine Learning könnten verlässliche Vorhersagen getroffen werden und Entscheidungen wären nicht von fachfremden Politikern abhängig.
An diesem Beispiel sieht man aber auch die Bedeutung der Erfassung der Daten, von persönlichen Daten, um genau zu sein. Hier sind zwei Bedrohungen zu betrachten. Der Diebstahl der Daten auf einer Seite und der Verfälschung der Daten auf der anderen Seite. Stellen wir uns einfach vor, ein Versicherungskonzern verwendet diese Daten, um Risikopatienten zu identifizieren oder ein Pharmakonzern verfälscht die Auswertung, um mehr Produkte zu verkaufen. Beides ist strafbar, aber dennoch möglich. Und auch hier kann CodeMeter durch Verschlüsselung und Signatur der Daten helfen, zusätzlich zu Anonymisierung oder Pseudonymisierung.
Im ersten Teil des Webinars bringen wir Ihnen das Grundprinzip von Machine Learning näher, gehen auf Bedrohungen und Gefahren ein. Im zweiten Teil zeigen wir einen kurzen Überblick über CodeMeter Protection Suite und wie diese für den Schutz von Datenmodellen eingesetzt werden kann.
Agenda
- Überblick Machine Learning
- Bedrohungsanalyse
- CodeMeter für den sicheren Machine Learning Lifecycle
- CodeMeter Protection Suite
- Überblick
- Feature File Encryption
- Demo: Verschlüsselung des Datenmodells
- Ausblick
Besuchen Sie unsere Webinar und erfahren Sie, ob und wo Maschine Learning eine Option für neue Produkte von Ihnen ist und wie Sie die erzeugten Datenmodelle gegen unbefugte Nutzung, Weitergabe und Analyse schützen können.