Ochrona aplikacji i danych sztucznej inteligencji oraz uczenia maszynowego

Udział:

Przedsiębiorstwa komercyjne i przemysłowe stają się coraz bardziej powiązane dlatego technologie sztucznej inteligencji (AI) i uczenia maszynowego (ML) znajdują obecnie zastosowanie w wielu systemach, urządzeniach i aplikacjach. Znane są nam dziś konkretne przypadki użycia, szeroko stosowane w różnych obszarach, od rozpoznawania mowy, wykrywania złośliwego oprogramowania i testowania jakości po aplikacje o krytycznym znaczeniu dla bezpieczeństwa ludzi, takie jak systemy wspomagania kierowcy lub diagnostyka medyczna.

Zagrożenia dla sztucznej inteligencji i uczenia maszynowego

Atak na aplikację sztucznej inteligencji, a nawet zwykła usterka lub nieumyślna manipulacja mogą mieć konsekwencje zagrażające życiu. W medycynie nieprawidłowa klasyfikacja może prowadzić do błędnej diagnozy medycznej, a następnie niewłaściwego leczenia. Co więcej, sztuczna inteligencja jest szkolona w zakresie wrażliwych danych pacjentów, w przypadku których poufność i anonimowość pacjenta mają nadrzędne znaczenie. Dane te mogą być skanami CT, MRT lub informacjami o historii medycznej pacjenta, a z kolei naruszenie danych wygenerowanych przez sztuczną inteligencję może mieć szkodliwe konsekwencje dla pacjenta.

W sektorze przemysłowym atakujący może ingerować w dane szkoleniowe ML, gdzie nawet pozornie nieszkodliwe zmiany, takie jak zmiana koloru poszczególnych pikseli, mogą mieć poważny wpływ. Zmanipulowane właściwości mogą przedostać się do wytrenowanego modelu, czego żaden ludzki obserwator nigdy by nie zauważył. W podobny sposób atakujący może manipulować wstępnym przetwarzaniem danych treningowych, parametrami treningowymi, a nawet gotowym wytrenowanym modelem, aby wygenerować na dalszym etapie błędy lub sprawić, by system dostarczał nieprawidłowe wyniki klasyfikacji.

Ochrona cyklu życia uczenia maszynowego

Punkty ataku w cyklu życia uczenia maszynowego są liczne, a ochrona przed manipulacją ma kluczowe znaczenie. Manipulacja dowolnymi danymi lub algorytmami wykorzystywanymi w cyklu życia uczenia maszynowego może mieć katastrofalne skutki. Ponadto należy również chronić poufność wrażliwych danych i zawartej w nich własności intelektualnej, ponieważ dane treningowe mogą np. ujawnić sposób działania danego komponentu. Nawet sama aplikacja AI lub leżące u jej podstaw dane dotyczące istotności określonych parametrów treningowych mogą stanowić własność intelektualną w tym zakresie.

CodeMeter Protection Suite

CodeMeter Protection Suite oferuje bogaty zestaw narzędzi do ochrony zarówno plików wykonywalnych, jak i danych wykorzystywanych przez aplikacje AI i ML. Pliki wykonywalne są chronione przed manipulacją lub inżynierią wsteczną, znacznie wykraczając poza tradycyjne mechanizmy "security-by-obscurity".

Są one, podobnie jak wrażliwe funkcje, szyfrowane przy użyciu uznanych algorytmów kryptograficznych. Metody kryptograficzne są ponadto wykorzystywane do ochrony integralności oprogramowania i danych. Odszyfrowywanie funkcji i danych ma natomiast miejsce podczas ich wykonywania.

Wrażliwe części kodu mogą być odszyfrowane nawet tylko na moment ich wykonania, a klucz bądź certyfikaty bezpiecznie przesyłane i przechowywane w chronionym sprzęcie. W ten sposób zagwarantowane jest bezpieczeństwo kluczy oraz zapobiega się manipulacjom nimi i samymi certyfikatami.

AxProtector Python

Ze względu na dostępność frameworków open source i popularność języka programowania, aplikacje AI są często rozwijane w Pythonie. AxProtector Python chroni zarówno kod frameworka używany do trenowania modelu, jak i dane wykorzystywane w cyklu uczenia maszynowego przed manipulacją, kradzieżą własności intelektualnej i nieautoryzowanym użyciem.

Do góry