dr inż. Michał Malinowski

bazy grafowe, sztuczna inteligencja, cyberbezpieczeństwo

Ataki bocznokanałowe AI


Czyli jak pozyskać dane bez bezpośredniego dostępu


December 10, 2024

[Picture]
Schemat ataku bocznokanałowego na AI
Ataki bocznokanałowe (ang. side-channel attacks) to techniki, które wykorzystują niezamierzone informacje generowane przez systemy obliczeniowe podczas ich działania. W kontekście sztucznej inteligencji (AI), takie ataki koncentrują się na eksploatacji danych ujawnianych podczas trenowania modeli, ich działania w środowisku produkcyjnym czy wymiany danych z użytkownikami.

Jak działają ataki bocznokanałowe w AI?

Modele AI podczas przetwarzania danych mogą ujawniać pewne informacje przez kanały takie jak:
  • Czas odpowiedzi – różnice w czasie przetwarzania wskazują na szczegóły dotyczące struktury modelu.
  • Zużycie energii – analiza wzorców zużycia energii przez procesory.
  • Emitowane fale elektromagnetyczne – obserwacja promieniowania generowanego przez sprzęt podczas obliczeń.
  • Ruch sieciowy – analiza pakietów danych wysyłanych i odbieranych przez system.
Każdy z tych kanałów może dostarczać informacje umożliwiające odszyfrowanie algorytmów, parametrów modelu czy nawet danych, na których został przeszkolony.

Przykłady ataków bocznokanałowych na systemy AI

  1. Odtwarzanie danych treningowych
    • Atakujący wykorzystują dane takie jak gradienty lub zmiany w wagach modelu, by odtworzyć dane wejściowe użyte podczas treningu.
  2. Podgląd architektury modelu
    • Analiza sygnałów elektromagnetycznych lub czasu obliczeń pozwala atakującemu zgadywać, jakie warstwy składają się na model i jak są ze sobą połączone.
  3. Kradzież parametrów modelu
    • Modele AI o dużych rozmiarach są wartościowe. Dzięki bocznokanałowym danym atakujący mogą odtworzyć strukturę modelu, minimalizując własne koszty jego budowy.
  4. Złośliwe ingerencje (ang. adversarial attacks)
    • Poprzez manipulowanie danymi wejściowymi atakujący może wprowadzić model w błąd, a dane bocznokanałowe pomagają zrozumieć, jak najlepiej to zrobić.

Ochrona przed atakami bocznokanałowymi

  • Redukcja wycieków informacji
    • Wprowadzenie sztucznego szumu w czasie odpowiedzi czy obliczeń utrudnia analizę bocznokanałową.
  • Izolacja sprzętowa
    • Systemy AI mogą być uruchamiane na sprzęcie, który minimalizuje emisje elektromagnetyczne czy śledzenie ruchu sieciowego.
  • Bezpieczne szkolenie modeli
    • Wykorzystanie technik takich jak differential privacy, które chronią dane treningowe przed odtworzeniem.
  • Monitorowanie anomalii
    • Wdrażanie mechanizmów detekcji nietypowych zachowań w systemach AI, co pozwala identyfikować próby bocznokanałowego ataku.

Podsumowanie

Ataki bocznokanałowe na systemy AI to realne zagrożenie w dobie rosnącego zastosowania sztucznej inteligencji w kluczowych dziedzinach życia. Wymagają one nowoczesnych i zaawansowanych technik ochrony, które muszą być integralną częścią projektowania i wdrażania systemów opartych na AI. Dbanie o bezpieczeństwo informacji generowanych przez modele i odpowiednie ich zabezpieczenie to klucz do ochrony zarówno danych, jak i technologii. 
#AI #Cyberbezpieczeństwo #AtakiBocznokanałowe #SztucznaInteligencja #OchronaDanych