Wybierz stronę

Usługa audytu systemów
opartych na AI

Zapewnij bezpieczeństwo swoich danych

W obliczu rosnącej popularności zastosowań sztucznej inteligencji (SI/AI) w systemach naszych Klientów, zwłaszcza w postaci wykorzystywanych coraz powszechniej korporacyjnych chatbotów i wirtualnych asystentów, wprowadziliśmy usługę testów bezpieczeństwa i walidacji systemów opartych na dużych modelach językowych (LLM), modelach głębokich oraz w ogólności modelach uczenia maszynowego.

Ma ona na celu wykrycie błędów, nieprawidłowości oraz podatności systemów korzystających z modeli AI, zanim potencjalnie wyrządzą one szkody poprzez np. niepożądane udostępnienie danych lub podjęcie szkodliwych decyzji.

W ramach wykonanej usługi powstaje szczegółowy raport techniczny ze zrealizowanych prac. Istnieje możliwość rozszerzenia usługi o elementy, takie jak testy powtórne, szkolenie doskonalące dla zespołu opracowującego i wdrażającego analizowany model, pakiet konsultacyjny, pakiet analiz okresowych i inne.

Co zyskujesz

Bezpieczeństwo Twojego systemu opartego o AI

  • Identyfikację i ocenę zagrożeń – w tym złośliwych ataków, które mogą manipulować wynikami modelu
  • Kontrolę odporności modelu – złożoną z testów sprawdzających stabilność modelu oraz jego reakcję na złośliwe ataki
  • Audyt bezpieczeństwa danych uczących i testowych dla modelu
  • Weryfikację kontroli dostępu do modelu i powiązanych zasobów
  • Analizę kodów i algorytmów używanych w systemie
Poprawa jakości i wydajności modeli
  • Weryfikacja poprawności wyników modeli
  • Analiza wydajności i skalowalności modelu w środowisku produkcyjnym
  • Wykrywanie oraz korekta nieprawidłowości i błędów w danych wejściowych
Optymalizacja procesów i wdrożenie zabezpieczeń
  • Dedykowane kody i konfiguracje podnoszące poziom bezpieczeństwa systemu AI
  • Opracowanie procedur i rekomendacji usprawniających bezpieczeństwo zasobów
  • Strategiczne rekomendacje optymalizujące proces zbierania danych i skalowania modeli

Oferta

Testy bezpieczeństwa systemów
opartych na AI

  • Ocena zagrożeń – identyfikacja potencjalnych zagrożeń związanych z modelem, w tym ataków typu adversarial. Analiza ryzyka wycieku danych
i innych cyberzagrożeń
  • Kontrola odporności modelu, składająca się
z zarówno podstawowych, jak i dedykowanych testów, sprawdzających stabilność modelu oraz jego reakcję na przykłady ataków typu adversarial i popularne techniki ataków na modele AI
(takie jak wstrzykiwanie podpowiedzi, unikanie detekcji, zatrucie danych itd.)
  • Audyt bezpieczeństwa danych uczących
i testowych, ich przechowywania i przetwarzania
  • Weryfikacja kontroli dostępu do modelu
i powiązanych zasobów, tak by był on odpowiednio kontrolowany i ograniczony do uprawnionych użytkowników, a mechanizmy uwierzytelniania i autoryzacji były rzetelne oraz właściwie skonfigurowane – w tym pod kątem zabezpieczenia poświadczeń po stronie serwera usługi
  • Analiza kodów i algorytmów, polegająca na przeglądzie kodu źródłowego oraz algorytmów używanych w systemie w celu zyskania pewności, że są one wolne od znanych luk bezpieczeństwa
i spełniają wymagania dotyczące prywatności oraz ochrony danych

od 15 000zł netto (na infrastrukturze klienta)
od 20 000zł netto (na infrastrukturze PCSS)

Walidacja modeli AI
  • Sprawdzenie poprawności modelu – analiza wyników modelu w celu weryfikacji ich zgodności z oczekiwaniami biznesowymi oraz standardami branżowymi. Przeprowadzane są testy na różnych zestawach danych, aby zapewnić, że model działa prawidłowo w odmiennych scenariuszach
  • Weryfikacja spójności danych – sprawdzenie, czy dane wejściowe używane do trenowania modelu są zgodne, kompletne i reprezentatywne dla problemu, który model ma rozwiązywać; wykrywanie oraz propozycja korekty potencjalnych błędów i nieścisłości w danych
  • Analiza i identyfikacja błędów, aby określić przyczyny ich pojawienia się – przygotowany raport zawiera szczegółowe informacje na temat zidentyfikowanych, a także potencjalnych problemów

od 10 000zł netto (na infrastrukturze klienta)
od 15 000zł netto (na infrastrukturze PCSS)

Implementacja mechanizmów 
obronnych

  • Opracowanie sugerowanych do wdrożenia dedykowanych kodów źródłowych i plików konfiguracyjnych podnoszących poziom bezpieczeństwa Twojego systemu, opartego na AI
  • Opracowanie rekomendowanych procedur i czynności, które poprawią bezpieczeństwo zasobów modelu
  • Strategie optymalizacji modelu – dedykowane rekomendacje dotyczące procesu zbierania danych oraz budowania i skalowania modelu, tak aby naprawić zidentyfikowane błędy lub zoptymalizować funkcjonowanie modelu
wycena indywidualna
Porozmawiajmy!

Skontaktuj się z nami bezpośrednio

Jakub Kamza

Jakub Kamza

Koordynator Sprzedaży

Paweł Grajkowski

Paweł Grajkowski

Specjalista ds. Sprzedaży

Napisz do nas

Masz pytania dotyczące oferty? Wypełnij formularz kontaktowy, odezwiemy się najszybciej jak to będzie możliwe.

* Pola oznaczone gwiazdką są obowiązkowe do wypełnienia.