Zapewnienie bezpieczeństwa i prywatności: wpływ unijnej ustawy o sztucznej inteligencji na technologie bezzałogowe
9 grudnia 2023 r. w Parlamencie Europejskim osiągnięto porozumienie w sprawie ostatecznej wersji, rzekomo pierwszych na świecie kompleksowych ram prawnych dotyczących sztucznej inteligencji, czyli ustawy Unii Europejskiej o Sztucznej Inteligencji („EU AI Act”).
Co te przepisy mają do dronów?
Rola Sztucznej Inteligencji w dronach, albo szerzej ogóle, w transporcie może być rozumiana wielowymiarowo, jako na przykład wsparcie automatyzacji i autonomii, pomoc w efektywniejszym zarządzaniu energią z uwzględnieniem aspektów środowiskowych (wiatr, temperatura), optymalizacji produkcji, w końcu w monitorowaniu i śledzeniu. Dlatego wydaje się istotnym, aby zrozumieć, w jaki sposób ta ustawa wpływa na korzystanie z dronów, koncentrując się na kwestiach bezpieczeństwa i prywatności.
- General-Purpose AI (GPAI) i drony, czyli sztuczna inteligencja ogólnego przeznaczenia (GPAI). Przepisy ustawy dotyczące GPAI, wymagają ścisłej przejrzystości i dokumentowania na etapie wytwarzania i używania dronów. Technologie dronowe, mają być opracowywane i wykorzystywane w sposób odpowiedzialny, zgodnie z unijnymi przepisami dotyczącymi praw autorskich.
- Ustawa o sztucznej inteligencji ogranicza stosowanie systemów identyfikacji biometrycznej przez organy ścigania. Innymi słowy, drony wyposażone w technologie rozpoznawania twarzy, będą wymagały zezwolenia sądowego.
- Ustawa zabrania określonych zastosowań sztucznej inteligencji, takich jak nieukierunkowany Web Scraping (technika „wyciągania” danych ze stron internetowych, zastępująca ręczne, powtarzalne wpisywanie lub kopiowanie i wklejanie, po polsku nazywana również „skrobaniem danych”) wizerunków twarzy i rozpoznawanie emocji. Zakazom będą podlegać technologie dronów wykorzystujące te funkcje do celów nadzoru w przestrzeni publicznej, miejscach pracy lub instytucjach edukacyjnych.
- Przewiduje się wysokie kary za nieprzestrzeganie przepisów (do 35 milionów euro lub 7% światowego obrotu korporacji).
- Drony sklasyfikowane jako systemy sztucznej inteligencji wysokiego ryzyka będą podlegać ocenie wpływu na prawa podstawowe. Jest to szczególnie istotne w przypadku dronów wykorzystywanych we wrażliwych sektorach, takich jak ubezpieczenia, bezpieczeństwo publiczne, itd.
- Prawo konsumentów ma umożliwić składanie skarg i zapewnie mechanizmów rozwiązywania problemów związanych z prywatnością i bezpieczeństwem związanych z użytkowaniem dronów.
- Pomimo wielu ograniczeń, ustawa zachęca do innowacji, w tym w technologii dronów, poprzez piaskownice regulacyjne (ang. Sanboxes). Innymi słowy, będzie dopuszczone testowanie zastosowań dronów w warunkach rzeczywistych, przy jednoczesnym zapewnieniu zgodności z przepisami ustawy.
Dwa słowa o samej europejskiej ustawie o Sztucznej Inteligencji
Przepisy zabraniają wdrażania w Unii Europejskiej systemów sztucznej inteligencji stwarzających „niedopuszczalne ryzyko”, a w innych przypadkach nakładają różne poziomy obowiązków na systemy sztucznej inteligencji. Osiągnięto także porozumienie w sprawie uregulowania wdrażania podstawowych modeli, w tym w sprawie przyjęcia środków zapewniających zgodność z europejskim prawem autorskim, wymogów dotyczących publikowania szczegółowych treści wykorzystywanych do szkolenia tych systemów oraz przygotowania dokumentacji technicznej związanej z wykorzystaniem sztucznej inteligencji.
Ustawa UE o sztucznej inteligencji została po raz pierwszy zaproponowana przez Komisję Europejską w kwietniu 2021 r. Parlament Europejski zatwierdził swoją wersję projektu ustawy w czerwcu 2023 r., a ostateczne porozumienie w sprawie formy, przyjęto 9 grudnia 2023 roku.
Wstępne porozumienie stanowi, że ustawa powinna obowiązywać po dwóch latach od wejścia w życie, przy czym niektóre przepisy wejdą w życie w późniejszym terminie. Nadal trwają prace nad dokończeniem szczegółów nowego rozporządzenia, zatem prawdopodobne jest, że ustawa wejdzie w życie w 2026 roku.
Definicja ryzyka:
Niedopuszczalne ryzyko
Systemy sztucznej inteligencji o ryzyku niedopuszczalnym to systemy uważane za zagrożenie dla ludzi i zostaną zakazane. Zawierają:
- Manipulacja poznawczo-behawioralna ludzi lub określonych grup bezbronnych: na przykład zabawki aktywowane głosem, które zachęcają dzieci do niebezpiecznych zachowań
- Scoring społeczny: klasyfikacja ludzi na podstawie zachowania, statusu społeczno-ekonomicznego lub cech osobistych
- Działające w czasie rzeczywistym i zdalne systemy identyfikacji biometrycznej, takie jak rozpoznawanie twarzy
Wysokie ryzyko
Systemy sztucznej inteligencji, które negatywnie wpływają na bezpieczeństwo lub prawa podstawowe, będą uznawane za obarczone wysokim ryzykiem i zostaną podzielone na dwie kategorie:
- Systemy sztucznej inteligencji stosowane w produktach objętych przepisami UE dotyczącymi bezpieczeństwa produktów. Obejmuje to zabawki, lotnictwo, samochody, urządzenia medyczne i windy.
- Systemy sztucznej inteligencji podzielone zostału na osiem obszarów, które będą musiały zostać zarejestrowane w bazie danych UE:
- Identyfikacja biometryczna i kategoryzacja osób fizycznych
Zarządzanie i eksploatacja infrastruktury krytycznej
Edukacja i szkolenie zawodowe
Zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia
Dostęp do podstawowych usług prywatnych i publicznych oraz korzystanie z nich
Egzekucja prawa
Zarządzanie migracją, azylem i kontrolą graniczną
Pomoc w interpretacji prawnej i stosowaniu prawa.
Wszystkie systemy sztucznej inteligencji wysokiego ryzyka będą oceniane przed wprowadzeniem na rynek, a także przez cały cykl ich życia.
Pytanie kiedy pytania o AI trafią do EASA ECQB? Chyba, że już tam są...
Więcej na EU AI Act: first regulation on artificial intelligence
Komentarze