Przejdź do treści
AI i drony. Fot. Akhil Yerabati / Unsplash
Źródło artykułu

Zapewnienie bezpieczeństwa i prywatności: wpływ unijnej ustawy o sztucznej inteligencji na technologie bezzałogowe

9 grudnia 2023 r. w Parlamencie Europejskim osiągnięto porozumienie w sprawie ostatecznej wersji, rzekomo pierwszych na świecie kompleksowych ram prawnych dotyczących sztucznej inteligencji, czyli ustawy Unii Europejskiej o Sztucznej Inteligencji („EU AI Act”).

Co te przepisy mają do dronów?

Rola Sztucznej Inteligencji w dronach, albo szerzej ogóle, w transporcie może być rozumiana wielowymiarowo, jako na przykład wsparcie automatyzacji i autonomii, pomoc w efektywniejszym zarządzaniu energią z uwzględnieniem aspektów środowiskowych (wiatr, temperatura), optymalizacji produkcji, w końcu w monitorowaniu i śledzeniu. Dlatego wydaje się istotnym, aby zrozumieć, w jaki sposób ta ustawa wpływa na korzystanie z dronów, koncentrując się na kwestiach bezpieczeństwa i prywatności.

  1. General-Purpose AI (GPAI) i drony, czyli sztuczna inteligencja ogólnego przeznaczenia (GPAI). Przepisy ustawy dotyczące GPAI, wymagają ścisłej przejrzystości i dokumentowania na etapie wytwarzania i używania dronów. Technologie dronowe, mają być opracowywane i wykorzystywane w sposób odpowiedzialny, zgodnie z unijnymi przepisami dotyczącymi praw autorskich.
  2. Ustawa o sztucznej inteligencji ogranicza stosowanie systemów identyfikacji biometrycznej przez organy ścigania. Innymi słowy, drony wyposażone w technologie rozpoznawania twarzy, będą wymagały zezwolenia sądowego.
  3. Ustawa zabrania określonych zastosowań sztucznej inteligencji, takich jak nieukierunkowany Web Scraping (technika „wyciągania” danych ze stron internetowych, zastępująca ręczne, powtarzalne wpisywanie lub kopiowanie i wklejanie, po polsku nazywana również „skrobaniem danych”) wizerunków twarzy i rozpoznawanie emocji. Zakazom będą podlegać technologie dronów wykorzystujące te funkcje do celów nadzoru w przestrzeni publicznej, miejscach pracy lub instytucjach edukacyjnych.
  4. Przewiduje się wysokie kary za nieprzestrzeganie przepisów (do 35 milionów euro lub 7% światowego obrotu korporacji).
  5. Drony sklasyfikowane jako systemy sztucznej inteligencji wysokiego ryzyka będą podlegać ocenie wpływu na prawa podstawowe. Jest to szczególnie istotne w przypadku dronów wykorzystywanych we wrażliwych sektorach, takich jak ubezpieczenia, bezpieczeństwo publiczne, itd.
  6. Prawo konsumentów ma umożliwić składanie skarg i zapewnie mechanizmów rozwiązywania problemów związanych z prywatnością i bezpieczeństwem związanych z użytkowaniem dronów.
  7. Pomimo wielu ograniczeń, ustawa zachęca do innowacji, w tym w technologii dronów, poprzez piaskownice regulacyjne (ang. Sanboxes). Innymi słowy, będzie dopuszczone testowanie zastosowań dronów w warunkach rzeczywistych, przy jednoczesnym zapewnieniu zgodności z przepisami ustawy.

Dwa słowa o samej europejskiej ustawie o Sztucznej Inteligencji

Przepisy zabraniają wdrażania w Unii Europejskiej systemów sztucznej inteligencji stwarzających „niedopuszczalne ryzyko”, a w innych przypadkach nakładają różne poziomy obowiązków na systemy sztucznej inteligencji. Osiągnięto także porozumienie w sprawie uregulowania wdrażania podstawowych modeli, w tym w sprawie przyjęcia środków zapewniających zgodność z europejskim prawem autorskim, wymogów dotyczących publikowania szczegółowych treści wykorzystywanych do szkolenia tych systemów oraz przygotowania dokumentacji technicznej związanej z wykorzystaniem sztucznej inteligencji.

Ustawa UE o sztucznej inteligencji została po raz pierwszy zaproponowana przez Komisję Europejską w kwietniu 2021 r. Parlament Europejski zatwierdził swoją wersję projektu ustawy w czerwcu 2023 r., a ostateczne porozumienie w sprawie formy, przyjęto 9 grudnia 2023 roku.

Wstępne porozumienie stanowi, że ustawa powinna obowiązywać po dwóch latach od wejścia w życie, przy czym niektóre przepisy wejdą w życie w późniejszym terminie. Nadal trwają prace nad dokończeniem szczegółów nowego rozporządzenia, zatem prawdopodobne jest, że ustawa wejdzie w życie w 2026 roku.

Definicja ryzyka:

Niedopuszczalne ryzyko
Systemy sztucznej inteligencji o ryzyku niedopuszczalnym to systemy uważane za zagrożenie dla ludzi i zostaną zakazane. Zawierają:

  • Manipulacja poznawczo-behawioralna ludzi lub określonych grup bezbronnych: na przykład zabawki aktywowane głosem, które zachęcają dzieci do niebezpiecznych zachowań
  • Scoring społeczny: klasyfikacja ludzi na podstawie zachowania, statusu społeczno-ekonomicznego lub cech osobistych
  • Działające w czasie rzeczywistym i zdalne systemy identyfikacji biometrycznej, takie jak rozpoznawanie twarzy

Wysokie ryzyko
Systemy sztucznej inteligencji, które negatywnie wpływają na bezpieczeństwo lub prawa podstawowe, będą uznawane za obarczone wysokim ryzykiem i zostaną podzielone na dwie kategorie:

  1. Systemy sztucznej inteligencji stosowane w produktach objętych przepisami UE dotyczącymi bezpieczeństwa produktów. Obejmuje to zabawki, lotnictwo, samochody, urządzenia medyczne i windy.
  2. Systemy sztucznej inteligencji podzielone zostału na osiem  obszarów, które będą musiały zostać zarejestrowane w bazie danych UE:
  • Identyfikacja biometryczna i kategoryzacja osób fizycznych
    Zarządzanie i eksploatacja infrastruktury krytycznej
    Edukacja i szkolenie zawodowe
    Zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia
    Dostęp do podstawowych usług prywatnych i publicznych oraz korzystanie z nich
    Egzekucja prawa
    Zarządzanie migracją, azylem i kontrolą graniczną
    Pomoc w interpretacji prawnej i stosowaniu prawa.


Wszystkie systemy sztucznej inteligencji wysokiego ryzyka będą oceniane przed wprowadzeniem na rynek, a także przez cały cykl ich życia.

Pytanie kiedy pytania o AI trafią do EASA ECQB? Chyba, że już tam są...

Więcej na EU AI Act: first regulation on artificial intelligence
 

FacebookTwitterWykop
Źródło artykułu

Nasze strony