Rewolucja cyfrowa jest nierozerwalnie związana ze sztuczną inteligencją (AI). Technologie AI stały się podstawą różnych produktów i usług w finansach, edukacji, opiece zdrowotnej i rolnictwie.

Ramy regulacyjne dotyczące sztucznej inteligencji nie nadążają jednak za postępem technologicznym. Aby zaradzić tej luce, UE przewodzi pracom nad Artificial Intelligence Act, pierwszym na świecie kompleksowym zestawem przepisów regulujących sztuczną inteligencję.

Czym jest unijna ustawa o sztucznej inteligencji?

Głównym celem unijnej ustawy o sztucznej inteligencji jest zrównoważenie szans i zagrożeń związanych z rozwojem i wdrażaniem sztucznej inteligencji. Aby to osiągnąć, systemy AI muszą być:

  • Bezpieczeństwo: Zapewnienie, że systemy sztucznej inteligencji nie stanowią zagrożenia dla bezpieczeństwa lub dobrostanu ludzi.
  • Przejrzystość: Użytkownicy powinni być świadomi, kiedy wchodzą w interakcję ze sztuczną inteligencją.
  • Identyfikowalność: Rozwój i wdrażanie systemów sztucznej inteligencji muszą być identyfikowalne, aby zapewnić odpowiedzialność.
  • Brak dyskryminacji: Systemy sztucznej inteligencji nie powinny utrwalać ani tworzyć uprzedzeń.
  • Przyjazność dla środowiska: Rozwój sztucznej inteligencji powinien uwzględniać jej wpływ na środowisko.
  • Człowiek w pętli: Systemy AI powinny być nadzorowane przez ludzi, a nie odwrotnie.

Jak określono w art. 1, ustawa o sztucznej inteligencji ma na celu promowanie “sztucznej inteligencji ukierunkowanej na człowieka i godnej zaufania”, przy jednoczesnej ochronie praw podstawowych, demokracji i praworządności.

Podejście do sztucznej inteligencji oparte na ryzyku

Ustawa o sztucznej inteligencji przyjmuje podejście do regulacji oparte na ryzyku. Systemy AI są podzielone na różne poziomy ryzyka:

  • Niedopuszczalne ryzyko: systemy AI, które stanowią niedopuszczalne zagrożenie dla bezpieczeństwa, zdrowia lub praw podstawowych, zostaną zakazane. Obejmuje to systemy, które manipulują ludzkim zachowaniem, punktację społeczną i zdalną identyfikację biometryczną w czasie rzeczywistym (np. rozpoznawanie twarzy).
  • Wysokie ryzyko: systemy AI wysokiego ryzyka będą podlegać rygorystycznej ocenie przed wprowadzeniem na rynek i stałemu monitorowaniu. Kategoria ta obejmuje sztuczną inteligencję wykorzystywaną w infrastrukturze krytycznej, edukacji i produktach objętych dyrektywami bezpieczeństwa UE.
  • Ograniczone ryzyko: systemy sztucznej inteligencji o ograniczonym ryzyku będą podlegać wymogom przejrzystości, zapewniając użytkownikom świadomość podczas interakcji ze sztuczną inteligencją. Generatywna sztuczna inteligencja, taka jak ChatGPT, należy do tej kategorii.
  • Minimalne lub zerowe ryzyko: systemy sztucznej inteligencji o minimalnym lub zerowym ryzyku napotkają niewiele, jeśli w ogóle, ograniczeń regulacyjnych.

Kluczowe postanowienia i implikacje

  • Generatywna sztuczna inteligencja: Modele sztucznej inteligencji zdolne do generowania tekstu, obrazów lub innych treści medialnych, takie jak ChatGPT, będą musiały ujawniać, że treści są generowane przez sztuczną inteligencję i zapobiegać generowaniu nielegalnych treści.
  • Dane biometryczne: Wykorzystanie danych biometrycznych, takich jak rozpoznawanie twarzy, będzie ściśle regulowane, a zdalna identyfikacja biometryczna w czasie rzeczywistym będzie generalnie zabroniona w przestrzeni publicznej.
  • Zarządzanie danymi: Ustawa podkreśla znaczenie wysokiej jakości danych dla szkolenia systemów sztucznej inteligencji i porusza kwestie związane z prywatnością i bezpieczeństwem danych.

Akt UE w sprawie sztucznej inteligencji stanowi znaczący krok naprzód w globalnym zarządzaniu sztuczną inteligencją. Przyjmując podejście oparte na ryzyku i koncentrując się na przejrzystości, odpowiedzialności i nadzorze ludzkim, UE dąży do zapewnienia, że sztuczna inteligencja jest opracowywana i wdrażana w sposób odpowiedzialny i etyczny. Ponieważ sztuczna inteligencja nadal ewoluuje, prawdopodobne jest, że krajobraz regulacyjny również będzie się dostosowywał.