W środę Parlament Europejski 499 głosami za, przy 28 przeciw i 93 wstrzymujących się, przyjął stanowisko negocjacyjne w sprawie Aktu o Sztucznej Inteligencji. Nowe regulacje zakładają, że SI ma być ukierunkowana na człowieka i godna zaufania oraz zapewniać ochronę zdrowia, bezpieczeństwa, praw podstawowych i demokracji przed szkodliwymi skutkami technologii.
Teraz PE będzie prowadzić z państwami członkowskimi Unii negocjacje w sprawie ostatecznego jego kształtu. Przepisy miałyby zagwarantować, że sztuczna inteligencja opracowywana i wykorzystywana w Europie będzie w pełni zgodna z prawami i wartościami Unii.
NOWE OBOWIĄZKI DLA DOSTAWCÓW SYSTEMÓW SI
Nowe przepisy ustanawiają obowiązki dla dostawców i tych, którzy wdrażają systemy SI, w zależności od poziomu ryzyka, jakie może generować sztuczna inteligencja. Zabronione byłyby zatem systemy SI o niedopuszczalnym poziomie ryzyka dla bezpieczeństwa ludzi, takie jak te wykorzystywane do oceny społecznej (klasyfikowanie ludzi na podstawie ich zachowań społecznych lub cech osobistych).
Posłowie rozszerzyli wykaz zakazanych praktyk o inwazyjne i dyskryminujące zastosowania sztucznej inteligencji, takie jak: wykorzystywanie w przestrzeni publicznej systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym i post-factum: systemy kategoryzacji biometrycznej wykorzystujące cechy wrażliwe (np. płeć, rasa, pochodzenie etniczne, status obywatelski, religia, orientacja polityczna), systemy rozpoznawania emocji wykorzystywane w egzekwowaniu prawa, zarządzaniu granicami, miejscu pracy i instytucjach edukacyjnych.
Posłowie chcą, by klasyfikacja zastosowań wysokiego ryzyka obejmowała takie systemy sztucznej inteligencji, które przynoszą znaczne szkody dla zdrowia, bezpieczeństwa, praw podstawowych lub środowiska. Do wykazu systemów wysokiego ryzyka dodali systemy sztucznej inteligencji wykorzystywane do wpływania na wyborców i wyniki wyborów oraz systemy rekomendacji wykorzystywane przez platformy mediów społecznościowych (z ponad 45 milionami użytkowników).
REGULACJE DLA DOSTAWCÓW MODELI GENERATYWNYCH
Dostawcy modeli generatywnych – nowego i szybko rozwijającego się rozwiązania w dziedzinie sztucznej inteligencji – musieliby oceniać i ograniczać potencjalne ryzyko (dla zdrowia, bezpieczeństwa, praw podstawowych, środowiska, demokracji i praworządności). Mieliby także rejestrować swoje modele w unijnej bazie danych przed ich wprowadzeniem na rynek Unii.
Generatywne systemy sztucznej inteligencji oparte na takich modelach, jak np. ChatGPT, musiałyby spełniać wymogi przejrzystości. Konieczne będzie ujawnianie, że treści wygenerowała sztuczna inteligencja (włącznie z pomocą w odróżnianiu tak zwanych głębokich fałszywych obrazów „deep fake” od prawdziwych) oraz wprowadzanie zabezpieczeń przed generowaniem nielegalnych treści. Trzeba będzie też publikować szczegółowe podsumowania danych chronionych prawem autorskim, które wykorzystano do przygotowania tych systemów.
Posłowie chcą pobudzać innowacje w zakresie sztucznej inteligencji i wspierać MŚP. Dlatego dodali wyjątki obejmujące badania naukowe i komponenty sztucznej inteligencji dostarczane na licencjach typu open source. Nowe prawo promuje tzw. piaskownice regulacyjne, czyli rzeczywiste środowiska ustanowione przez władze publiczne, w których testuje się sztuczną inteligencję przed wdrożeniem. Ponadto posłowie chcą, by obywatelom było łatwiej składać skargi dotyczące systemów SI. Powinni mieć też łatwiejszy dostęp do wyjaśnień dotyczących decyzji opartych na systemach SI wysokiego ryzyka, które mają znaczący wpływ na ich prawa podstawowe. Posłowie zreformowali również zakres zadań Rady ds. Sztucznej Inteligencji. Miałaby ona monitorować sposób wdrażania przepisów dotyczących sztucznej inteligencji.
Negocjacje z Radą w sprawie ostatecznego kształtu przepisów rozpoczną się już w środę.
PAP/mm