Grupa 12 europosłów wezwała światowych przywódców do zorganizowania szczytu w celu znalezienia sposobów kontrolowania rozwoju zaawansowanych systemów sztucznej inteligencji (AI). Ich zdaniem technologie te rozwijają się szybciej niż oczekiwano.
Dwunastu członków Parlamentu Europejskiego, którzy pracują nad unijnymi przepisami dotyczącymi technologii, wezwało w liście otwartym prezydenta USA Joe Bidena i przewodniczącą Komisji Europejskiej Ursulę von der Leyen do zwołania szczytu i stwierdziło, że firmy zajmujące się sztuczną inteligencją powinny działać bardziej odpowiedzialnie.
OGROMNE WYZWANIE SPOŁECZNE, EKONOMICZNE I PRAWNE
Współautorem listu jest europoseł Kosma Złotowski (PiS).
– Szybki i niekontrolowany rozwój technologii to ogromne wyzwanie zarówno społeczne, ekonomiczne jak i prawne. W ostatnich miesiącach obserwujemy nowe przykłady zastosowania sztucznej inteligencji, które wywołują entuzjazm, ale także budzą obawy o to, czy nasze prawa jako użytkowników i konsumentów tych narzędzi będą w odpowiedni sposób chronione. Podsycanie strachu przed innowacjami jest jednak drogą donikąd. Potrzebujemy jasnych przepisów, które będą zobowiązywać producentów i dystrybutorów produktów i usług opartych na AI do przewidywania i minimalizowania zagrożeń dla naszego zdrowia, bezpieczeństwa czy danych osobowych – powiedział europoseł.
POTRZEBA OPRACOWANIA MINIMALNYCH STANDARDÓW
Jak dodał, nowe prawo o sztucznej inteligencji, nad którym pracuje PE, może być właściwym narzędziem, aby zapewnić najwyższe możliwe standardy w tym zakresie.
– Mamy jednak świadomość, że Unia Europejska jest tylko jednym z uczestników globalnego wyścigu technologicznego, dlatego powinniśmy ściśle współpracować z naszymi demokratycznymi partnerami, zwłaszcza z USA, aby określić minimalne standardy dla tworzenia godnej zaufania sztucznej inteligencji. Dlatego jako sprawozdawcy pracujący nad AI Act wzywamy przewodniczącą von der Leyen i prezydenta Bidena m.in. do zwołania globalnego szczytu wysokiego szczebla w celu uzgodnienia wstępnego zestawu zasad rządzących rozwojem, kontrolą i wdrażaniem bardzo potężnej sztucznej inteligencji – dodał Złotowski.
W liście wezwano demokratyczne i „niedemokratyczne” kraje do zachowania powściągliwości w pogoni za bardzo potężną sztuczną inteligencją.
APEL SPECJALISTÓW ZAJMUJĄCYCH SIĘ ZAAWANSOWANYMI TECHNOLOGIAMI
Jak wskazuje Reuters, list europosłów pojawił się kilka tygodni po tym, jak właściciel Twittera Elon Musk i ponad 1000 osób zajmujących się zaawansowanymi technologiami zażądało sześciomiesięcznej przerwy w rozwoju systemów potężniejszych niż system OpenAI ChatGPT.
Ten list otwarty, opublikowany w marcu przez Future of Life Institute (FLI), ostrzegał, że sztuczna inteligencja może rozpowszechniać dezinformację w niespotykanym dotąd tempie, a maszyny mogą przechytrzyć i zastąpić ludzi, jeśli nie będą kontrolowane.
SZEF GOOGLE’A: ŹLE WDROŻONA SZTUCZNA INTELIGENCJA MOŻE BYĆ BARDZO SZKODLIWA
W rozmowie z programem „60 Minutes” w amerykańskiej stacji CBS szef firmy Google Sundar Pichai również wezwał do stworzenia globalnych ram regulacyjnych dla sztucznej inteligencji (AI), podobnych do traktatów zawartych w sprawie bron jądrowej, ponieważ – jak ostrzegł – rywalizacja o wyprodukowanie bardziej zaawansowanej technologii może prowadzić do odsuwania na bok obaw związanych z bezpieczeństwem.
– Może być bardzo szkodliwa, jeśli zostanie źle wdrożona i nie mamy jeszcze wszystkich odpowiedzi – a technologia porusza się szybko. Więc czy to nie pozwala mi spać w nocy? Absolutnie – powiedział.
Będący właścicielem Google’a konglomerat Alphabet Inc. w marcu uruchomił chatbota Bard, odpowiadając na globalną popularność ChatGPT, opracowanego przez amerykańską firmę technologiczną OpenAI, który został zaprezentowany w listopadzie zeszłego roku.
Technologia AI użyta w ChatGPT i Bard, znana jako Large Language Model, jest szkolona na ogromnym zbiorze danych pobranych z internetu i na zadane przez użytkowników pytania jest w stanie wygenerować wiarygodne odpowiedzi w różnych formatach, od wierszy do esejów akademickich i kodów oprogramowania.
Pichai zauważył, że AI może wyrządzić szkody poprzez swoją zdolność do wytwarzania dezinformacji. – Z AI będzie możliwe łatwo stworzyć wideo, w którym Scott (Pelley, prowadzący wywiad w CBS – przyp.red.) mówi coś, albo ja mówię coś, czego nigdy nie powiedzieliśmy. I mogłoby to wyglądać realistycznie. Ale wiesz, na skalę społeczną, wiesz, może to spowodować wiele szkód – wyjaśnił.
Zapewnił, że wersja sztucznej inteligencji upubliczniona przez Google’a poprzez chatbota Bard jest bezpieczna, a firma wstrzymała bardziej zaawansowane wersje Barda do testów.
Pichai przyznał, że Google nie do końca rozumie, jak jego technologia AI produkuje pewne odpowiedzi. – Jest pewien aspekt tego, który nazywamy, wszyscy w tej dziedzinie nazywają, „czarną skrzynką”. Wiesz, nie rozumiesz w pełni. I nie możesz do końca powiedzieć, dlaczego ona powiedziała to, albo dlaczego się pomyliła – mówił.
Zapytany, dlaczego Google upubliczniło Barda, skoro nie do końca rozumie jak działa, Pichai odpowiedział: „Pozwól mi to ująć w ten sposób. Nie sądzę, że my też w pełni rozumiemy, jak działa ludzki umysł”.
Pichai przyznał, że społeczeństwo nie wydaje się być gotowe na szybkie postępy w AI. Powiedział, że „wydaje się, że istnieje niedopasowanie” między tempem, w jakim społeczeństwo myśli i dostosowuje się do zmian, w porównaniu z tempem, w jakim AI się rozwijała.
Dodał jednak, że przynajmniej ludzie szybciej stali się czujni na jej potencjalne zagrożenia. – W porównaniu z każdą inną technologią, widziałem więcej ludzi zaniepokojonych nią na wcześniejszym etapie jej cyklu życia. Czuję się więc optymistycznie – przekonywał.
PAP/am