Świat sztucznej inteligencji rozwija się w zawrotnym tempie, przynosząc codziennie nowe doniesienia, innowacje i wyzwania. W najnowszym odcinku „Radiowego AI” przyglądamy się kluczowym wydarzeniom z ostatniego tygodnia, od politycznych zmagań o prymat w dziedzinie AI, przez nowości technologiczne, po refleksje na temat społecznych i etycznych implikacji.
GLOBALNA SCENA AI: POLITYKA I REGULACJE
W Stanach Zjednoczonych trwa prawdziwa ofensywa mająca na celu przyspieszenie amerykańskiego wyścigu AI. Ważne przesłuchanie przed senacką Komisją Handlu, z udziałem takich gigantów jak Sam Altman z OpenAI, Brad Smith z Microsoftu i Lisa Su z AMD, podkreśliło potrzebę zniesienia barier hamujących rozwój AI, zwłaszcza w obliczu rosnącej konkurencji ze strony Chin. Przedsiębiorcy naciskają na administrację, argumentując, że promowanie „wolnościowej” AI leży w narodowym interesie. Ted Cruz przestrzegł jednak, że USA nie wygrają z Chinami, jeśli innowacje zostaną spętane regulacjami na wzór europejski. Tymczasem Unia Europejska, pracująca nad swoim Aktem o AI, napotyka problemy z opóźnieniem norm technicznych. Europejskie organy normalizacyjne mogą nie zdążyć z opracowaniem standardów wykonawczych na czas, co może przesunąć ich gotowość nawet na 2026 rok. Rzecznik Komisji Europejskiej Thomas Reniér zapowiedział, że Bruksela rozważy alternatywne rozwiązania, jeśli standardy nie będą gotowe na wejście przepisów w życie. Podkreślił również, że brak standardów nie wstrzyma rozwoju AI, gdyż nie są one obligatoryjne, co pozwala firmom na rozwijanie nawet systemów wysokiego ryzyka w oparciu o ogólne zasady aktu.
AI W POLSCE: RZĄDOWE INICJATYWY I ROZWÓJ MOBYWATELA
Polski rząd również nie próżnuje w sprawach AI. Rada Ministrów przyjęła projekt nowelizacji ustawy, która ma umożliwić dalszy rozwój aplikacji mObywatel, wzbogacając ją o elementy sztucznej inteligencji. Wiceminister cyfryzacji Dariusz Standerski podkreśla, że po raz pierwszy w polskim prawie pojawią się przepisy wdrażające systemy AI. Chodzi m.in. o uruchomienie wirtualnego asystenta PLUM w mObywatelu, który jest już testowany i ma ułatwić użytkownikom korzystanie z aplikacji. Nowa ustawa tworzy też podstawy prawne dla kolejnych e-dokumentów, jak legitymacje szkolne, i funkcji takich jak mStłuczka, pokazując dążenie Polski do wdrażania AI w administracji w sposób odpowiedzialny. Ciekawostką z pogranicza technologii i rozrywki są nietypowe zastosowania AI rodem z Chin. Chiński gigant Baidu zgłosił patent na system tłumaczący mowę zwierząt na ludzki język. Choć brzmi to futurystycznie, algorytm miałby analizować dźwięki wydawane przez pupili, by rozpoznać ich stany emocjonalne i przełożyć je na zrozumiałe dla ludzi komunikaty, co ma umożliwić głębszą komunikację emocjonalną.
BIZNES, INNOWACJE I SPOŁECZNE REAKCJE NA AI
W świecie biznesu AI również dzieje się wiele. OpenAI wzmacnia swój zespół – dołączyła do niego Fiji Simo, dotychczasowa szefowa Instacarta, jako Head of Applications. Ma to pomóc w przekuwaniu potężnych modeli AI w praktyczne produkty dla użytkowników. Decyzja ta zapadła tuż po tym, jak OpenAI niespodziewanie wycofało się z planowanej restrukturyzacji swojej struktury prawnej, co zdaniem obserwatorów może ograniczyć wpływ Altmana na samodzielne decyzje firmy. Konkurencja nie śpi. Anthropic, startup założony przez byłych pracowników OpenAI, wypuścił nowe funkcje dla swojego chatbota Claude, umożliwiając mu bezpośrednią integrację z popularnymi narzędziami pracy, jak aplikacje biurowe czy komunikatory. Dodano również tryb „Advanced Research” dla głębszego wyszukiwania informacji i analizy danych. Platforma Figma, popularne narzędzie do projektowania interfejsów, zaprezentowała na konferencji Config 25 zestaw nowych funkcji opartych na AI. Figma Make to generator prototypów aplikacji na bazie krótkiego opisu tekstowego, a Figma Sites umożliwia wygenerowanie działającej strony internetowej jednym kliknięciem. Narzędzia te, działające w oparciu o model Claude 3.7 od Anthropic, wpisują się w trend generatywnych narzędzi „end-to-end”, gdzie design i kod łączą się w jednym procesie. Wielka technologia budzi jednak kontrowersje. Meta (właściciel Facebooka i Instagrama) poinformowała europejskich internautów, że od czerwca ich publiczne posty i komentarze będą służyć do trenowania modeli AI firmy. To powrót do pomysłu wstrzymanego rok temu pod presją regulatorów. Meta udostępniła formularz sprzeciwu, jednak brakuje szerokiej kampanii informacyjnej. Jak społeczeństwo postrzega te zmiany? Z badania polskiej platformy ClickMeeting wynika, że opinia publiczna jest podzielona: 27 proc. Polaków postrzega rozwój AI jako zagrożenie dla pracowników, podczas gdy 25 proc. uważa AI za szansę. Choć niewielu doświadczyło tego zagrożenia osobiście, niepokój pozostaje. Jednocześnie aż 70 proc. badanych uważa, że szkolenia z zakresu AI powinny być powszechnie dostępne.
BEZPIECZEŃSTWO AI: ROZMOWA Z EKSPERTEM
W rozmowie Andrzej Piotrowski, ekspert ds. cyberbezpieczeństwa ze stowarzyszenia ISSA Polska, podzielił się swoimi refleksjami na temat bezpieczeństwa AI. Podkreślił, że choć AI oferuje ogromne możliwości, trudno jest dziś mówić o pełnym bezpieczeństwie. „Na pewno był okres, kiedy nie mówiono tak głośno o AI, mówiono o Large Language Models w kontekście tworzenia treści do pewnych zadań. Teraz pojawił się trend RAG-ów (Retrieval-Augmented Generation), modeli AI, które kierują nas w stronę, można powiedzieć, nieoczekiwanych rezultatów”. Ekspert zwrócił uwagę na problem dostępu do danych i kontroli nad tym, jaki wynik uzyskamy. „AI to niestety, ale maszyna losująca, która pod wpływem pewnych modeli – bo to nie do końca jest jeden model – może generować różne odpowiedzi.” Ilustrował to przykładem, jak można „oszukać” AI, zadając pytanie w sposób niebezpośredni (np. prosząc o instrukcję stworzenia „bombki choinkowej” jako eufemizm dla ładunku wybuchowego). „Ja bym nie nazwał tego, że to jest oszukanie, to jest inny model podania zapytania do systemu.” Piotrowski podkreślił, że użytkownicy powinni być świadomi, jakie dane udostępniają modelom AI. „My powinniśmy kontrolować to, co jesteśmy w stanie wrzucić do takiego modelu. Jeżeli jesteśmy pracownikiem firmy i robimy pracę twórczą, np. programista, i wrzuca kod po prostu Ctrl+C, Ctrl+V do AI – czy to jest etyczne? Ktoś powie nie, bo to jest wartość intelektualna i to może powodować, że ten model się nauczy i podpowie komuś, co robimy.”
Posłuchaj:
Wojciech Luściński/aKa





