Rozporządzenie o AI Act – nowe podejście do sztucznej inteligencji
W ostatnich latach pojawiło się wiele nowych technologii, które wykorzystują rozwiązania sztucznej inteligencji. Budzą one zarówno podziw z powodu rosnących możliwości, jak i obawy przed wykorzystaniem ich do niewłaściwych celów. Dlatego Unia Europejska zdecydowała się uregulować korzystanie z AI. Czym jest to rozporządzenie, kogo dotyczy i co oznacza dla użytkowników? Wyjaśniamy!
Czym są regulacje AI Act?
AI Act lub akt w sprawie sztucznej inteligencji to skrócona nazwa Rozporządzenia Parlamentu Europejskiego i Rady UE nr 2024/1609 z dnia 13 czerwca 2024 r.
Głównym celem rozporządzenia jest wprowadzenie ram prawnych i organizacyjnych dla rozwiązań wykorzystujących technologię AI na terenie Unii Europejskiej. Pomysłodawcy AI Act zakładają, że sztuczna inteligencja ma być narzędziem służącym dobru człowieka i nie może naruszać jego podstawowych praw, które Unia Europejska zobowiązuje się chronić.
Wśród chronionych wartości znajduje się m.in. własność intelektualna. Dlatego AI Act obejmuje również generatory treści. Zostały one podzielone na dwie kategorie:
- Modele AI ogólnego przeznaczenia – producenci modeli AI będą zobowiązani do uzyskania zgody na wykorzystanie materiałów chronionych prawami autorskimi oraz zachowania wymogu przejrzystości.
- Modele AI ogólnego przeznaczenia o podwyższonym ryzyku systemowym – będą podlegać między innymi testom i kontrolom bezpieczeństwa. Ich twórcy zostaną również zobowiązani do ujawnienia danych z dokumentacji technicznej.
Rozporządzenie mówi zarówno o systemach AI, jak i o modelach AI. Czym różnią się między sobą?
System AI
System AI w rozumieniu AI Act jest każdym produktem lub programem, który w całości lub częściowo opiera swoje działanie na sztucznej inteligencji. Jego głównymi cechami są:
- działanie z wykorzystaniem maszyn;
- umiejętność wyciągania wniosków w oparciu o dostarczone dane;
- częściowa zdolność do działania bez udziału człowieka.
Model AI
Modelem AI nazwano oprogramowanie, na którym przeprowadza się proces maszynowego uczenia w oparciu o różne strategie. Rozporządzenie wymienia kilka rodzajów:
- Samodzielnie nadzorowane – czyli maszynowe uczenie przez przykłady. Ta metoda wykorzystuje dwa rodzaje danych: wejściowe i wyjściowe. Model AI korzysta z danych wejściowych, by za pomocą prawidłowości dojść do danych wyjściowych.
- Nienadzorowane – polega ono na samodzielnym poszukiwaniu powiązań przez testowane oprogramowanie i przedstawieniu ich wyniku.
- Uczone przez wzmacnianie – wymaga ono dostarczenia programowi samych wyjściowych danych. Zadaniem modelu AI jest znalezienie jak największej liczby logicznych powiązań między nimi.
Aby można było mówić o systemie AI, model AI wymaga m.in. interfejsu użytkownika. Oznacza to, że w kontekście AI Act model nie jest tym samym, co system.
Kogo dotyczą regulacje AI Act?
AI Act dotyczą w różnym stopniu osób wykorzystujących sztuczną inteligencję w codziennej działalności.
Wśród nich znajdują się:
- dostawcy systemów AI lub modeli AI ogólnego przeznaczenia w UE;
- podmioty stosujące systemy AI, które mają siedzibę lub znajdują się fizycznie w UE;
- dostawcy i inne podmioty korzystające z AI, jeśli wyniki wytworzone przez sztuczną inteligencję są wykorzystywane w Unii;
- importerzy i dystrybutorzy systemów AI;
- producenci produktu, który wykorzystuje system AI;
- przedstawiciele firm zajmujących się AI z siedzibą poza UE;
- inni faktyczni i potencjalni użytkownicy AI.
Największa odpowiedzialność spoczywa jednak na dostawcach rozwiązań, które wykorzystują sztuczną inteligencję. To osoby wdrażające rozwiązania AI muszą dbać o etyczność stosowanych rozwiązań, bezpieczeństwo i transparentność.
Niestosowanie się do przepisów tego rozporządzenia będzie się wiązać z karą pieniężną, której wysokość jest szczegółowo określona w rozporządzeniu.
Kogo nie dotyczy AI Act?
Warto jednak wiedzieć, że rozporządzenie nie dotyczy niektórych systemów AI. Są to rozwiązania (lub ich wyniki), które są wykorzystywane wyłącznie do celów:
- obronnych,
- wojskowych,
- naukowych,
- rozwojowych,
- testowych przed wprowadzeniem do obiegu,
- bezpieczeństwa narodowego,
- osobistej działalności pozazawodowej.
AI Act nie dotyczy również systemów AI działających na zasadzie bezpłatnych licencji otwartego oprogramowania, o ile nie są systemem wysokiego ryzyka.
Przeczytaj również
Co zmienia wprowadzenie AI Act?
AI Act nakłada szereg zobowiązań w stosunku do przedsiębiorców i osób fizycznych, które korzystają z rozwiązań sztucznej inteligencji. Każdy system AI podlega klasyfikacji w zależności od potencjalnego zagrożenia.
Rozporządzenie wyróżnia cztery poziomy, na których może znaleźć się dana technologia AI:
AI niedopuszczalnego ryzyka
Są to wszystkie systemy AI, które ingerują w prawa człowieka i narażają go na szkodę lub nierówne traktowanie.
Przykładami takich rozwiązań są AI:
- wykorzystujące przekaz podprogowy, manipulację lub wprowadzenie w błąd do wpływania na zachowanie człowieka;
- mogące narażać na szkodę osoby z niepełnosprawnościami, niepełnoletnie lub w podeszłym wieku;
- stosujące system oceny punktowej (tzw. scoring) do oceny człowieka;
- oceniające ryzyko popełnienia przestępstwa na podstawie cech wyglądu i charakteru danej osoby;
- oceniające przeżywane przez człowieka emocje, przynależność rasową, poglądy polityczne, przynależność do związków zawodowych czy orientację seksualną;
- pozyskujące wizerunki człowieka z nielegalnych źródeł (ang. untargeted scraping).
Rozporządzenie określa wyjątki związane z celami medycznymi lub poszukiwaniem przestępców.
AI wysokiego ryzyka
AI wysokiego ryzyka jest dopuszczalne pod warunkiem spełnienia szeregu wymogów przez dostawcę. Mają one zmniejszyć ryzyko nieuprawnionego wykorzystania. Do niektórych z obowiązków należą:
- posiadanie systemu zarządzania jakością;
- spełnienie obowiązków rejestracyjnych;
- zapewnienie zgodności systemu AI wysokiego ryzyka z wymogami dostępności;
- umieszczenie na opakowaniu lub w systemie oznaczenia CE;
- umieszczenie znaku towarowego oraz adresu kontaktowego.
Do przykładowych systemów wysokiego ryzyka należą programy do selekcji dokumentów rekrutacyjnych w procesie rekrutacji na podstawie słów kluczowych, systemy do oceny zdolności kredytowej czy te przeznaczone do klasyfikacji zgłoszeń na numery alarmowe.
AI ograniczonego ryzyka
Najbardziej znanym systemem ograniczonego ryzyka są chatboty oraz tzw. deepfake, czyli podkładanie głosu lub twarzy pod inne zdjęcie lub wideo. Podmioty wykorzystujące te systemy mają przede wszystkim obowiązek informować użytkowników o tym, że ich działanie jest oparte na sztucznej inteligencji. Jest to szczególnie istotne w przypadku deepfake’ów, które w niektórych sytuacjach mogą narazić twórcę na odpowiedzialność karną.
AI minimalnego ryzyka
Do tej kategorii zaliczają się systemy AI, które nie stwarzają ryzyka manipulacji użytkownikiem, na przykład filtr spamu. Twórcy tych systemów muszą jedynie przestrzegać ogólnych rekomendacji.
Kiedy nowe przepisy weszły w życie?
Rozporządzenie AI Act weszło w życie 01.08.2024 r.
Jego zapisy będą wdrażane stopniowo, aby umożliwić wszystkim zainteresowanym dostosowanie się do zmian.
Proces wdrożenia AI Act
Tak przedstawia się proces wdrożenia AI Act:
- po upływie 6 miesięcy (od 2.02.2025 r.) od wejścia rozporządzenia w życie wiążące staną się ogólne przepisy, a rozwiązania AI z kategorii niedopuszczalnego ryzyka zostaną oficjalnie zakazane;
- po upływie 12 miesięcy zaczną obowiązywać m.in. zapisy dotyczące organów nadzorujących w poszczególnych krajach, karach, które będą obowiązywać za nieprzestrzegania zapisów tego rozporządzenia oraz systemów AI ogólnego przeznaczenia;
- po upływie 24 miesięcy (tj. 2.08.2026 r.) państwa członkowskie, przedsiębiorcy i osoby fizyczne będą zobowiązani do stosowania się do wszystkich zapisów.
Jak rozsądnie korzystać ze sztucznej inteligencji?
Mimo szerokich możliwości oraz obiecujących perspektyw sztuczna inteligencja może wykorzystywać dostarczone dane do niewłaściwych celów lub wprowadzać użytkownika w błąd. Jak zachować czujność?
Weryfikuj informacje
Nie wszystkie informacje przekazywane przez sztuczną inteligencję są aktualne i prawdziwe. Dzieje się tak dlatego, że systemy bazujące na AI dysponują ograniczoną bazą wiedzy. W sytuacji, w której nie znają odpowiedzi, wygenerują scenariusz, który będzie najbardziej prawdopodobny, choć niekoniecznie zgodny z faktami. Jeśli szukasz informacji, korzystaj wyłącznie ze sprawdzonych źródeł.
Przeczytaj również
Korzystaj z umiarem
Jak zauważają autorzy aktu o sztucznej inteligencji, jest ona tylko narzędziem w służbie człowiekowi. Bezmyślne powielanie efektów pracy AI nie służy poszerzaniu horyzontów, za to stwarza większe ryzyko podatności na manipulacje. W dobie szerzących się nieprawdziwych informacji, które mogą wpływać na zachowanie i decyzje innych ludzi, niezwykle ważny jest zdrowy rozsądek.
Pamiętaj o odpowiedzialności
Deepfake w wielu sytuacjach może dać zaskakujące efekty, jednak należy z niego korzystać mądrze. W par. 190 kodeksu karnego (kradzież wizerunku) istnieje zapis mówiący o karze w przypadku narażenia właściciela wizerunku na szkody majątkowe lub osobiste.
Podsumowanie
- AI Act to obowiązujące rozporządzenie Parlamentu Europejskiego, które jako pierwsze na świecie określa zasady korzystania ze sztucznej inteligencji.
- Mimo że rozporządzenie dotyczy głównie producentów systemów AI, odnosi się również do organów państwowych oraz osób fizycznych.
- Narzędzia sztucznej inteligencji dzielą się na zakazane AI (o niedopuszczalnym ryzyku), AI wysokiego ryzyka, AI ograniczonego ryzyka oraz AI ryzyka minimalnego.
- Generatory treści podzielono na modele AI ogólnego przeznaczenia i modele AI ogólnego przeznaczenia, które stwarzają większe ryzyko systemowe.
- Aby rozsądnie korzystać ze zdobyczy technologicznych, warto zachować krytyczne podejście, umiar oraz być świadomym odpowiedzialności.
Oceń artykuł:
Dodaj komentarz