Sztuczna inteligencja w zarządzaniu. Regulacja a konkurencja - ebook
Sztuczna inteligencja w zarządzaniu. Regulacja a konkurencja - ebook
Celem monografii jest znalezienie odpowiedzi na pytanie: jakie są uwarunkowania stosowania sztucznej inteligencji zarówno w różnych sferach gospodarki, jak i życiu codziennym. Książka jest wynikiem głębokich interdyscyplinarnych studiów i przemyśleń autora, który dokonuje analizy prawa, orzecznictwa oraz innowacji regulacyjnych w wiodących technologicznie krajach świata. Stara się odpowiedzieć na pytanie: jakie są uwarunkowania stosowania sztucznej inteligencji zarówno w różnych sferach gospodarki, jak i życiu codziennym. Rozpatruje szczegółowe implikacje prawne od strony regulacji i konkurencyjności.
Wpierwszym rozdziale autor charakteryzuje ogólne tendencje dotyczące regulacji sztucznej inteligencji na świecie, przybliża problemy konkurencji regulacyjnej, porównując regulacje USA i UE. Rozdział drugi jest poświęcony zastosowaniom sztucznej inteligencji w najnowszych technologiach takich jak: blockchain, big data, zarządzanie danymi, bigtechy. Poruszone w nim zostały także zagadnienia AI i cyberbezpieczeństwa. W rozdziale trzecim autor analizuje problematykę zastosowania sztucznej inteligencji w branżach twórczych, przedstawia też szanse i zagrożenia związane z wykorzystaniem AI w relacji z prawami własności. W rozdziale czwartym czytelnik znajdzie omówienie nowego etapu rozwoju sztucznej inteligencji – generatywnej sztucznej inteligencji; autor zwraca też uwagę na zagrożenia związane z nielicencjonowanym używaniem ChatGPT. Problematyka ta jest rozpatrywana w przekroju: granic ochrony praw własności intelektualnej, potrzeby nowego spojrzenia na metawersum, szans i zagrożeń dla marketingu, nowych wyzwań dla zarządzania oraz zastosowań w sektorze publicznym, telekomunikacyjnym i finansowym. W ten sposób publikacja włącza się w dyskusję nad rolą generatywnej AI w życiu gospodarczym i społecznym. Ostatni rozdział przekierowuje uwagę czytelnika na kwestie regulacji dotyczących eksploracji tekstów i danych.
Ze względu na unikalny interdyscyplinarny charakter monografia może zwrócić uwagę szerokiego grona czytelników, choć przede wszystkim jest adresowana do osób zainteresowanych problemami regulacji prawnej sztucznej inteligencji.
Kategoria: | Zarządzanie i marketing |
Zabezpieczenie: |
Watermark
|
ISBN: | 978-83-8175-641-9 |
Rozmiar pliku: | 2,3 MB |
FRAGMENT KSIĄŻKI
------------ ---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
AI – Artificial Intelligence (sztuczna inteligencja)
AI Act – Artificial Intelligence Act (rozporządzenie o sztucznej inteligencji)
ALI – Artificial Liquid Intelligence (sztuczna płynna inteligencja)
APR – Automatically Processed Regulations (regulacje przetwarzalne automatycznie)
bigtech – Big Technology (zbiorcze określenie globalnych platform cyfrowych, takich jak np. amerykańskie firmy Alphabet (Google), Amazon, Apple, Meta i Microsoft albo chińskie przedsiębiorstwa typu Alibaba, Baidu, Tencent i Xiaomi
ChatGPT – Generative Pretrained Transformer (chatbot opracowany przez OpenAI, wykorzystujący model GPT i służący do generowania odpowiedzi na dane wprowadzane przez użytkownika)
CMA – Competition and Market Authority (Urząd Nadzoru nad Konkurencją i Rynkiem w Wielkiej Brytanii)
CoT – Chain-of-Thought prompting (podpowiedzi w LLM oparte na łańcuchu myśli)
DA – Data Act (rozporządzenie o danych)
DGA – Data Governance Act (rozporządzenie o zarządzaniu danymi)
DMA – Digital Markets Act (rozporządzenie o rynkach cyfrowych)
DNS – Domain Name System (protokół, którego główną funkcją jest tłumaczenie łatwych do zapamiętania nazw domen na zrozumiałe dla komputerów dane liczbowe)
DoS – Denial of Service Attack (atak powodujący blokadę dostępu)
DSA – Digital Services Act (rozporządzenie o usługach cyfrowych)
DSM – Digital Single Market Directive (dyrektywa z 2019 r. o prawach autorskich i pokrewnych na jednolitym rynku cyfrowym)
EDR – Endpoint Detection and Response (analiza zagrożeń w punktach końcowych)
ESG – Environmental, Social, Governance (środowisko, społeczeństwo i ład korporacyjny)
fintech – Financial Technology (technologie finansowe – innowacje technologiczne w sektorze finansów, a także nazwy firm, które oferują rozwiązania innowacyjne dla sektora finansowego)
FRAND – Fair, Reasonable and Non Discriminatory (licencjonowanie na warunkach uczciwych, rozsądnych i niedyskryminacyjnych)
FTC – Federal Trade Commission (Federalna Komisja Handlu w USA)
GAN – Generative Adversarial Network (generatywna sieć kontradyktoryjna)
GenAI – Generative Artificial Intelligence (generatywna sztuczna inteligencja)
GPT – Generative Pretrained Transformer (generujący, wstępnie wytrenowany model transformujący AI)
IoT – Internet of Things (internet rzeczy)
LGAIM – Large Generative Artificial Intelligence Model (duży model generatywnej sztucznej inteligencji)
LLM – Large Language Model (duży model językowy)
MEV – Maximal Extractable Value (maksymalna wartość możliwa do wydobycia przez górników)
MICA – Market in Crypto Assets Regulation (rozporządzenie o rynku kryptoaktywów)
ML – Machine Learning (uczenie maszynowe)
NDA – Non-Disclosure Agreement (umowa o zachowaniu poufności)
NFT – Non-Fungible Token (niewymienny token)
NLP – Natural Language Processing (przetwarzanie języka naturalnego)
RASP – Runtime Application Self Protection (bieżąca ochrona przed atakami na aplikacje)
regtech – Regulatory Technology (technologia regulacyjna)
SEO – Search Engine Optimization (optymalizacja wyników wyszukiwania stron WWW)
SEP – Standard Essential Patents (patent chroniący technologię niezbędną do wdrożenia standardu rynkowego)
SIEM – Security Information and Event Management (system, w którym potrzebna jest korelacja informacji pochodzących z wielu źródeł)
SOC – Security Operations Center (zespół specjalistów, którego misją jest monitorowanie i poprawa bezpieczeństwa organizacji, przy wykorzystaniu mechanizmów wykrywania, analizowania i reagowania na incydenty związane z bezpieczeństwem)
suptech – Supervision Technology (technologia nadzorcza)
TDM – text and data mining (eksploracja tekstu i danych)
TPM – Technical Protection Measures (techniczne środki ochrony)
VLOP – Very Large Online Platforms (bardzo duże platformy cyfrowe w terminologii DSA)
VLOSE – Very Large Online Search Engines (bardzo duże wyszukiwarki sieciowe w terminologii DSA)
XAI – Explainable Artificial Intelligence (wyjaśnialna sztuczna inteligencja)
------------ ---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------WPROWADZENIE
Książka jest wynikiem szeroko zakreślonych interdyscyplinarnych studiów i przemyśleń autora z pogranicza prawa, informatyki i zarządzania. Teoretyczny i instytucjonalny kontekst – to ocena skutków regulacji, ekonomiczna analiza prawa, orzecznictwa oraz innowacji regulacyjnych. W tym celu wykorzystano studia literaturowe, a także prawo i orzecznictwo. Monografia jest próbą wypełnienia luki badawczej związanej z możliwością zastosowań sztucznej inteligencji (AI) i generatywnej sztucznej inteligencji (GenAI) w zarządzaniu w kontekście konkurencji oraz regulacji. Kluczowe jest zbadanie współzależności między GenAI a twórczością (sztuką), w szczególności tokenami NFT. GenAI na nowo definiuje sztukę cyfrową. Nowa instytucja eksploracji tekstu i danych (TDM), wprawdzie dość wąsko zakreślona, obarczona jest niepewnością prawną. Niejasne są także prawa twórcy tokenu NFT do tokenizowanego dzieła, którego autorem jest inna osoba lub firma. Potencjalne korzyści skojarzenia GenAI i NFT dla artystów i kolekcjonerów są ogromne. GenAI daje szansę pomocy dla artystów, którzy nie czują się dostatecznie twórczy. Zagrożeniem może być konkurencja ze strony GenAI, gdyż już obecnie może ona tworzyć sztukę, której nie da się odróżnić od sztuki stworzonej przez człowieka. Istotnym ograniczeniem dotychczasowych badań jest niejasność prawa i skąpe, początkowe orzecznictwo. Perspektywicznym kierunkiem badań jest ekonomia i prawo nowych technologii, w szczególności ich kojarzenia, np. sztucznej inteligencji, blockchaina i NFT. Teoretyczne i praktyczne implikacje podjętego tematu mogą się przyczynić do wyjaśnienia ekonomicznej i prawnej charakterystyki wpływu GenAI na rynek sztuki i sektory kreatywne.
Często akcentuje się potrzebę interdyscyplinarnej, systemowej, holistycznej analizy nowych technologii i ich potencjalnych zastosowań. W przypadku nowych technologii (takich jak blockchain, sztuczna inteligencja itp.) powstają istotne pytania, np. czy regulować samą technologię, czy raczej jej zastosowania (zafiksowanie określonej technologii w prawie może wywoływać konieczność częstych zmian, gdyż technologia szybko się rozwija, a jedną z możliwości jest zapisanie zasady neutralności technologicznej). Inne kwestie, np. w jakim zakresie z uwagi na cechy technologii powinny być regulacje krajowe, a w jakiej globalne lub co najmniej globalnie uzgadniane, oparte na wspólnej infrastrukturze krytycznej. Sprzeczne postulaty dotyczą także kwestii, kiedy regulować. Czy należy to czynić bardzo wcześnie, aby zapobiegać oszustwom i manipulacji, promować etykę i zaufanie, chronić konkurencję i konsumenta, czy dopiero wtedy, gdy technologia dojrzeje, aby nie hamować rozwoju rynku i innowacyjnych modeli biznesowych?
Dylemat ten można przedstawić na przykładzie rynku kryptoaktywów, DLT blockchain i sztucznej inteligencji. Na początku rozwoju rynku kryptoaktywów nie było szczególnych regulacji. Dopiero niedawno pojawiły się rozporządzenia MICA oraz projekt pilotażowy blockchain dla infrastruktury rynku finansowego. Wcześniej był to dziki kapitalizm, wiele ofert ICO czy szerzej – zdecentralizowane finanse (DeFI) były oszustwami, w których wielu inwestorów traciło swoje pieniądze. Jest postulat szerokiego ujęcia oceny skutków regulacji (OSR), gdyż np. w przypadku zastosowania blockchaina czy zaawansowanych modeli AI i ML w wielu dziedzinach naraz byłoby to nieekologiczne, sprzeczne z koncepcją ESG, ze względu na bardzo duży pobór prądu, zwłaszcza w krajach, gdzie produkuje się prąd z węgla. W kontekście DLT blockchain można rozważać m.in., jakie byłyby optymalne proporcje między instrumentami technologii AI oraz prawa, np. w regulacji cyberbezpieczeństwa, w ochronie praw własności intelektualnej, zwłaszcza w kontekście rozwoju praktycznych zastosowań komputerów kwantowych. Jakie są granice kodowania prawa, korzystania z inteligentnych, samorealizujących się, automatycznych umów (smart contracts)? W jakiej mierze można korzystać z oprogramowania pomocnego w compliance (regtech) czy w nadzorze sprawowanym przez władze publiczne (suptech). Inny przykład to sztuczna inteligencja.
W Unii Europejskiej powstała pierwsza próba kompleksowej regulacji Artificial Intelligence Act (AI Act) według kryterium ryzyka, a także odpowiedzialności za sztuczną inteligencję. W innych ważnych jurysdykcjach (np. Wielka Brytania, USA) uznano, że AI jest na wczesnym etapie rozwoju i można eksperymentować (np. w formie piaskownic regulacyjnych), lecz nie należy się śpieszyć. Są to raczej wytyczne dla organów i agencji regulacyjnych (np. w USA czy Wielkiej Brytanii), jak wykonywać kompetencje w kontekście nowych technologii, w szczególności AI (np. ludzie muszą być informowani, że rozmawiają z botem, mają prawo do wyjaśnień, jak działają algorytmy, gdy są one podstawą decyzji określającej ich prawa lub obowiązki, gdy rozmowa z influencerem w sieci ma charakter komercyjny, a nie towarzyski). Podobne uwagi dotyczą fintechów i bigtechów, także w kontekście AI. Tutaj na pierwszym planie jest analiza, czy została zachowana wolność, równość i uczciwość konkurencji (np. fintechy a banki, Uber a taksówki). Czy np. platformizacja nie wymaga dodatkowych regulacji bigtechów, wykraczających poza prawo konkurencji (co się dokonało niedawno w DMA i DSA, gdzie w DMA dodatkowe restrykcje nałożono na tzw. strażników dostępu, a w DSA dano szansę użytkownikom na częściowe wymknięcie się spod „władzy” algorytmów). Należy także wspomnieć o regulacji datafikacji (DA i DGA), które w założeniu miały być antytezą GDPR (RODO), aby ułatwić przepływ danych i dostęp do danych, kiedy przemawia za tym interes publiczny (np. szkolenie algorytmów sztucznej inteligencji i uczenia maszynowego wymaga znacznej liczby dobrej jakości danych, w innym razie wynik będzie daleki od oczekiwań). Wreszcie warto dodać, że rozwój wirtualnej, rozszerzonej i mieszanej rzeczywistości w formie metawersum wymaga przemyślenia licznych regulacji, np. RODO, gdyż przy wielokierunkowym, szybkim przepływie danych zarówno między ludźmi, jak i w ramach internetu rzeczy, niemożliwe jest wyrażanie zgody na każdorazowe, pojedyncze udostępnienie danych.
Inny problem, dotąd bez jasnej, jednoznacznej wykładni, to nowa instytucja eksploracji tekstu i danych (text and data mining), która pojawiła się w unijnej regulacji ochrony praw autorskich z 2019 r. i jest kluczowa dla uczenia się systemów AI i Machine Learning (ML). Ta furtka jest wprawdzie dość wąska (TDM może dotyczyć tylko celów naukowych lub niekomercyjnych), mimo to nie można wykluczyć zarzutów o naruszanie cudzych praw. Zależy to od kontekstu jurysdykcji, interpretacji zasady dozwolonego użytku itp. W dobie ChatGPT czy dużych modeli językowych AI (LLM) wymaga to dalszych wyjaśnień, np. czy nie można przyjąć analogii do korzystania z utworu na własny, niekomercyjny użytek (co nie wymaga zgody autora), czy do non-display use, wykorzystywanego w maszynowym przetwarzaniu tekstów i danych (np. w celu tłumaczenia na inne języki), co nie jest publicznym udostępnianiem chronionych utworów. Ciekawa jest analiza metawersum z perspektywy kluczowych wyzwań dla regulacji, a także szans i zagrożeń dla biznesu. Część badaczy sądzi, że jest to tylko inkrementalny rozwój rozszerzonej (mieszanej) rzeczywistości, trend rozwoju serwisów społecznościowych, gamingu i rozrywki, bez cech przełomowej innowacji. Inni wskazują na jakościowe zmiany środowiska internetu, już obecnie wpływające na penetrację metawersum przez korporacje i modele biznesowe. Próba analizy dotychczasowych doświadczeń i kierunków rozwoju metawersum jest istotna również w kontekście oceny skutków regulacji AI oraz GenAI.
Kontekst rozważań w tej książce stanowi najnowsza regulacja sztucznej inteligencji w UE – AI Act (Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji), O.J. L z 13.06.2024 (https://eur-lex.europa.eu/legal-content/PL/TXT/HTML/?uri=OJ:L_202401689).1. PROBLEMY REGULACJI SZTUCZNEJ INTELIGENCJI
1.1. Kierunki regulacji sztucznej inteligencji na świecie
Systemy sztucznej inteligencji stosowane w Unii Europejskiej powinny być bezpieczne, przejrzyste, identyfikowalne, niedyskryminacyjne i przyjazne dla środowiska. Powinny również być nadzorowane przez ludzi, a nie przez automaty, aby zapobiegać szkodliwym skutkom. Systemy AI, które mogą być używane w różnych aplikacjach, są analizowane i klasyfikowane zgodnie z ryzykiem, jakie stwarzają dla użytkowników. Różne poziomy ryzyka będą oznaczać mniej lub więcej regulacji. Nowe przepisy AI Act określają obowiązki dostawców i użytkowników w zależności od poziomu ryzyka ze strony sztucznej inteligencji. Chociaż wiele systemów sztucznej inteligencji stwarza minimalne ryzyko, należy je także oceniać (EP 2023). Wszystkie analizowane jurysdykcje, z wyjątkiem RPA, przyjęły krajowe strategie dotyczące sztucznej inteligencji w ciągu ostatnich kilku lat. Wczesne regulacje pojawiły się w Kanadzie i Chinach, których strategie AI sięgają 2017 r. Można wskazać trzy główne podejścia do regulacji sztucznej inteligencji: promowanie zasad odpowiedzialnego użytkowania; proponowanie przepisów ukierunkowanych na zastosowania AI wysokiego ryzyka; regulujące określone technologie. Te trzy rodzaje podejść stwierdzono np. odpowiednio w USA, UE i Chinach (Moura Gomez 2023).
Kluczowe organy (w tym Chińska Administracja Cyberprzestrzeni – CAC – oraz Ministerstwo Przemysłu i Technologii Informacyjnych) wspólnie wydały „Wytyczne dotyczące budowy krajowego systemu standardów sztucznej inteligencji nowej generacji 2020”, w których określono osiem aspektów strukturalnych systemu standardów sztucznej inteligencji w celu kierowania tworzeniem ram technicznych. Obejmują one podstawowe kwestie, takie jak platformy oprogramowania i sprzętu, kluczowe technologie obszarowe i zastosowania przemysłowe, ale także zasady regulacyjne, takie jak bezpieczeństwo i etyka AI. W następnym kroku Krajowy Komitet Techniczny ds. Standaryzacji Bezpieczeństwa Informacji (TC260) opracował kilka krajowych norm dotyczących uczenia maszynowego i etyki algorytmów. Ponadto odrębny organ normalizacyjny TC28 (tj. Krajowy Komitet Techniczny ds. Standaryzacji Technologii Informacyjnych) sformułował własne normy związane ze sztuczną inteligencją, w tym kodeks dotyczący etykietowania i adnotowania danych wejściowych w modelach uczenia maszynowego (GDPR 2023).
W 2023 r. Minister Innowacji, Nauki i Przemysłu Kanady ogłosił Dobrowolny Kodeks Postępowania w zakresie odpowiedzialnego rozwoju i zarządzania zaawansowanymi generatywnymi systemami AI. Proponowana ustawa o sztucznej inteligencji i danych (AIDA), wprowadzona w ramach ustawy o wdrażaniu Karty cyfrowej z 2022 r., stworzyłaby podstawy odpowiedzialnego projektowania, rozwoju i wdrażania systemów sztucznej inteligencji, które mają wpływ na życie ludzi. Ustawa zapewni, że systemy sztucznej inteligencji wdrożone w Kanadzie będą bezpieczne i niedyskryminacyjne, a także pociągnie przedsiębiorstwa do odpowiedzialności za sposób, w jaki rozwijają i wykorzystują te technologie (ISED 2023). Singapur przyjmuje podejście sektorowe do regulacji zarządzania sztuczną inteligencją. Wszystkie agencje regulacyjne, które dokonały dotychczas posunięć, przyjęły podejście oparte na prawie miękkim (Jones 2024).
W Japonii nie obowiązują ogólne przepisy, które ograniczałyby wykorzystanie sztucznej inteligencji. Takie prawnie wiążące wymagania horyzontalne dla systemów AI uznaje się na chwilę obecną za niepotrzebne, ponieważ regulacje napotykają trudności w dotrzymaniu tempa i złożoności innowacji w zakresie AI. Nakazowe, statyczne i szczegółowe regulacje w tym kontekście mogłyby stłumić innowacje. Dlatego stwierdza się, że rząd powinien szanować dobrowolne wysiłki przedsiębiorstw na rzecz zarządzania sztuczną inteligencją, zapewniając jednocześnie niewiążące wytyczne mające na celu wsparcie lub ukierunkowanie tych wysiłków. Wytyczne powinny opierać się na dialogu z wieloma zainteresowanymi stronami oraz być stale i terminowo aktualizowane. Podejście to nazywa się „zwinnym zarządzaniem” i jest podstawowym podejściem Japonii do zarządzania cyfrowego. Patrząc na regulacje sektorowe, żadna z nich nie zabrania stosowania sztucznej inteligencji jako takiej, lecz raczej nakłada na przedsiębiorstwa obowiązek podjęcia odpowiednich środków i ujawnienia informacji o ryzyku. Na przykład ustawa o przejrzystości platform cyfrowych nakłada na duże platformy handlowe, sklepy z aplikacjami i firmy zajmujące się reklamą cyfrową wymogi zapewnienia przejrzystości i uczciwości w transakcjach z użytkownikami biznesowymi, w tym ujawniania kluczowych czynników wpływających na ich rankingi wyszukiwania. Ustawa o instrumentach finansowych i giełdach wymaga od przedsiębiorstw zajmujących się szybkim handlem algorytmicznym rejestracji oraz ustanowienia systemu zarządzania ryzykiem i prowadzenia dokumentacji transakcji. Z punktu widzenia uczciwej konkurencji Japońska Komisja ds. Sprawiedliwego Handlu przeanalizowała potencjalne ryzyko kartelu i nieuczciwego handlu prowadzonego przez algorytmy i doszła do wniosku, że większość kwestii mogłaby zostać uregulowana w istniejącej ustawie antymonopolowej. Obowiązują pewne przepisy, które nie dotyczą wprost systemów sztucznej inteligencji, ale nadal mają znaczenie dla jej rozwoju i wykorzystania. Ustawa o ochronie danych osobowych opisuje najważniejsze obowiązki organizacji zbierających, wykorzystujących lub przekazujących dane osobowe (Habuka 2023).
Wielka Brytania nie uchwala przepisów dotyczących sztucznej inteligencji, dopóki nie nadejdzie odpowiedni moment. Obecnie koncentruje się na poprawie bezpieczeństwa tej technologii i budowaniu potencjału regulacyjnego w celu wsparcia ram „proinnowacyjnych”. Na razie wskazano 12 obszarów wyzwań dla prawodawstwa dotyczącego sztucznej inteligencji, które wiążą się z różnymi problemami konkurencji, odpowiedzialności i społecznymi związanymi z działaniem sztucznej inteligencji, w tym m.in. stronniczości, prywatności, wprowadzania w błąd, dostępu do danych, dostępu do mocy obliczeniowej i otwartego oprogramowania. Chodzi o to, aby lepiej zrozumieć, jakie dokładnie jest ryzyko. W przypadku każdej regulacji kluczowy jest właściwy moment i ryzyko zdławienia innowacji przez zbyt szybkie działanie bez odpowiedniego zrozumienia pełnych możliwości i ograniczeń tej technologii. Głównym elementem rządowych propozycji jest poleganie na organach regulacyjnych – w tym Biurze Komisarza ds. Informacji, Urzędzie ds. Zdrowia i Bezpieczeństwa, Komisji ds. Równości i Praw Człowieka oraz Urzędzie ds. Konkurencji i Rynków – aby stworzyć dostosowane do kontekstu zasady, które odpowiadają sposobom wykorzystania sztucznej inteligencji w kontrolowanych przez nich sektorach (Skelton 2023).
Obecnie regulacja sztucznej inteligencji w Stanach Zjednoczonych jest wciąż na wczesnym etapie i nie ma kompleksowego ustawodawstwa federalnego poświęconego wyłącznie tej regulacji. Istnieją jednak przepisy i normy, które dotyczą pewnych aspektów sztucznej inteligencji, takich jak prywatność, bezpieczeństwo i przeciwdziałanie dyskryminacji. Ponadto różne agencje federalne były aktywnie zaangażowane w badanie polityki AI i wydawanie wytycznych (Pozza 2023; Kang 2023). Dotychczas większość dyskusji na temat sztucznej inteligencji obracała się wokół futurystycznych obaw związanych z tym, że technologia stanie się świadoma i zwróci się przeciwko ludzkości, zamiast wpływu, jaki sztuczna inteligencja już wywiera: zwiększając inwigilację, nasilającą się dyskryminację, osłabiając prawa pracownicze i tworząc masową dezinformację. Eksperci ostrzegają, że jeśli ustawodawcy i agencje rządowe powtórzą w regulacji AI te same błędy, które popełnili podczas próby uregulowania platform mediów społecznościowych, może to mieć jeszcze bardziej katastrofalne skutki (Bhuiyan, Robins-Early 2023; Meltzer 2023). Do czasu pojawienia się mediów społecznościowych sfera publiczna była dyscyplinowana przez „strażników”, takich jak tradycyjne środki masowego przekazu i instytucje społeczeństwa obywatelskiego. Działały na rzecz egzekwowania wspólnego zestawu norm w dyskursie publicznym. Strażnicy ustanawiali i egzekwowali podstawowe normy komunikacji społecznej, unikając jednocześnie bezpośredniej ingerencji państwa w dyskurs publiczny. Dzięki mediom społecznościowym ludzie mogą teraz ominąć te instytucje i dotrzeć bezpośrednio do masowych odbiorców – co nazywamy „efektem obejścia”. Kraje reagują na konsekwencje efektu obejścia, bezpośrednio egzekwując lokalne normy społeczne. Pewnym wyjściem jest jednolita regulacja platform (Abri, Guidi 2024).
Wśród wyzwań stojących dziś przed demokracją jest wykorzystywanie technologii, danych i zautomatyzowanych systemów w sposób zagrażający prawom człowieka. Zbyt często narzędzia te są stosowane do ograniczania możliwości dostępu do krytycznych zasobów lub usług. Problemy te są dobrze udokumentowane. Na całym świecie systemy, które miały pomagać w opiece nad pacjentem, okazały się niebezpieczne, nieskuteczne lub stronnicze. Algorytmy stosowane przy podejmowaniu decyzji o zatrudnieniu i kredytowaniu odzwierciedlają i odtwarzają niepożądane nierówności lub tworzą nowe szkodliwe uprzedzenia i dyskryminację. Niekontrolowane gromadzenie danych w mediach społecznościowych było wykorzystywane do zagrażania działalności ludzi, naruszania prywatności lub wszechobecnego śledzenia ich aktywności – często bez ich wiedzy i zgody.
Te skutki są głęboko szkodliwe, ale nie są nieuniknione. Zautomatyzowane systemy przyniosły niezwykłe korzyści, od technologii, która pomaga rolnikom w bardziej wydajnej uprawie żywności, przez komputery, które przewidują ścieżki burz, po algorytmy, które mogą identyfikować choroby u pacjentów. Narzędzia te wpływają teraz na podejmowanie ważnych decyzji w różnych sektorach, a dane pomagają zrewolucjonizować wszystkie branże w gospodarce. Napędzane potęgą innowacji mają potencjał, aby na nowo zdefiniować każdą część naszego społeczeństwa i uczynić życie lepszym dla wszystkich. Ten ważny postęp nie może odbywać się kosztem praw obywatelskich ani wartości demokratycznych, fundamentalnych zasad konstytucyjnych.
Biuro Polityki Nauki i Technologii Białego Domu określiło pięć zasad, które powinny kierować projektowaniem, użytkowaniem i wdrażaniem zautomatyzowanych systemów sztucznej inteligencji w celu ochrony ludzi. Blueprint for AI Bill of Rights to przewodnik dla społeczeństwa, który wskazuje, w jaki sposób ochronić ludzi przed tymi zagrożeniami i promować korzystne stosowanie technologii (WhiteHouse 2023; Seamans 2023). Zasady te można ująć następująco.
1. Bezpieczne i efektywne systemy
Należy chronić ludzi przed niebezpiecznymi lub nieefektywnymi systemami. Zautomatyzowane systemy należy opracowywać w porozumieniu z różnymi grupami społecznymi, zainteresowanymi stronami i ekspertami, aby zidentyfikować problemy, zagrożenia i potencjalne skutki systemu. Systemy powinny być poddawane testom przed wdrożeniem, identyfikacji oraz ciągłemu monitorowaniu, które wykaże, że są bezpieczne i skuteczne w zastosowaniu oraz zgodne ze standardami specyficznymi dla danej dziedziny. Rezultatem tych środków ochronnych powinna być możliwość niewdrożenia systemu lub wycofania systemu z użytkowania. Zautomatyzowane systemy nie powinny być projektowane z zamiarem lub dającą się racjonalnie przewidzieć możliwością narażenia bezpieczeństwa użytkownika. Powinny być zaprojektowane tak, aby proaktywnie chronić ludzi przed szkodami wynikającymi z niezamierzonego, ale możliwego do przewidzenia ich użycia lub wpływu. Należy chronić ludzi przed niewłaściwym lub nieistotnym wykorzystaniem danych podczas projektowania, opracowywania i wdrażania zautomatyzowanych systemów oraz przed złożonymi szkodami wynikającymi z ich ponownego wykorzystania. W miarę możliwości należy przeprowadzać niezależną ocenę i opracować raporty potwierdzające, że system jest bezpieczny i skuteczny, w tym zgłaszać kroki podjęte w celu złagodzenia potencjalnych szkód, a wyniki upubliczniać.
2. Algorytmiczne zabezpieczenia przed dyskryminacją
Nie należy dopuszczać do dyskryminacji ze strony algorytmów i systemów, które powinny być wykorzystywane i projektowane w sprawiedliwy sposób. Dyskryminacja algorytmiczna występuje, gdy zautomatyzowane systemy przyczyniają się do nieuzasadnionego odmiennego traktowania lub wywierają niekorzystny wpływ na ludzi ze względu na ich rasę, kolor skóry, pochodzenie etniczne, płeć (w tym ciążę, poród i powiązane schorzenia, tożsamość płciową i orientację seksualną), religię, wiek, narodowość, niepełnosprawność, status weterana, informację genetyczną lub jakąkolwiek inną cechę chronioną prawem. W zależności od konkretnych okoliczności taka algorytmiczna dyskryminacja może naruszać prawo. Projektanci, programiści i wdrażający zautomatyzowane systemy powinni podejmować proaktywne i ciągłe środki w celu ochrony jednostek i społeczności przed dyskryminacją algorytmiczną oraz używać i projektować systemy w sprawiedliwy sposób. Ochrona ta powinna obejmować: proaktywną ocenę równości w ramach projektu systemu, wykorzystanie reprezentatywnych danych i ochronę przed danymi zastępczymi dla cech demograficznych, zapewnienie dostępności dla osób niepełnosprawnych w zakresie projektowania i rozwoju, testowania i łagodzenia rozbieżności przed wdrożeniem i na bieżąco, a także jasne rozwiązania organizacyjne. Niezależna ocena i raporty w prostym języku w formie algorytmicznej oceny skutków, w tym wyniki testów rozbieżności i informacje o łagodzeniu skutków, powinny być przeprowadzane i podawane do wiadomości publicznej, gdy tylko jest to możliwe, w celu potwierdzenia skuteczności tych zabezpieczeń.
3. Prywatność danych
Należy chronić ludzi przed nadużyciami w zakresie danych za pomocą wbudowanych zabezpieczeń i gwarantować wpływ na to, w jaki sposób wykorzystywane są dane osobowe. Jest to ochrona przed naruszeniami prywatności przez rozwiązania projektowe, które zapewniają domyślne uwzględnienie takich zabezpieczeń, w tym zapewnienie, że gromadzenie danych jest zgodne z uzasadnionymi oczekiwaniami i tylko ściśle w określonym kontekście. Projektanci, programiści i wdrażający zautomatyzowane systemy powinni uzyskać zgodę danej osoby i szanować jej decyzje dotyczące gromadzenia, wykorzystywania, dostępu, przekazywania i usuwania danych w odpowiedni sposób i w największym możliwym zakresie, a tam, gdzie nie jest to możliwe, należy zastosować alternatywne zabezpieczenia prywatności w fazie projektowania. Systemy nie powinny opierać się na doświadczeniu użytkownika i decyzjach projektowych, które zaciemniają wybór użytkownika lub obciążają go ustawieniami domyślnymi naruszającymi prywatność. Zgody należy używać wyłącznie w celu uzasadnienia gromadzenia danych w przypadkach, w których można jej udzielić w odpowiedni i sensowny sposób. Wszelkie prośby o zgodę powinny być zwięzłe, podane prostym językiem i zapewniać swobodę w zakresie gromadzenia danych i określonego kontekstu wykorzystania; obecne, trudne do zrozumienia praktyki dotyczące szerokiego wykorzystania danych powinny zostać zmienione. Wzmocniona ochrona i ograniczenia dotyczące danych i wniosków związanych z danymi wrażliwymi, w tym zdrowiem, pracą, edukacją, wymiarem sprawiedliwości w sprawach karnych i finansami oraz danych dotyczących młodzieży powinny być na pierwszym miejscu. W dziedzinach wrażliwych dane i powiązane wnioski powinny być wykorzystywane wyłącznie do niezbędnych funkcji, a człowiek powinien być chroniony przez normy etyczne i zakazy użytkowania. Ludzi powinni być wolni od niekontrolowanej inwigilacji, a technologie nadzoru powinny podlegać wzmożonej kontroli, która obejmuje przynajmniej ocenę przed wdrożeniem ich potencjalnych szkód i ograniczeń zakresu w celu ochrony prywatności i swobód obywatelskich. Ciągłego nadzoru i monitorowania nie należy stosować w edukacji, pracy, mieszkalnictwie ani w innych kontekstach, w których korzystanie z takich technologii nadzoru może ograniczać prawa, możliwości lub dostęp. Jeśli to możliwe, powinien być otwarty dostęp do raportów, które potwierdzą, że decyzje dotyczące danych były przestrzegane, i zapewnią ocenę potencjalnego wpływu technologii nadzoru na prawa człowieka.
4. Uwagi i wyjaśnienia
Odbiorca powinien wiedzieć, że jest używany zautomatyzowany system i rozumieć, w jaki sposób i dlaczego przyczynia się on do wyników, które mają na niego wpływ. Projektanci, programiści i wdrażający zautomatyzowane systemy powinni zapewnić ogólnie dostępną dokumentację w prostym języku, w tym jasne opisy ogólnego funkcjonowania systemu i roli, jaką odgrywa automatyzacja, wymienić, jakie systemy są w użyciu, osobę lub organizację odpowiedzialną za system oraz podać wyjaśnienia jasne, terminowe i dostępne. Taka dokumentacja powinna być aktualizowana, a osoby, na które ma wpływ system, powinny być powiadamiane o istotnych przypadkach użycia lub zmianach kluczowych funkcjonalności. Trzeba wiedzieć, w jaki sposób i dlaczego wynik, który dotyczy danej osoby, został określony przez zautomatyzowany system, w tym także wtedy, gdy nie jest on jedynym czynnikiem decydującym o wyniku. Zautomatyzowane systemy powinny dostarczać wyjaśnień, które są technicznie poprawne, znaczące i przydatne dla osób, które muszą zrozumieć system, oraz skalibrowane do poziomu ryzyka na podstawie właściwego kontekstu. Sprawozdania zawierające podsumowanie informacji o tych zautomatyzowanych systemach wyrażone prostym językiem, oceny jasności i jakości dokumentacji oraz wyjaśnień powinny być podawane do wiadomości publicznej, gdy tylko jest to możliwe.
5. Alternatywy, rozważania i awarie
W stosownych przypadkach musi być możliwość rezygnacji z systemów automatycznych na rzecz alternatywy dla rozstrzygania przez człowieka. Powinna być ona określona na podstawie uzasadnionych oczekiwań w danym kontekście i z naciskiem na zapewnienie szerokiej dostępności i ochronę społeczeństwa przed szczególnie szkodliwymi skutkami. Użytkownik musi mieć dostęp do terminowego rozpatrzenia sprawy przez odpowiednie instytucje i środków zaradczych w ramach procesu awaryjnego, jeśli zautomatyzowany system zawiedzie, generuje błąd lub dana osoba chce się odwołać lub zakwestionować wpływ systemu. Decydowanie przez człowieka jako alternatywne rozwiązanie awaryjne powinno być dostępne, sprawiedliwe, skuteczne, utrzymywane wraz z odpowiednim szkoleniem operatorów i nie powinno nakładać nieracjonalnego obciążenia na społeczeństwo. Zautomatyzowane systemy przeznaczone do użytku w obszarach wrażliwych, w tym m.in. w wymiarze sprawiedliwości w sprawach karnych, zatrudnieniu, edukacji i zdrowiu, powinny być dodatkowo dostosowane do celu, zapewniać sensowny dostęp do nadzoru, obejmować szkolenie dla wszystkich osób wchodzących w interakcje z systemem i uwzględniać ludzkie podejście do decyzji niekorzystnych lub obarczonych wysokim ryzykiem. Sprawozdania zawierające opis tych procesów zarządzania ludźmi oraz ocenę ich terminowości, dostępności, wyników i skuteczności powinny być podawane do wiadomości publicznej, gdy tylko jest to możliwe.
Mimo przekonania, że w USA nie ma przepisów mających zastosowanie do sztucznej inteligencji, obowiązują przepisy federalne i stanowe, a także wiele ram wydanych przez różne agencje federalne. Oprócz inicjatyw na poziomie federalnym, zainteresowanie stanów regulacjami usług i produktów AI stale rośnie. Stanowe wysiłki legislacyjne dotyczą licznych tematów, w tym: predykcyjnych technologii policyjnych, takich jak wykorzystanie technologii rozpoznawania twarzy przez policję; ochrony konsumentów; kwestii związanych z zatrudnieniem, wdrażaniem zautomatyzowanego podejmowania decyzji przez branżę finansową i ubezpieczeniową oraz ochroną zdrowia (MorganLewis 2023a).
W 2023 r. Federalna Komisja Handlu (The Federal Trade Commission – FTC) wydała wytyczne związane z zastosowaniem jej prawa zgodnie z art. 5 ustawy o FTC do rozpatrywania nieuczciwych lub zwodniczych rozwiązań reklamowych dotyczących sztucznej inteligencji. W szczególności FTC ostrzegła, że skoncentruje się na tym, czy marketerzy składają fałszywe lub bezpodstawne opinie na temat produktów napędzanych sztuczną inteligencją, takie jak wyolbrzymianie możliwości technicznych produktu, niesprawdzone twierdzenia, że produkt napędzany sztuczną inteligencją jest lepszy od produktu bez sztucznej inteligencji, lub czy produkt w ogóle wykorzystuje sztuczną inteligencję. Wytyczne FTC ostrzegają również, że firmy udostępniające produkty lub usługi obsługujące sztuczną inteligencję muszą posiadać wystarczającą wiedzę na temat ryzyka i ograniczeń związanych z takimi produktami lub usługami, np. czy te produkty lub usługi zawierają uprzedzenia, które mogą sprawić, że te oferty będą nieodpowiednie do określonych zastosowań.
Ponadto FTC i urzędnicy z trzech innych agencji federalnych – Wydziału Praw Obywatelskich Departamentu Sprawiedliwości Stanów Zjednoczonych, Biura Ochrony Finansowej Konsumentów i Komisji ds. Równych Szans Zatrudnienia – wydali wspólne oświadczenie, w którym zobowiązali się podtrzymywać zaangażowanie Ameryki na rzecz podstawowych zasad uczciwości, równości i sprawiedliwości, ponieważ pojawiające się zautomatyzowane systemy, w tym te czasami sprzedawane jako „sztuczna inteligencja”, stają się coraz bardziej powszechne w naszym codziennym życiu, wpływając na prawa obywatelskie, uczciwą konkurencję, ochronę konsumentów i równych szans.
Jednak FTC nie jest jedyną agencją federalną, która była aktywna w przestrzeni regulacyjnej AI. W 2023 r. Narodowy Instytut Standardów i Technologii (NIST) wydał AI Risk Management Framework, przewodnik dla organizacji opracowujących, projektujących i korzystających z produktów i usług związanych z AI w celu zarządzania ryzykiem związanym ze sztuczną inteligencją i promowania godnych zaufania systemów sztucznej inteligencji. Pierwsza część przewodnika ocenia, jak wyglądają godne zaufania systemy sztucznej inteligencji, a druga szczegółowo opisuje cztery kategorie funkcji w celu przeciwdziałania zagrożeniom związanym z systemami sztucznej inteligencji. Pomimo swojego dobrowolnego charakteru, możliwe jest, że wytyczne NIST mogą stać się najlepszą praktyką branżową, podobną do tej, która pojawiła się w przypadku wytycznych dotyczących poprawy cyberbezpieczeństwa infrastruktury krytycznej, szeroko stosowanych przez znaczną większość firm amerykańskich, a także wiele firm spoza USA i używanych jako model w kilku innych krajach.
Na poziomie federalnym proponowana ustawa o ochronie prywatności określa zasady dotyczące sztucznej inteligencji, w tym obowiązki oceny ryzyka, które miałyby bezpośredni wpływ na firmy rozwijające i wykorzystujące technologie sztucznej inteligencji. Wobec braku kompleksowych przepisów federalnych dotyczących sztucznej inteligencji istnieje obecnie wiele różnych aktualnych i proponowanych ram regulacyjnych dotyczących sztucznej inteligencji na poziomie stanowym i lokalnym. Tempo regulacji AI jest najwyższe w historii, co sprawia, że opracowywanie i wdrażanie rozwiązań AI jest wyzwaniem w obliczu niepewnego otoczenia regulacyjnego (BCLP 2023).
1.2. Problem konkurencji regulacyjnej USA oraz UE (Executive Order w USA a AI Act w UE)
Administracja prezydenta USA opublikowała tzw. rozporządzenie wykonawcze (Executive Order – EO; https://www.whitehouse.gov/briefing-room/statements-releases/2023/10/30/fact-sheet-president-biden-issues-executive-order-on-safe-secure-and-trustworthy-artificial-intelligence/) w sprawie „bezpiecznej, chronionej i godnej zaufania sztucznej inteligencji (AI)”, mające na celu rozwój polityki w zakresie sztucznej inteligencji w czasie, gdy Kongres w dalszym ciągu zmaga się z tym problemem. Mimo dużego zainteresowania kompleksowe ustawodawstwo w USA dotyczące sztucznej inteligencji wydaje się mało prawdopodobne w najbliższej perspektywie. Biały Dom starał się wypełnić próżnię w federalnej polityce dotyczącej sztucznej inteligencji przez różne oświadczenia polityczne, wytyczne dla działań agencji rządowych i inne kroki. W szczególności należy zwrócić uwagę na wytyczne dla kilkunastu agencji, nakazujące im zbadanie implikacji systemów i procesów algorytmicznych dla szerokiego zakresu zagadnień, w tym praw autorskich, konkurencyjności, cyberbezpieczeństwa, edukacji, zdrowia, mieszkalnictwa, infrastruktury, pracy i prywatności. Chociaż niektórzy docenią takie podejście do sztucznej inteligencji, jednostronne ingerencje administracyjne w rynki sztucznej inteligencji mogą podważyć globalną konkurencyjność Ameryki, a nawet bezpieczeństwo geopolityczne kraju – jeśli posuną się za daleko. Nadmierna wyprzedzająca regulacja systemów sztucznej inteligencji może utrudnić rozwój tych technologii lub na różne sposoby ograniczyć ich potencjał (Thierer 2023).
Wytyczne Prezydenta USA (EO) w sprawie „bezpiecznej i godnej zaufania sztucznej inteligencji” stały się pierwszym aktem prawnym regulującym tę dziedzinę. Unia Europejska wciąż jednak nie jest na przegranej pozycji w tym wyścigu. Europa przoduje w liczbie specjalistów od zaawansowanych algorytmów, powstaje tu więcej start-upów niż w USA, a dystans w finansowaniu projektów AI szybko się kurczy (Duszczyk 2023). Co trzecia spółka na świecie wdrażająca rozwiązania oparte na sztucznej inteligencji napotkała z tego tytułu kłopoty prawne i poniosła karę lub została objęta dochodzeniem regulatorów. Główne przyczyny sporów z regulatorami dotyczą ochrony danych osobowych, kwestii konkurencji i bezpieczeństwa produktu (Cydzik 2023). Unia Europejska staje się pierwszym kontynentem na świecie, który ustala konkretne zasady korzystania ze sztucznej inteligencji. Jest to porozumienie polityczne, które ma na celu promować innowacyjność zaawansowanych technologii w Europie, jednocześnie ograniczając możliwość ich nadużywania. Kluczowy wpływ na rozpoczęcie procesu negocjacji miał system ChatGPT, generator tekstu stworzony przez amerykańską firmę OpenAI. System ten, zdolny do generowania opracowań w ciągu kilku sekund, pokazał światu ogromny potencjał sztucznej inteligencji, ale także związane z nią ryzyko (Raimondo, Locascio 2023). Zwrócono uwagę na konieczność szczególnego nadzoru nad technologią generatywnej AI (GenAI). Wezwano do większej przejrzystości w odniesieniu do algorytmów i ogromnych baz danych. Kompromis zakłada uwzględnienie dwóch aspektów: rozwoju sztucznej inteligencji i ograniczeń, które mają na celu zapobieganie jej nadużywaniu. Na oba elementy nałożone zostaną zasady, które mają zapewnić jakość danych wykorzystywanych przy tworzeniu algorytmów i sprawdzić, czy nie naruszają one praw autorskich.
Historia amerykańskiego sukcesu gospodarczego wynikała z mądrych, ponadpartyjnych wyborów dokonanych przez Kongres i administrację Clintona w latach 90. Skuteczne podejście Ameryki do innowacji cyfrowych składa się z czterech kluczowych składników:
1. Domyślna swoboda wprowadzania innowacji. Przedsiębiorcy otrzymali zielone światło do eksperymentowania z nowymi, odważnymi pomysłami bez konieczności ubiegania się o pozwolenie na innowacje.
2. Światowej klasy programy uniwersyteckie i laboratoria badawcze. W Stanach Zjednoczonych wdrożono jeden z wiodących na świecie technicznych programów edukacyjnych, które wykształciły obecnie większość najlepszych talentów na rynkach technologii cyfrowych.
3. Otwartość na globalne talenty i inwestycje. Stany Zjednoczone otworzyły swoje rynki technologiczne dla wykwalifikowanych imigrantów i inwestorów z całego świata, którzy przybywali, aby cieszyć się korzyściami, jakie dają tętniące życiem rynki i doskonałe instytucje szkolnictwa wyższego.
4. Wykorzystanie negocjacji z wieloma zainteresowanymi stronami i elastycznych reakcji regulacyjnych w przypadku pojawienia się obaw. Krajowa Administracja Telekomunikacji i Informacji oraz inne agencje wielokrotnie gromadziły różnych interesariuszy, aby opracowywać rozwiązania skomplikowanych problemów technologicznych.
Problemy związane z zarządzaniem sztuczną inteligencją polegają na tym, że niezwykle trudno będzie ustalić politykę dotyczącą systemów algorytmicznych, która nie zostanie szybko wyprzedzona przez zmieniające się technologie. Nie ma uniwersalnego podejścia do sztucznej inteligencji, które pozwalałoby z wyprzedzeniem zaplanować wyzwania (Thierer 2023a).
Rola rządu powinna koncentrować się na zwoływaniu różnych zainteresowanych stron i na ciągłym dążeniu do konsensusu w sprawie najlepszych praktyk. W tym względzie Narodowy Instytut Standardów i Technologii (NIST) podjął ważne kroki w ramach niedawno opublikowanych ram zarządzania ryzykiem AI. Ramy NIST, które opierają się na wysiłkach wielu zainteresowanych stron, mają pomóc twórcom sztucznej inteligencji lepiej zrozumieć, jak identyfikować różne rodzaje potencjalnego ryzyka algorytmicznego i reagować na nie. NIST ma na celu uwzględnienie nowych zagrożeń w miarę ich pojawiania się, zamiast próbować wyszczególnić je wszystkie z wyprzedzeniem. Ta elastyczność jest szczególnie ważna w przypadku, gdy nie można łatwo przewidzieć skutków, a zastosowania ewoluują. W miarę ewolucji tego modelu zarządzania sztuczną inteligencją należy kierować się pewnymi kluczowymi zasadami. Kilka z tych zaleceń można znaleźć w raporcie Komisji ds. Sztucznej Inteligencji Amerykańskiej Izby Handlowej.
Po pierwsze, zarządzanie sztuczną inteligencją powinno opierać się na ryzyku i skupiać na wynikach systemu, zamiast na danych wejściowych lub projekcie systemu. Innymi słowy, polityka powinna się koncentrować bardziej na rzeczywistym działaniu algorytmów, a nie na leżących u ich podstaw procesach. Jeśli polityka opiera się na zapewnieniu sztucznej inteligencji całkowicie przejrzystej lub łatwej do wyjaśnienia przed wprowadzeniem czegokolwiek na rynek, innowacje ucierpią z powodu niekończących się opóźnień biurokratycznych i obciążeń związanych z przestrzeganiem formalności.
Po drugie, polityka dotycząca sztucznej inteligencji powinna wykorzystywać istniejące przepisy i środki zaradcze przed dodaniem nowych mandatów regulacyjnych. Jak zauważono, jest już szeroki wybór przepisów ustawowych i wykonawczych, które mogą skutecznie regulować systemy algorytmiczne.
Po trzecie, polityka dotycząca sztucznej inteligencji powinna zachęcać sektor prywatny do ciągłego udoskonalania najlepszych praktyk i wytycznych etycznych w zakresie technologii algorytmicznych. W tym zakresie wykonano już wiele pracy, ale skuteczne przeciwdziałanie pojawiającym się zagrożeniom będzie wymagało ciągłej czujności i powtarzalności.
Pakiet dokumentów związanych z AI Act obejmuje także wyjaśnienia, rekomendacje, interpretacje, np. Komunikat Komisji do Parlamentu Europejskiego, Rady UE, Europejskiego Komitetu Ekonomiczno-Społecznego i Komitetu Regionów w sprawie wspierania przedsiębiorstw typu start-up i innowacji w obszarze godnej zaufania sztucznej inteligencji COM(2024)28 (EC 2023c; EC 2023d; EC 2024). W AI Act podano listę zasad, które będą obowiązywały tylko systemy uznane za systemy „wysokiego ryzyka”. Dotyczy to głównie systemów stosowanych w obszarach wrażliwych, takich jak infrastruktura krytyczna, edukacja, zasoby ludzkie, egzekwowanie prawa itp. Systemy te będą musiały spełniać wiele obowiązków, takich jak zapewnienie przez ludzi kontroli nad maszyną, sporządzenie dokumentacji technicznej czy wdrożenie systemu zarządzania ryzykiem. Do istotnych obszarów objętych AI Act zaliczają się tzw. systemy wysokiego ryzyka, które mogą mieć negatywny wpływ na obywateli UE. Regulacja zawiera m.in. obowiązkową ocenę skutków dla praw podstawowych, która ma zastosowanie do sektorów m.in. ubezpieczeń i bankowości.
Do systemów wysokiego ryzyka zalicza się również systemy sztucznej inteligencji wykorzystywane do wpływania na wyniki wyborów i zachowania wyborców. Rozporządzenie daje obywatelom prawo skarg na systemy AI i otrzymywania wyjaśnień w sprawie decyzji podejmowanych na podstawie systemów AI wysokiego ryzyka, które mają wpływ na ich prawa. Należy jednak dodać, że z zakresu regulacji wyłączono systemy przeznaczone wyłącznie do celów wojskowych. Unijny prawodawca przyjął, że tego typu systemy są regulowane przez prawo międzynarodowe. Oznacza to, że możemy mieć do czynienia nie tylko z autonomiczną bronią, lecz także amunicją, która samodzielnie wybiera cele rzeczowe i ludzkie (Firlej 2023).
AI Act obejmuje również zasady dla sztucznej inteligencji ogólnego przeznaczenia, co oznacza, że twórcy takich systemów muszą sporządzić dokumentację techniczną, zapewnić zgodność sztucznej inteligencji z unijnym prawem autorskim i udostępniać szczegółowe streszczenia treści wykorzystywanych do celów szkoleniowych. Oprócz tych barier AI Act podjął próbę ograniczenia stosowania systemów identyfikacji biometrycznej przez organy ścigania. Systemy kategoryzacji biometrycznej wykorzystujące wrażliwe cechy (np. przekonania polityczne, religijne, filozoficzne, orientację seksualną, rasę) są zabronione. Zakazane jest również nieukierunkowane pobieranie wizerunków twarzy z internetu lub nagrań CCTV w celu tworzenia baz danych dotyczących rozpoznawania twarzy, podobnie jak rozpoznawanie emocji w miejscu pracy i instytucjach edukacyjnych oraz punktacja społeczna oparta na zachowaniach społecznych lub cechach osobistych. Przepisy przewidują wprowadzenie szczególnego nadzoru nad systemami sztucznej inteligencji, które wchodzą w interakcję z człowiekiem. Systemy te będą musiały poinformować użytkownika, że ma do czynienia z maszyną. AI Act przewiduje również stosowanie zakazów, które mają dotyczyć głównie zastosowań sprzecznych z europejskimi wartościami. Jako przykład podane są Chiny, gdzie istnieją systemy oceny obywateli, masowego nadzoru czy zdalnej biometrycznej identyfikacji osób w miejscach publicznych. W tej kwestii państwa UE uzyskały jednak pewną swobodę w przypadku niektórych działań związanych z egzekwowaniem prawa, takich jak walka z terroryzmem (Money 2023).
Rozwój systemu rozpoznawania twarzy i powiązanych technologii widzenia komputerowego spotkał się z rosnącym niepokojem dotyczącym potencjału sztucznej inteligencji do tworzenia systemów masowego nadzoru i dalszego utrwalania uprzedzeń społecznych. Obawy te doprowadziły do wezwań do zapewnienia większej ochrony prywatności i sprawiedliwszych, mniej stronniczych algorytmów. Niedocenianym napięciem jest jednak to, że ochrona prywatności i wysiłki mające na celu łagodzenie uprzedzeń mogą czasami być sprzeczne w kontekście sztucznej inteligencji. Intuicyjnie można pomyśleć, że lepiej jest być „niewidocznym” dla sztucznej inteligencji, ponieważ niedostateczna reprezentacja w danych wykorzystywanych do opracowania rozpoznawania twarzy może w jakiś sposób pozwolić na uniknięcie masowej inwigilacji. Ograniczanie stronniczości w komputerowych systemach widzenia skupionych na człowieku, w tym rozpoznawania twarzy, może wiązać się z gromadzeniem dużych, różnorodnych i niejawnych zbiorów danych dotyczących obrazów, co może być sprzeczne z ochroną prywatności. Fakt, że technologie rozpoznawania twarzy są mniej niezawodne w identyfikowaniu osób kolorowych, nie oznacza, że nie są one wykorzystywane do inwigilacji tych społeczności i pozbawiania jednostek wolności. Zatem bycie „niewidzialnym” dla sztucznej inteligencji nie chroni przed byciem „źle dostrzeżonym” (Xiang 2022).