Generatywna AI to temat wielu debat nie tylko etycznych, ale i prawnych. Co więcej, sami prawnicy częściej dziś jeszcze zadają pytania, niż udzielają odpowiedzi. Bo trudno wpleść wątki AI do obecnych przepisów, a nowe dopiero powstają.
Jazda bez trzymanki
„Istnieje ryzyko, że odpowiedzi generowane przez mnie mogą zawierać nieprawdziwe informacje lub być niepełne. Chociaż staram się dostarczać jak najdokładniejsze odpowiedzi na podstawie mojej wiedzy, jestem ograniczony do informacji, które zostały mi dostarczone podczas treningu. Moja zdolność do rozumienia i generowania tekstu opiera się na wzorcach i przykładach, które przetrawiłem, a nie na bezpośredniej wiedzy lub doświadczeniach. Ponadto, jako językowy model statystyczny, nie posiadam zdolności do weryfikacji prawdziwości informacji ani dostępu do najświeższych wiadomości – tłumaczy ChatGPT, zapytany o podawanie nieprawdziwych treści. I dyplomatycznie dodaje – „ Dlatego zawsze warto potwierdzić ważne informacje z różnych źródeł i skonsultować się z wiarygodnymi ekspertami, zwłaszcza w przypadku krytycznych decyzji, medycznych porad czy kwestii prawnych. W przypadku wątpliwości zawsze warto korzystać z zaufanych źródeł informacji i ludzi posiadających specjalistyczną wiedzę w danej dziedzinie”. Bot twierdzi, że to użytkownicy są odpowiedzialni za sposób wykorzystania informacji, których im udziela.
Z pozoru wszystko wydaje się jasne. W praktyce – zaczęła się jazda bez trzymanki. Pierwsze pozwy czy to przeciwko ChatGP, czy generatorom obrazów jak DALL-E 2, Stable Diffusion czy Midjourney, już trafiły do sądu. Na razie nie jest ich wiele i zdają się obliczone raczej na wywołanie medialnego szumu, bądź zwrócenie uwagi na sam problem, bo we „właściwe” decyzje organów prawnych trudno uwierzyć biorąc pod uwagę, jak legislacja kuleje w tym temacie. A SI tymczasem staje się bardzo niebezpiecznym narzędziem, przy czym łamanie praw autorskich – o co głównie się dziś pozywa twórców generatywnych modeli – to najmniejszy pikuś.
Wykończyć człowieka dzięki AI
Dzięki SI można dziś z łatwością wywołać zamęt w opinii publicznej. O możliwościach deep fake’ów wiemy już od dawna. W ostatnich miesiącach przekonaliśmy się do czego jest zdolny Chat GPT, informując użytkowników, że Brian Hood, burmistrz australijskiego Hepburn Shire, jest łapówkarzem po odsiadce: w pierwszej dekadzie bieżącego wieku miał trafić za kraty w związku ze skandalem związanym z firmą Note Printing Australia i łapówkami. Samorządowiec de facto był w aferę zamieszany ale… jako osoba, która powiadomiła organy ścigania o przestępstwie. Prawnik reprezentujący burmistrza, grążąc pozwem sądowym, wezwał „rodziciela” ChataGPT, OpenAI, do usunięcia powyższego „błędu”, zakładając usterkę w oprogramowaniu, a nie celowe zniesławienie. Sprawa miała więc, powiedzmy, szczęśliwy finał, „usterkę” usunięto. Dziś Chat GPT zapytany o tego konkretnego burmistrza, odpowiada: „Biorąc pod uwagę, że informacje o konkretnym burmistrzu Hepburn Shire nie są dostępne, niestety nie mogę dostarczyć szczegółowego życiorysu biznesowego Briana Hooda. Każdy burmistrz ma unikalne doświadczenia zawodowe, społeczne i polityczne, które wpływają na ich rolę i działania jako przywódcy lokalnego samorządu. W przypadku Briana Hooda, brakuje mi konkretnych informacji, aby opisać jego życiorys biznesowy”. Zapytany o powiązania z Note Printing – twierdzi, że ich kompletnie nie zna. Warto tu dodać, że póki co chatboty z GPT na czele mają duże skłonności do halucynacji – czyli łączą bezładnie różnie kawałki treści i ostatecznie wypluwają bzdury. I łatwo jest dziś winę zrzucić właśnie na to, nawet jeśli doszło do ludzkiej, świadomej ingerencji w algorytmy.
Idźmy dalej. W darknecie już pojawiają się oferty od osób, które poprzez wygenerowanie fałszywych obrazów przyjmują „zlecenia” na konkretną osobę. Chodzi o preparowanie dowodów, czy to na zdradę, kradzież, czy inne przestępstwa. I choć oczywiście takie zdjęcie nie może być dowodem w sprawie, ale przy tak dobrej jakości obrazów czy filmów typu deep fake nietrudno będzie wprowadzić sędziego w błąd. A czy w przyszłości każde zdjęcie przedstawiane w materiale dowodowym będzie badane pod tym kątem – to pytanie pozostaje bez odpowiedzi. No i największy orzech do zgryzienia – obracanie danymi. Warto pamiętać, że każdy użytkownik Chata GPT, by móc z niego skorzystać, nawet za darmo, musi najpierw założyć konto i podać swoje podstawowe dane. W efekcie OpenAI zbiera nasze adresy IP, typ i ustawienia przeglądarki, dane dotyczące interakcji użytkownika z chatem czy te dotyczące przeglądanych przez użytkownika stron www. Co z tymi informacjami można dalej zrobić? Sporo pomysłów na ich wykorzystanie zapewne mieliby twórcy Cambridge Analytica.
Kilka miesięcy temu sam Elon Musk trąbił głośno, by świat przyhamował z pracami nad SI, podpisując się w liście otwartym napisanym przez Future of Life Institute. List wzywał do zahamowania prac nad potężniejszymi wersjami SI i koncentracji na kwestiach bezpieczeństwa dotyczących tej technologii. Z drugiej strony ten sam miliarder zarejestrował niemal w tym samym czasie w Newadzie spółkę X.AI i zamierza uruchomić opartą na sztucznej inteligencji platformę TruthGPT, nastawioną na podawanie prawdziwych treści. To dość zabawne, biorąc pod uwagę, że jego spółka Tesla sama wysyłała dwuznaczne komunikaty do użytkowników pojazdów z autopilotem – jak w 2016 r. przekonywał Magazyn „Consumer Reports” (7 mln subskrybentów). Z jednej strony komunikowano, że autopilot potrafi sam prowadzić samochód, z drugiej spółka podkreślała, że technologia jest niedoskonała i kierowca powinien czuwać i trzymać ręce na kierownicy. W efekcie Tesle prowadzone na autopilocie już zaliczyły kilka wypadków, w tym nawet śmiertelnych. M.in. samochód marki Tesla w trybie autopilota wjechał na skrzyżowanie na czerwonym świetle, zderzając się z Hondą Civic, w której znajdowały się dwie osoby. Nie przeżyły. Kierowca feralnego auta, jak i rodziny ofiar wypadków twierdzą, że zawinił system oraz producent pojazdów. Sąd uznał jednak, że odpowiedzialność ponosi człowiek kierujący samochodem. Jak będzie w kolejnych pozwach „przeciwko” AI? Zobaczymy.
Finał spraw sądowych pod znakiem zapytania
Na razie w mediach głośno mówi się o dosłownie kilku sprawach. Wszystkie dotyczą tej samej kwestii: naruszenia praw autorskich. Do amerykańskiego sądu trafił pozew przeciwko Microsoft, GitHub i OpenAI dotyczący GitHub Copilota, narzędzia piszącego kody komputerowe, które wykorzystywało w hurtowych ilościach publiczne dostępne skrypty. Na początku br. również w jednym z amerykańskich sądów złożono zbiorowy pozew przeciwko właścicielom generatorów obrazów, Stability AI, Midjourney i DeviantArt, o naruszenie praw autorskich. W tym samym czasie również Getty Images pozwała Stability AI, firmę stojącą za Stable Diffusion, o naruszenie praw własności intelektualnej.
Wbrew pozorom finał tych spraw nie jest do przewidzenia, bo, biorąc np. pod uwagę polskie przepisy, by uznać dzieło za utwór w rozumieniu praw autorskich, musi być ono stworzone przez człowieka. A to, co stworzy AI, jest traktowane jak dzieło stworzone przez siły natury, np. płatki śniegu, czy gniazda ptasie. Taki wymóg zresztą pojawia się w przepisach większości państw. Co więcej, osoba korzystająca z AI do stworzenia np. powieści lub obrazu, prawnie nie będzie uznana za twórcę dzieła. Co to oznacza? Jej praca nie będzie podlegała ochronie prawnej i każdy z niej może skorzystać, rozpowszechniać i kopiować. Jest jeden wyjątek – jeśli twórca ma prawa do danego programu komputerowego, zyskuje również prawa do dzieła stworzonego przez AI z pomocą tego programu.
Nadal jednak wiele aspektów związanych z AI nie jest prawnie uregulowanych, za sprawą braku elastyczności przepisów. I dziś nadal jest więcej pytań niż odpowiedzi, zwłaszcza w kwestiach odpowiedzialności za działanie AI. Do tego dochodzą trudności w egzekucji swoich roszczeń w związku z transgranicznym charakterem usług przy zróżnicowanych regulacjach w poszczególnych państwach. Przykładowo mieszkańcy UE będą musieli prowadzić batalie sądowe ze spółkami z USA, Chin, Indii czy Korei Południowej, gdzie powstaje wiele rozwiązań opartych o sztuczną inteligencję. Problem z transgraniczną egzekwowalnością praw nie jest zresztą nowy i ciągle niełatwy do rozgryzienia, o czym przekonali się już wielokrotnie np. klienci czy kontrahenci globalnych platform społecznościowych. Stąd w najbliższym czasie zbyt wiele pozwów „przeciwko” AI do sądu raczej nie trafi ze względu na brak odpowiedniego orzecznictwa i praktyki. Z drugiej strony dzisiejszy hype na AI na pewno będzie stymulował krajowe organy regulacyjne oraz nadzorcze w poszczególnych państwach UE do aktywniejszego działania, oczywiście w ograniczone tylko do ich kompetencji.
Unia próbuje wprowadzić porządek
Przykładem takiego działania jest interwencja włoskiego organu nadzorczego ds. ochrony danych osobowych (Garante per la protezione dei dati personali), podjęta pod koniec marca br. wobec zarejestrowanej w USA spółki OpenAI. Włoski urząd, powołując się na toczące się postępowanie z zakresu naruszeń RODO, nakazał amerykańskiej spółce natychmiastowe zaprzestanie przetwarzania danych obywateli włoskich. Swoją decyzję oparł na trzech zarzutach: wycieku konwersacji użytkowników oraz danych płatniczych użytkowników aplikacji, braku narzędzia do weryfikowania wieku użytkowników. Regulamin aplikacji zakłada jej dostęp dla osób od 13 roku życia, co oznacza, że aplikacja ChatGPT nie pobiera dane od użytkowników, którzy w świetle prawa nie mają możliwości udzielenia zgody na ich udostępnianie. Bot – według włoskich urzędników – mógł też kształtować świadomość i poglądy korzystających z niego dzieci i młodzieży.
OpenAI zareagowała po kilku tygodniach i w wydanym oświadczeniu stwierdziła, że naprawiła wskazane błędy i Włosi od maja br. mogli „zamęczać” ChataGPT swoimi pytaniami i poleceniami. Z drugiej strony, przy okazji rozgrywek legislacyjnych z AI, rządy mają szansę zyskać nowe narzędzia do szpiegowania swoich obywateli. Na szczęście nie w Unii, która w przyjętym w czerwcu przez Parlament Europejski AI Act – akcie regulującym kwestię sztucznej inteligencji w Unii Europejskiej – zakazała wykorzystywania danych biometrycznych z użyciem SI do śledzenia obywateli i wychwytywania emocji. Treść przyjętego aktu koncentruje się na klasyfikacji systemów SI, pod względem stopnia ryzyka, czyli: nieakceptowalnym ryzykiem, wysokim ryzykiem, niskim ryzykiem i ryzykiem minimalnym. Poprzez nieakceptowalne ryzyko, należy rozumieć takie, które stwarza zagrożenie dla obywateli, jak właśnie np. SI wykorzystująca technologię biometryczną do identyfikacji i kategoryzacji ludzi. Akt zakazuje wprowadzania takich systemu w użycie na terenie Unii. Ponadto, w zależności od stopnia ryzyka, AI Act nakłada na dostawców systemów sztucznej inteligencji różne obowiązki, np. jeśli będą oferować system zaklasyfikowany do wysokiego ryzyka – jego dostawca będzie musiał go zarejestrować w odpowiedniej bazie danych. Z kolei Chat GPT oraz inne generatywne systemy nie będą mogły publikować treści nielegalnych, muszą informować użytkownika, że treść została stworzona przez SI oraz dokumentować przypadki użycia utworów objętych prawami autorskimi.
Jaki stosunek do całej treści AI Act mają twórcy SI? Są zdecydowanie na „nie”. Przedstawiciele największych spółek z tej branży zaczęli wskazywać, że obecny AI Act mocno ogranicza korzystanie i tworzenie systemów SI, co może spowolnić rozwój tej technologii. Sam Google po przyjęciu AI Act, odwołał premierę swojego nowego chatbota – Al Bard – w UE. Czy decyzja tego technologicznego giganta doprowadzi do złagodzenia AI Act? Wydaje się to mało prawdopodobne. Jednocześnie ich postawa wyraźnie pokazuje fundamenty rozwoju AI. Nie wydają się zbyt etyczne.
Dorota Kaczyńska
Ekspert Instytutu Staszica
Foto: pixabay.com