Ciemna strona popularności sztucznej inteligencji

Data dodania: 28 grudnia 2025
Kategoria:
ChatGPT w telefonie komórkowym

Sztuczna inteligencja bez wątpienia zdominowała tegoroczną debatę o technologii. Wraz z dynamicznym rozwojem i masowym zainteresowaniem coraz wyraźniej ujawniają się jednak problemy, których wcześniej nie dostrzegano na taką skalę. Wśród nich są m.in. generowanie fake newsów, ryzyko dezinformacji, spory o prawa autorskie czy wątpliwości związane z pozyskiwaniem danych wykorzystywanych do trenowania modeli językowych. Pierwsze pozwy przeciwko twórcom ChatGPT, dotyczące nieuprawnionego wykorzystania utworów literackich, pokazują, że entuzjazm wokół AI coraz częściej zderza się z rzeczywistością prawną.

– AI to nowe zjawisko w przestrzeni społecznej. Jako społeczeństwo nauczyliśmy się jakoś żyć z mediami społecznościowymi, więc zapewne nauczymy się też żyć w świecie, gdzie sporo treści będzie tworzonych przez systemy sztucznej inteligencji. Ale żeby dobrze w nim funkcjonować, będziemy musieli się stać bardziej krytyczni wobec źródeł, z których czerpiemy treści. Na przykładzie social mediów widać, że na razie nie radzimy sobie z tym zbyt dobrze. Z drugiej strony AI może być z powodzeniem wykorzystywana do analizy wiarygodności informacji, więc z czasem pewnie jakoś to oswoimy – mówi agencji Newseria Biznes Krzysztof Choroszko, członek zarządu Silver Bullet Solutions.

Generatywna AI zmienia reguły gry

W ostatnich miesiącach termin „sztuczna inteligencja” stał się powszechnie używany, głównie za sprawą ChatGPT. Generatywne narzędzie opracowane przez OpenAI uznawane jest za przełom w rozwoju tej technologii, co potwierdza tempo jego popularyzacji – w niespełna trzy miesiące od debiutu zyskało ponad 100 mln użytkowników. Równolegle rośnie zainteresowanie innymi rozwiązaniami, takimi jak Dall-E czy Midjourney, umożliwiającymi generowanie obrazów na podstawie opisów tekstowych, a także Bing AI od Microsoftu czy Bard od Google’a, który pojawił się jako bezpośrednia odpowiedź na sukces ChatGPT.

– W przyszłości zarówno Bard, należący do potęgi, jaką jest Google, jak i Chat GPT, który był pierwszy i zdobył swój kawałek rynku, przynajmniej przez jakiś czas będą hegemonami i będą nadawać ton walce konkurencyjnej. Zwłaszcza że obie organizacje opracowały własne modele językowe. A opracowanie tak dużych modeli językowych nie jest dostępne dla każdej organizacji, biorąc pod uwagę zarówno nakłady techniczne, jak i intelektualne – mówi członek zarządu Silver Bullet Solutions.

Prawo autorskie pod presją algorytmów

Szybkie upowszechnienie narzędzi AI sprawiło, że zaczęły one być masowo wykorzystywane w ramach tzw. sztucznej twórczości. Tysiące firm i start-upów oferują dziś usługi oparte na generatywnych modelach, co natychmiast uruchomiło dyskusję o granicach legalności takiej działalności.

– Problemów z prawami autorskimi w obszarze AI jest kilka. Po pierwsze, już w tej chwili mamy informacje o pozwach twórców, którzy uważają, że ich dzieła zostały bezprawnie wykorzystane do treningu AI. Tak więc powstaje pytanie, które utwory można stosować do treningu modeli i czy istnieją możliwe do określenia „granice inspiracji” dla generowanych dzieł. Po drugie, w myśl polskich przepisów dzieło stworzone przez system AI nie jest uznawane za utwór w rozumieniu prawa autorskiego. I po trzecie, nie wiemy, co w przypadku naruszenia praw osób trzecich przez dzieło stworzone przez AI i kto powinien w tym przypadku ponieść odpowiedzialność – wymienia Krzysztof Choroszko.

Te wątpliwości mają już bardzo konkretne konsekwencje. Kanadyjska pisarka Mona Awad oraz amerykański autor Paul Tremblay pozwali OpenAI, zarzucając firmie wykorzystanie ich książek do trenowania ChatGPT bez zgody twórców. W pozwie wskazano na czerpanie korzyści finansowych z cudzych tekstów i pomysłów oraz zażądano odszkodowania w imieniu autorów z USA, których prace miały zostać użyte w procesie szkolenia modelu. Podobne kroki podjęli również inni twórcy, m.in. Christopher Golden, Richard Kadrey oraz komiczka Sarah Silverman, kierując pozew przeciwko OpenAI i Mecie.

Dezinformacja i ślepa wiara w algorytmy

Kolejnym wyzwaniem jest narastające ryzyko dezinformacji, deep fake’ów oraz niekontrolowanego wykorzystywania narzędzi AI przez użytkowników. Skala zjawiska jest na tyle duża, że uczelnie na całym świecie zaczynają zmieniać zasady zaliczania egzaminów i prac końcowych, reagując na masowe użycie sztucznej inteligencji do pisania esejów i prac zaliczeniowych.

–W Stanach Zjednoczonych głośna była sprawa, w której prawnicy zostali ukarani przez sąd, ponieważ w ramach materiału dowodowego dostarczyli materiał wygenerowany przez AI, powołujący się na nieistniejące sprawy sądowe. Dlatego właśnie sądzę, że największym zagrożeniem jest to, że zaczniemy zbyt mocno polegać na wynikach pracy sztucznej inteligencji – mówi ekspert Silver Bullet Solutions. – Ważnym zagrożeniem jest również to, że dane użyte do uczenia modeli językowych mogą wpływać na wyniki w sposób dyskryminujący niektóre grupy społeczne.

Jak zaznacza, kluczowym wyzwaniem będzie uregulowanie odpowiedzialności za błędy systemów AI oraz za ich niewłaściwe wykorzystanie.

– Sądzę jednak, że odpowiedzialność za użycie narzędzia AI ponosi przede wszystkim użytkownik. Natomiast dostawcy takich rozwiązań powinni ponosić odpowiedzialność za ewentualne intencjonalne wypaczenie działania oferowanego rozwiązania AI, np. za tendencyjny dobór danych uczących. Ten obszar będzie bardzo trudny do uregulowania, ponieważ na ten moment nie do końca wiemy, jak zadziałała sieć neuronowa i które z miliardów parametrów dały określony wynik działania systemu AI – podkreśla Krzysztof Choroszko. – Odpowiedzialność za wykorzystywanie AI będzie nieco inaczej postrzegana przez europejski i amerykański system prawny, co wynika chociażby z różnego podejścia do prawa autorskiego i danych osobowych. Regulacje europejskie z pewnością ukierunkują rozwój i wykorzystanie mechanizmów sztucznej inteligencji zwłaszcza w obszarze praw autorskich, w zakresie których jesteśmy w Europie szczególnie wrażliwi.

AI Act i nowe obowiązki

Zdaniem ekspertów, na dalszy rozwój technologii wkrótce wpłyną dwa kluczowe wymogi prawne: obowiązek informowania, że dana treść została wygenerowana przez AI, oraz ujawnianie źródeł wykorzystanych do trenowania modeli językowych.

– To z jednej strony utrudni dowolne tworzenie nowych modeli, a z drugiej umożliwi m.in. walkę z częścią fake newsów – przewiduje.

Takie założenia zawiera unijny Akt o sztucznej inteligencji (AI Act), czyli pierwsza na świecie próba kompleksowego uregulowania systemów AI i ich zastosowań. Dokument ten ma ograniczać negatywne skutki wykorzystania sztucznej inteligencji i w przyszłości wpłynąć nie tylko na rynek europejski, lecz także na regulacje przyjmowane poza Unią Europejską.

– Ta regulacja skupia się na ograniczeniu ryzyk związanych z wykorzystaniem AI, czyli wprost zakazuje pewnych jej zastosowań, np. w obszarze predykcji zachowań dla organów ścigania. Nakazuje też oznaczanie utworów stworzonych przez sztuczną inteligencję. AI Act dotyczy jednak tylko jej komercyjnych zastosowań – mówi Krzysztof Choroszko.

AI Act klasyfikuje systemy sztucznej inteligencji według czterech poziomów ryzyka: nieakceptowalnego, wysokiego, niskiego i minimalnego. Do kategorii najwyższego ryzyka zaliczono rozwiązania zagrażające obywatelom, takie jak systemy wykorzystujące biometrię do identyfikacji i kategoryzacji ludzi. Nawet w przypadku narzędzi uznanych za niskiego ryzyka wprowadzono jednak obowiązki związane z transparentnością, tak aby użytkownik miał świadomość, że korzysta z technologii opartej na sztucznej inteligencji.

Dołącz do newslettera

Copyright © ARSS. Wszelkie prawa zastrzeżone.
Opieka nad stroną: Antygen.pl  Skład magazynu Franczyza & Biznes: Aera Design