Sztuczna inteligencja stwarza coraz więcej problemów

Data dodania: 24 października 2023
Kategoria:

Sztuczna inteligencja stała się gorącym tematem tego roku, ale jej rosnąca popularność rodzi szereg problemów. Wśród nich znajdują się kwestie związane z tworzeniem fałszywych informacji (fake news), zagrożeniem dezinformacją, naruszeniem praw autorskich, czy nieetycznym pozyskiwaniem danych do szkolenia modeli językowych.

Na arenie międzynarodowej pojawiły się już pierwsze pozwy przeciwko twórcom ChatGPT, oskarżając ich o nieuprawnione wykorzystanie utworów literackich. W Europie problematykę tę ma regulować unijny AI Act, uchwalony przez Parlament Europejski w czerwcu tego roku. Regulacja ta wprowadza obowiązek informowania o generowaniu treści przez sztuczną inteligencję, co przyszłościowo znacząco wpłynie na rozwój tego rynku.

– Sztuczna inteligencja jest nowym zjawiskiem w społeczeństwie. Już przyzwyczailiśmy się do obecności mediów społecznościowych, teraz czas nauczyć się żyć w świecie, gdzie AI tworzy znaczną część treści. Aby dobrze funkcjonować w tej rzeczywistości, konieczne będzie zwiększenie krytycznego podejścia do źródeł informacji. Przykład mediów społecznościowych pokazuje, że nie radzimy sobie z tym najlepiej. Jednak AI może być wykorzystywana do weryfikacji wiarygodności informacji, więc ostatecznie znajdziemy sposób, by to zaakceptować – mówi Krzysztof Choroszko z Silver Bullet Solutions.

Zagrożenia wynikające z AI

ChatGPT, generatywna sztuczna inteligencja stworzona przez OpenAI, zyskała ogromną popularność, przyciągając 100 mln użytkowników w zaledwie trzy miesiące od debiutu. Narzędzia takie jak Dall-E, Midjourney, Bing AI Microsoftu czy Google Bard cieszą się również rosnącym zainteresowaniem.

– W przyszłości Bard od Google'a i ChatGPT od OpenAI będą dominować na rynku, wpływając na konkurencję. Opracowanie tak zaawansowanych modeli językowych nie jest dostępne dla wszystkich ze względu na wymagane zasoby techniczne i intelektualne – dodaje Krzysztof Choroszko.

Z rosnącą popularnością AI nasilają się problemy i wątpliwości dotyczące praw autorskich. Istnieją obawy, że dzieła tworzone przez AI mogą naruszać prawa autorskie, co już doprowadziło do pozwów przeciwko OpenAI.

– W obszarze praw autorskich i AI pojawia się wiele problemów. Istnieją spory dotyczące tego, jakie utwory można wykorzystywać do szkolenia AI i jakie są granice inspiracji dla twórczości generowanej przez AI. Zgodnie z polskimi przepisami, dzieło stworzone przez AI nie jest uznawane za utwór w rozumieniu prawa autorskiego. Niejasna jest też kwestia odpowiedzialności za naruszenie praw osób trzecich przez dzieła stworzone przez AI – wyjaśnia Krzysztof Choroszko.

Chat GPT, OpenAI i Meta - najważniejsze informacje ze świata

Na początku lipca pisarka Mona Awad i autor Paul Tremblay wniosły pozew przeciwko OpenAI, twierdząc, że firma nielegalnie wykorzystała ich książki do trenowania ChatGPT. Zarzucili firmie wykorzystywanie skradzionych tekstów i pomysłów do generowania zysków, domagając się odszkodowania. Podobny pozew złożono przeciwko OpenAI i Meta.

AI stwarza też większe ryzyko dezinformacji i deepfake'ów oraz rodzi pytania o etyczne wykorzystanie narzędzi AI. Coraz więcej uczelni zmienia zasady egzaminów, aby zapobiec korzystaniu przez studentów z AI do pisania prac.

– W USA na jaw wyszła sprawa, w której prawnicy zostali ukarani za przedstawienie w sądzie materiału wygenerowanego przez AI, powołującego się na nieistniejące sprawy. To pokazuje, że nadmierna zależność od wyników pracy AI stanowi poważne zagrożenie – zauważa ekspert Silver Bullet Solutions. – Ważne jest również to, że dane wykorzystane do uczenia AI mogą wpływać na wyniki w sposób dyskryminujący niektóre grupy społeczne.

Odpowiedzialność za błędy systemów AI

– Uważam, że użytkownik ponosi odpowiedzialność za korzystanie z narzędzi AI. Natomiast dostawcy powinni odpowiadać za ewentualne świadome błędy w funkcjonowaniu oferowanych systemów, na przykład za tendencyjny dobór danych. To będzie trudne do uregulowania, ponieważ trudno określić, jak zadziałała sieć neuronowa – zaznacza Choroszko.

Wkrótce na rozwój technologii AI wpłyną dwie kluczowe regulacje prawne: informowanie o tworzeniu przez AI i źródłach danych do szkolenia modeli językowych.

– Regulacja AI Act skupia się na ograniczaniu ryzyka związanego z wykorzystaniem AI, zakazując niektórych jej zastosowań i nakazując oznaczanie utworów stworzonych przez AI. To utrudni tworzenie nowych modeli, ale pomoże w walce z fake newsami – prognozuje.

AI Act, przyjęty przez Parlament Europejski, jest pierwszą próbą kompleksowego uregulowania prawnego systemów AI. Dokument klasyfikuje systemy AI pod względem ryzyka (od nieakceptowalnego do minimalnego) i nakłada wymogi dotyczące transparentności. Regulacja skupia się na komercyjnym wykorzystaniu AI i obejmuje zakazy w niektórych obszarach, takich jak technologie biometryczne.

AI Act nie jest jeszcze ostateczny, ponieważ wymaga negocjacji z Radą i państwami członkowskimi UE. Celem jest wypracowanie porozumienia dotyczącego ostatecznego kształtu regulacji do końca roku.

Dołącz do newslettera

Copyright © ARSS. Wszelkie prawa zastrzeżone.
Opieka nad stroną: Lembicz.pl  Skład magazynu Franczyza & Biznes: Aera Design