ChatGPT z każdym miesiącem cieszy się coraz większą popularnością. Jednak narzędzie, z którego korzysta już ponad 100 milionów[1] użytkowników na całym świecie, wciąż kryje w sobie wiele tajemnic. Chester Wisniewski, dyrektor ds. technologii w firmie Sophos, odpowiada na pięć trudnych i budzących niepokój pytań związanych ze sztuczną inteligencją opracowaną przez OpenAI.
Z ChatGPT poza zwykłymi internautami korzystają też inżynierowie zajmujący się cyberbezpieczeństwem oraz cyberprzestępcy. Ci ostatni przygotowują przy jego pomocy fałszywe wiadomości e-mail i SMS, które mają na celu wyłudzenie danych od nieświadomych użytkowników. Z kolei specjaliści z firmy Sophos opracowali bazujący na sztucznej inteligencji skuteczny filtr antyspamowy.
Model językowy firmy OpenAI jest tak zaawansowany, że w wielu krajach rozpoczęła się dyskusja na temat prawnego uregulowania korzystania z narzędzia. W marcu 2023 r. organizacja Future of Life Institue w liście otwartym do firm i laboratoriów zajmujących się sztuczną inteligencją wzywała do zaprzestania prac na okres sześciu miesięcy. Pod apelem podpisały się także znane w branży osoby, takie jak Elon Musk (Tesla, SpaceX) i Steve Wozniak (współzałożyciel firmy Apple), ale nie przyniósł on spodziewanego efektu.
Chester Wisniewski, dyrektor ds. technologii w firmie Sophos, zwraca uwagę na pięć kwestii, o których powinien wiedzieć każdy użytkownik ChatGPT.
1. Czy znamy wszystkie możliwości najnowszej wersji ChatGPT?
Wersja modelu językowego oznaczona numerem 4 wydaje się inteligentniejsza i dokładniejsza od swojego poprzednika. W porównaniu do wcześniejszych generacji jest jej też bliżej do uzyskania zdolności, które moglibyśmy określić mianem „myślenia”. Nie znamy jednak wszystkich możliwości narzędzia. Ważne jest, aby pamiętać, że chociaż ChatGPT coraz rzadziej się myli i przeinacza fakty, to wciąż daleko mu do bycia nieomylnym.
2. Czy publiczne udostępnienie narzędzia, z którego mogą korzystać także przestępcy, jest w ogóle etyczne?
Nawet kiedy postęp technologiczny staje się niewygodny, nie można go po prostu zatrzymać i schować w niewidocznym dla innych miejscu. Z zaawansowanymi modelami językowymi jest podobnie. Wszystkich zalet wynikających z używania sztucznej inteligencji będzie prawdopodobnie znacznie więcej niż potencjalnych niebezpieczeństw. Właściwe wykorzystanie tych narzędzi może uczynić wiele dobrego.
3. Czy kiedykolwiek powstanie sztuczna inteligencja odporna na nadużycia cyberprzestępców?
Zabezpieczenia można ominąć, także te zastosowane w modelu językowym ChatGPT. Twórcy takich programów zdają sobie z tego sprawę i robią wszystko, aby łatać znalezione przez cyberprzestępców luki. Z każdą kolejną próbą wykorzystania AI do niecnych celów niezgodnych z prawem, złamanie mechanizmów ochronnych staje się więc trudniejsze. Żyjemy jednak w czasach, w których nawet uczeń podstawówki może nauczyć się hakowania algorytmów sztucznej inteligencji, wyszukując w sieci informacje na ten temat. W przyszłości stanie się to bardziej wymagające, choć wciąż będzie możliwe.
4. Czy ChatGPT w ogóle tworzy nowe treści czy tylko przetwarza dane, z których sam się uczył?
Jedyne, co ChatGPT potrafi stworzyć samodzielnie, to kłamstwa. Sztuczna inteligencja jest naprawdę przekonującym, ale i zapatrzonym w siebie kłamcą. Do szkolenia modelu bez wątpienia wykorzystano także informacje, które nie są prawdziwe. Nie da się przewidzieć, w którym momencie ChatGPT wykorzysta je do udzielenia odpowiedzi na zadane mu pytanie. Przewagą człowieka nad AI jest prawdziwa kreatywność i to, że ma możliwość podjęcia świadomej decyzji czy chce skłamać, czy nie.
5. Czy istnieje rozwiązanie problemu prywatności danych, które użytkownicy wprowadzają do narzędzi takich jak ChatGPT?
Obecnie możemy polegać wyłącznie na obietnicach złożonych w umowach licencyjnych, na które się zgadzamy, gdy zaczynamy korzystać z narzędzi AI. Nie zakładałbym, że powstanie coś na wzór „otwartej” sztucznej inteligencji, która nie zbiera danych o użytkownikach. Najbardziej zaawansowane modele należeć będą do wielkich firm, które włożyły ogromne pieniądze w ich opracowanie. Trzeba pamiętać, że trenowanie algorytmów wymaga bardzo dużo mocy obliczeniowej, ale korzystanie z nich już nie. Można spodziewać się, że w niedalekiej przyszłości starsze wersje AI wciąż będą udostępniane za darmo wszystkim, którzy będą chcieli z nich korzystać. Jednak tylko od ich właścicieli będzie zależało, co zrobią z wprowadzonymi przez swoich klientów informacjami.