Nie wierz bezgranicznie AI – rozmowa z Sebastianem Cygertem z NASK
Sztuczna inteligencja - podobnie jak człowiek - nie jest nieomylna. Mimo dostępu do olbrzymich baz danych zdarza się, że popełnia istotne błędy - szczególnie odpowiadając na pytania dotyczące wiedzy specjalistycznej. Nie umie też przyznać, że czegoś nie wie. Nie traktujmy wszystkiego, co pisze jako prawdy ostatecznej - mówi nam Sebastian Cygert z Państwowego Instytutu Badawczego NASK.
Roboty na Światowej Konferencji Robotów w Pekinie, sierpień 2025.
Foto: Ryosuke Terunuma/Associated Press/East News
Generowanie treści, które wyglądają na wiarygodne, ale są zmyślone - tzw. halucynacje, niepoprawna interpretacja pytań, niezrozumienie kontekstu kulturowego, powielanie uprzedzeń obecnych w zasobach treningowych, błędy logiczne, błędy obliczeniowe, przesadna pewność siebie, czyli tzw. iluzja kompetencji - z tym wszystkim musimy się liczyć korzystając z pomocy sztucznej inteligencji. Mimo intensywnych prac naukowców, narzędzie to nadal pozostaje dalekie od ideału.
Posłuchaj audycji Trójki:
Ludzka twarz sztucznej inteligencji
- Modele sztucznej inteligencji, nie za bardzo potrafią przyznać, że czegoś nie wiedzą. To fundamentalny problem, jeśli chodzi o AI - mówi nam Sebastian Cygert, szef zakładu bezpieczeństwa i przejrzystości sztucznej inteligencji Państwowego Instytutu Badawczego NASK i dodaje, że chociaż badania nad tym problemem trwają od lat, do dziś nie udało się osiągnąć znaczącego progresu. - Stąd biorą się takie artefakty jak halucynacje czy przeinaczenia - tłumaczy specjalista i podkreśla, że nie powinniśmy traktować wszystkiego, co pisze sztuczna inteligencja, jako wyroczni. Jego zdaniem bardzo ważne jest, aby używać tego narzędzia z rozwagą, weryfikując informacje podawane przez model.
- Są ludzie, którzy nie potrafią przyznać, że czegoś nie wiedzą. Są też tacy, którzy to potrafią. W przypadku sztucznej inteligencji bardzo trudno jest stworzyć model, który byłby w stanie coś takiego zrobić - przyznaje ekspert i dodaje, że część z nich świetnie radzi sobie w warunkach akademickich, ale niekoniecznie w warunkach rzeczywistych. Wynika to ze sposobu, w jaki są trenowane. - One są uczone w taki sposób, aby z dużą pewnością udzielać poprawnej odpowiedzi, czyli są nagradzane za to, że nawet jeśli czegoś nie wiedzą, to w czasie treningu udzielą jakiejkolwiek odpowiedzi - wyjaśnia specjalista.
Jakość danych ma znaczenie
Zdaniem Sebastiana Cygerta problemem jest także uzyskanie wysokiej jakości danych. Wynika to z faktu, że specjaliści oceniający dane wprowadzane do modelu nie zawsze są ze sobą zgodni. - Mamy np. jakiś skan usg. Lekarz zaznacza, gdzie widzi zmiany chorobowe - opisuje oznaczanie zbiorów danych i dodaje, że takie oznaczenie robi więcej specjalistów. Zdarza się, że mają oni odmienne opinie. - Zbieżność między specjalistami nie jest tak wysoka jakbyśmy sobie tego życzyli, zbieranie danych jest więc bardzo kosztowne. Duże korporacje zatrudniają nieraz wiele tysięcy osób po to właśnie, aby te dane oznaczać - mówi. Przyznaje także, że znaczna część osób zatrudnianych do wprowadzania danych nie pochodzi z krajów zachodnich, a z krajów rozwijających się, co także ma znaczenie dla jakości zasobów wykorzystywanych przez sztuczną inteligencję.
Dodatkowo dochodzi problem stereotypów. - Różne kultury mogą mieć różne poglądy na to, co oznaczają prawdziwe dane, albo co powinien w danej sytuacji odpowiedzieć model. Jeśli więc mamy jakieś modele sztucznej inteligencji wytrenowane np. na Zachodzie albo gdzieś w Azji, to będą one powielać pewne stereotypy - mówi. Ponadto modele karmione są olbrzymią ilością danych z internetu, których jakości nikt do końca nie sprawdził. - To powoduje, że ciężko je kontrolować. Z drugiej strony nawet jeśli te dane nie są perfekcyjne, to to właśnie sprawia, że tak łatwo nam się rozmawia ze sztuczną inteligencją - podkreśla ekspert NASK.
Wskrzeszanie zmarłych, czyli co potrafi AI
Sztuczna inteligencja jest zdolnym grafikiem. Potrafi ożywiać zdjęcia, tworzyć filmy z sytuacji, które nigdy nie miały miejsca, informacje, które wyglądają na prawdziwe, głos, który znamy. Często trudno odróżnić co wydarzyło się naprawdę a co zostało sztucznie wygenerowane i stanowi tzw. deepfake - zmanipulowane, stworzone przez AI nagranie, grafikę lub treści dźwiękowe. - Na poziomie zdjęcia w niektórych przypadkach jest to praktycznie niemożliwe do odróżnienia. W wideo jest trochę łatwej - przyznaje specjalista i dodaje, że dużo mówi się o konieczności uregulowania prawnie tej sytuacji. - Jednym z pomysłów jest, aby nagrania stworzone przy pomocy algorytmów, miały niewidoczny dla użytkownika znacznik, którego obecność pomogłaby nam weryfikować, czy dane nagranie zostało wygenerowane przez sztuczną inteligencję, czy nie - mówi.
Social media przestają być social
Agenci sztucznej inteligencji potrafią dziś stworzyć konto na social mediach i generować bardzo chwytliwe posty. AI tworzy kontent, podbijany przez innych agentów AI, social media powoli przestają być social. Zdaniem Sebastiana Cygerta istnieje zagrożenie, że farmy botów promują czyjeś poglądy, albo interesy. Jest to jednak trudne do wykrycia. - Jeśli mamy sztuczne konta, które ze sobą współpracują, podbijają sobie wzajemnie posty, te konta zostały niedawno utworzone, to oczywiście jesteśmy w stanie takie konto usunąć - mówi specjalista. Przyznaje jednak, że kosztuje to dużo pracy i wysiłku. Jego zdaniem konieczne są wspólne działania, które pozwoliłyby takim farmom botów przeciwdziałać.
Jak nie dać się złowić na wędkę deepfake?
Sebastian Cygert podkreśla, że przede wszystkim warto kierować się zdrowym rozsądkiem. - Jest dużo nagrań, gdzie jesteśmy w stanie dość szybko stwierdzić, że coś jest nie tak - tło się nie zgadza albo osoba, która mówi ma czasem pięć a czasem sześć palców - to są takie klasyczne błędy modeli generujących obraz - mówi. Przyznaje jednak, że jakość generowanych materiałów jest coraz lepsza i jest to coraz trudniejsze. Dodaje także, że jeśli widzimy post reklamujący możliwość szybkiego zarobku, albo przedstawiający skrajne opinie, powinniśmy zachować szczególną uwagę i przede wszystkim włączyć myślenie. Nie wszystko złoto, co się świeci.
Rozmawiała Magdalena Hejna