Sztuczna inteligencja a fałszywe treści. Czy algorytmy mogą nas oszukać?

Nowe technologie, a w szczególności sztuczna inteligencja, dają wiele możliwości. Niestety jest to również pole do wielu oszustw. Coraz trudniej jest odróżnić prawdziwe treści od tych fałszywych, wygenerowanych przez SI. Czy możemy temu zaradzić?

Sztuczna inteligencja a fałszywe treści. Czy algorytmy mogą nas oszukać?

Coraz trudniej jest rozpoznać treści tworzone przez sztuczną inteligencję.

Foto: Gorodenkoff/Shutterstock

  • Sztuczna inteligencja jest coraz częściej wykorzystywana do generowania treści, niestety również tych fałszywych.
  • Rozpoznanie tego, co stworzyło SI, jest dziś dosyć trudne. Rozwiązaniem problemu mogą być odpowiednie programy, jednak wymagają one długiej pracy naukowców.
  • Do walki z treściami generowanymi przez sztuczną inteligencję wykorzystuje się inne algorytmy. Jak jednak mówią eksperci, rozwiązanie z czasem przestanie być skuteczne.

Rozwiązaniem problemu tworzenia fałszywych treści przez sztuczną inteligencję mogą być odpowiednio napisane programy. Napotkamy tu jednak istotny problem: jesteśmy dopiero na początku procesu ich tworzenia. – My się tak naprawdę dopiero uczymy tworzenia modeli językowych i innych modeli służących do kreatywnego podchodzenia do rzeczywistości – wyjaśnia dr Igor Protasowicki, ekspert ds. cybertechnologii uniwersytetu WSB Merito w Warszawie. 

Specjalista przypomina, że sztuczna inteligencja działa obecnie w sposób odtwórczy. – To znaczy, że czerpie wiedzę z bazy danych gromadzonych przez jakiś czas. Następnie może te informacje przetwarzać, na podstawie algorytmu stworzonego przez jej autora, i przedstawiać wynik swojej pracy jako coś nowego.

Wspomniane przez eksperta przetwarzanie danych nie zawsze jednak działa tak, jak powinno. Nierzadko, podczas rozmów na czacie, sztuczna inteligencja rozmija się z prawdą. Ekspert ds. bezpieczeństwa danych, Tomasz Izydorczyk, zauważa, że pod tym względem SI zachowuje się jak ludzie. – My też tak działamy: jak czegoś nie wiemy, to zaczynamy szukać pewnych słów, zdań, żeby pasowały do narracji. To zmyślanie to tak naprawdę rachunek prawdopodobieństwa: algorytm szacuje prawdopodobieństwo połączenia pewnego zestawu słów na bazie całej wiedzy, jaką posiadł. Jeżeli nie znajdzie pewnych wzorców, próbuje coś tworzyć. Z tego wychodzą pokraczne rzeczy, które odbieramy jako zmyślanie – tłumaczy rozmówca Moniki Suszek.

Najczęściej czytane:

Fałszywe treści generowane przez SI. Jak z tym walczyć?

Odróżnienie zdjęć czy tekstów stworzonych przez sztuczną inteligencję staje się coraz trudniejsze. Treści generowane i rozpowszechniane przez boty są coraz dokładniejsze i przypominają dzieła stworzone przez ludzi. Aby więc walczyć z fałszywymi treściami, konieczne staje się wykorzystanie kolejnych algorytmów, co wpędza nas w błędne koło.

Eksperci przestrzegają jednak, że wykorzystanie SI do walki z fałszywymi treściami nie zawsze będzie skuteczne.  Na pewnym etapie rozwoju stworzymy model językowy, który będzie służył do tworzenia modeli językowych i doskonalenia kodu. Sztuczna inteligencja będzie się uczyć, jak nas oszukiwać i być krok przed nami – zauważa dr Igor Protasowicki. – To przypomina walkę z cyberprzestępcami: ktoś tworzy szkodliwe oprogramowanie, szuka luk w istniejących systemach i uczy się je wykorzystywać. W momencie, kiedy ta luka zostanie wykorzystana i program zacznie infekować komputery, my się o tej luce dowiadujemy. Trudno jest zapobiegać; kiedy jednak coś funkcjonuje, to można to wykryć – porównuje ekspert.

Sztuczna inteligencja a fałszywe treści. Czy algorytmy mogą nas oszukać? (Trójka przed południem)
3:55
+
Dodaj do playlisty
+

 

***

Tytuł audycji: Trójka przed południem
Prowadzi: Witold Lazar
Autorka materiału reporterskiego: Monika Suszek
Data emisji: 20.09.2023
Godziny emisji: 10.21

qch

Odtwarzacz jest gotowy. Kliknij aby odtwarzać.