Reklama

reklama

Sztuczna inteligencja a fałszywe treści. Czy algorytmy mogą nas oszukać?

  • Facebook
  • Twitter
  • Wykop
  • Mail
Sztuczna inteligencja a fałszywe treści. Czy algorytmy mogą nas oszukać?
Coraz trudniej jest rozpoznać treści tworzone przez sztuczną inteligencję. Foto: Gorodenkoff/Shutterstock

Nowe technologie, a w szczególności sztuczna inteligencja, dają wiele możliwości. Niestety jest to również pole do wielu oszustw. Coraz trudniej jest odróżnić prawdziwe treści od tych fałszywych, wygenerowanych przez SI. Czy możemy temu zaradzić?

  • Sztuczna inteligencja jest coraz częściej wykorzystywana do generowania treści, niestety również tych fałszywych.
  • Rozpoznanie tego, co stworzyło SI, jest dziś dosyć trudne. Rozwiązaniem problemu mogą być odpowiednie programy, jednak wymagają one długiej pracy naukowców.
  • Do walki z treściami generowanymi przez sztuczną inteligencję wykorzystuje się inne algorytmy. Jak jednak mówią eksperci, rozwiązanie z czasem przestanie być skuteczne.

Rozwiązaniem problemu tworzenia fałszywych treści przez sztuczną inteligencję mogą być odpowiednio napisane programy. Napotkamy tu jednak istotny problem: jesteśmy dopiero na początku procesu ich tworzenia. – My się tak naprawdę dopiero uczymy tworzenia modeli językowych i innych modeli służących do kreatywnego podchodzenia do rzeczywistości – wyjaśnia dr Igor Protasowicki, ekspert ds. cybertechnologii uniwersytetu WSB Merito w Warszawie. 

Specjalista przypomina, że sztuczna inteligencja działa obecnie w sposób odtwórczy. – To znaczy, że czerpie wiedzę z bazy danych gromadzonych przez jakiś czas. Następnie może te informacje przetwarzać, na podstawie algorytmu stworzonego przez jej autora, i przedstawiać wynik swojej pracy jako coś nowego.

Wspomniane przez eksperta przetwarzanie danych nie zawsze jednak działa tak, jak powinno. Nierzadko, podczas rozmów na czacie, sztuczna inteligencja rozmija się z prawdą. Ekspert ds. bezpieczeństwa danych, Tomasz Izydorczyk, zauważa, że pod tym względem SI zachowuje się jak ludzie. – My też tak działamy: jak czegoś nie wiemy, to zaczynamy szukać pewnych słów, zdań, żeby pasowały do narracji. To zmyślanie to tak naprawdę rachunek prawdopodobieństwa: algorytm szacuje prawdopodobieństwo połączenia pewnego zestawu słów na bazie całej wiedzy, jaką posiadł. Jeżeli nie znajdzie pewnych wzorców, próbuje coś tworzyć. Z tego wychodzą pokraczne rzeczy, które odbieramy jako zmyślanie – tłumaczy rozmówca Moniki Suszek.

Najczęściej czytane:

Fałszywe treści generowane przez SI. Jak z tym walczyć?

Odróżnienie zdjęć czy tekstów stworzonych przez sztuczną inteligencję staje się coraz trudniejsze. Treści generowane i rozpowszechniane przez boty są coraz dokładniejsze i przypominają dzieła stworzone przez ludzi. Aby więc walczyć z fałszywymi treściami, konieczne staje się wykorzystanie kolejnych algorytmów, co wpędza nas w błędne koło.

Eksperci przestrzegają jednak, że wykorzystanie SI do walki z fałszywymi treściami nie zawsze będzie skuteczne.  Na pewnym etapie rozwoju stworzymy model językowy, który będzie służył do tworzenia modeli językowych i doskonalenia kodu. Sztuczna inteligencja będzie się uczyć, jak nas oszukiwać i być krok przed nami – zauważa dr Igor Protasowicki. – To przypomina walkę z cyberprzestępcami: ktoś tworzy szkodliwe oprogramowanie, szuka luk w istniejących systemach i uczy się je wykorzystywać. W momencie, kiedy ta luka zostanie wykorzystana i program zacznie infekować komputery, my się o tej luce dowiadujemy. Trudno jest zapobiegać; kiedy jednak coś funkcjonuje, to można to wykryć – porównuje ekspert.

Posłuchaj

3:55
Sztuczna inteligencja a fałszywe treści. Czy algorytmy mogą nas oszukać? (Trójka przed południem)
+
Dodaj do playlisty
+

 

***

Tytuł audycji: Trójka przed południem
Prowadzi: Witold Lazar
Autorka materiału reporterskiego: Monika Suszek
Data emisji: 20.09.2023
Godziny emisji: 10.21

qch

Polecane