Kłamią tylko ludzie czy może sztuczna inteligencja i ChatGPT też?

  • Facebook
  • Twitter
  • Wykop
  • Mail
Kłamią tylko ludzie czy może sztuczna inteligencja i ChatGPT też?
Sztuczna inteligencja celowo kłamie, czy to błędny w algorytmie są odpowiedzialne za wprowadzenie użytkowników w błąd?Foto: Shutterstock/Nuttapong punna

Naukowcy już od pewnego czasu badają zjawisko dotyczące udzielania nieprawdziwych informacji przez sztuczną inteligencję. – To dosyć ciekawe zagadnienie, ponieważ mówimy o systemie komputerowym, który jako taki wykonuje tylko i wyłącznie polecenia użytkownika. Można powiedzieć, że on nie kłamie, tylko spełnia nasze wymagania – mówi Igor Protasowicki, ekspert ds. bezpieczeństwa danych.

  • AI kłamie, bo chce, żebyśmy byli zadowoleni?
  • W algorytmach nie ma przypadków, jest tylko kreatywne podejście do danych?
  • Jakość danych jedną z przyczyn błędnych odpowiedzi ChatGPT?
  • Co zrobić, żeby być pewnym prawdziwości uzyskanej informacji?
  • Halucynacje sztucznej inteligencji. Co kryje się za tym terminem?

Jak wyjaśnia rozmówca Radosława Nałęcza, system ten czuje się niejako zobligowany do udzielenia nam informacji, o którą go pytamy. – Jeżeli nie zna tej odpowiedzi, to ją sobie wymyśli, żeby użytkownik był szczęśliwy – przyznaje gość Trójki. 

ChatGPT jest jak małe dziecko?

Jest to zbliżone do zachowań ludzi, którzy nie znając odpowiedzi na zadanie pytanie, najczęściej też się do tego nie przyznają, ale zaczynają lawirować. – W rozmowach ze studentami mówię, że modele językowe, którymi się posługujemy, czyli te systemy uczące się, opartej na bazach danych sztucznej inteligencji, działają troszkę jak dzieci […] jeżeli zadamy pytanie, na które dziecko nie zna odpowiedzi, to zacznie wymyślać – porównuje Igor Protasowicki.

Komputery i wszelkie dobrze nam znane programy komputerowe działają w systemie binarnym, w którym, jak podkreśla gość "Trójki przed południem", nie ma przypadku. – Tutaj nie ma czegoś takiego jak losowość. Jeżeli polecamy takiej maszynie przepracowanie jakiegoś algorytmu, dajemy jej wsad w postaci informacji – a ChatGPT dysponuje potężną bazą danych – to ona sobie nie wymyśli niczego, tylko wykorzysta te dane, do których ma dostęp. Poskłada je w taki sposób, w jaki algorytm nakazuje to zrobić, i da odpowiedź – wyjaśnia dr inż. Igor Protasowicki. 

 Czytaj także:

Kto nauczyć AI oszukiwać?

Jedną z przyczyn, z powodu których sztuczna inteligencja udziela nieprawdziwych odpowiedzi, mogą być dane, z pomocą których została wytrenowana. Jeżeli wśród nich znalazły się także informacje nieprawdziwe czy też niezweryfikowane właściwie, to w oczywisty sposób AI będzie udzielała na ich podstawie odpowiedzi błędnych. Kolejną kwestią, o której część z nas zdaje się zapominać, jest to, że sztuczna inteligencja nie jest… człowiekiem. – Nie da się z nią poprowadzić konstruktywnej rozmowy, takiej, jak my prowadzimy teraz. Trzeba posługiwać się słownictwem syntetycznym. Bardzo dokładnie określić te warunki wejściowe, wiedzę, z której czat ma skorzystać, sposób komunikacji, który ma zaproponować, nawet słownictwo i źródła. Jeśli to sprecyzujemy na początku, uzyskamy dokładnie taką odpowiedź – zauważa ekspert. 

Jak dodaje rozmówca Radosława Nałęcza, programiści przewidzieli możliwość taką, że ChatGPT będzie sobie po prostu wymyślać wyniki końcowe na podstawie danych, które ma do dyspozycji. – Dlatego przygotowali taki parametr "nie kłam", czyli jeżeli w pytaniu, które zadamy czatowi, napiszemy wprost "don't lie", nie kłam, no to on nie będzie wymyślał tej odpowiedzi – przekonuje gość. 


Posłuchaj

7:11
Skąd się biorą kłamstwa sztucznej inteligencji? (Trójka przed południem)
+
Dodaj do playlisty
+

 

Czym są halucynacje sztucznej inteligencji? 

– To jest kolejne bardzo ciekawe zagadnienie. Musimy pamiętać faktycznie, że w tym przypadku mamy do czynienia ze złożoną, naprawdę dużą algorytmiką i gigantyczną bazą danych. Przeszukanie tych terabajtów informacji, które znajdują się w bazie danych w tym momencie, plus w tym nowszym modelu językowym, w wersji 4.0, także wyszukanie treści w Internecie, troszkę trwa. Natomiast z drugiej strony jest robione bardzo pobieżnie i hasłowo, tak że nie zawsze te odpowiedzi, które będą udzielane przez czat, będą idealne, perfekcyjne i dokładnie takie, jakie powinny być. Możemy się spodziewać, że za każdym razem nawet drobnej modyfikacji zapytania będziemy dostawać troszkę inne odpowiedzi – podkreśla. 


Chat GPT został opracowany przez amerykańską firmę OpenAI i służy m.in. do tworzenia odpowiedzi na pytania lub polecenia wprowadzane przez jego użytkownika. Potrafi wykonać bardziej złożone zadania, na przykład napisać opowiadanie czy program komputerowy, PAP/Maciej Zieliński ChatGPT został opracowany przez amerykańską firmę OpenAI i służy m.in. do tworzenia odpowiedzi na pytania lub polecenia wprowadzane przez jego użytkownika. Potrafi wykonać bardziej złożone zadania, na przykład napisać opowiadanie czy program komputerowy, PAP/Maciej Zieliński


***

Tytuł audycji: Trójka przed południem
Prowadzi: Radosław Nałęcz 
Gość: dr inż. Igor Protasowicki (ekspert ds. bezpieczeństwa danych, Uniwersytet WSB Merito)
Data emisji: 9.01.2024
Godziny emisji: 9.09

gs


Polecane