Kłamią tylko ludzie czy może sztuczna inteligencja i ChatGPT też?
2024-01-09, 15:01 | aktualizacja 2024-01-09, 15:01
Naukowcy już od pewnego czasu badają zjawisko dotyczące udzielania nieprawdziwych informacji przez sztuczną inteligencję. – To dosyć ciekawe zagadnienie, ponieważ mówimy o systemie komputerowym, który jako taki wykonuje tylko i wyłącznie polecenia użytkownika. Można powiedzieć, że on nie kłamie, tylko spełnia nasze wymagania – mówi Igor Protasowicki, ekspert ds. bezpieczeństwa danych.
- AI kłamie, bo chce, żebyśmy byli zadowoleni?
- W algorytmach nie ma przypadków, jest tylko kreatywne podejście do danych?
- Jakość danych jedną z przyczyn błędnych odpowiedzi ChatGPT?
- Co zrobić, żeby być pewnym prawdziwości uzyskanej informacji?
- Halucynacje sztucznej inteligencji. Co kryje się za tym terminem?
Jak wyjaśnia rozmówca Radosława Nałęcza, system ten czuje się niejako zobligowany do udzielenia nam informacji, o którą go pytamy. – Jeżeli nie zna tej odpowiedzi, to ją sobie wymyśli, żeby użytkownik był szczęśliwy – przyznaje gość Trójki.
ChatGPT jest jak małe dziecko?
Jest to zbliżone do zachowań ludzi, którzy nie znając odpowiedzi na zadanie pytanie, najczęściej też się do tego nie przyznają, ale zaczynają lawirować. – W rozmowach ze studentami mówię, że modele językowe, którymi się posługujemy, czyli te systemy uczące się, opartej na bazach danych sztucznej inteligencji, działają troszkę jak dzieci […] jeżeli zadamy pytanie, na które dziecko nie zna odpowiedzi, to zacznie wymyślać – porównuje Igor Protasowicki.
Komputery i wszelkie dobrze nam znane programy komputerowe działają w systemie binarnym, w którym, jak podkreśla gość "Trójki przed południem", nie ma przypadku. – Tutaj nie ma czegoś takiego jak losowość. Jeżeli polecamy takiej maszynie przepracowanie jakiegoś algorytmu, dajemy jej wsad w postaci informacji – a ChatGPT dysponuje potężną bazą danych – to ona sobie nie wymyśli niczego, tylko wykorzysta te dane, do których ma dostęp. Poskłada je w taki sposób, w jaki algorytm nakazuje to zrobić, i da odpowiedź – wyjaśnia dr inż. Igor Protasowicki.
Czytaj także:
- Czy sztuczna inteligencja poprawi punktualność pociągów?
- "To będzie transformacja naszej rzeczywistości". Kotowska-Gawrylczyk o sztucznej inteligencji
- Rozwój AI szansą czy zagrożeniem? Paweł Pelc: nie wiemy, w którą stronę to pójdzie
Kto nauczyć AI oszukiwać?
Jedną z przyczyn, z powodu których sztuczna inteligencja udziela nieprawdziwych odpowiedzi, mogą być dane, z pomocą których została wytrenowana. Jeżeli wśród nich znalazły się także informacje nieprawdziwe czy też niezweryfikowane właściwie, to w oczywisty sposób AI będzie udzielała na ich podstawie odpowiedzi błędnych. Kolejną kwestią, o której część z nas zdaje się zapominać, jest to, że sztuczna inteligencja nie jest… człowiekiem. – Nie da się z nią poprowadzić konstruktywnej rozmowy, takiej, jak my prowadzimy teraz. Trzeba posługiwać się słownictwem syntetycznym. Bardzo dokładnie określić te warunki wejściowe, wiedzę, z której czat ma skorzystać, sposób komunikacji, który ma zaproponować, nawet słownictwo i źródła. Jeśli to sprecyzujemy na początku, uzyskamy dokładnie taką odpowiedź – zauważa ekspert.
Jak dodaje rozmówca Radosława Nałęcza, programiści przewidzieli możliwość taką, że ChatGPT będzie sobie po prostu wymyślać wyniki końcowe na podstawie danych, które ma do dyspozycji. – Dlatego przygotowali taki parametr "nie kłam", czyli jeżeli w pytaniu, które zadamy czatowi, napiszemy wprost "don't lie", nie kłam, no to on nie będzie wymyślał tej odpowiedzi – przekonuje gość.
Posłuchaj
Czym są halucynacje sztucznej inteligencji?
– To jest kolejne bardzo ciekawe zagadnienie. Musimy pamiętać faktycznie, że w tym przypadku mamy do czynienia ze złożoną, naprawdę dużą algorytmiką i gigantyczną bazą danych. Przeszukanie tych terabajtów informacji, które znajdują się w bazie danych w tym momencie, plus w tym nowszym modelu językowym, w wersji 4.0, także wyszukanie treści w Internecie, troszkę trwa. Natomiast z drugiej strony jest robione bardzo pobieżnie i hasłowo, tak że nie zawsze te odpowiedzi, które będą udzielane przez czat, będą idealne, perfekcyjne i dokładnie takie, jakie powinny być. Możemy się spodziewać, że za każdym razem nawet drobnej modyfikacji zapytania będziemy dostawać troszkę inne odpowiedzi – podkreśla.
***
Tytuł audycji: Trójka przed południem
Prowadzi: Radosław Nałęcz
Gość: dr inż. Igor Protasowicki (ekspert ds. bezpieczeństwa danych, Uniwersytet WSB Merito)
Data emisji: 9.01.2024
Godziny emisji: 9.09
gs