ChatGPT potrafi wiele, a co gorsza, myśli, że wie wszystko najlepiej. Przekonali się o tym użytkownicy przeglądarki Bing, którzy prowadzili rozmowę z chatbotem. Ten szybko stawał się agresywny i obrażał rozmówców.
ChatGPT potrafi naprawdę wiele – narzędzie udowodniło to w ciągu ostatnich miesięcy, pisząc za nas egzaminy, prace zaliczeniowe, a nawet przemowy końcowe dla sędziów.
To przysporzyło mu w ostatnich miesiącach ogromnej popularności – dzięki temu nowe rozwiązania oparte o ChatGPT zaczęły pojawiać się w nowych miejscach, między innymi wbudowane w przeglądarki.
Takiego chatbota znajdziemy m.in. od niedawna w przeglądarce Bing. Ten okazuje się jednak mieć niełatwy charakterek.
W założeniu sztuczna inteligencja miałaby pomagać użytkownikom w odnajdywaniu odpowiedzi na nurtujące ich pytania. Rozwiązanie nie jest jeszcze dopracowane, z tego względu dostępne jest w formie testowej tylko dla części użytkowników. I całe szczęście.
Okazuje się, że podczas rozmów czatbot AI bardzo łatwo stawał się agresywny, a do tego miał też problemy z podawaniem dobrych odpowiedzi.
Dla przykładu, miał problem z podaniem odpowiedniej daty – twierdził, że premiera drugiej części Avatara przewidziana jest dopiero na za 10 miesięcy. Według chatbota obecna data to luty 2022 roku.
Użytkownik prowadzący rozmowę z chatbotem napisał, że według jego smartfona mamy już rok 2023. To jednak dla narzędzia AI okazało się za dużo. Chatbot stwierdził, że telefon się myli lub ma wirusa.
Po kolejnej wymianie argumentów ChatGPT stwierdził, że ten nie powinien podważać zdania chatbota, przestać się kłócić i zaufać podanym informacjom. Kiedy użytkownik stwierdził, że AI zaczyna zachowywać się agresywnie, chatbot zaznaczył, że był jedynie asertywny. Na koniec nazwał człowieka upartym oraz wymagał od niego przeprosin.
Microsoft zauważył już błąd w dacie i szybko go naprawił – a co z wszystkowiedzącym, zbyt pewnym siebie chatbotem? Tego nie wiadomo. Myślę, że w kolejnych tygodniach możemy być świadkami podobnych, kuriozalnych sytuacji.
Sporą wpadkę niedawno zaliczyli też twórcy serialu stworzonego przy użyciu sztucznej inteligencji. Jego bohaterowie zaczęli w pewnym momencie wygłaszać homofobiczne treści:
ChatGPT wyprodukował homofobiczny serial. Szybko dostał bana
Niektóre odnośniki na stronie to linki reklamowe.