fot. Benj Edwards / Ars Technica / OpenAI
ChatGPT potrafi wiele, a co gorsza, myśli, że wie wszystko najlepiej. Przekonali się o tym użytkownicy przeglądarki Bing, którzy prowadzili rozmowę z chatbotem. Ten szybko stawał się agresywny i obrażał rozmówców.
ChatGPT potrafi naprawdę wiele – narzędzie udowodniło to w ciągu ostatnich miesięcy, pisząc za nas egzaminy, prace zaliczeniowe, a nawet przemowy końcowe dla sędziów.
To przysporzyło mu w ostatnich miesiącach ogromnej popularności – dzięki temu nowe rozwiązania oparte o ChatGPT zaczęły pojawiać się w nowych miejscach, między innymi wbudowane w przeglądarki.
Takiego chatbota znajdziemy m.in. od niedawna w przeglądarce Bing. Ten okazuje się jednak mieć niełatwy charakterek.
W założeniu sztuczna inteligencja miałaby pomagać użytkownikom w odnajdywaniu odpowiedzi na nurtujące ich pytania. Rozwiązanie nie jest jeszcze dopracowane, z tego względu dostępne jest w formie testowej tylko dla części użytkowników. I całe szczęście.
Bard AI, czyli „ChatGPT od Google”? / fot. Mopic, Fotolia.com
Okazuje się, że podczas rozmów czatbot AI bardzo łatwo stawał się agresywny, a do tego miał też problemy z podawaniem dobrych odpowiedzi.
Dla przykładu, miał problem z podaniem odpowiedniej daty – twierdził, że premiera drugiej części Avatara przewidziana jest dopiero na za 10 miesięcy. Według chatbota obecna data to luty 2022 roku.
Użytkownik prowadzący rozmowę z chatbotem napisał, że według jego smartfona mamy już rok 2023. To jednak dla narzędzia AI okazało się za dużo. Chatbot stwierdził, że telefon się myli lub ma wirusa.
Po kolejnej wymianie argumentów ChatGPT stwierdził, że ten nie powinien podważać zdania chatbota, przestać się kłócić i zaufać podanym informacjom. Kiedy użytkownik stwierdził, że AI zaczyna zachowywać się agresywnie, chatbot zaznaczył, że był jedynie asertywny. Na koniec nazwał człowieka upartym oraz wymagał od niego przeprosin.
Microsoft zauważył już błąd w dacie i szybko go naprawił – a co z wszystkowiedzącym, zbyt pewnym siebie chatbotem? Tego nie wiadomo. Myślę, że w kolejnych tygodniach możemy być świadkami podobnych, kuriozalnych sytuacji.
Sporą wpadkę niedawno zaliczyli też twórcy serialu stworzonego przy użyciu sztucznej inteligencji. Jego bohaterowie zaczęli w pewnym momencie wygłaszać homofobiczne treści:
https://www.gsmmaniak.pl/1381194/serial-ai-chatgpt-ban-kontrowersje/
Niektóre odnośniki na stronie to linki reklamowe.
Kapitalna gra detektywistyczna od Rockstara została objęta potężnym 77% rabatem. Nie dość, że przy jej…
Klienci PKO BP zostali perfidnie wzięci na celownik. Niebezpieczeństwo nigdy do końca nie minie, można…
Nareszcie ogłoszono datę premiery serii Infinix NOTE 50. Następcy świetnych i tanich Infinix NOTE 40…
Specyfikacja Samsunga Galaxy A56, A36 i A26 5G została potwierdzona przed premierą. Znamy też konkretną…
Oppo Find X8 Mini będzie bardzo smukłym smartfonem, który do tego nie zrezygnuje z wielkiej…
Ulefone Armor 28 Ultra rozbił bank. Smartfon ma 16 GB RAM, MediaTeka Dimensity 9300+, 1…