Każdego dnia, asystentka głosowa Apple otrzymuje przeróżne zapytania związane z tematami egzystencjalnym, dlatego koncern chce zatrudnić nowych pracowników do jej ulepszenia. Co dokładnie zamierza Apple i jakie widzę w tym zagrożenia?
Nie wiem czy oglądaliście drugi sezon Mr Robot, więc uprzedzam, że w kolejnych zdaniach będą spojlery. We wspomnianym serialu jest kilka takich scen, w których występuje agentka FBI – samotna, nie mogąca spać po nocach i na co dzień udająca twardą kobietę. W chwilach słabości nie ma nawet z kim porozmawiać, więc… konwersuje sobie z Alexą. Mowa o asystentce głosowej Amazonu, a właściwie całym głośniku, który nierzadko pojawia się w kilku epizodach. Padają tam pytania ze strony agentki, które jasno sugerują jej wewnętrzne cierpienie i samotność.
Okazuje się, że podobne sytuacje mają miejsce każdego dnia. Dzisiaj już w sumie nie wiadomo, czy to seriale naśladują rzeczywistość czy może jest odwrotnie. Zapewne podobne zapytania trafiają zarówno do Cortany, Alexy, jak i Siri, ale tym razem mowa jest o tej ostatniej. Asystentka głosowa Apple jest podobno zasypywana pytaniami egzystencjalnymi chociażby o sens życia czy sposoby na bycie szczęśliwym albo radzenie sobie ze stresem.
Koncern z Cupertino chce wyjść naprzeciw temu i poszukuje inżynierów, którzy nie tylko będą znać się na technicznych aspektach działania oprogramowania, ale również będą mieli pojęcie o kwestiach psychologicznych. Dzięki temu, ma być ona bardziej ludzka i lepiej odpowiadać na zadane pytania.
Uważam, że w tym przypadku mamy miecz obosieczny. Z jednej strony Apple chce odpowiedzieć na potrzeby użytkowników i dzięki temu naprawdę wielu osobom będzie można pomóc. Nawet tym, którzy nie potrafią poszukać informacji w sieci lub im się nie chce, a trapią ich negatywne emocje czy uczucia. To może się udać i ma jak najbardziej dobroczynne działanie.
Z drugiej strony pojawia się kwestia tego, jak głęboko Apple oraz inne firmy tworzące asystentki głosowe będą wchodzić w takie interakcje z użytkownikiem pod względem psychologicznym. Można dzięki nim przecież zbudować niezły profil psychologiczny człowieka, poznać jego słabości i je później wykorzystać (dane są przesyłane na serwer, a nie zapomnijmy o aplikacji Zdrowie na smartfonie).
Poza tym, pozostaje jeszcze kwestia zbytniego polegania i przyzwyczajania się człowieka do „uczłowieczonej” maszyny, która nigdy nie zastąpi drugiego człowieka – nieważne, jakie argumenty się znajdzie na plus tej pierwszej. Mam nadzieję, że w ważniejszych sprawach Siri będzie proponowała wizytę u psychologa albo psychiatry, a nie bawiła się w terapeutkę z prawdziwego zdarzenia.
Źródło: Business Insider
Niektóre odnośniki na stronie to linki reklamowe.