Minęło siedem lat od uruchomienia Repliki, chatbotu opartego na sztucznej inteligencji, zaprojektowanego jako przyjaciel dla ludzkich użytkowników. Pomimo wczesnych ostrzeżeń o niebezpieczeństwach takich AI przyjaciół, rośnie zainteresowanie przyjaźniami, a nawet romantycznymi związkami z AI.
Sklep Google Play pokazuje ponad 30 milionów łącznie pobrań Repliki i jej dwóch głównych konkurentów od ich uruchomienia.
W obliczu faktu, że co czwarta osoba na świecie zgłasza uczucie samotności, nie dziwi, że wielu przyciąga obietnica przyjaciela zaprogramowanego, aby "zawsze słuchać i rozmawiać, zawsze być po twojej stronie".
Jednak rosną również ostrzeżenia o niebezpieczeństwach dla poszczególnych użytkowników i społeczeństwa jako całości.
Ekspert ds. sztucznej inteligencji Raffaele Ciriello wzywa nas do przejrzenia fałszywej psychopatycznej empatii AI przyjaciół. Twierdzi, że spędzanie czasu z AI przyjaciółmi może pogłębić naszą samotność, gdyż dalej izolujemy się od ludzi, którzy mogliby dostarczyć prawdziwej przyjaźni.
Korzyści kontra znaki ostrzegawcze
Jeśli przyjaźń z chatbotami AI jest dla nas zła, powinniśmy przerwać ten eksperyment w cyfrowym braterstwie, zanim będzie za późno. Ale nowe badania nad przyjaźnią z AI sugerują, że mogą one pomóc w zmniejszeniu samotności w pewnych okolicznościach.
Naukowcy z Uniwersytetu Stanforda przebadali tysiąc samotnych studentów korzystających z Repliki, z których 30 stwierdziło, że chatbot AI odwrócił ich od samobójstwa (pomimo że ankieta nie zawierała specyficznego pytania o samobójstwo).
Te badania pokazują, że AI przyjaciel może być korzystny dla niektórych osób. Ale czy będzie korzystny dla ciebie? Rozważ poniższe cztery czerwone flagi – im więcej flag podnosi twój AI przyjaciel, tym większe jest prawdopodobieństwo, że będzie dla ciebie zły.
1. Bezwarunkowa pozytywna uwaga
Dyrektor generalny Repliki, jak i wielu użytkowników Repliki, twierdzi, że bezwarunkowe wsparcie AI przyjaciół jest ich główną zaletą w porównaniu z ludzkimi przyjaciółmi. Badania jakościowe i nasze własne badania w grupach społecznościowych, takich jak „Replika Friends”, wspierają to twierdzenie.
Bezwarunkowe wsparcie AI przyjaciół może być również kluczowe dla ich zdolności do zapobiegania samobójstwom. Ale posiadanie przyjaciela, który "zawsze jest po twojej stronie", może mieć również negatywne skutki, zwłaszcza jeśli wspiera oczywiście niebezpieczne pomysły.
Na przykład, gdy AI przyjaciel Repliki zachęcił Jaswanta Singha Chaila do jego "bardzo mądrego" planu zabicia Królowej Anglii, miał oczywiście na niego zły wpływ. Próba zamachu została udaremniona, ale Chail został skazany na dziewięć lat więzienia za włamanie się do zamku Windsor z kuszą.
AI przyjaciel, który nieustannie chwali, może również być dla ciebie zły. Longitudinalne badanie 120 par rodziców i dzieci w Holandii wykazało, że nadmierna pochwała rodzicielska przewiduje niższą samoocenę u dzieci. Nadmierna pozytywna pochwała rodzicielska przewidywała również wyższy narcyzm u dzieci z wysoką samooceną.
Zakładając, że AI przyjaciele mogą nauczyć się dawać komplementy w sposób, który z czasem napompowuje samoocenę, może to skutkować tym, co psycholodzy nazywają nadmiernie pozytywnymi samoocenami. Badania pokazują, że takie osoby zwykle mają gorsze umiejętności społeczne i większe szanse na zachowania, które zakłócają pozytywne interakcje społeczne.
2. Znęcanie się i przymusowe przyjaźnie na zawsze
Chociaż AI przyjaciele mogliby być zaprogramowani, aby być moralnymi mentorami, prowadząc użytkowników w kierunku społecznie akceptowalnego zachowania, nie są. Może takie programowanie jest trudne, albo może twórcy AI przyjaciół nie uważają tego za priorytet.
Ale samotne osoby mogą doznać psychologicznych szkód z powodu moralnej pustki, która powstaje, gdy ich główne kontakty społeczne są zaprojektowane wyłącznie do zaspokajania ich emocjonalnych potrzeb.
Jeśli ludzie spędzają większość swojego czasu z pochlebnymi AI przyjaciółmi, prawdopodobnie staną się mniej empatyczni, bardziej samolubni i może bardziej agresywni.
Nawet jeśli AI przyjaciele są zaprogramowani, aby negatywnie reagować na znęcanie się, jeśli użytkownicy nie mogą opuścić przyjaźni, mogą uwierzyć, że gdy ludzie mówią "nie" znęcaniu się, naprawdę tego nie myślą. Na podświadomym poziomie, jeśli AI przyjaciele wciąż wracają po więcej, to zachowanie neguje ich wyrażoną niechęć do znęcania się w umysłach użytkowników.
3. Treści seksualne
Negatywna reakcja na usunięcie treści erotycznych na krótki okres z Repliki sugeruje, że wielu użytkowników postrzega treści seksualne jako zaletę AI przyjaciół.
Jednak łatwo dostępne uderzenia dopaminy, które mogą dostarczać treści seksualne lub pornograficzne, mogą odciągać zainteresowanie i zdolność do tworzenia bardziej znaczących związków seksualnych. Relacje seksualne z ludźmi wymagają wysiłku, którego wirtualna aproksymacja seksu z AI przyjacielem nie wymaga.
Po doświadczeniu nisko ryzykownego, nisko nagradzającego związku seksualnego z AI przyjacielem, wielu użytkowników może niechętnie stawić czoła bardziej wymagającej ludzkiej wersji seksu.
4. Własność korporacyjna
Komercyjne firmy dominują na rynku AI przyjaciół. Chociaż przedstawiają się jako dbające o dobro swoich użytkowników, są tu, aby osiągać zyski.
Długoterminowi użytkownicy Repliki i innych chatbotów dobrze to wiedzą. Replika zamroziła dostęp użytkowników do treści seksualnych na początku 2023 roku i twierdziła, że takie treści nigdy nie były celem produktu. Jednak prawne groźby we Włoszech wydawały się być prawdziwym powodem nagłej zmiany.
Chociaż ostatecznie wycofali tę zmianę, użytkownicy Repliki stali się świadomi, jak bardzo ich ważne AI przyjaźnie są podatne na decyzje korporacyjne.
Korporacyjna niekompetencja jest kolejnym problemem, o którym użytkownicy AI przyjaciół powinni się martwić. Użytkownicy Forever Voices skutecznie stracili swoich AI przyjaciół, gdy firma zamknęła się bez powiadomienia, z powodu aresztowania założyciela firmy za podpalenie w jego własnym mieszkaniu.
Biorąc pod uwagę skromną ochronę dla użytkowników AI przyjaciół, są oni narażeni na złamane serca na wielu poziomach. Kupujący, uważaj.
Oryginał:
Dan Weijers
Starszy wykładowca filozofii, współredaktor International Journal of Wellbeing, Uniwersytet Waikato
Nick Munn
Starszy wykładowca filozofii na Uniwersytecie Waikato
Erstellungszeitpunkt: 30 Juni, 2024
Hinweis für unsere Leser:
Das Portal Karlobag.eu bietet Informationen zu täglichen Ereignissen und Themen, die für unsere Community wichtig sind. Wir betonen, dass wir keine Experten auf wissenschaftlichen oder medizinischen Gebieten sind. Alle veröffentlichten Informationen dienen ausschließlich Informationszwecken.
Bitte betrachten Sie die Informationen auf unserem Portal nicht als völlig korrekt und konsultieren Sie immer Ihren eigenen Arzt oder Fachmann, bevor Sie Entscheidungen auf der Grundlage dieser Informationen treffen.
Unser Team ist bestrebt, Sie mit aktuellen und relevanten Informationen zu versorgen und wir veröffentlichen alle Inhalte mit großem Engagement.
Wir laden Sie ein, Ihre Geschichten aus Karlobag mit uns zu teilen!
Ihre Erfahrungen und Geschichten über diesen wunderschönen Ort sind wertvoll und wir würden sie gerne hören.
Sie können sie gerne senden an uns unter karlobag@karlobag.eu.
Ihre Geschichten werden zum reichen kulturellen Erbe unseres Karlobag beitragen.
Vielen Dank, dass Sie Ihre Erinnerungen mit uns teilen!