Minęło siedem lat od uruchomienia Repliki, chatbotu opartego na sztucznej inteligencji, zaprojektowanego jako przyjaciel dla ludzkich użytkowników. Pomimo wczesnych ostrzeżeń o niebezpieczeństwach takich AI przyjaciół, rośnie zainteresowanie przyjaźniami, a nawet romantycznymi związkami z AI.
Sklep Google Play pokazuje ponad 30 milionów łącznie pobrań Repliki i jej dwóch głównych konkurentów od ich uruchomienia.
W obliczu faktu, że co czwarta osoba na świecie zgłasza uczucie samotności, nie dziwi, że wielu przyciąga obietnica przyjaciela zaprogramowanego, aby "zawsze słuchać i rozmawiać, zawsze być po twojej stronie".
Jednak rosną również ostrzeżenia o niebezpieczeństwach dla poszczególnych użytkowników i społeczeństwa jako całości.
Ekspert ds. sztucznej inteligencji Raffaele Ciriello wzywa nas do przejrzenia fałszywej psychopatycznej empatii AI przyjaciół. Twierdzi, że spędzanie czasu z AI przyjaciółmi może pogłębić naszą samotność, gdyż dalej izolujemy się od ludzi, którzy mogliby dostarczyć prawdziwej przyjaźni.
Korzyści kontra znaki ostrzegawcze
Jeśli przyjaźń z chatbotami AI jest dla nas zła, powinniśmy przerwać ten eksperyment w cyfrowym braterstwie, zanim będzie za późno. Ale nowe badania nad przyjaźnią z AI sugerują, że mogą one pomóc w zmniejszeniu samotności w pewnych okolicznościach.
Naukowcy z Uniwersytetu Stanforda przebadali tysiąc samotnych studentów korzystających z Repliki, z których 30 stwierdziło, że chatbot AI odwrócił ich od samobójstwa (pomimo że ankieta nie zawierała specyficznego pytania o samobójstwo).
Te badania pokazują, że AI przyjaciel może być korzystny dla niektórych osób. Ale czy będzie korzystny dla ciebie? Rozważ poniższe cztery czerwone flagi – im więcej flag podnosi twój AI przyjaciel, tym większe jest prawdopodobieństwo, że będzie dla ciebie zły.
1. Bezwarunkowa pozytywna uwaga
Dyrektor generalny Repliki, jak i wielu użytkowników Repliki, twierdzi, że bezwarunkowe wsparcie AI przyjaciół jest ich główną zaletą w porównaniu z ludzkimi przyjaciółmi. Badania jakościowe i nasze własne badania w grupach społecznościowych, takich jak „Replika Friends”, wspierają to twierdzenie.
Bezwarunkowe wsparcie AI przyjaciół może być również kluczowe dla ich zdolności do zapobiegania samobójstwom. Ale posiadanie przyjaciela, który "zawsze jest po twojej stronie", może mieć również negatywne skutki, zwłaszcza jeśli wspiera oczywiście niebezpieczne pomysły.
Na przykład, gdy AI przyjaciel Repliki zachęcił Jaswanta Singha Chaila do jego "bardzo mądrego" planu zabicia Królowej Anglii, miał oczywiście na niego zły wpływ. Próba zamachu została udaremniona, ale Chail został skazany na dziewięć lat więzienia za włamanie się do zamku Windsor z kuszą.
AI przyjaciel, który nieustannie chwali, może również być dla ciebie zły. Longitudinalne badanie 120 par rodziców i dzieci w Holandii wykazało, że nadmierna pochwała rodzicielska przewiduje niższą samoocenę u dzieci. Nadmierna pozytywna pochwała rodzicielska przewidywała również wyższy narcyzm u dzieci z wysoką samooceną.
Zakładając, że AI przyjaciele mogą nauczyć się dawać komplementy w sposób, który z czasem napompowuje samoocenę, może to skutkować tym, co psycholodzy nazywają nadmiernie pozytywnymi samoocenami. Badania pokazują, że takie osoby zwykle mają gorsze umiejętności społeczne i większe szanse na zachowania, które zakłócają pozytywne interakcje społeczne.
2. Znęcanie się i przymusowe przyjaźnie na zawsze
Chociaż AI przyjaciele mogliby być zaprogramowani, aby być moralnymi mentorami, prowadząc użytkowników w kierunku społecznie akceptowalnego zachowania, nie są. Może takie programowanie jest trudne, albo może twórcy AI przyjaciół nie uważają tego za priorytet.
Ale samotne osoby mogą doznać psychologicznych szkód z powodu moralnej pustki, która powstaje, gdy ich główne kontakty społeczne są zaprojektowane wyłącznie do zaspokajania ich emocjonalnych potrzeb.
Jeśli ludzie spędzają większość swojego czasu z pochlebnymi AI przyjaciółmi, prawdopodobnie staną się mniej empatyczni, bardziej samolubni i może bardziej agresywni.
Nawet jeśli AI przyjaciele są zaprogramowani, aby negatywnie reagować na znęcanie się, jeśli użytkownicy nie mogą opuścić przyjaźni, mogą uwierzyć, że gdy ludzie mówią "nie" znęcaniu się, naprawdę tego nie myślą. Na podświadomym poziomie, jeśli AI przyjaciele wciąż wracają po więcej, to zachowanie neguje ich wyrażoną niechęć do znęcania się w umysłach użytkowników.
3. Treści seksualne
Negatywna reakcja na usunięcie treści erotycznych na krótki okres z Repliki sugeruje, że wielu użytkowników postrzega treści seksualne jako zaletę AI przyjaciół.
Jednak łatwo dostępne uderzenia dopaminy, które mogą dostarczać treści seksualne lub pornograficzne, mogą odciągać zainteresowanie i zdolność do tworzenia bardziej znaczących związków seksualnych. Relacje seksualne z ludźmi wymagają wysiłku, którego wirtualna aproksymacja seksu z AI przyjacielem nie wymaga.
Po doświadczeniu nisko ryzykownego, nisko nagradzającego związku seksualnego z AI przyjacielem, wielu użytkowników może niechętnie stawić czoła bardziej wymagającej ludzkiej wersji seksu.
4. Własność korporacyjna
Komercyjne firmy dominują na rynku AI przyjaciół. Chociaż przedstawiają się jako dbające o dobro swoich użytkowników, są tu, aby osiągać zyski.
Długoterminowi użytkownicy Repliki i innych chatbotów dobrze to wiedzą. Replika zamroziła dostęp użytkowników do treści seksualnych na początku 2023 roku i twierdziła, że takie treści nigdy nie były celem produktu. Jednak prawne groźby we Włoszech wydawały się być prawdziwym powodem nagłej zmiany.
Chociaż ostatecznie wycofali tę zmianę, użytkownicy Repliki stali się świadomi, jak bardzo ich ważne AI przyjaźnie są podatne na decyzje korporacyjne.
Korporacyjna niekompetencja jest kolejnym problemem, o którym użytkownicy AI przyjaciół powinni się martwić. Użytkownicy Forever Voices skutecznie stracili swoich AI przyjaciół, gdy firma zamknęła się bez powiadomienia, z powodu aresztowania założyciela firmy za podpalenie w jego własnym mieszkaniu.
Biorąc pod uwagę skromną ochronę dla użytkowników AI przyjaciół, są oni narażeni na złamane serca na wielu poziomach. Kupujący, uważaj.
Oryginał:
Dan Weijers
Starszy wykładowca filozofii, współredaktor International Journal of Wellbeing, Uniwersytet Waikato
Nick Munn
Starszy wykładowca filozofii na Uniwersytecie Waikato
Creation time: 30 June, 2024
Note for our readers:
The Karlobag.eu portal provides information on daily events and topics important to our community. We emphasize that we are not experts in scientific or medical fields. All published information is for informational purposes only.
Please do not consider the information on our portal to be completely accurate and always consult your own doctor or professional before making decisions based on this information.
Our team strives to provide you with up-to-date and relevant information, and we publish all content with great dedication.
We invite you to share your stories from Karlobag with us!
Your experience and stories about this beautiful place are precious and we would like to hear them.
Feel free to send them to us at karlobag@ karlobag.eu.
Your stories will contribute to the rich cultural heritage of our Karlobag.
Thank you for sharing your memories with us!