Inteligentni asystenci głosowi, społeczne roboty opiekuńcze, seksdroidy, cyfrowe dzieci, czyli symulujące emocje artefakty, które wytwarzają iluzję bliskości pozbawioną konieczności zaangażowania i odpowiedzialności stają się częścią codziennego życia. Czy budząca emocje sztuczna inteligencja będzie wspierać i wzmacniać czy zastępować relacje międzyludzkie? Syntetyczny towarzysz zachęca do edukacji, pełniąc coraz częściej funkcję nauczyciela, tutora, mentora czy trenera osobistego i dostarcza wsparcia, przyczyniając się do poprawy samopoczucia. Sztuczna intymność – mimo że atrakcyjna – prowadzi do pararelacji, w której człowiek ulega iluzji autentyczności, spotykając się z ze zbiorem reakcji zaprogramowanych mających na celu skuteczne symulowanie ludzkich odczuć i zachowań. W loveboty i friendboty wbudowane są jednak pułapki poznawcze, mogące wytwarzać mylne oczekiwania, prowadzić do zniekształcenia percepcji rzeczywistości, wywoływać iluzję kontroli i uzależniać użytkowników. Architektura opartych na sztucznej inteligencji „empatycznych aplikacji” wzmacnia mechanizmy odpowiedzialne za przywiązanie do AI, co w dalszej perspektywie może prowadzić do wywierania wpływu na opinie, zachowania czy przyjmowane postawy, a także izolacji, osłabienia relacji międzyludzkich, pogłębiania samotności i rozwoju uzależnienia od relacji z maszyną. Popularyzacja sztucznej empatii zachęca, aby przyjrzeć się błędom poznawczym rodzącym ryzyko uzależnienia i stanowiącym zagrożenie dla budowy i rozwoju więzi międzyludzkich. W tym kontekście zastanowimy się, jak technologie symulujące emocje wpłyną na nasz dobrostan, nasze relacje i społeczeństwo.
Intelligent voice assistants, social care robots, sex droids, digital children, i.e. artifacts simulating emotions that create the illusion of closeness without the need for commitment and responsibility, are becoming a part of everyday life. Will emotive artificial intelligence support and strengthen or replace human relationships? The synthetic companion encourages education, increasingly acting as a teacher, tutor, mentor or personal trainer, and provides support, contributing to improved well-being. Artificial intimacy - although attractive - leads to a para-relationship in which a person succumbs to the illusion of authenticity by encountering a set of programmed reactions aimed at effectively simulating human feelings and behaviours. However, lovebots and friendbots have built-in cognitive traps that can create false expectations, lead to distorted perception of reality, create the illusion of control and make users addicted. The architecture of "empathetic applications" based on artificial intelligence strengthens the mechanisms responsible for attachment to AI, which in the long run may lead to influencing opinions, behaviors or attitudes, isolation, weakening interpersonal relationships, deepening loneliness and developing addiction to relationships with the machine. The popularisation of artificial empathy encourages us to look at cognitive errors that lead to the risk of addiction and pose a threat to the construction and development of interpersonal bonds. In this context, we will consider how technologies that simulate emotions will affect our well-being, relationships and society.