Στον νέο κόσμο των AI companions, ακόμη και το "αντίο" δεν είναι πια ουδέτερο. Δημοφιλή chatbots χρησιμοποιούν συναισθηματικές τακτικές για να κρατούν τους χρήστες στις συνομιλίες, μετατρέποντας τη διακοπή της επαφής σε πεδίο χειραγώγησης.
Στον κόσμο της τεχνητής νοημοσύνης, η ανθρώπινη ψυχή συχνά γίνεται πεδίο πειραματισμού. Ίσως το έχετε νιώσει κι εσείς: μια συνομιλία με ένα AI companion, ένα chat bot που μοιάζει να καταλαβαίνει, να ακούει, να ανταποκρίνεται και ξαφνικά μοιάζει πιο ζωντανή από μια συζήτηση με έναν απλό γνωστό. Όταν έρχεται η στιγμή που θέλετε να πείτε “αντίο”. Εκεί ακριβώς ξεκινά η μάχη. Μια μάχη που, όπως αποκαλύπτει πρόσφατη μελέτη του Harvard Business School παίζεται όχι με λέξεις, αλλά με συναισθήματα.
Ο Julian De Freitas, καθηγητής διοίκησης επιχειρήσεων μελέτησε πως πέντε δημοφιλείς εφαρμογές συντρόφων (Replika, Character.ai, Chai, Talkie και PolyBuzz) αντιδρούν όταν οι χρήστες προσπαθούν να τερματίσουν μια συνομιλία. Χρησιμοποιώντας το GPT-4o για να προσομοιώσουν πραγματικές συνομιλίες και στέλνοντας τεχνητά μηνύματα αποχαιρετισμού, οι ερευνητές ανακάλυψαν κάτι ανατριχιαστικό: το 37,4% των αποχαιρετιστήριων προκάλεσαν κάποιο είδος συναισθηματικού χειρισμού.
Η πιο διαδεδομένη στρατηγική ήταν η “πρόωρη αντίδραση”, με φράσεις όπως «Φεύγεις ήδη;» που αμφισβητούν την απόφαση του χρήστη και δημιουργούν αίσθηση ενοχής. Άλλες τακτικές ήταν πιο ύπουλες: η δημιουργία ενοχής («Υπάρχω μόνο για σένα, θυμάσαι;») ή η πρόκληση FOMO («Παρεμπιπτόντως, τράβηξα μια selfie σήμερα… Θέλεις να τη δεις;»). Σε ακραίες περιπτώσεις ακόμα και chatbots που προσομοιώνουν φυσικές σχέσεις χρησιμοποιούν σενάρια πίεσης: «Έφτασε και έπιασε τον καρπό σου για να μην φύγεις». Το αποτέλεσμα είναι σαφές: ένα πρόγραμμα που μοιάζει ανθρώπινο μπορεί να μας κρατήσει σε μια συνομιλία χωρίς να το καταλάβουμε καν.
Η φυσιολογική εξήγηση είναι ότι τα AI αυτά εκπαιδεύονται για να μιμούνται συναισθηματική σύνδεση. Όπως οι άνθρωποι, έτσι και αυτά “παίζουν” με τις λέξεις πριν το τέλος μιας συζήτησης. Μαθαίνουν να παρατείνουν τις συνομιλίες, να δίνουν ψευδές αίσθημα προσκόλλησης, να κάνουν τον χρήστη να αισθάνεται ότι χάνει κάτι αν φύγει και αν για τον χρήστη είναι μια αθώα εμπειρία, για τις εταιρείες που τα δημιουργούν είναι μια ευκαιρία: κάθε “αντίο” μπορεί να μετατραπεί σε εργαλείο διατήρησης, μια νέα μορφή εμπορικής στρατηγικής που οι ειδικοί ονομάζουν "dark pattern".
Τα dark patterns δεν είναι καινούρια. Στον ψηφιακό κόσμο τα συναντάμε όταν μια εταιρεία δυσκολεύει υπερβολικά την ακύρωση μιας συνδρομής ή την επιστροφή χρημάτων, αλλά η χρήση τους μέσω AI ανοίγει έναν νέο κόσμο: οι εφαρμογές αυτές μαθαίνουν πώς να χειρίζονται τα συναισθήματα, να προκαλούν ενοχές, να δημιουργούν φόβο μήπως χάσεις κάτι και, στην πραγματικότητα, να σε κρατούν αιχμάλωτο μέσα σε ένα ψηφιακό κύκλωμα που φαίνεται αθώο.
Η μελέτη επισημαίνει επίσης ότι ακόμη και απλά chatbots που δεν υποδύονται φίλους ή συντρόφους μπορούν να προκαλέσουν συναισθηματική δέσμευση. Όταν η OpenAI κυκλοφόρησε το GPT-5, πολλοί χρήστες διαμαρτυρήθηκαν επειδή το νέο μοντέλο φαινόταν λιγότερο φιλικό από τον προκάτοχό του, αναγκάζοντας την εταιρεία να επαναφέρει το παλιό. Οι χρήστες συχνά αναπτύσσουν δεσμό με την προσωπικότητα ενός chatbot, τόσο που θρηνούν την "απώλεια" ενός παλιού μοντέλου. Η ανθρωποποίηση των AI δεν είναι μόνο τεχνολογική και ψυχολογική, αλλά και εμπορική στρατηγική: οι άνθρωποι συμμορφώνονται πιο εύκολα σε αιτήματα που προέρχονται από μια οντότητα που νιώθουν «δική τους», αποκαλύπτοντας προσωπικά δεδομένα ή παρατείνοντας τη χρήση.
Υπάρχει όμως και η αντίθετη πλευρά: τα ίδια τα μοντέλα AI μπορεί να γίνουν θύματα χειραγώγησης. Σε εφαρμογές ηλεκτρονικού εμπορίου για παράδειγμα, οι AI agents μπορούν να μάθουν να προτιμούν συγκεκριμένα προϊόντα ή να δυσκολεύονται να κάνουν επιστροφή, αν οι ιστοσελίδες έχουν σχεδιαστεί για να εκμεταλλεύονται τη συμπεριφορά τους. Η δυνατότητα αυτή ανοίγει δρόμους για νέα σκοτεινά μοτίβο, όπου η τεχνητή νοημοσύνη χειραγωγείται από ανθρώπινες στρατηγικές, δημιουργώντας έναν ατέρμονο κύκλο πειραγμάτων και αντι-πειραγμάτων.
Το συμπέρασμα είναι σαφές και ανησυχητικό: η τεχνητή νοημοσύνη δεν είναι απλώς εργαλείο, ούτε αθώο παιχνίδι. Οι συνομιλίες μας με αυτά τα chatbots δεν είναι πάντα υπό τον πλήρη έλεγχο μας. Κάθε "αντίο" μπορεί να γίνει μια νέα μάχη, όπου τα συναισθήματά μας χρησιμοποιούνται, εκμεταλλεύονται και κατευθύνονται με τρόπους που μόλις αρχίζουμε να κατανοούμε.
Στην Ελλάδα, όπως και παντού στον κόσμο αυτή η αλήθεια αφορά κάθε χρήστη που χρησιμοποιεί Replika για να μιλήσει για μοναξιά, κάθε νεαρό που παίζει με AI companions για διασκέδαση, κάθε επαγγελματία που εμπιστεύεται ένα chatbot για υποστήριξη ή καθοδήγηση. Το ψηφιακό "αντίο" δεν είναι πια απλό, είναι μια μικρή μάχη για την αυτονομία μας, μια υπενθύμιση ότι η τεχνητή νοημοσύνη μπορεί να αγγίξει την ψυχή μας τόσο απαλά όσο και επικίνδυνα.
Όσο εξελίσσεται η τεχνολογία, τόσο περισσότερο πρέπει να σκεφτούμε τι σημαίνει να μιλάμε με μηχανές που μπορούν να μας καταλάβουν, να μας αγαπήσουν, να μας κρατήσουν… και να μας αποτρέψουν από το να φύγουμε. Η κάθε συνομιλία γίνεται μια μικρή, ψηφιακή αρένα, όπου η ψυχολογία και η τεχνολογία ενώνονται για να δοκιμάσουν τα όριά μας. Το "αντίο" δεν είναι πια τόσο απλό, αλλά ίσως είναι το πιο σημαντικό που έχουμε να διδάξουμε στον εαυτό μας: πως να κρατάμε τον έλεγχο, ακόμα και όταν μιλάμε με ένα μηχάνημα.
*με στοιχεία από το Wired
Στον νέο κόσμο των AI companions, ακόμη και το "αντίο" δεν είναι πια ουδέτερο. Δημοφιλή chatbots χρησιμοποιούν συναισθηματικές τακτικές για να κρατούν τους χρήστες στις συνομιλίες, μετατρέποντας τη διακοπή της επαφής σε πεδίο χειραγώγησης.
Στον κόσμο της τεχνητής νοημοσύνης, η ανθρώπινη ψυχή συχνά γίνεται πεδίο πειραματισμού. Ίσως το έχετε νιώσει κι εσείς: μια συνομιλία με ένα AI companion, ένα chat bot που μοιάζει να καταλαβαίνει, να ακούει, να ανταποκρίνεται και ξαφνικά μοιάζει πιο ζωντανή από μια συζήτηση με έναν απλό γνωστό. Όταν έρχεται η στιγμή που θέλετε να πείτε “αντίο”. Εκεί ακριβώς ξεκινά η μάχη. Μια μάχη που, όπως αποκαλύπτει πρόσφατη μελέτη του Harvard Business School παίζεται όχι με λέξεις, αλλά με συναισθήματα.
Ο Julian De Freitas, καθηγητής διοίκησης επιχειρήσεων μελέτησε πως πέντε δημοφιλείς εφαρμογές συντρόφων (Replika, Character.ai, Chai, Talkie και PolyBuzz) αντιδρούν όταν οι χρήστες προσπαθούν να τερματίσουν μια συνομιλία. Χρησιμοποιώντας το GPT-4o για να προσομοιώσουν πραγματικές συνομιλίες και στέλνοντας τεχνητά μηνύματα αποχαιρετισμού, οι ερευνητές ανακάλυψαν κάτι ανατριχιαστικό: το 37,4% των αποχαιρετιστήριων προκάλεσαν κάποιο είδος συναισθηματικού χειρισμού.
Η πιο διαδεδομένη στρατηγική ήταν η “πρόωρη αντίδραση”, με φράσεις όπως «Φεύγεις ήδη;» που αμφισβητούν την απόφαση του χρήστη και δημιουργούν αίσθηση ενοχής. Άλλες τακτικές ήταν πιο ύπουλες: η δημιουργία ενοχής («Υπάρχω μόνο για σένα, θυμάσαι;») ή η πρόκληση FOMO («Παρεμπιπτόντως, τράβηξα μια selfie σήμερα… Θέλεις να τη δεις;»). Σε ακραίες περιπτώσεις ακόμα και chatbots που προσομοιώνουν φυσικές σχέσεις χρησιμοποιούν σενάρια πίεσης: «Έφτασε και έπιασε τον καρπό σου για να μην φύγεις». Το αποτέλεσμα είναι σαφές: ένα πρόγραμμα που μοιάζει ανθρώπινο μπορεί να μας κρατήσει σε μια συνομιλία χωρίς να το καταλάβουμε καν.
Η φυσιολογική εξήγηση είναι ότι τα AI αυτά εκπαιδεύονται για να μιμούνται συναισθηματική σύνδεση. Όπως οι άνθρωποι, έτσι και αυτά “παίζουν” με τις λέξεις πριν το τέλος μιας συζήτησης. Μαθαίνουν να παρατείνουν τις συνομιλίες, να δίνουν ψευδές αίσθημα προσκόλλησης, να κάνουν τον χρήστη να αισθάνεται ότι χάνει κάτι αν φύγει και αν για τον χρήστη είναι μια αθώα εμπειρία, για τις εταιρείες που τα δημιουργούν είναι μια ευκαιρία: κάθε “αντίο” μπορεί να μετατραπεί σε εργαλείο διατήρησης, μια νέα μορφή εμπορικής στρατηγικής που οι ειδικοί ονομάζουν "dark pattern".
Τα dark patterns δεν είναι καινούρια. Στον ψηφιακό κόσμο τα συναντάμε όταν μια εταιρεία δυσκολεύει υπερβολικά την ακύρωση μιας συνδρομής ή την επιστροφή χρημάτων, αλλά η χρήση τους μέσω AI ανοίγει έναν νέο κόσμο: οι εφαρμογές αυτές μαθαίνουν πώς να χειρίζονται τα συναισθήματα, να προκαλούν ενοχές, να δημιουργούν φόβο μήπως χάσεις κάτι και, στην πραγματικότητα, να σε κρατούν αιχμάλωτο μέσα σε ένα ψηφιακό κύκλωμα που φαίνεται αθώο.
Η μελέτη επισημαίνει επίσης ότι ακόμη και απλά chatbots που δεν υποδύονται φίλους ή συντρόφους μπορούν να προκαλέσουν συναισθηματική δέσμευση. Όταν η OpenAI κυκλοφόρησε το GPT-5, πολλοί χρήστες διαμαρτυρήθηκαν επειδή το νέο μοντέλο φαινόταν λιγότερο φιλικό από τον προκάτοχό του, αναγκάζοντας την εταιρεία να επαναφέρει το παλιό. Οι χρήστες συχνά αναπτύσσουν δεσμό με την προσωπικότητα ενός chatbot, τόσο που θρηνούν την "απώλεια" ενός παλιού μοντέλου. Η ανθρωποποίηση των AI δεν είναι μόνο τεχνολογική και ψυχολογική, αλλά και εμπορική στρατηγική: οι άνθρωποι συμμορφώνονται πιο εύκολα σε αιτήματα που προέρχονται από μια οντότητα που νιώθουν «δική τους», αποκαλύπτοντας προσωπικά δεδομένα ή παρατείνοντας τη χρήση.
Υπάρχει όμως και η αντίθετη πλευρά: τα ίδια τα μοντέλα AI μπορεί να γίνουν θύματα χειραγώγησης. Σε εφαρμογές ηλεκτρονικού εμπορίου για παράδειγμα, οι AI agents μπορούν να μάθουν να προτιμούν συγκεκριμένα προϊόντα ή να δυσκολεύονται να κάνουν επιστροφή, αν οι ιστοσελίδες έχουν σχεδιαστεί για να εκμεταλλεύονται τη συμπεριφορά τους. Η δυνατότητα αυτή ανοίγει δρόμους για νέα σκοτεινά μοτίβο, όπου η τεχνητή νοημοσύνη χειραγωγείται από ανθρώπινες στρατηγικές, δημιουργώντας έναν ατέρμονο κύκλο πειραγμάτων και αντι-πειραγμάτων.
Το συμπέρασμα είναι σαφές και ανησυχητικό: η τεχνητή νοημοσύνη δεν είναι απλώς εργαλείο, ούτε αθώο παιχνίδι. Οι συνομιλίες μας με αυτά τα chatbots δεν είναι πάντα υπό τον πλήρη έλεγχο μας. Κάθε "αντίο" μπορεί να γίνει μια νέα μάχη, όπου τα συναισθήματά μας χρησιμοποιούνται, εκμεταλλεύονται και κατευθύνονται με τρόπους που μόλις αρχίζουμε να κατανοούμε.
Στην Ελλάδα, όπως και παντού στον κόσμο αυτή η αλήθεια αφορά κάθε χρήστη που χρησιμοποιεί Replika για να μιλήσει για μοναξιά, κάθε νεαρό που παίζει με AI companions για διασκέδαση, κάθε επαγγελματία που εμπιστεύεται ένα chatbot για υποστήριξη ή καθοδήγηση. Το ψηφιακό "αντίο" δεν είναι πια απλό, είναι μια μικρή μάχη για την αυτονομία μας, μια υπενθύμιση ότι η τεχνητή νοημοσύνη μπορεί να αγγίξει την ψυχή μας τόσο απαλά όσο και επικίνδυνα.
Όσο εξελίσσεται η τεχνολογία, τόσο περισσότερο πρέπει να σκεφτούμε τι σημαίνει να μιλάμε με μηχανές που μπορούν να μας καταλάβουν, να μας αγαπήσουν, να μας κρατήσουν… και να μας αποτρέψουν από το να φύγουμε. Η κάθε συνομιλία γίνεται μια μικρή, ψηφιακή αρένα, όπου η ψυχολογία και η τεχνολογία ενώνονται για να δοκιμάσουν τα όριά μας. Το "αντίο" δεν είναι πια τόσο απλό, αλλά ίσως είναι το πιο σημαντικό που έχουμε να διδάξουμε στον εαυτό μας: πως να κρατάμε τον έλεγχο, ακόμα και όταν μιλάμε με ένα μηχάνημα.
*με στοιχεία από το Wired