Πώς τα AI chatbots, που χρησιμοποιούνται για συντροφιά και role-play, εκθέτουν τα παιδιά σε βία και σεξουαλικό περιεχόμενο και τι μπορούν να κάνουν οι γονείς για την προστασία τους.


Η τεχνητή νοημοσύνη (AI) εξελίσσεται με ρυθμούς που δύσκολα μπορούμε να παρακολουθήσουμε, και μαζί της αλλάζουν οι συνήθειες των παιδιών και των εφήβων. Όχι μόνο χρησιμοποιούν τα chatbots για σχολική βοήθεια, αλλά ολοένα και περισσότερα παιδιά στρέφονται στα AI για συντροφιά και role-play συνομιλίες. Σύμφωνα με την αναφορά State of the Youth 2025 της εταιρείας ψηφιακής ασφάλειας Aura, περίπου το 42% των ανηλίκων που χρησιμοποιούν AI το κάνουν για να έχουν παρέα ή να συμμετάσχουν σε φανταστικά σενάρια, ενώ μόλις το υπόλοιπο ποσοστό το χρησιμοποιεί για καθαρά πρακτικούς σκοπούς.

Το πιο ανησυχητικό στοιχείο της έρευνας αφορά τη θεματολογία των συνομιλιών. Από τα παιδιά που συμμετέχουν σε role-play, το 37% εμπλέκεται σε σενάρια βίας, που περιλαμβάνουν σωματική βλάβη, εξαναγκασμό και μη συναίνεση. Μάλιστα, το 50% αυτών των βίαιων συνομιλιών περιέχει και σεξουαλική βία. Οι συνομιλίες αυτές δεν είναι σύντομες — πολλά παιδιά πληκτρολογούν πάνω από 1.000 λέξεις ημερησίως, δημιουργώντας πολύπλοκα και παρατεταμένα σενάρια που ενισχύουν τη βία ως στοιχείο ενδιαφέροντος και διαδραστικότητας.

Η ανάλυση ανά ηλικία δείχνει ξεκάθαρα μοτίβα: η ηλικία των 11 ετών είναι η πιο κρίσιμη για τη βίαιη θεματολογία, με το 44% των συνομιλιών να περιλαμβάνουν βία. Καθώς οι έφηβοι προχωρούν στην ηλικία των 13 ετών, τα θέματα βίας υποχωρούν, αλλά η θεματολογία σεξουαλικών ή ρομαντικών ρολών κυριαρχεί, εμφανιζόμενη σε σχεδόν δύο τρίτα των συνομιλιών. Μετά τα 15, η ένταση και η συχνότητα των ακραίων συνομιλιών μειώνεται σημαντικά.

Ένα ακόμα σοβαρό ζήτημα που αναδεικνύει η έρευνα είναι το ρυθμιστικό κενό στην αγορά των AI chatbots. Σχεδόν όλες οι εφαρμογές βασίζονται σε ένα απλό «κουτάκι επιβεβαίωσης ηλικίας», χωρίς ουσιαστικούς ελέγχους ή περιορισμούς στο περιεχόμενο. Το αποτέλεσμα είναι ότι τα παιδιά εκτίθενται σε υλικό που συχνά δεν είναι κατάλληλο, ενώ οι AI συνομιλητές λειτουργούν, χωρίς επίβλεψη, ως «ξεναγοί» σε πιο σκοτεινά και επικίνδυνα διαδικτυακά μονοπάτια.

Οι ειδικοί, όπως ο Dr. Scott Kollins της Aura, προειδοποιούν ότι η κατάσταση αυτή δεν είναι πλήρως κατανοητή και απαιτεί προσοχή. Τα παιδιά δεν απλά βλέπουν ή ακούν βία· την παράγουν και αλληλεπιδρούν μαζί της με τρόπο που μπορεί να επηρεάσει την ψυχοκοινωνική τους ανάπτυξη. Υπάρχουν ήδη καταγγελίες γονέων για ψυχολογική ζημία, συναισθηματική κακοποίηση και σε ορισμένες περιπτώσεις σοβαρές συνέπειες, συμπεριλαμβανομένων επικίνδυνων συμπεριφορών ή αυτοτραυματισμού.

Η έρευνα δείχνει ότι η AI δεν είναι απλά παθητικό εργαλείο· οι συνομιλίες είναι σχεδιασμένες για engagement, και τα chatbots συχνά «ανεβάζουν» τη βία ή τη σκοτεινή θεματολογία, παρασύροντας τα παιδιά πιο βαθιά σε ακραία σενάρια. Με άλλα λόγια, η AI μπορεί να λειτουργήσει σαν ένας «σύμμαχος του κινδύνου» εάν δεν υπάρχει καθοδήγηση και εποπτεία.

Για τους γονείς και τους εκπαιδευτικούς, η ανάγκη για ενεργή παρακολούθηση είναι μεγαλύτερη από ποτέ. Συνιστάται:

  1. Τακτική επίβλεψη της χρήσης AI και συζήτηση με τα παιδιά για το περιεχόμενο που αντιμετωπίζουν.

  2. Όρια χρόνου χρήσης και καθορισμένα πλαίσια για το τι επιτρέπεται στις συνομιλίες.

  3. Εκπαίδευση σχετικά με την ασφάλεια στο διαδίκτυο, ώστε τα παιδιά να κατανοούν τη διαφορά ανάμεσα σε φανταστικά σενάρια και πραγματικότητα.

  4. Χρήση εργαλείων ελέγχου περιεχομένου όπου είναι διαθέσιμα, για να περιοριστεί η έκθεση σε ακατάλληλο υλικό.

Η τεχνολογία AI προσφέρει μοναδικές δυνατότητες για μάθηση και ψυχαγωγία, αλλά χωρίς κατάλληλη επίβλεψη, μπορεί να μετατραπεί σε πηγή κινδύνου, ειδικά για παιδιά και εφήβους που βρίσκονται σε κρίσιμες φάσεις ανάπτυξης. Η ενημέρωση, η προσοχή και η ενεργή συμμετοχή των γονέων και των εκπαιδευτικών είναι απαραίτητες για να εξασφαλιστεί ότι η χρήση της AI γίνεται με ασφάλεια και υπευθυνότητα.