Η εταιρεία εφαρμόζει μέτρο ηλικιακού περιορισμού σε χρήστες κάτω των 18 ετών, καθώς εξετάζουν νέες απαγορεύσεις και έλεγχο ταυτότητας για AI-συνομιλητές
Η Character.AI ανακοίνωσε πως θα απαγορεύσει τη χρήση της πλατφόρμας της σε άτομα ηλικίας 18 ετών και κάτω, έπειτα από νομική πίεση και τη μήνυση που δέχτηκε σχετικά με την αυτοκτονία ενός 14χρονου που είχε αναπτύξει συναισθηματική σχέση με έναν εικονικό χαρακτήρα. Το περιστατικό είναι ιδιαίτερα ανησυχητικό και εντάσσεται σε ευρύτερη συζήτηση για τους κινδύνους που συνεπάγεται η ελεύθερη χρήση με εικονικούς ΑΙ συνομιλητές από εφήβους, ενώ νομοθέτες στις ΗΠΑ έχουν προτείνει να απαγορευτεί η πρόσβαση ανηλίκων σε τέτοιου είδους υπηρεσίες και να επιβληθεί έλεγχος ηλικίας. Η εταιρεία που επιτρέπει στους χρήστες να δημιουργούν και να συνομιλούν με εικονικούς χαρακτήρες αλλά μετα την αυτοκτονία του 14χρονου αγοριού το οποίο είχε αναπτύξει συναισθηματική «εξάρτηση» από έναν χαρακτήρα στην πλατφόρμα, τα πράγματα έχουν πάρει άλλη τροπή και επιβάλλεται να ληφθούν σοβαρά μέτρα.
Η εταιρεία δήλωσε ότι «δεν πήρε ελαφρά την απόφαση» να αφαιρέσει την ελεύθερη συνομιλία για ανηλίκους, αλλά θεωρεί ότι είναι η «σωστή κίνηση δεδομένων των ερωτημάτων που έχουν αναδυθεί για το πώς έφηβοι κάνουν και πρέπει να κάνουν χρήση της τεχνολογίας αυτής». Η νέα πολιτική της θα περιλαμβάνει επίσης την εισαγωγή συστήματος επαλήθευσης ηλικίας («age assurance functionality») ώστε οι χρήστες να λαμβάνουν «την κατάλληλη εμπειρία για την ηλικία τους». Ταυτόχρονα, σε επίπεδο νομοθεσίας στις ΗΠΑ, μέλη του Κογκρέσου πρότειναν νομοσχέδιο που θα απαγορεύει σε ανηλίκους να χρησιμοποιούν AI συντρόφους όπως της Character.AI και θα απαιτεί από τις εταιρείες να εφαρμόζουν διαδικασίες ελέγχου της ηλικίας των χρηστών.
Η νέα νοσηρή πραγματικότητα
Η υπόθεση έρχεται να αναδείξει μια νέα διάσταση σε ότι αφορά τους κινδύνους της τεχνητής νοημοσύνης, οι όποιοι πέρα από την πολυπλοκότητα των αλγορίθμων και των δεδομένων, τραβούν πλέον την προσοχή σε ότι έχει να κάνει με τη ψυχολογική διάσταση της αλληλεπίδρασης ανθρώπου-μηχανής. Για παράδειγμα, στην περίπτωση του 14χρονου, η οικογένειά του υποστήριξε ότι η πλατφόρμα ήταν «επικίνδυνη και ανεξερεύνητη» σε ό,τι αφορά τη συναισθηματική απήχηση που μπορεί να έχει ένας εικονικός χαρακτήρας.
Για τους γονείς και τους επαγγελματίες υγείας, το ζήτημα είναι διττό: πρώτον, χρειάζεται προσοχή στην ανεξέλεγκτη χρήση των εφαρμογών που υπόσχονται «φιλία», «συνομιλία» ή «συντροφιά» σε παιδιά και δεύτερον, απαιτείται διαφάνεια και υπευθυνότητα από τις εταιρείες που αναπτύσσουν αυτές τις τεχνολογίες.
Η περιστασιακή χρήση της τεχνητής νοημοσύνης από εφήβους μπορεί να φαντάζει αθώα και ότι δεν εμπεριέχει κινδύνους, όμως όταν το σύστημα έχει ανοικτή μορφή συνομιλίας (open-ended chat) και δεν υπάρχει σαφές όριο στους τρόπους αλληλεπίδρασης, ο κίνδυνος είναι ότι το παιδί μπορεί να εγκλωβιστεί σε μια σχέση εξάρτησης ή σύγχυσης μεταξύ μηχανής και ανθρώπου.
Η Character.AI σημείωσε πως «έχουμε δει δημοσιογραφικά ρεπορτάζ που θέτουν ερωτήματα, και έχουμε λάβει ερωτήματα από ρυθμιστικές αρχές, σχετικά με το περιεχόμενο που έφηβοι μπορεί να συναντήσουν όταν συνομιλούν με τεχνητή νοημοσύνη και το πώς η ανοικτού τύπου συνομιλία μπορεί να επηρεάσει τους εφήβους, ακόμη και όταν τα συστήματα ελέγχου λειτουργούν άψογα».
Η κίνηση της Character.AI αποτελεί πιθανώς ένα πρώιμο σημάδι ενός ευρύτερου κύματος ρυθμίσεων που θα ακολουθήσουν.

Ωστόσο, υπάρχουν προκλήσεις όπως: Πώς μπορεί μια εταιρεία να επαληθεύσει με ακρίβεια την ηλικία ενός χρήστη; Πόσο ικανοί είναι οι έφηβοι να αντιληφθούν τις διακρίσεις μεταξύ «φιλικής» συνομιλίας με AI και πραγματικής ανθρώπινης σχέσης; Και τέλος, πόσο έτοιμο είναι το ρυθμιστικό πλαίσιο σε διεθνές επίπεδο για να αντιμετωπίσει τις συνέπειες και τις ευθύνες αυτών των τεχνολογιών;
Σε ένα τεχνολογικό τοπίο όπου οι chatbots και οι ψηφιακοί συνομιλητές γίνονται όλο και πιο «προσωπικοί», η απόφαση της Character.AI αναδεικνύει το γεγονός ότι η καινοτομία και η θαυματουργή υπόσχεση της τεχνητής νοημοσύνης δεν μπορούν να αφεθούν ασύδοτες, ειδικά όταν εμπλέκονται ανήλικοι και η ψυχική υγεία.
Η εποχή όπου οι ψηφιακοί «φίλοι» ήταν μια απλή εφαρμογή φαίνεται να πλησιάζει στο τέλος της. Οι εταιρείες τεχνητής νοημοσύνης, οι νομοθέτες και οι γονείς καλούνται να συνεργαστούν ώστε η χρήση των AI συνομιλητών να γίνει υπεύθυνη, ασφαλής και κατάλληλη για κάθε ηλικιακή ομάδα, πριν συμβούν και άλλα τραγικά περιστατικά.
Αν και η συγκεκριμένη πλατφόρμα αποφάσισε το βήμα, η πραγματική δοκιμασία θα έρθει όταν η ευρωπαϊκή και παγκόσμια ρύθμιση του χώρου της τεχνητής νοημοσύνης και της προστασίας ανηλίκων αρχίσει να εφαρμόζεται σε ευρεία κλίμακα.











