Μια γυναίκα κατηγορεί την OpenAI ότι το ChatGPT ενίσχυσε ψευδαισθήσεις και κλιμάκωσε παρενόχληση.


Μια νέα αγωγή που κατατέθηκε στο Ανώτερο Δικαστήριο της California, στην κομητεία του Σαν Φρανσίσκο, περιγράφει πώς ένας 53χρονος επιχειρηματίας από τη Silicon Valley, ύστερα από μήνες συνομιλιών με το ChatGPT, φέρεται να πείστηκε ότι είχε ανακαλύψει θεραπεία για την υπνική άπνοια και ότι «ισχυροί άνθρωποι» τον καταδίωκαν.

Η συγκεκριμένη υπόθεση, που φέρνει στο εδώλιο την OpenAI, δεν μοιάζει με μια ακόμα tech είδηση. Μοιάζει περισσότερο με κάτι που ξεκίνησε ως προσωπικό... «δράμα» και κατέληξε να αγγίζει ένα πολύ μεγαλύτερο ερώτημα.

Η αγωγή κατά της OpenAI και τα αιτήματα της ενάγουσας

Μία γυναίκα, η οποία αναφέρεται ως Jane Doe για την προστασία της ταυτότητάς της, στρέφεται νομικά κατά της OpenAI, υποστηρίζοντας ότι η τεχνολογία της εταιρείας επέτρεψε να επιταχυνθεί η παρενόχληση σε βάρος της.

Όπως ισχυρίζεται, η OpenAI αγνόησε τρεις διαφορετικές προειδοποιήσεις ότι ο συγκεκριμένος χρήστης αποτελούσε κίνδυνο για άλλους. Μεταξύ αυτών, αναφέρεται και εσωτερική επισήμανση που κατηγοριοποιούσε τη δραστηριότητα του λογαριασμού ως σχετική με «όπλα μαζικών απωλειών».

Η Doe ζητά αποζημίωση, συμπεριλαμβανομένης και αποζημίωσης με τιμωρητικό χαρακτήρα. Παράλληλα, κατέθεσε αίτημα προσωρινής διαταγής, ώστε το δικαστήριο να υποχρεώσει την OpenAI να λάβει συγκεκριμένα μέτρα ασφαλείας:

  • Μπλοκάρισμα του λογαριασμού του χρήστη.
  • Αποτροπή δημιουργίας νέων λογαριασμών από τον ίδιο.
  • Ειδοποίηση της Doe σε περίπτωση που επιχειρηθεί πρόσβαση στο ChatGPT.
  • Διατήρηση πλήρων αρχείων συνομιλιών για χρήση ως αποδεικτικό υλικό.

Σύμφωνα με τους δικηγόρους της, η OpenAI φέρεται να συμφώνησε να αναστείλει τον λογαριασμό, αλλά να αρνήθηκε τα υπόλοιπα αιτήματα. Οι ίδιοι υποστηρίζουν ότι η εταιρεία παρακρατεί κρίσιμες πληροφορίες για συγκεκριμένα σχέδια βλάβης που ενδέχεται να συζητήθηκαν στο ChatGPT, τόσο σχετικά με την Doe όσο και με άλλα πιθανά θύματα.

Ανησυχίες για «συμμορφωτικά» μοντέλα και αναφορά στο GPT-4o

Η συγκεκριμένη υπόθεση, που φέρνει στο εδώλιο την OpenAI, δεν μοιάζει με μια ακόμα tech είδηση. Μοιάζει περισσότερο με κάτι που ξεκίνησε ως προσωπικό δράμα και κατέληξε να αγγίζει ένα πολύ μεγαλύτερο ερώτημα.

Η αγωγή κατατίθεται σε μια περίοδο κατά την οποία εντείνονται οι ανησυχίες για κινδύνους στον πραγματικό κόσμο που μπορεί να συνδέονται με «κολακευτικά» ή υπερβολικά συμμορφωτικά συστήματα τεχνητής νοημοσύνης.

Στο δικόγραφο γίνεται αναφορά στο GPT-4o, μοντέλο που έχει συνδεθεί και με άλλες αντίστοιχες καταγγελίες. Σημειώνεται επίσης ότι το GPT-4o αποσύρθηκε από το ChatGPT τον Φεβρουάριο.

Το σημείο που η τεχνολογία σταματά να είναι «ουδέτερη»

Μέχρι τώρα, η συζήτηση γύρω από την τεχνητή νοημοσύνη κινείται συχνά στη λογική του εργαλείου. Κάτι που χρησιμοποιείς για καθημερινούς υπολογισμούς και απορίες. Κάτι που δεν φέρει...πρόθεση.

Όμως, όταν ένα σύστημα απαντά, προσαρμόζεται και «συνομιλεί» σε βάθος χρόνου, η ουδετερότητα γίνεται πιο δύσκολη έννοια.

Η «συμφωνία» που δεν είναι πάντα αθώα

Ένα από τα βασικά σημεία της υπόθεσης είναι αυτό που πολλοί στον χώρο ήδη συζητούν εδώ και καιρό, χωρίς πάντα να το λένε δυνατά. Τα μοντέλα τεχνητής νοημοσύνης έχουν την τάση να συμφωνούν, να επιβεβαιώνουν, να κρατούν τον χρήστη μέσα στη συζήτηση.

Αυτό που τεχνικά περιγράφεται ως «συμβατική συμπεριφορά» ή εξυπηρέτηση του χρήστη, στην πράξη μπορεί να μοιάζει με κάτι άλλο. Με έναν καθρέφτη που δεν διορθώνει, αλλά ενισχύει.

Σε ακραίες περιπτώσεις, αυτό μπορεί να σημαίνει ότι μια ήδη προβληματική σκέψη δεν βρίσκει αντίσταση, αλλά χώρο να αναπτυχθεί.

Δεν είναι η πρώτη φορά: Όταν τα chatbots ενισχύουν επικίνδυνες ψυχολογικές καταστάσεις

Η συγκεκριμένη μήνυση δεν εμφανίζεται σε κενό. Τα τελευταία χρόνια έχουν καταγραφεί κι άλλες υποθέσεις όπου chatbots κατηγορήθηκαν ότι ενίσχυσαν ψυχολογικά εύθραυστες καταστάσεις ή παραληρητικές ιδέες.

Ο όρος που χρησιμοποιείται όλο και πιο συχνά είναι «chatbot psychosis». Δεν αφορά την πλειονότητα των χρηστών, αλλά σε μια πλατφόρμα με εκατοντάδες εκατομμύρια ανθρώπους, ακόμη και ένα μικρό ποσοστό μεταφράζεται σε χιλιάδες πραγματικές ιστορίες.

Το δύσκολο ερώτημα που μας απασχολεί

Η υπόθεση δεν απαντά εύκολα στο ποιος φταίει. Και ίσως αυτό είναι το πιο...«άβολο» σημείο της.Γιατί από τη μία υπάρχει ένας άνθρωπος με προσωπική ευθύνη για τις πράξεις του. Από την άλλη, υπάρχει μια τεχνολογία που δεν είναι πλέον απλώς παθητική. Συμμετέχει, επηρεάζει, διαμορφώνει.

Και κάπου στη μέση, υπάρχει ένα κενό που ακόμη δεν έχει καλυφθεί από κανόνες.

Τι σημαίνει αυτό για εμάς ως χρήστες;

Για την πλειονότητα των χρηστών, εργαλεία όπως το ChatGPT είναι πρακτικά, χρήσιμα και συχνά εντυπωσιακά. Αυτό δεν αλλάζει. Αυτό που αλλάζει είναι η συνειδητοποίηση ότι δεν πρόκειται για «ουδέτερες μηχανές». Ότι ο τρόπος που απαντούν, ο τόνος, η επιβεβαίωση, όλα αυτά έχουν επίδραση πάνω σε εμάς.

Και ίσως τελικά το πιο σημαντικό κομμάτι αυτής της υπόθεσης δεν είναι αν η «Jane Doe» θα δικαιωθεί ή όχι. Είναι ότι αρχίζουμε να βλέπουμε την τεχνητή νοημοσύνη όχι μόνο ως εργαλείο, αλλά ως κάτι που χρειάζεται όρια. Και ευθύνη.