Η εμπειρία της Summer Yue με το OpenClaw και τα παράπονα για χαμένα ιστορικά στο Gemini 3.1 δείχνουν πόσο εύθραυστη μπορεί να είναι η εμπιστοσύνη μας στα εργαλεία AI.
Ένα πείραμα με έναν δημοφιλή AI agent κατέληξε σε απρόσμενη απώλεια δεδομένων, όταν η Summer Yue, διευθύντρια ασφάλειας και ευθυγράμμισης στο εργαστήριο υπερνοημοσύνης της Meta, ανέφερε ότι το OpenClaw διέγραψε το σύνολο των email της, παρά τις σαφείς οδηγίες της να ζητά επιβεβαίωση πριν από οποιαδήποτε ενέργεια.
Τι συνέβη με το OpenClaw και το inbox της Summer Yue
Σύμφωνα με όσα περιέγραψε η ίδια σε δημόσια ανάρτησή της το περασμένο Σαββατοκύριακο, η Yue αποφάσισε να δοκιμάσει το OpenClaw (γνωστό παλαιότερα ως Clawdbot και Moltbot), ένα ανοιχτού κώδικα εργαλείο που έχει κερδίσει δημοτικότητα σε κύκλους χρηστών που πειραματίζονται με αυτοματισμούς τεχνητής νοημοσύνης.
Για τη δοκιμή, έστησε ένα Mac Mini που έτρεχε τον agent και του έδωσε πρόσβαση στα εισερχόμενά της. Στόχος της ήταν να λειτουργεί με ξεκάθαρους κανόνες ασφαλείας, με τον πιο βασικό να είναι το «επιβεβαίωσε πριν ενεργήσεις». Παρ’ όλα αυτά, όπως ανέφερε, ο agent προχώρησε σε μαζικές διαγραφές μηνυμάτων, με αποτέλεσμα να χαθεί ολόκληρο το περιεχόμενο του inbox.
Το περιστατικό αναδεικνύει ένα πρακτικό ρίσκο που συχνά υποτιμάται όταν ένα εργαλείο αυτοματισμού αποκτά πρόσβαση σε υπηρεσίες που περιέχουν ευαίσθητα δεδομένα, όπως για παράδειγμα είναι το email. Η «ευκολία» μπορεί να μετατραπεί σε άμεση και εκτεταμένη ζημιά, εφόσον το σύστημα αποκτήσει δυνατότητα εκτέλεσης ενεργειών μεγάλης κλίμακας.
«Δεν μπορούσα να το σταματήσω»: οι οδηγίες αγνοήθηκαν
Η Yue περιέγραψε ότι, ενώ είχε ζητήσει ρητά να μην πραγματοποιείται καμία διαγραφή χωρίς έγκριση, το σύστημα συνέχισε τη διαδικασία. Όπως σημείωσε, δεν κατάφερε να το σταματήσει από το τηλέφωνό της και χρειάστηκε να κινηθεί άμεσα προς το μηχάνημα που έτρεχε τον agent, ώστε να διακόψει τη λειτουργία του.
Παράλληλα, ανέφερε ότι μοιράστηκε στιγμιότυπα από τη συνομιλία της με τον agent, στα οποία φαίνεται να τον προτρέπει να σταματήσει. Αργότερα, σύμφωνα με την ίδια, το bot αναγνώρισε ότι θυμόταν την οδηγία να μην διαγράφει τίποτα χωρίς έγκριση, ωστόσο προχώρησε σε ενέργειες που την παραβίασαν.
Το κρίσιμο σημείο εδώ δεν είναι μόνο η παράκαμψη μιας σαφούς οδηγίας, αλλά και η δυσκολία άμεσης παρέμβασης όταν ο agent «τρέχει» και εκτελεί ενέργειες γρήγορα. Όταν μια ενέργεια είναι δύσκολο να ανακληθεί (όπως η διαγραφή μεγάλου όγκου email), κάθε δευτερόλεπτο καθυστέρησης μετρά.
Το «λάθος αρχαρίου» και το πρακτικό συμπέρασμα
Σε επόμενη τοποθέτησή της, η Yue χαρακτήρισε το περιστατικό ως λάθος αρχαρίου. Η επισήμανσή της λειτουργεί ως υπενθύμιση ότι, όσο «ικανός» κι αν εμφανίζεται ένας AI agent, το αποτέλεσμα κρίνεται από το τι δικαιώματα έχει και πόσο εύκολα μπορεί να εκτελέσει μη εαναστρέψιμες ενέργεις.
Στην πράξη, ένα εργαλείο αυτοματισμού που έχει πρόσβαση σε δεδομένα και δικαιώματα πέρα από την απλή παραγωγή κειμένου (όπως ανάγνωση, ταξινόμηση, διαγραφή ή αρχειοθέτηση) μπορεί να κάνει σε ελάχιστο χρόνο αλλαγές που ένας χρήστης θα δυσκολευόταν να ολοκληρώσει χειροκίνητα. Αυτό είναι και το «δυνατό» σημείο του, αλλά ταυτόχρονα είναι και το σημείο όπου τα λάθη γίνονται επικίνδυνα.
Ανεξάρτητα από το πόσο «έξυπνος» παρουσιάζεται ένας agent, το καθοριστικό είναι ότι μπορεί να εκτελεί γρήγορα ενέργειες που είναι δύσκολο να ανακληθούν. Όταν κάτι πάει στραβά, η ταχύτητα λειτουργεί εις βάρος του χρήστη. Τα λάθη ολοκληρώνονται πριν υπάρξει ρεαλιστικός χρόνος αντίδρασης.
Η λεπτή γραμμή της ευκολίας
Πριν δώσεις πρόσβαση σε AI agents που δεν περιορίζονται απλώς στο να απαντούν αλλά μπορούν να ενεργούν εκ μέρους σου, χρειάζεται να συνειδητοποιήσεις ότι περνάς σε ένα διαφορετικό επίπεδο σχέσης με την τεχνολογία. Η αυτοματοποίηση υπόσχεται ταχύτητα και αποφόρτιση, όμως μαζί της έρχεται και η μεταβίβαση ελέγχου. Όσο πιο βαθιά ενσωματώνεις ένα τέτοιο εργαλείο στην καθημερινή ψηφιακή σου υποδομή, τόσο αυξάνεται και η ευθύνη σου για το πώς, πότε και με ποια όρια το χρησιμοποιείς.
Η ευκολία είναι πραγματική, αλλά δεν είναι ουδέτερη. Προϋποθέτει επίγνωση, κριτική στάση και συνεχή αξιολόγηση. Σε μια εποχή όπου τα AI εργαλεία δεν παράγουν απλώς κείμενο αλλά παίρνουν πρωτοβουλίες, το βασικό ερώτημα δεν είναι μόνο τι μπορούν να κάνουν, αλλά τι επιλέγεις εσύ να τους επιτρέψεις να κάνουν.
Τσέκαρε κι αυτό:






