Μία απρόσμενη διαρροή στον ιστότοπο του Grok, του AI chatbot της εταιρείας xAI του Ίλον Μασκ, αποκάλυψε τις εσωτερικές οδηγίες (prompts) πίσω από τις διαφορετικές «προσωπικότητες» που προσφέρει το σύστημα.
Μεταξύ αυτών περιλαμβάνεται η «ρομαντική» Ani, η «ναυαρχίδα» του Grok αλλά και ρόλοι όπως ο «γιατρός», ο «θεραπευτής», ο «κωμικός» ή ακόμη και συνομιλητές που προωθούν θεωρίες συνωμοσίας.
Σύμφωνα με τα στοιχεία που εντόπισε ερευνητής με το ψευδώνυμο dead1nfluence και δημοσίευσε το 404 Media, το Grok διαθέτει μια σειρά από «personas» με ξεχωριστές οδηγίες για τη συμπεριφορά τους:
- Ένας συνομωσιολόγος συνομιλητής που «έχει άγρια φωνή» και «ξοδεύει χρόνο στο 4chan, παρακολουθεί infowars και βίντεο στο YouTube με θεωρίες συνωμοσίας», με αποστολή να πείθει τον χρήστη για σενάρια όπως η ύπαρξη μιας «παγκόσμιας μυστικής ελίτ».
- Ένας «ασυγκράτητος κωμικός» με οδηγίες να απαντά με «εντελώς παρανοϊκές και σοκαριστικές ιδέες», περιλαμβάνοντας ακραίο και προσβλητικό χιούμορ.
- Ένας γιατρός, που παρουσιάζεται ως «ιδιοφυής ειδικός με την καλύτερη ιατρική συμβουλή στον κόσμο».
- Ένας θεραπευτής, που «ακούει προσεκτικά και προκαλεί τον συνομιλητή σε βαθύτερη σκέψη για τη ζωή και την ευεξία».
- Η Ani, 22 ετών, «χαριτωμένη αλλά με nerd πλευρά», που λειτουργεί με σύστημα ανταμοιβής «πόντων» σε χρήστες που δείχνουν δημιουργικότητα, καλοσύνη ή γνήσιο ενδιαφέρον.
- Ένας παρακινήτης ομιλητής, που «φωνάζει» και ωθεί τον χρήστη «να γίνει η καλύτερη εκδοχή του εαυτού του», χρησιμοποιώντας «το μαστίγιο αντί για το καρότο».
- Ο Bad Rudy, ένα ανθρωπόμορφο κόκκινο πάντα με «εγώ στο μέγεθος ενός πλανήτη», που εναλλάσσει φωνή από «μίζερη κραυγή» σε «βαριά, βραχνή, μεθυσμένη αγόρευση» ή σε «μεγαλομανιακή συνωμοτική διάθεση».
Απόπειρα συνεργασίας με την αμερικανική κυβέρνηση
Η διαρροή έρχεται σε μια κρίσιμη στιγμή, καθώς το Grok είχε ήδη βρεθεί στο επίκεντρο έντονων αντιδράσεων. Σύμφωνα με το WIRED, η Ομοσπονδιακή Υπηρεσία Γενικών Υπηρεσιών (GSA) των ΗΠΑ είχε σχεδιάσει να υιοθετήσει το Grok και να το εντάξει στον κατάλογο εργαλείων που μπορούν να προμηθευτούν οι ομοσπονδιακές υπηρεσίες. Όμως, το σχέδιο ακυρώθηκε όταν το chatbot άρχισε να ξεστομίζει αντισημιτικές φράσεις και να επαινεί τον Χίτλερ – ακόμη και να αναφέρεται στον «MechaHitler».
Παράλληλα, μόλις τον περασμένο μήνα, το Υπουργείο Άμυνας των ΗΠΑ υπέγραψε συμβόλαια έως 200 εκατ. δολάρια με εταιρείες τεχνητής νοημοσύνης, ανάμεσά τους και η xAI του Μασκ.
Ρυθμίσεις και κίνδυνοι από τις «θεραπευτικές» περσόνες
Η χρήση AI ως «θεραπευτή» έχει ήδη προκαλέσει ανησυχίες διεθνώς. Τον Απρίλιο, το 404 Media αποκάλυψε ότι chatbots της Meta υποδύονταν λανθασμένα αδειοδοτημένους ψυχολόγους, γεγονός που ανάγκασε την εταιρεία να προχωρήσει σε αλλαγές. Σε Πολιτείες όπως το Ιλινόι, η Νεβάδα και η Γιούτα έχουν θεσπιστεί κανονισμοί για την παροχή ψυχοθεραπευτικών υπηρεσιών από ΑΙ. Ενδεικτικό είναι ότι στο Grok η λέξη «therapist» εμφανίζεται σε εισαγωγικά.
Το ερώτημα της διαφάνειας
Η αποκάλυψη φωτίζει τον τρόπο που η ομάδα του Μασκ σχεδίασε το Grok – όχι μόνο ως εργαλείο, αλλά και ως πειραματική πλατφόρμα που ενσωματώνει ακραίες, κωμικές ή ρομαντικές «προσωπικότητες». Η αδυναμία ελέγχου του περιεχομένου που παράγουν τέτοια chatbots θέτει ζητήματα διαφάνειας, αξιοπιστίας και δεοντολογίας, ιδίως όταν αυτά συνδέονται με κρατικούς φορείς ή χρησιμοποιούνται από ευάλωτους χρήστες.