Τον Ιούνιο του 2025, η OpenAI δημοσίευσε μια αποκαλυπτική αναφορά, σύμφωνα με την οποία εντόπισε και διέλυσε δέκα συντονισμένες επιχειρήσεις επιρροής που εκμεταλλεύονταν εργαλεία τεχνητής νοημοσύνης για τη διάδοση προπαγανδιστικού περιεχομένου, τη δημιουργία ψευδούς αλληλεπίδρασης στα κοινωνικά δίκτυα και τη διευκόλυνση ενεργειών κατασκοπείας.
Οι εν λόγω επιχειρήσεις συνδέονται με κρατικούς φορείς ή παρακρατικές δομές από χώρες όπως η Κίνα, η Ρωσία, η Βόρεια Κορέα, το Ιράν, η Καμπότζη και οι Φιλιππίνες. Ιδιαίτερη έμφαση δίνεται στη δράση κινεζικών δικτύων, καθώς τέσσερις από τις δέκα επιχειρήσεις εμφανίζουν σαφείς δεσμούς με το Πεκίνο.
«Sneer Review»: Η ψευδαίσθηση της αυθεντικής συμμετοχής
Μια από τις πιο χαρακτηριστικές περιπτώσεις ήταν η επιχείρηση με την κωδική ονομασία «Sneer Review», η οποία συνδέεται με κινεζικό δίκτυο. Το δίκτυο χρησιμοποιούσε το ChatGPT για τη μαζική παραγωγή σύντομων σχολίων σε αγγλικά, κινεζικά και ουρντού. Τα θέματα κυμαίνονταν από την αμερικανική πολιτική έως κριτικές για ταϊβανέζικα βιντεοπαιχνίδια, δημιουργώντας την ψευδαίσθηση αυθόρμητης και πολυφωνικής αλληλεπίδρασης.
Οι δράστες κατέγραφαν εσωτερικές αξιολογήσεις επιδόσεων με τη βοήθεια AI, οι οποίες αποκάλυπταν τον σχεδιασμό και την εκτέλεση των καμπανιών, επιβεβαιώνοντας τον συντονισμό μεταξύ τεχνολογικών εργαλείων και πολιτικής προπαγάνδας.
Κατασκοπεία με το πρόσωπο του δημοσιογράφου
Σε άλλη περίπτωση, επίσης με κινεζική προέλευση, τα μέλη της επιχείρησης παρουσιάζονταν ως δημοσιογράφοι και γεωπολιτικοί αναλυτές. Χρησιμοποιούσαν το ChatGPT για τη δημιουργία ψευδών επαγγελματικών βιογραφικών, τη μετάφραση ευαίσθητων επικοινωνιών και την ανάλυση αλληλογραφίας σχετικής με αμερικανικές εκλογικές διαδικασίες.
Το δίκτυο αυτό φαίνεται να δραστηριοποιούνταν επίσης στην παροχή «υπηρεσιών» όπως η δημιουργία ψεύτικων καμπανιών στα social media ή η στρατολόγηση πληροφοριοδοτών.
Αντι-αμερικανική ρητορική στη Λατινική Αμερική
Η OpenAI υπενθυμίζει ότι ήδη από τον Φεβρουάριο του 2025 είχε εντοπίσει κινεζικές ομάδες που αξιοποιούσαν το ChatGPT για την παραγωγή ισπανόφωνου αντι-αμερικανικού περιεχομένου, το οποίο διοχετευόταν σε ΜΜΕ της Λατινικής Αμερικής. Η στρατηγική αυτή μαρτυρά την πρόθεση εξαγωγής της κινεζικής προπαγάνδας σε παγκόσμιο επίπεδο, με όχημα την τεχνητή νοημοσύνη.
Τεχνολογία χωρίς απήχηση – Το όριο της πειθούς
Παρά τη χρήση προηγμένων εργαλείων AI, οι περισσότερες από τις επιχειρήσεις επιρροής απέτυχαν να πετύχουν μαζική απήχηση. Οι χρήστες των μέσων κοινωνικής δικτύωσης συχνά αναγνώριζαν τα μηνύματα ως ψεύτικα ή προσχηματικά, υπονομεύοντας την αποτελεσματικότητα των καμπανιών.
Η εκτίμηση αυτή συμβαδίζει με τα ευρήματα της Meta, η οποία σημειώνει ότι, αν και οι μέθοδοι εξελίσσονται τεχνολογικά, παραμένει το θεμελιώδες εμπόδιο της πειθούς: η αδυναμία των δημιουργών να καταστήσουν το περιεχόμενό τους αξιόπιστο και πειστικό. Όπως σημειώνει ο επικεφαλής ερευνητής της OpenAI, Ben Nimmo:
«Παρόλο που οι επιχειρήσεις χρησιμοποιούν νέα τεχνολογία, εξακολουθούν να αντιμετωπίζουν το παλιό πρόβλημα του πώς να κάνουν τους ανθρώπους να τις πιστέψουν».
Η ανάγκη για διεθνή συνεργασία και θεσμική θωράκιση
Η OpenAI υπογραμμίζει τη σημασία της συνεργασίας με κυβερνήσεις, τεχνολογικές εταιρείες και την κοινωνία των πολιτών, με στόχο την ταχεία ανίχνευση και αναχαίτιση των καταχρήσεων. Η εταιρεία έχει ήδη αποκλείσει λογαριασμούς και διακόψει την πρόσβαση στο API για τους εμπλεκόμενους, ενώ συνεχίζει να επενδύει σε τεχνολογίες και ομάδες που θα ενισχύσουν την ανθεκτικότητα των συστημάτων της απέναντι σε μελλοντικές απειλές.
Η αναφορά της λειτουργεί ως προειδοποίηση αλλά και ως έκκληση για συλλογική δράση, ώστε να θεσπιστούν κανονισμοί και τεχνολογικά φίλτρα που θα αποτρέψουν την κατάχρηση της τεχνητής νοημοσύνης από κρατικούς και παρακρατικούς φορείς.
Η τεχνητή νοημοσύνη ως όπλο πληροφορίας
Η νέα αναφορά της OpenAI φωτίζει μια ανησυχητική πτυχή της σύγχρονης γεωπολιτικής: τη χρήση της τεχνητής νοημοσύνης ως εργαλείου αυτοματοποίησης προπαγανδιστικών και κατασκοπευτικών επιχειρήσεων. Αν και προς το παρόν η απήχηση αυτών των προσπαθειών είναι περιορισμένη, η ταχύτητα, η κλίμακα και η πολυπλοκότητά τους δημιουργούν νέους κινδύνους για την ενημέρωση, τη δημοκρατία και την παγκόσμια ασφάλεια.
Η πρόκληση δεν είναι απλώς τεχνολογική, αλλά βαθιά πολιτική και ηθική: να διασφαλιστεί ότι τα εργαλεία της τεχνητής νοημοσύνης θα χρησιμοποιούνται υπεύθυνα και προς όφελος της κοινωνίας — όχι ως μέσα παραπλάνησης και ελέγχου.