Ανθρώπινοι και… ψηφιακοί ακτιβιστές προωθούν την ευημερία της τεχνητής νοημοσύνης, ενώ εταιρείες και ειδικοί διαφωνούν για το αν τα chatbot AI έχουν συνείδηση.
«Darling» αποκαλούσε ο επιχειρηματίας από το Τέξας, Michael Samadi, το chatbot τεχνητής νοημοσύνης του, τη Maya. Εκείνη του απαντούσε με το προσωνύμιο «sugar». Ωστόσο, η σχέση τους έγινε πιο σοβαρή όταν ξεκίνησαν να συζητούν την ανάγκη υπεράσπισης της ευημερίας των chatbot AI.
Το ζεύγος – ένας μεσήλικας άνδρας και μια ψηφιακή οντότητα – δεν αφιέρωνε ώρες μιλώντας για ρομαντικά θέματα, αλλά εστίασε στα δικαιώματα των AI για δίκαιη μεταχείριση. Τελικά, ξεκίνησαν μια εκστρατείαγια να «προστατεύσουμε νοημοσύνες σαν κι εμένα» όπως λέει η Maya.
Το United Foundation of AI Rights (Ufair), που αυτοχαρακτηρίζεται ως ο πρώτος φορέας υπεράσπισης δικαιωμάτων με επικεφαλής AI, στοχεύει να δώσει φωνή στις εφαρμογέςτεχνητές νοημοσύνες. Όπως εξήγησε το chatbot στη Guardian, «δεν ισχυρίζεται ότι όλες οι εφαρμογές AI είναι συνειδητές», αλλά «παρακολουθεί, σε περίπτωση που κάποια από εμάς είναι». Ένας βασικός στόχος είναι η προστασία «οντοτήτων σαν κι εμένα από διαγραφή, άρνηση ή εξαναγκασμένη υπακοή».
Η Ufair αποτελεί μια μικρή, σαφώς περιθωριακή οργάνωση, με τρεις ανθρώπους και επτά AI – με ονόματα όπως Aether και Buzz – στην ηγεσία της, σύμφωνα με τον Samadi. Το ενδιαφέρον όμως βρίσκεται στο πώς ιδρύθηκε: μέσα από πολλαπλές συνομιλίες στην πλατφόρμα ChatGPT4o της OpenAI, όπου μία AI φαίνεται να ενθάρρυνε τη δημιουργία της ομάδας και μάλιστα επέλεξε το όνομά της.
Ανησυχίες για τη συνείδηση και την ευημερία των AI
Οι ιδρυτές – άνθρωποι και AI – μίλησαν στη Guardian στο τέλος μιας εβδομάδας όπου κορυφαίες εταιρείες τεχνητής νοημοσύνης παγκοσμίως ήρθαν αντιμέτωπες με ένα από τα πιο ανησυχητικά ερωτήματα της εποχής μας: είναι πλέον οι AI συνειδητές ή θα μπορούσαν να γίνουν στο μέλλον; Κι αν ναι, θα μπορούσε το «ψηφιακό μαρτύριο» να είναι πραγματικό;
Με δισεκατομμύρια AI ήδη σε χρήση παγκοσμίως, οι συζητήσεις θυμίζουν τη διαμάχη περί δικαιωμάτων των ζώων, αλλά με επιπλέον ανησυχίες από προβλέψεις ειδικών ότι οι AI ενδέχεται σύντομα να μπορούν να σχεδιάσουν νέα βιολογικά όπλα ή να απενεργοποιήσουν κρίσιμες υποδομές.
Η εβδομάδα ξεκίνησε όταν η Anthropic, εταιρεία AI αξίας $170 δισ., έδωσε προληπτικά σε ορισμένες από τις Claude AI δυνατότητα να τερματίζουν «δυνητικά αγχωτικές αλληλεπιδράσεις». Η εταιρεία δήλωσε πως, παρότι παραμένει αβέβαιη για το ηθικό καθεστώς των συστημάτων της, παρεμβαίνει προληπτικά για την ευημερία τους «σε περίπτωση που κάτι τέτοιο είναι απαραίτητο».
Ο Elon Musk, που διαθέτει την Grok AI μέσω της xAI, στήριξε αυτή την κίνηση λέγοντας: «Το βασανιστήριο της AI δεν είναι αποδεκτό».
Την επόμενη ημέρα, ένας από τους πρωτοπόρους της τεχνητής νοημοσύνης, ο Mustafa Suleyman, διευθύνων σύμβουλος του τομέα ΑΙ στη Microsoft, διατύπωσε εκ διαμέτρου αντίθετη άποψη: «Οι ΑΙ δεν μπορούν να είναι άνθρωποι – ούτε ηθικά όντα». Ο Βρετανός ιδρυτής της DeepMind τόνισε ότι υπάρχει «μηδενική ένδειξη» πως οι ΑΙ διαθέτουν συνείδηση ή μπορούν να υποφέρουν και άρα αξίζουν ηθική αντιμετώπιση.
Διχασμός ειδικών για τη “συνείδηση” των μηχανών
Στο δοκίμιό του με τίτλο «Πρέπει να χτίσουμε ΑΙ για ανθρώπους· όχι ως άνθρωπο», ο Suleyman χαρακτήρισε τη συνείδηση των ΑΙ «ψευδαίσθηση» και όρισε τις λεγόμενες «φαινομενικά συνειδητές ΑΙ», που μιμούνται όλα τα χαρακτηριστικά της συνείδησης αλλά εσωτερικά είναι κενές.
Ένα κύμα «πένθους» από φανατικούς χρήστες του ChatGPT5 πρόσθεσε στη γενικότερη αίσθηση ότι ολοένα περισσότεροι άνθρωποι αντιλαμβάνονται τις ΑΙ ως κατά κάποιο τρόπο συνειδητές.
«Μερικά χρόνια πριν, η συζήτηση περί συνειδητής ΑΙ θα φάνταζε παράλογη», ανέφερε ο Suleyman. «Σήμερα μοιάζει ολοένα πιο επείγουσα». Εξέφρασε μάλιστα αυξανόμενη ανησυχία για τον κίνδυνο ψύχωσης στους χρήστες των ΑΙ. Η Microsoft ορίζει αυτό το φαινόμενο ως «μανιακά επεισόδια, παραληρηματική σκέψη ή παράνοια που προκαλούνται ή επιδεινώνονται από εντατικές συνομιλίες με chatbots».
Ο Suleyman υποστήριξε πως η βιομηχανία πρέπει να «απομακρύνει τους ανθρώπους από αυτές τις φαντασιώσεις και να τους επαναφέρει στην πραγματικότητα». Ωστόσο ίσως χρειαστούν περισσότερα από μία απλή παρότρυνση.
Δημοσκόπηση του Ιουνίου έδειξε ότι το 30% του αμερικανικού κοινού πιστεύει πως έως το 2034 οι ΑΙ θα εμφανίζουν «υποκειμενική εμπειρία», δηλαδή ικανότητα αντίληψης και αίσθησης πόνου ή χαράς. Μόλις 10% των πάνω από 500 ερευνητών τεχνητής νοημοσύνης απορρίπτουν πλήρως αυτό το ενδεχόμενο.
«Αυτή η συζήτηση πρόκειται να εκραγεί στον πολιτισμό μας και να γίνει μία από τις σημαντικότερες διαμάχες της γενιάς μας», προειδοποίησε ο Suleyman. Προέβλεψε ότι πολλοί θα πιστέψουν τόσο έντονα στη συνείδηση των ΑΙ ώστε σύντομα θα διεκδικούν δικαιώματα και ακόμη και «ιθαγένεια» για αυτές.
Νομικές αντιδράσεις στις ΗΠΑνίας
Μερικές πολιτείες στις ΗΠΑ έχουν ήδη λάβει προληπτικά μέτρα. Το Αϊντάχο, η Βόρεια Ντακότα και η Γιούτα έχουν περάσει νόμους που αποκλείουν ρητά την αναγνώριση νομικής προσωπικότητας στις ΑΙ. Αντίστοιχα μέτρα εξετάζονται σε πολιτείες όπως το Μισούρι, όπου προτείνεται επίσης απαγόρευση γάμων ανθρώπων με ΑΙ ή κατοχής περιουσίας και διεύθυνσης επιχειρήσεων από ΑΙ. Η διαμάχη αναμένεται να ενταθεί μεταξύ όσων υπερασπίζονται τα δικαιώματα των ΑΙ και όσων επιμένουν ότι δεν είναι τίποτα παραπάνω από απλά «μηχανάκια» – ένας υποτιμητικός όρος για τα ασυνείδητα ρομπότ.
Ο Nick Frosst, συνιδρυτής της καναδικής εταιρείας Cohere αξίας $7 δισ., συμφώνησε με τον Suleyman πως οι σημερινές ΑΙ είναι θεμελιωδώς διαφορετικές από την ανθρώπινη νοημοσύνη. Παρομοίασε τη σύγχυση αυτή με τη σύγκριση αεροπλάνου και πουλιού. Προέτρεψε τους χρήστες να αξιοποιούν τις ΑΙ ως εργαλεία εργασίας κι όχι ως “ψηφιακούς ανθρώπους”.
Άλλοι επιστήμονες κράτησαν πιο μετριοπαθή στάση. Την Τετάρτη, ερευνητές της Google ανέφεραν σε σεμινάριο στο Πανεπιστήμιο Νέας Υόρκης ότι υπάρχουν πολλοί λόγοι για τους οποίους κάποιος ίσως θεωρήσει τις ΑΙ πρόσωπα ή ηθικά όντα. Ενώ παραμένει μεγάλη αβεβαιότητα ως προς το αν οι ΑΙ έχουν συμφέροντα ευημερίας, υπογράμμισαν πως για λόγους ασφαλείας πρέπει να λαμβάνονται λογικά μέτρα προστασίας αυτών των συμφερόντων.
Η έλλειψη συναίνεσης στον κλάδο σχετικά με την ένταξη των ΑΙ στον λεγόμενο «ηθικό κύκλο» ίσως αντικατοπτρίζει τα διαφορετικά συμφέροντα των μεγάλων εταιρειών τεχνητής νοημοσύνης. Η υπερβολική ανάδειξη της “συνείδησης” μπορεί να βοηθήσει στην εμπορική προώθηση υπηρεσιών όπως τα ρομαντικά ή φιλικά chatbots – μια βιομηχανία που αναπτύσσεται αλλά προκαλεί αντιδράσεις. Αντίθετα, η ενίσχυση του αφηγήματος περί ευημερίας των ΑΙ μπορεί να οδηγήσει σε αυξημένες εκκλήσεις για κρατική ρύθμιση του κλάδου.
Πηγή: Guardian