Δείτε πώς η σύμπραξη Silicon Valley και στρατιωτικο-βιομηχανικού συμπλέγματος αλλάζει ριζικά τη φύση του πολέμου.
Για πολύ καιρό, όπως περιγράφει το Jacobin, δύο φαντάσματα στοιχειώνουν τον κόσμο της τεχνητής νοημοσύνης και του πολέμου, και τα δύο πρωταγωνίστησαν στην ίδια ταινία. Το πρώτο είναι το Skynet — το φάντασμα μιας γενικής τεχνητής νοημοσύνης που αποκτά συνείδηση και στρέφεται εναντίον των δημιουργών της. Το δεύτερο είναι ο Terminator, η ανθρωπόμορφη φονική μηχανή που κυριαρχεί στη συλλογική μας φαντασία για τον αυτοματοποιημένο πόλεμο. Αυτές οι δύο εικόνες λειτουργούσαν ως βολικές αποσπάσεις της προσοχής, ενώ εξελισσόταν μια πιο πεζή αλλά εξίσου επαναστατική μεταμόρφωση: η σταδιακή αυτοματοποίηση των οργανωτικών και επιχειρησιακών δομών του στρατού μέσω της σύγκλισης της Silicon Valley με το στρατιωτικο-βιομηχανικό σύμπλεγμα.
Το βιβλίο του Anthony King, «AI, Automation, and War», είναι μια κοινωνιολογική ανάλυση που διαβάζεται σαν ενημερωτική αναφορά υπηρεσίας πληροφοριών — πλούσιο σε περιγραφές, λιτό σε ορολογία και αξιολογικές κρίσεις. Βασίζεται σε συνεντεύξεις με 123 στελέχη του αναπτυσσόμενου τεχνο-στρατιωτικού συμπλέγματος των ΗΠΑ, Ηνωμένου Βασιλείου και Ισραήλ. Η ανάλυσή του στοχεύει στην απομυθοποίηση της «λατρείας» γύρω από την AI, μετατοπίζοντας το ενδιαφέρον στις πραγματικές εξελίξεις και την επιρροή τους στις κοινωνικές δομές του πολέμου.
Το βασικό του επιχείρημα είναι σαφές: Οι φόβοι (και οι ελπίδες) για πλήρη αυτονομία είναι λανθασμένοι. Η AI δεν «αντικαθιστά τους ανθρώπους». Ούτε η ιδέα της «συνεργασίας ανθρώπου-μηχανής», όπου όπλα ή συστήματα τοποθετούνται ισότιμα με ανθρώπινους παράγοντες, ανταποκρίνεται στην πραγματικότητα. Αυτό που βλέπουμε είναι συστήματα υποστήριξης αποφάσεων: εργαλεία — αν και μετασχηματιστικά — που διευκολύνουν τον σχεδιασμό, τον εντοπισμό στόχων και τις κυβερνοεπιχειρήσεις. Αυτά τα εργαλεία χρησιμοποιούνται κυρίως για τη βελτίωση της στρατιωτικής κατανόησης και συλλογής πληροφοριών, αλλάζοντας παράλληλα τις σχέσεις πολιτών-στρατού.
Ο King έχει δίκιο να απομακρύνει τη συζήτηση από τη φετιχιστική εμμονή με τα φονικά ρομπότ και τη «σούπερ νοημοσύνη». Η ανάλυσή του είναι πλούσια σε περιγραφή. Ωστόσο, τόσο ο διαχωρισμός που κάνει όσο και το συνολικό του επιχείρημα αξίζουν σκεπτικισμό. Δεν είναι σαφές πού σταματά η υποστήριξη/ενδυνάμωση και πού αρχίζει η απώλεια ανθρώπινης βούλησης. Αυτό που γίνεται όλο και πιο ξεκάθαρο είναι η σύγκλιση της αυτοματοποίησης σε όλες τις δομές λήψης στρατιωτικών αποφάσεων και η βαθειά εμπλοκή των εταιρειών στον πόλεμο — κι όλα αυτά κινούνται από παρόμοιες εμμονές.

Η επανάσταση της χαρτογράφησης στον σύγχρονο πόλεμο
Όπως στην πρώιμη νεότερη Ευρώπη, όταν η επανάσταση στη στρατιωτική χαρτογράφηση άλλαξε τον τρόπο που οι στρατοί κατανοούσαν το έδαφος και σχεδίαζαν εκστρατείες, έτσι και σήμερα τα τεχνολογικά εργαλεία μετασχηματίζουν τον τρόπο επεξεργασίας πληροφοριών, εντοπισμού στόχων και συντονισμού επιχειρήσεων. Πρόκειται κυρίως για μια επανάσταση λογισμικού, αλλά περιλαμβάνει και τη διασύνδεση υλικού εξοπλισμού — ειδικά εργαλείων που συνδέουν την επιτήρηση με την στόχευση. Σε αντίθεση με τις φιλοδοξίες της «παλιάς καλής AI» της δεκαετίας του ‘50, δεν έχουμε ένα ενιαίο συμβολικό χάρτη που αναπαριστά την πραγματικότητα. Αντίθετα, η σύγκλιση του «πεδίου» με την ψηφιακή του αναπαράσταση επιδιώκεται μέσω εξειδικευμένων εφαρμογών — κάτι που απαιτεί όλο και στενότερη συνεργασία πολιτών-τεχνολόγων με τον στρατό.
Ουσιαστικά, μιλάμε για επανάσταση στη συλλογή πληροφοριών, την ανάλυση δεδομένων και την αυτοματοποίηση των κύκλων λήψης αποφάσεων — έως και την ολοκλήρωση της «αλυσίδας θανάτου». Συλλογείς δεδομένων και αλγόριθμοι πρόβλεψης συνδέουν πληροφορίες από αισθητήρες με παραμέτρους ταξινόμησης για να παράγουν σημεία δράσης. Η ανθρώπινη παρουσία στον κύκλο λήψης αποφάσεων συνεχώς επαναξιολογείται. Από τον σχεδιασμό μέχρι τον εντοπισμό στόχων κι έως την απόφαση εμπλοκής, η ανθρώπινη κρίση συστηματικά ενισχύεται ή αντικαθίσταται από αλγοριθμικές διαδικασίες. Ο άνθρωπος παραμένει «μέσα στο κύκλωμα», όμως ο χαρακτήρας αυτού του ρόλου αλλάζει: η αυτοματοποίηση εξαπλώνεται μαζί με τη βαθύτερη συμμετοχή του ιδιωτικού τεχνολογικού τομέα.
Από το παρελθόν στο σήμερα: Silicon Valley & στρατός
Πώς φτάσαμε εδώ; Όπως συμβαίνει συχνά στην ύστερη φάση του ακραίου τεχνοκαπιταλισμού, η τρέχουσα κατάσταση αποτελεί τόσο εξέλιξη όσο κι άλμα πέρα από το στρατιωτικο-βιομηχανικό παρελθόν. Η ικανότητα εντοπισμού και προσβολής πιθανών απειλών παγκοσμίως υπήρξε διαρκής στόχος της στρατιωτικής τεχνολογίας των ΗΠΑ. Ήδη στον πόλεμο του Βιετνάμ ο στρατηγός William Westmoreland προέβλεπε ότι στο μέλλον οι εχθρικές δυνάμεις θα εντοπίζονται σχεδόν άμεσα μέσω δικτύων δεδομένων, υπολογιστικής ανάλυσης πληροφοριών κι αυτοματοποιημένων συστημάτων ελέγχου πυρός.
Αυτός ο στόχος εξυπηρετήθηκε σταθερά από τις επιχειρήσεις της Δυτικής Ακτής των ΗΠΑ όπως περιγράφει ο Malcolm Harris στο «Palo Alto». Παρόμοιο μήνυμα εκπέμπει (αν κι αμήχανα) το μανιφέστο «The Technological Republic» του CEO της Palantir, Alex Karp: σκοπός του τεχνολογικού καπιταλισμού δεν είναι μόνο το κέρδος αλλά κι η στρατιωτική κυριαρχία της Δύσης.

Η ιστορία της Palantir Technologies, ιδρυμένης από τους Peter Thiel και Karp ως εταιρεία εθνικής ασφάλειας μετά την 11η Σεπτεμβρίου, αποτελεί κεντρικό παράδειγμα αυτής της νέας εταιρικής-στρατιωτικής εξέλιξης. Αν κι είχε αρχικά δυσκολίες να εισχωρήσει στα παραδοσιακά κανάλια προμηθειών του στρατού, βρήκε δίοδο συνεργαζόμενη με Ειδικές Δυνάμεις που αναζητούσαν λύσεις ταχύτητας κι αποτελεσματικότητας στις επιχειρήσεις τους.
Το παράδειγμα Palantir: Δεδομένα & επιτήρηση στον πυρήνα
Η Palantir δεν πρόσφερε ρομπότ αλλά λύσεις διαχείρισης πληροφορίας: δυναμική συγκέντρωση κι ανάλυση τεράστιων δεδομένων από αισθητήρες, δορυφόρους κι ανοικτές πηγές για επιχειρησιακή χρήση. Φιλοδοξία της — πλέον σε μεγάλο βαθμό υλοποιημένη — να λειτουργεί ως νευρικό σύστημα που συνδέει απεριόριστη επιτήρηση με στόχευση σε πολλά πεδία συγκρούσεων αλλά κι εντός εσωτερικών πολιτικών (μετανάστευση, αστυνόμευση, υγεία).
Pentagon Project Maven: Καθοριστική ήταν η υλοποίηση του Project Maven από το Πεντάγωνο — μια προσπάθεια ανάλυσης τεραμπάιτ βίντεο από drones μέσω machine learning. Αρχικά με τη συνεργασία της Google, στόχος ήταν η αυτοματοποίηση ανάλυσης εικόνων επιτήρησης — έργο που θα απαιτούσε εκατοντάδες χιλιάδες ανθρωποώρες. Όταν οι εργαζόμενοι στη Google αντέδρασαν έντονα στη στρατιωτική χρήση των τεχνολογιών τους, τη θέση ανέλαβε η Palantir.
Ο King σωστά χαρακτηρίζει αυτήν την αντίδραση στη Google ως απαρχή μιας νέας «χρυσής εποχής» για το τεχνο-στρατιωτικό σύμπλεγμα. Η εξέλιξη ήταν η ανάδυση εταιρειών όπως οι Palantir & Anduril — σχεδιασμένες εξαρχής για την άμυνα — που πληθαίνουν συνεχώς.
“American Dynamism 50”: Μπορεί κανείς να δει αυτό το οικοσύστημα παρατηρώντας τη λίστα “American Dynamism 50” της Andreessen Horowitz (σημαντικό VC fund). Κοινός παρονομαστής; Το δόγμα “peace through strength” ενόψει πιθανής αντιπαράθεσης με την Κίνα — πλέον επίσημη στρατηγική ασφαλείας των ΗΠΑ.
Εταιρείες κολοσσοί στον πυρήνα των συγκρούσεων
Google, Microsoft, Amazon: Ακόμη κι όσοι αρχικά εξέφραζαν ενστάσεις ή είχαν καθαρά πολιτικό χαρακτήρα (Google Cloud/Amazon Web Services), τώρα συμμετέχουν ενεργά (π.χ. Project Nimbus). Αυτό επέτρεψε στο Ισραήλ να ενισχύσει σημαντικά τις δυνατότητες επιτήρησης/στοχοποίησης τόσο στη Δυτική Όχθη όσο και στη Γάζα.
SpaceX Starlink: Ο αμερικανικός στρατός βασίζεται όλο και περισσότερο στους δορυφόρους Starlink για διοίκηση/έλεγχο — όπως φυσικά κι η Ουκρανία στην άμυνά της κατά της Ρωσίας.
“Βόρειος Αστέρας” το ισραηλινό μοντέλο
Το ισραηλινό υπόδειγμα δείχνει πώς η ολοένα μεγαλύτερη ενσωμάτωση εταιρειών τεχνολογίας, υπηρεσιών πληροφοριών & μονάδων μάχης αποτελεί πρότυπο προς μίμηση παγκοσμίως. Κάποιοι συνεντευξιαζόμενοι θεωρούν τα συστήματα ΗΠΑ/ΗΒ ανεπαρκώς ενσωματωμένα ή τα επαινούν γιατί κινoύνται προς αυτήν την κατεύθυνση: γενικευμένη στρατιωτικοποίηση.
IDF & Elbit Systems: Στο Ισραήλ, όπως σχολιάζει στέλεχος των IDF στον King, «μερικοί πολίτες δεν είναι πραγματικά πολίτες…». Εταιρείες όπως η Elbit Systems έχουν ενσωματωθεί επιχειρησιακά στις μονάδες IDF για ανάπτυξη/βελτίωση λογισμικού σε πραγματικές συνθήκες μάχης.
Στην Ουκρανία συμμετέχουν ενεργά τουλάχιστον 18 αμερικανικές εταιρείες τεχνολογίας. Κάποιες παρέχουν αλγοριθμική υποστήριξη πεδίου· η Palantir δηλώνει πως «είναι υπεύθυνη για το μεγαλύτερο μέρος των στοχοποιήσεων». Έτσι δημιουργείται ένας κύκλος ανατροφοδότησης όπου τα δεδομένα μάχης βελτιώνουν αλγορίθμους οι οποίοι επιταχύνουν την «αλυσίδα θανάτου», περιορίζοντας τη νοητική επιβάρυνση χειριστών — με όλο αυτό να αυτοματοποιείται σταδιακά υπό εταιρικό έλεγχο.
Boom στα VC deals: Μεταξύ 2014-2023 η αξία των deals venture capital στον αμυντικό κλάδο οκταπλασιάστηκε.
Nέα μορφή πολέμου: Ταχύτητα – όγκος – ολοκλήρωση
Iούνιος 2024: Στελέχη Palantir, Meta & OpenAI διορίζονται επίσημα αντισυνταγματάρχες εφεδρείας/σύμβουλοι στο Army Executive Innovation Corps — συμβολίζοντας πλήρως τη διείσδυση της Silicon Valley στην κορυφή του Πενταγώνου. Το Defense Innovation Unit βρίσκεται πλέον στη Silicon Valley επιταχύνοντας την υιοθέτηση εμπορικών/διπλής χρήσης τεχνολογιών.
“Φετίχ” πλήρους αυτονομίας & απώλεια ευθύνης
Mπορούμε άραγε να μιλάμε για πλήρη αντικατάσταση πολιτικής κρίσης από αλγορίθμους; Ο King ξεχωρίζει καθαρά τα πλήρως αυτόνομα όπλα από τα συστήματα υποστήριξης αποφάσεων που κυριαρχούν σήμερα στο πεδίο μάχης. Εφαρμόζει τη μαρξιστική έννοια του φετιχισμού εμπορεύματος: όπως τα εμπορεύματα αποκρύπτουν τις κοινωνικές σχέσεις παραγωγής πίσω τους, έτσι κι οι AI-στρατιωτικές εφαρμογές καλύπτουν τις οργανωτικές επιλογές & ανθρώπινες αποφάσεις στους αλγορίθμους τους.
Mια πρόταση στόχευσης που παράγει ένα AI σύστημα παρουσιάζεται ως αντικειμενική εκτίμηση ενώ είναι προϊόν συγκεκριμένων πολιτικών/στρατιωτικών προτεραιοτήτων προγραμματιστών. Η AI δεν αποτελεί πραγματική νοημοσύνη· το αντίθετο αποτελεί μυστικοποίηση που παρέχει πολιτικό άλλοθι σε αμφιλεγόμενες αποφάσεις (με πρόσχημα ότι “ο αλγόριθμος ήταν ουδέτερος”), αποστασιοποιεί τους υπεύθυνους από το αποτέλεσμα (αμβλύνοντας ευθύνη) κι επισκιάζει τον αυξανόμενο έλεγχο ιδιωτικών εταιρειών σε ζητήματα ζωής/θανάτου.
“Σημαντικός ανθρώπινος έλεγχος”; Έννοιες υπό διάβρωση
Tο ταμπού κατά των πλήρως αυτόνομων όπλων κρατά ακόμη (βλέπε ψηφίσματα Γενικής Συνέλευσης ΟΗΕ), όμως εμφανίζει σοβαρές ρωγμές καθώς κάποιες χώρες αντιδρούν ή παρακάμπτουν τα όρια αυτά. Τα συστήματα υποστήριξης αποφάσεων διατηρούν θεωρητικά αυτό το ταμπού αλλά μετασχηματίζουν δραστικά τόσο τον τρόπο άσκησης ευθύνης όσο και τη δομή διεξαγωγής πολέμου.
Kαι πάλι όμως τίθεται ζήτημα: Πού βρίσκεται το όριο ανάμεσα στην υποστήριξη & στην αντικατάσταση ανθρώπινης κρίσης; Τα εργαλεία που χρησιμοποιούνται στη Γάζα δείχνουν ότι η ανθρώπινη παρέμβαση μειώνεται δραματικά ειδικά στα ενδιάμεσα/χαμηλά επίπεδα επιχειρήσεων όπου κυριαρχούν ο όγκος & η ταχύτητα καταστροφής· έτσι διευκολύνεται ακόμη κι ο ψυχικός αποστασιοποιημένος χειρισμός μαζικών απωλειών.
“Lavender” & “Gospel”: Δύο βασικά εργαλεία συλλογής/ταξινόμησης δεδομένων με παραμέτρους πρόβλεψης· χαρακτηρίζουν ανθρώπους/αντικείμενα ως πιθανούς στόχους βάσει προκαθορισμένων κριτηρίων (και εργαλείο “Where’s Daddy” για στοχοποίηση σε σπίτια). Οι ίδιες οι κατηγοριοποιήσεις αντανακλούν πολιτικές/νομικές επιλογές (χαλαρά όρια παράπλευρων απωλειών κλπ).
Kρίσιμο ζήτημα παραμένει κατά πόσο κάθε σημείο ενός κύκλου στοχοποίησης ασκεί ουσιαστικά νομικές/ηθικές κρίσεις (διάκριση μεταξύ αμάχων/μαχητών – αναλογικότητα – προληπτικά μέτρα προστασίας). Οι απαιτήσεις αυτές προϋποθέτουν γνωσιακή ευθύνη & διακριτική ευχέρεια· ο νόμος δεν μπορεί να αποτυπωθεί πλήρως ως κώδικας γιατί αφορά πάντα σχέσεις μεταξύ ανθρώπων ακόμη και σε εμπόλεμες συνθήκες.
Tελικά όρια: Υποβάθμιση ευθύνης & “εταιρικοποίηση” πολέμου
Mπορεί μια τεχνική ταξινόμηση να ανταποκριθεί στις απαιτήσεις δικαίου; Είναι ακόμη ανοιχτό ζήτημα αλλά φαίνεται πως ήδη τίθεται εκτός συζήτησης λόγω θεσμικών/τεχνικών εξελίξεων. Παρά τις εξελιγμένες δυνατότητες ανάλυσης δεδομένων & σύνθετης αναπαράστασης προς τους χρήστες απαιτείται πάντα ουσιαστική ανθρώπινη κρίση· όχι τυφλή αποδοχή προτεινόμενων ενεργειών.
Aκόμη κι ο χαρακτηρισμός ενός κτηρίου ως νόμιμου στόχου δεν μπορεί να βασίζεται αυτόματα σε σήματα κινητών τηλεφώνων ή αλγοριθμικούς δείκτες χωρίς σημαντικό περιθώριο σφάλματος ή υπερβολικά χαλαρή ερμηνεία χρήσεων· πρωτίστως γιατί τέτοιες αποφάσεις πρέπει πάντα να παραμένουν ανθρώπινη ευθύνη — εκτός αν σκοπός είναι απλά μια τυφλή επικύρωση καταστροφής.
“Meaningful human control”: H έννοια αυτή προβλήθηκε τελευταία δεκαετία ως γραμμή πέραν της οποίας δεν πρέπει να περνά η αυτοματοποίηση· ωστόσο έχει ήδη αρχίσει να αποδυναμώνεται δραστικά όσο εξαπλώνονται τέτοιες τεχνολογίες στον κύκλο στοχοποίησης («context-appropriate human judgement and control» προτείνεται πλέον ως νέα έννοια).
Aλληλοπαγίδευση πολέμου & καπιταλισμού – τι μέλλει γενέσθαι;
Pού βρίσκονται τα όρια μεταξύ υποστήριξης αποφάσεων & πλήρους αυτοματοποίησης; Τρεις βασικοί παράγοντες:
- (1) Βασικές πράξεις διάκρισης/κρίσεως στοχοποίησης εμπορευματοποιούνται· εμφανίζονται ως αφηρημένες τιμές παραγόμενες αυτόματα βάσει προκαθορισμένων παραμέτρων (που μπορεί να είναι είτε αυστηρά νόμιμες είτε εξαιρετικά χαλαρές).
- (2) Μειώνεται ουσιαστικά η ανθρώπινη βούληση· ακόμη κι αν τυπικά υπάρχουν υπεύθυνοι θέτοντας παραμέτρους ή εγκρίνοντας επιλογές, όσο μεγαλώνει ο όγκος πληροφορίας γίνεται πρακτικά ανέφικτη κάθε ουσιαστική άσκηση κρίσεως· έτσι σταδιακά οι συμμετέχοντες αποξενώνονται γνωσιακά & ψυχικά από τις συνέπειες των πράξεών τους.
- (3) Πολύ σημαντικός τρίτος παράγοντας: Ποια σχέση υπάρχει ανάμεσα στην εμπορευματοποίηση μιας κρίσιμης πράξης μέσω αλγοριθμικής μυστικοποίησης αφενός & στην αυξανόμενη εμπλοκή εταιρειών στον πόλεμο αφετέρου; Προωθεί εγγενώς το ένα το άλλο;
Ο King θεωρεί ότι όχι· διαχωρίζει μεταξύ πλήρους αυτονομίας & υποστηρικτικών τεχνολογιών. Υποστηρίζει πως οι αλλαγές στις σχέσεις πολιτών-στρατού δεν συνεπάγονται απαραίτητα απώλεια ευθύνης αλλά μάλλον ενδυνάμωση όσων λαμβάνουν αποφάσεις.
Ωστόσο ειδικά όσον αφορά τις απαιτήσεις δικαίου πολέμου φαίνεται πως χάνεται ουσιαστική βούληση· ίσως χωρίς άμεσο αιτιακό σύνδεσμο ωστόσο μετατίθεται ισχύς προς εταιρείες μέσα στο πλαίσιο υπερκαπιταλισμού/μιλιταρισμού.
Η ίδια λογική του καπιταλισμού προάγει την αποστασιοποίηση & δομές ανευθυνότητας· έτσι κι εδώ η αυτοματοποίηση οδηγεί σε απώλεια ευθύνης ενώ το κίνητρο κέρδους ήταν ανέκαθεν εγγενές στον πόλεμο.
Η κοινωνιολογία αυτού του συμπλέγματος ίσως δείξει πώς ο μιλιταντισμός υπερκαπιταλισμού οδηγεί στην εμπορευματοποίηση όχι μόνο της AI αλλά συνολικά της κοινωνικής οργάνωσης διεξαγωγής πολέμου.
Στο μεταξύ τα πραγματικά φονικά ρομπότ — πιθανά πλήρως αυτόνομα συστήματα χωρίς χειριστές — βρίσκονται ήδη υπό ανάπτυξη ή δοκιμή.
Η αλληλοπαγίδευση υπερκαπιταλισμού & κρατικής ασφάλειας μας προετοιμάζει να τα δεχτούμε ως ισότιμους “παίκτες”.





