Η Ευρωπαϊκή Ένωση θα χρειαστεί τουλάχιστον έναν ακόμα χρόνο για να καταλήξει στο πώς θα εφαρμόσει τον ισχυρό νόμο της για τις ψηφιακές υπηρεσίες προκειμένου να περιορίσει τους κινδύνους που προκύπτουν από τη χρήση του ChatGPT.
Η τεχνητή νοημοσύνη έχει ήδη κατακλύσει την Ευρώπη, με την OpenAI να ανακοινώνει πρόσφατα ότι η πλατφόρμα της ξεπέρασε ένα κρίσιμο όριο για τη ρυθμιστική εποπτεία: πάνω από 120 εκατομμύρια άνθρωποι χρησιμοποιούν την αναζήτηση του ChatGPT κάθε μήνα. Σύμφωνα με δύο αξιωματούχους της Ευρωπαϊκής Επιτροπής που μίλησαν στο POLITICO, το γεγονός αυτό δεν αποτελεί έκπληξη για τις Βρυξέλλες.
Παρά τη μαζική διάδοση του chatbot, οι ρυθμιστικές αρχές δεν έχουν ακόμη αποφασίσει πώς θα το εντάξουν στο πλαίσιο του Digital Services Act (DSA), που τέθηκε σε ισχύ από τις αρχές του 2024, ώστε να διασφαλιστεί ότι οι πλατφόρμες θα ελαχιστοποιούν τους κινδύνους τους. Η απόφαση αναμένεται, σύμφωνα με ανώτερο αξιωματούχο της Επιτροπής, όχι πριν τα μέσα του 2026. Η καθυστέρηση αυτή αποτελεί ταυτόχρονα και δοκιμασία για την ικανότητα της ΕΕ να χειριστεί τους κινδύνους που φέρουν τα μεγάλα γλωσσικά μοντέλα, τα οποία γίνονται πλέον τόσο καθημερινά όσο οι παραδοσιακές μηχανές αναζήτησης.
Η αργοπορία αυτή αντανακλά το γεγονός ότι ο νόμος σχεδιάστηκε πριν το ChatGPT γίνει mainstream και οι ορισμοί του δεν καλύπτουν ξεκάθαρα τα chatbots τεχνητής νοημοσύνης, αφήνοντας τις Βρυξέλλες πίσω στον χρόνο καθώς οι κίνδυνοι αναδεικνύονται όλο και πιο ξεκάθαρα. Το ίδιο το OpenAI πρόσφατα παραδέχθηκε ότι 1,2 εκατομμύρια άνθρωποι την εβδομάδα χρησιμοποιούν το ChatGPT για συνομιλίες που υποδηλώνουν ότι σκέφτονται να θέσουν τέλος στη ζωή τους, ενώ σε «σπάνιες περιπτώσεις» το μοντέλο μπορεί να μην συμπεριφέρεται όπως προβλέπεται σε αυτές τις ευαίσθητες καταστάσεις.
«Για μια βιομηχανία συνηθισμένη σε εθελοντικά πλαίσια ασφάλειας της τεχνητής νοημοσύνης και αυτοκαθορισμένα benchmarks, το νομικά δεσμευτικό καθεστώς επιμέλειας του DSA μπορεί να είναι ένα σοκ πραγματικότητας», σχολιάζει ο Mathias Vermeulen, διευθυντής της νομικής εταιρείας και συμβουλευτικής AWO Agency στις Βρυξέλλες. «Η OpenAI θα χρειαστεί να βελτιώσει σημαντικά τις πρακτικές της και δεν θα μπορεί να περιοριστεί σε ένα απλό copy/paste αυτών που κάνει σήμερα», προσθέτει. Η εταιρεία δεν ανταποκρίθηκε άμεσα στις επικρίσεις, παραπέμποντας στις διαδικτυακές σελίδες βοήθειας για την εφαρμογή του DSA, σημειώνοντας ότι τα 120 εκατομμύρια χρήστες αφορούν μόνο τη λειτουργία αναζήτησης και όχι ολόκληρη την υπηρεσία.
Η μεγάλη πρόκληση της ταξινόμησης
Το ChatGPT υπάγεται ήδη στον νόμο AI Act, από τον Αύγουστο υποχρεούται να αξιολογεί τους κινδύνους και να τους μετριάζει, με πρόστιμα που φτάνουν τα 15 εκατομμύρια ευρώ σε περίπτωση μη συμμόρφωσης. Ωστόσο, οι αριθμοί των χρηστών το φέρνουν πλέον στην «μεγάλη κατηγορία», πολύ πάνω από το όριο των 45 εκατομμυρίων μηνιαίως για μεγάλες πλατφόρμες και μηχανές αναζήτησης σύμφωνα με το DSA. Μόλις ενταχθεί στο DSA, τα πρόστιμα μπορεί να φτάσουν έως το 6% του ετήσιου παγκόσμιου κύκλου εργασιών της.
Το κρίσιμο ερώτημα είναι η έκταση της εφαρμογής: η Ευρωπαϊκή Επιτροπή μπορεί να περιοριστεί στις λειτουργίες αναζήτησης του ChatGPT, κατηγορώντας το ως μηχανή αναζήτησης, ή να επεκτείνει την αξιολόγηση σε ολόκληρη την υπηρεσία, είτε ως πλατφόρμα είτε ως υπηρεσία. Το μέγεθος της ταξινόμησης θα καθορίσει και το εύρος των απαιτήσεων συμμόρφωσης. Όσο ευρύτερη είναι η κατηγοριοποίηση, τόσο πιο αναλυτική θα πρέπει να είναι η αναφορά που θα υποβληθεί στην Επιτροπή σχετικά με τους κινδύνους — από τις εκλογές και τη δημόσια υγεία μέχρι τα θεμελιώδη δικαιώματα.
Η επιλογή της «στενής» ή της «ευρείας» προσέγγισης έχει πρακτικές συνέπειες. Εάν το ChatGPT αντιμετωπιστεί ως μηχανή αναζήτησης, δεν θα χρειαστεί να παρέχει μηχανισμό ειδοποίησης και δράσης για αναφορά περιεχομένου προς αφαίρεση, ενώ μια ευρύτερη ταξινόμηση θα απαιτεί πλήρη ανάλυση του γλωσσικού μοντέλου και των αλγορίθμων του. Ακόμη, η OpenAI ενδέχεται να αμφισβητήσει την κατηγοριοποίηση, όπως άλλες πλατφόρμες στο παρελθόν, γεγονός που θα παρατείνει περαιτέρω τη διαδικασία.
Ποιο πλαίσιο υπερισχύει;
Η συνύπαρξη του AI Act και του DSA γεννά ερωτήματα για τη συνοχή των δύο καθεστώτων. Οι νόμοι σχεδιάστηκαν για περιπτώσεις ενσωμάτωσης AI σε ψηφιακές υπηρεσίες, όπως οι AI Overviews της Google, αλλά δεν προέβλεψαν κάθετα ολοκληρωμένους παρόχους όπως η OpenAI. Τα δύο καθεστώτα βασίζονται σε διαφορετικά πλαίσια κινδύνου: το AI Act ταξινομεί τα μοντέλα σε κατηγορίες απαράδεκτου, υψηλού, περιορισμένου ή ελάχιστου κινδύνου, ενώ το DSA απαιτεί από τις πλατφόρμες να αξιολογούν και να μετριάζουν τέσσερις «συστημικούς κινδύνους», όπως την ακεραιότητα της δημοκρατίας, τις εκλογές, τη δημόσια υγεία και τα θεμελιώδη δικαιώματα.
Ορισμένες πτυχές, όπως η παραπληροφόρηση και τα deepfakes, ανατίθενται στο DSA, ενώ άλλες, όπως η χρήση του ChatGPT σε διαδικασίες πρόσληψης, παραμένουν στο AI Act. Ενδεχομένως να υπάρξουν κενά στον τρόπο αξιολόγησης των κινδύνων λόγω της ασυμφωνίας των πλαισίων, ενώ η OpenAI μπορεί να επωφεληθεί από τους νόμους safe harbor, που απαλλάσσουν τις πλατφόρμες από ευθύνη για περιεχόμενο που δημοσιεύουν οι χρήστες.
Η περίπτωση του ChatGPT αποτελεί τεστ για τη στρατηγική της ΕΕ στην εποχή της τεχνητής νοημοσύνης. Η τεχνολογία έχει ήδη εισβάλει στη ζωή εκατομμυρίων Ευρωπαίων, αλλά η ρυθμιστική ανταπόκριση παραμένει σε «slow motion». Οι αποφάσεις που θα ληφθούν μέχρι τα μέσα του 2026 θα καθορίσουν όχι μόνο το μέλλον της OpenAI στην Ευρώπη, αλλά και την αξιοπιστία του DSA και του AI Act στην προστασία των πολιτών από τους νέους κινδύνους της ψηφιακής εποχής. Η ΕΕ καλείται να δείξει ότι μπορεί να συνδυάσει ταχύτητα και αποτελεσματικότητα σε ένα πεδίο που εξελίσσεται με ρυθμούς αστραπής, αλλιώς κινδυνεύει να μείνει πίσω ενώ οι τεχνολογικοί κολοσσοί προχωρούν μπροστά.
Με πληροφορίες από το Politico