Σε μία υπόθεση που αναδεικνύει τους κινδύνους της χρήσης τεχνητής νοημοσύνης σε νομικές διαδικασίες, η εταιρεία Anthropic αναγκάστηκε να απολογηθεί δημόσια όταν ο δικός της chatbot, Claude, δημιούργησε μια ψευδή παραπομπή που χρησιμοποιήθηκε ως αποδεικτικό στοιχείο σε δικαστήριο.
Το περιστατικό σημειώθηκε στα πλαίσια μιας ευρείας και σημαντικής δικαστικής διαμάχης με μεγάλους εκδότες μουσικής, όπως η Universal Music Group, που κατηγορούν την Anthropic για παραβίαση πνευματικών δικαιωμάτων μέσω της χρήσης προστατευμένων στίχων τραγουδιών στην εκπαίδευση του Claude.
Το χρονικό της παραπομπής-σκάνδαλο
Η διαμάχη ξέσπασε στις 15 Μαΐου 2025, όταν οι δικηγόροι της Anthropic παραδέχθηκαν ότι το Claude είχε δημιουργήσει εσφαλμένη παραπομπή στη δήλωση της εμπειρογνώμονος Olivia Chen, που κατατέθηκε στις 30 Απριλίου. Αν και το Claude έδωσε τον σωστό τίτλο του περιοδικού, το έτος και τον σύνδεσμο για ακαδημαϊκή εργασία στο The American Statistician, επινόησε «λανθασμένο τίτλο και εσφαλμένους συγγραφείς». Η ομοσπονδιακή δικαστής Susan van Keulen τόνισε τη σοβαρότητα της κατάστασης, υπογραμμίζοντας ότι «υπάρχει τεράστια διαφορά ανάμεσα σε μια απλή παράλειψη και σε μια ψευδαίσθηση που δημιουργεί η τεχνητή νοημοσύνη».
Οι δικηγόροι των Universal Music Group, Concord και ABKCO κατηγόρησαν την Chen ότι χρησιμοποίησε το Claude για να παραθέσει ανύπαρκτα άρθρα στη μαρτυρία της. Παρά τον ισχυρισμό της Anthropic ότι το λάθος αφορούσε απλώς εσφαλμένα στοιχεία και όχι κατασκευασμένη πηγή, ο σύνδεσμος που κατατέθηκε στο δικαστήριο οδηγούσε σε εντελώς διαφορετικό άρθρο με άλλον τίτλο και συγγραφείς. Παρά τις χειροκίνητες διαδικασίες ελέγχου, τα λάθη αυτά-μαζί με άλλα παρόμοια που προήλθαν από «ψευδαισθήσεις» του Claude-δεν εντοπίστηκαν πριν την υποβολή των εγγράφων στο δικαστήριο.
Η νομική απάντηση της Anthropic
Στην απάντησή της προς το δικαστήριο, η Anthropic χαρακτήρισε το περιστατικό ως «ειλικρινές λάθος παραπομπής και όχι κατασκευή αποδεικτικού στοιχείου». Η νομική της ομάδα εξήγησε πως, παρότι διόρθωσαν λάθος τόμο και σελίδες κατά τον έλεγχο, τα λεκτικά λάθη στον τίτλο και τα ονόματα των συγγραφέων πέρασαν απαρατήρητα. Το περιστατικό προέκυψε όταν ένας δικηγόρος της Anthropic ζήτησε από το Claude να διαμορφώσει μια πηγή που βρέθηκε μέσω Google ως νομική παραπομπή. Παρά τη δημόσια συγγνώμη της εταιρείας, το γεγονός προκάλεσε αμηχανία, καθώς το ίδιο το προϊόν της Anthropic υπονόμευσε την υπερασπιστική της γραμμή σε μια τόσο κρίσιμη υπόθεση.
Η δικαστική διαμάχη για τα πνευματικά δικαιώματα
Η υπόθεση ξεκίνησε τον Οκτώβριο του 2023, όταν οι εκδότες μουσικής κατέθεσαν αγωγή υποστηρίζοντας ότι η Anthropic παραβίασε τα πνευματικά τους δικαιώματα χρησιμοποιώντας στίχους τραγουδιών χωρίς άδεια για την εκπαίδευση του Claude. Οι ενάγοντες υποστηρίζουν ότι η Anthropic «συγκέντρωσε και επεξεργάστηκε τεράστιες ποσότητες κειμένων» που περιείχαν προστατευμένο υλικό. Η υπόθεση μεταφέρθηκε στην Καλιφόρνια τον Ιούνιο του 2024, ενώ οι εκδότες κατέθεσαν ανανεωμένη αγωγή τον Μάιο του 2025, ενισχύοντας τις κατηγορίες τους. Η Anthropic επιχείρησε εκ νέου να απορριφθεί η υπόθεση, η οποία αποτελεί μέρος μιας ευρύτερης νομικής μάχης για το κατά πόσο οι εταιρείες τεχνητής νοημοσύνης μπορούν να χρησιμοποιούν προστατευμένο περιεχόμενο χωρίς άδεια.
Οι «ψευδαισθήσεις» της τεχνητής νοημοσύνης στα δικαστήρια
Το περιστατικό με το Claude έρχεται να προστεθεί σε μια σειρά παρόμοιων περιστατικών όπου «ψευδαισθήσεις» τεχνητής νοημοσύνης προκαλούν προβλήματα σε νομικά πλαίσια. Μόλις λίγες ημέρες πριν, δικαστής στην Καλιφόρνια επέπληξε δύο δικηγορικά γραφεία για την κατάθεση «ψευδών ερευνών που δημιουργήθηκαν από AI». Τον Ιανουάριο του 2025, Αυστραλός δικηγόρος βρέθηκε αντιμέτωπος με πειθαρχικό έλεγχο επειδή στηρίχθηκε στο ChatGPT για τη σύνταξη νομικών εγγράφων, με αποτέλεσμα λανθασμένες παραπομπές.
Η υπόθεση της Anthropic αναδεικνύει τους θεμελιώδεις κινδύνους από τη χρήση εργαλείων τεχνητής νοημοσύνης σε περιβάλλοντα υψηλής ευθύνης, όπως τα δικαστήρια. Παρά τις προηγμένες δυνατότητές τους, τα συστήματα αυτά μπορούν να παράγουν πειστικές αλλά εντελώς πλασματικές πληροφορίες, που ακόμη και έμπειροι επαγγελματίες μπορεί να μην εντοπίσουν. Το περιστατικό λειτουργεί ως προειδοποίηση για την ανάγκη αυστηρών διαδικασιών επαλήθευσης, καθώς η παρουσία AI στα δικαστήρια και στη νομική πρακτική γίνεται ολοένα και πιο συχνή.
- Αφιέρωμα: Ο Ολυμπιακός για το νταμπλ, ο ΟΦΗ για τo όνειρο – 81ος τελικός Κυπέλλου Ελλάδας απόψε στο ΟΑΚΑ
- AI και Δικαιοσύνη: Η Anthropic ζητάει συγγνώμη για πλαστή παραπομπή του Claude σε δικαστική υπόθεση
- ΗΠΑ: Η υποβάθμιση του αξιόχρεου από τον οίκο αξιολόγησης Moody’s εξόργισε τον Λευκό Οίκο
- Megan Mc Ardle / Η «ψευτοεπανάσταση» της ΑΙ
- «Κιτρίνισε» η Αθήνα από την αφρικανική σκόνη