Η Επίτροπος Ανθρωπίνων Δικαιωμάτων της Αυστραλίας, Λορέιν Φίνλεϊ, προειδοποιεί ότι η τεχνητή νοημοσύνη (ΤΝ) μπορεί να εδραιώσει κοινωνικές διακρίσεις, όπως ο ρατσισμός και ο σεξισμός, εάν δεν υπάρξει έγκαιρη και ουσιαστική ρύθμιση. Την ίδια ώρα, στο εσωτερικό του κυβερνώντος Εργατικού Κόμματος οξύνονται οι διαφωνίες για τον τρόπο με τον οποίο η χώρα θα πρέπει να αντιμετωπίσει τη νέα τεχνολογία.
Αντιπαράθεση στο Εργατικό Κόμμα
Η συζήτηση άναψε μετά την παρέμβαση της γερουσιάστριας του Εργατικού Κόμματος, Μισέλ Ανάντα-Ράτζα. Η πρώην γιατρός και ερευνήτρια στον τομέα της τεχνητής νοημοσύνης πρότεινε να «απελευθερωθούν» όλα τα διαθέσιμα δεδομένα προς τις τεχνολογικές εταιρείες, ώστε τα μοντέλα να εκπαιδεύονται με πιο αντιπροσωπευτικό τρόπο. Αντίθετη στον ειδικό νόμο για την ΤΝ, η ίδια υποστηρίζει ότι η καλύτερη λύση είναι περισσότερα αυστραλιανά δεδομένα, σε συνδυασμό με δίκαιη αμοιβή των δημιουργών περιεχομένου.
Η τοποθέτησή της προκάλεσε εσωκομματικές αντιδράσεις, καθώς η κυβέρνηση έχει ήδη θέσει ως προτεραιότητα την προστασία της πνευματικής ιδιοκτησίας, ενόψει και της οικονομικής συνόδου κορυφής που θα πραγματοποιηθεί την επόμενη εβδομάδα.
Οι κίνδυνοι της μεροληψίας
Η Φίνλεϊ προειδοποιεί ότι η αδιαφάνεια γύρω από τα δεδομένα εκπαίδευσης καθιστά αδύνατη την έγκαιρη ανίχνευση προκαταλήψεων.
«Η αλγοριθμική μεροληψία ενσωματώνει τις αδικίες στα εργαλεία που χρησιμοποιούμε. Όταν αυτή συνδυάζεται με την τάση των ανθρώπων να εμπιστεύονται υπερβολικά τις αποφάσεις των μηχανών, το αποτέλεσμα είναι διακρίσεις που μπορεί να γίνουν αόρατες», τονίζει.
Η Επιτροπή Ανθρωπίνων Δικαιωμάτων ζητά νέο νομοθετικό πλαίσιο για την τεχνητή νοημοσύνη, με δοκιμές μεροληψίας, ανθρώπινη εποπτεία και αυστηρούς ελέγχους.
Πνευματικά δικαιώματα και «κλοπή» περιεχομένου
Πέρα από τις κοινωνικές διακρίσεις, σοβαρές ανησυχίες εκφράζουν τα συνδικάτα και οι επαγγελματικοί φορείς για τα πνευματικά δικαιώματα. Ομάδες από τον χώρο των μέσων ενημέρωσης και των τεχνών προειδοποιούν για «ανεξέλεγκτη κλοπή» έργων τους, εάν οι τεχνολογικοί κολοσσοί αποκτήσουν ανεξέλεγκτη πρόσβαση στο περιεχόμενό τους για εκπαίδευση μοντέλων.
Η γερουσιάστρια Ανάντα-Ράτζα αντιτείνει ότι χωρίς απελευθέρωση των εγχώριων δεδομένων, η Αυστραλία θα εξαρτάται μόνιμα από αμερικανικές ή ευρωπαϊκές πλατφόρμες, χωρίς έλεγχο και χωρίς αντιπροσωπευτικότητα.
Διεθνείς και εγχώριες ανησυχίες
Μελέτες έχουν ήδη εντοπίσει παραδείγματα αλγοριθμικής μεροληψίας, όπως στην ιατρική διάγνωση ή στη διαδικασία προσλήψεων. Υποψήφιοι με ξένη προφορά ή άτομα με αναπηρία κινδυνεύουν να αποκλειστούν από συστήματα που βασίζονται σε αδιαφανείς αλγορίθμους.
Η ακαδημαϊκός Τζούντιθ Μπίσοπ υπογραμμίζει ότι η χρήση διεθνών μοντέλων δεν ανταποκρίνεται πάντα στις ανάγκες των Αυστραλών. «Πρέπει να διασφαλίσουμε ότι τα συστήματα που φτιάχνονται σε άλλα κοινωνικά πλαίσια μπορούν πράγματι να εφαρμοστούν στον αυστραλιανό πληθυσμό», λέει.
Παράλληλα, η Επίτροπος για την Ασφάλεια στο Διαδίκτυο, Τζούλι Ίνμαν Γκραντ, προειδοποιεί ότι η αδιαφάνεια στη γενετική τεχνητή νοημοσύνη μπορεί να ενισχύσει επικίνδυνα στερεότυπα, με τη δύναμη να συγκεντρώνεται σε λίγες εταιρείες.
Ανάμεσα στην παραγωγικότητα και την ισότητα
Η συζήτηση για την τεχνητή νοημοσύνη στην Αυστραλία αποκτά έντονη πολιτική διάσταση: από τη μία πλευρά η προοπτική ενίσχυσης της παραγωγικότητας, και από την άλλη οι φόβοι ότι οι ανισότητες θα παγιωθούν.
Όπως καταλήγει η Επίτροπος Φίνλεϊ: «Η ύπαρξη ποικιλόμορφων δεδομένων είναι απαραίτητη, αλλά δεν αρκεί. Χρειάζονται κανόνες που θα εξασφαλίζουν δίκαιη εφαρμογή της τεχνολογίας, αναγνωρίζοντας τις συνεισφορές όλων».
Πηγή: Guardian