1183
. | CreativeProtagon

Πόσο απειλεί τη Δημοκρατία η Τεχνητή Νοημοσύνη;

Protagon Team Protagon Team 24 Φεβρουαρίου 2024, 19:00
.
|CreativeProtagon

Πόσο απειλεί τη Δημοκρατία η Τεχνητή Νοημοσύνη;

Protagon Team Protagon Team 24 Φεβρουαρίου 2024, 19:00

Η Γκέιλ Χάντλι, μια 73χρονη κάτοικος του Νιού Χάμσαϊρ, σχεδίαζε να ψηφίσει τον Τζο Μπάιντεν στις επερχόμενες εκλογές, μέχρι που εκείνος… την πήρε τηλέφωνο και της είπε να μην πάει να ψηφίσει. Η Χάντλι συνειδητοποίησε γρήγορα ότι η κλήση ήταν ψεύτικη, αλλά η φωνή ήταν αυθεντική και υπέθεσε ότι τα λόγια του Μπάιντεν είχαν μονταριστεί. Χιλιάδες άνθρωποι στις ΗΠΑ είχαν λάβει παρόμοιες κλήσεις, επισημαίνει ο Guardian που κατέγραψε την παραπάνω ιστορία. Μέσα σε λίγες εβδομάδες, οι ΗΠΑ είχαν θέσει εκτός νόμου τις ρομποτικές κλήσεις που χρησιμοποιούν φωνές που δημιουργούνται από την Τεχνητή Νοημοσύνη (ΤΝ).

Η ηχογράφηση του Μπάιντεν ήταν η πρώτη μεγάλη δοκιμασία για κυβερνήσεις, εταιρείες τεχνολογίας και κοινωνικές, που βρέθηκαν εγκλωβισμένοι σε έντονες συζητήσεις σχετικά με τον καλύτερο τρόπο αστυνόμευσης ενός οικοσυστήματος πληροφοριών στο οποίο ο καθένας μπορεί να δημιουργήσει φωτορεαλιστικές εικόνες υποψηφίων ή να αναπαράγει τις φωνές τους με τρομακτική ακρίβεια. Τα πλαστά προϊόντα ΤΝ έχουν ήδη χρησιμοποιηθεί σε εκλογές στη Σλοβακία, στην Ταϊβάν και στην Ινδονησία, και προωθούνται σε ένα περιβάλλον στο οποίο η εμπιστοσύνη στους πολιτικούς, τους θεσμούς και τα ΜΜΕ είναι ήδη χαμηλή.

Οταν ο πρόεδρος είδε το «Mission Impossible»

Για τον Μπάιντεν, οι ανησυχίες για τις πιθανές επικίνδυνες χρήσεις της Τεχνητής Νοημοσύνης ενισχύθηκαν αφότου παρακολούθησε την τελευταία ταινία Mission Impossible. Κατά τη διάρκεια ενός Σαββατοκύριακου στο Καμπ Ντέιβιντ, ο πρόεδρος παρακολούθησε τον Τομ Κρουζ να αντιμετωπίζει έναν απατεώνα της ΤΝ. Ο αναπληρωτής προσωπάρχης του Λευκού Οίκου, Μπρους Ριντ, είπε ότι αν ο Μπάιντεν δεν είχε ήδη ανησυχήσει για το τι θα μπορούσε να πάει στραβά με την Τεχνητή Νοημοσύνη «είδε πολλά για να ανησυχήσει», στην ταινία.

Εκτοτε, ο Μπάιντεν υπέγραψε εκτελεστικό διάταγμα που απαιτεί από τους κορυφαίους προγραμματιστές ΤΝ να μοιράζονται τα αποτελέσματα των δοκιμών ασφαλείας και άλλες πληροφορίες με την κυβέρνηση. Οι ΗΠΑ δεν είναι οι μόνες που αναλαμβάνουν δράση: η ΕΕ είναι κοντά στη θέσπιση ενός από τους πιο ολοκληρωμένους νόμους για τη ρύθμιση της νέας τεχνολογίας, ο οποίος ωστόσο δεν θα τεθεί σε ισχύ μέχρι το 2026. Η αντίστοιχη προτεινόμενη ρύθμιση στο Ηνωμένο Βασίλειο έχει επικριθεί επειδή κινείται πολύ αργά.

Ωστόσο, οι ΗΠΑ είναι η χώρα στην οποία εδρεύουν πολλές από τις πιο σημαντικές εταιρείες τεχνολογίας, επομένως οι ενέργειες του Λευκού Οίκου θα έχουν βαθιά επίδραση στον τρόπο με τον οποίο αναπτύσσονται τα πιο ενοχλητικά προϊόντα ΤΝ.

Επαρκούν τα μέτρα που παίρνουμε;

Η Κέιτι Χάρμπαθ, η οποία βοήθησε στην ανάπτυξη πολιτικής στο Facebook επί 10 χρόνια και τώρα συνεργάζεται σε θέματα ασφάλειας με εταιρείες τεχνολογίας, λέει στον Guardian ότι οι ενέργειες της κυβέρνησης των ΗΠΑ δεν αρκούν. Οι ανησυχίες αυξάνονται, ιδιαίτερα καθώς η Κίνα προχωρά στην ανάπτυξη της δικής της βιομηχανίας ΤΝ, λέει.

Η Χάρμπαθ βρέθηκε στο επίκεντρο της ανάπτυξης του συστήματος σύστημα πληροφοριών, από τη «χρυσή εποχή» της ανάπτυξης των μέσων κοινωνικής δικτύωσης, μέχρι τον απολογισμού που ήρθε μετά τις ψηφοφορίες για το Brexit και τον Τραμπ και τις επακόλουθες προσπάθειες να παραμείνει το σύστημα μπροστά από την παραπληροφόρηση. Για το 2024 λέει απλά: «Ας πανικοβληθούμε υπεύθυνα».

Προσθέτει ότι βραχυπρόθεσμα, η ρύθμιση και η αστυνόμευση του περιεχομένου που δημιουργείται από την ΤΝ θα βαρύνουν τις ίδιες τις εταιρείες που αναπτύσσουν τα εργαλεία. «Απλώς δεν ξέρουμε αν οι εταιρείες είναι έτοιμες», καταλήγει. «Υπάρχουν νεότερες πλατφόρμες για τις οποίες αυτή η προεκλογική περίοδος είναι η πρώτη τους πραγματική δοκιμασία».

Την περασμένη εβδομάδα, μεγάλες εταιρείες τεχνολογίας έκαναν ένα μεγάλο βήμα προς τον συντονισμό των προσπαθειών τους με την υπογραφή συμφωνίας για την οικειοθελή υιοθέτηση «εύλογων προφυλάξεων» ώστε να αποτραπεί η χρήση της ΤΝ στον επηρεασμό των δημοκρατικών εκλογών σε όλο τον κόσμο.

Μεταξύ των υπογραφόντων είναι ο δημιουργός του ChatGPT, OpenAI, καθώς και η Google, η Adobe και η Microsoft. Ολοι τους έχουν κυκλοφορήσει εργαλεία για τη δημιουργία περιεχομένου από Τεχνητή Νοημοσύνη. Πολλές εταιρείες έχουν επίσης τους δικούς τους κανόνες και απαγορεύουν τη χρήση των προϊόντων τους σε πολιτικές εκστρατείες. Η επιβολή αυτών των απαγορεύσεων είναι ένα άλλο ζήτημα.

Η Open AI, της οποίας το ισχυρό λογισμικό Dall-E έχει χρησιμοποιηθεί για τη δημιουργία φωτορεαλιστικών εικόνων, είπε ότι το εργαλείο θα απορρίψει αιτήματα που ζητούν δημιουργία εικόνων με πραγματικούς ανθρώπους, συμπεριλαμβανομένων των υποψηφίων.

Το Midjourney, του οποίου η δημιουργία εικόνων ΤΝ θεωρείται από πολλούς ως η πιο ακριβής, λέει ότι οι χρήστες δεν επιτρέπεται να χρησιμοποιούν το προϊόν για πολιτικές εκστρατείες «ή για να προσπαθήσουν να επηρεάσουν το αποτέλεσμα εκλογών».

Ο Διευθύνων Σύμβουλος του Midjourney, Ντέιβιντ Χολτς, είπε ότι η εταιρεία είναι κοντά στην απαγόρευση δημιουργίας πολιτικών εικόνων, συμπεριλαμβανομένων εκείνων των κορυφαίων προεδρικών υποψηφίων. Ορισμένες αλλαγές φαίνεται να έχουν ήδη τεθεί σε ισχύ. Οταν ο Guardian ζήτησε από το Midjourney να δημιουργήσει μια εικόνα του Τζο Μπάιντεν και του Ντόναλντ Τραμπ σε ρινγκ του μποξ, το αίτημα απορρίφθηκε και επισημάνθηκε ως αντίθετο με τα πρότυπα της εταιρείας.

Ωστόσο, όταν εισήχθη το ίδιο αίτημα, με πρωταγωνιστές τον Πρωθυπουργό του Ηνωμένου Βασιλείου Ρίσι Σούνακ και τον ηγέτη της αντιπολίτευσης Κιρ Στάρμερ, το λογισμικό δημιούργησε μια σειρά εικόνων χωρίς κανένα πρόβλημα.

Ο πραγματικός κίνδυνος: αυτά που έρχονται

Παρά την απαγόρευση της OpenAI να χρησιμοποιούνται τα εργαλεία της στην πολιτική εκστρατεία, το Reuters ανέφερε ότι τα προϊόντα χρησιμοποιήθηκαν ευρέως στις εκλογές αυτού του μήνα στην Ινδονησία, για να δημιουργήσουν καλλιτεχνικές εκστρατείες, να παρακολουθήσουν το συναίσθημα των μέσων κοινωνικής δικτύωσης, να δημιουργήσουν διαδραστικά chatbot και να στοχεύσουν ψηφοφόρους.

Παραμένει ανοιχτό, λοιπόν, το πώς οι νεότερες εταιρείες όπως η OpenAI μπορούν προληπτικά να επιβάλουν τις πολιτικές τους εκτός των ΗΠΑ.

Οι εθνικές εκλογές της Σλοβακίας πέρυσι βρήκαν αντιμέτωπους έναν φιλορώσο υποψήφιο και έναν άλλον που υποστήριξε τη διατήρηση ισχυρότερων δεσμών με την ΕΕ. Με την υποστήριξη των πολεμικών προσπαθειών της Ουκρανίας ως διακύβευμα, αξιωματούχοι της ΕΕ επεσήμαναν ότι οι εκλογές θα μπορούσαν δυνητικά να επηρεαστούν από τη Ρωσία με «όπλα μαζικής χειραγώγησης πολλών εκατομμυρίων ευρώ».

Καθώς πλησίαζαν οι εκλογές και ξεκίνησε ένα μπλακ άουτ στα εθνικά μέσα ενημέρωσης, μια ηχογράφηση του υποψηφίου υπέρ της ΕΕ, Μίχαλ Σιμέτσκα, δημοσιεύτηκε στο Facebook.

Στην ηχογράφηση, ο Σιμέτσκα ακουγόταν να συζητά σχέδια νοθείας των εκλογών αγοράζοντας ψήφους από περιθωριοποιημένες κοινότητες. Η ηχογράφηση ήταν πλαστή και το πρακτορείο ειδήσεων AFP είπε ότι έδειχνε σημάδια χειραγώγησης με χρήση Τεχνητής Νοημοσύνης.

Ωστόσο, με τα μέσα ενημέρωσης και τους πολιτικούς να παραμείνουν σιωπηλοί σύμφωνα με τους εκλογικούς νόμους, η διάψευση της ηχογράφησης ήταν σχεδόν αδύνατη.

Η πλαστή ηχογράφηση φαίνεται ότι πέρασε από ένα κενό στον τρόπο με τον οποίο η ιδιοκτήτρια του Facebook, Meta, ελέγχει το υλικό που δημιουργεί η ΤΝ στις πλατφόρμες της. Σύμφωνα με τα πρότυπά της, απαγορεύεται η δημοσίευση περιεχομένου που έχει υποστεί χειραγώγηση με τρόπους που «δεν είναι εμφανείς σε έναν μέσο άνθρωπο» και στον οποίο ένα άτομο έχει υποβληθεί σε επεξεργασία ώστε να λέει «λέξεις που δεν είπε». Αλλά αυτό ισχύει μόνο για βίντεο.

Ο φιλορώσος υποψήφιος Ρόμπερτ Φίκο κέρδισε τις εκλογές και έγινε πρωθυπουργός.

Παρά τους κινδύνους, υπάρχουν ενδείξεις ότι οι ψηφοφόροι είναι πιο προετοιμασμένοι για αυτό που έρχεται από όσο νομίζουν οι αρχές. «Οι ψηφοφόροι είναι πολύ πιο έξυπνοι από ό,τι τους θεωρούμε», λέει η Χάρμπαθ. «Καταλαβαίνουν τι συμβαίνει στο περιβάλλον πληροφοριών».

Για πολλούς ειδικούς, ο κύριος τομέας ανησυχίας δεν είναι η τεχνολογία με την οποία ήδη παλεύουμε, αλλά οι καινοτομίες που έρχονται.

Ακαδημαϊκοί, γράφοντας στο Technology Review του MIT, είπαν ότι, όταν πρόκειται για το πώς η Τεχνητή Νοημοσύνη μπορεί να απειλήσει τη δημοκρατία μας, η δημόσια συζήτηση «στερείται φαντασίας».

Ο πραγματικός κίνδυνος, λένε, δεν είναι αυτό που ήδη φοβόμαστε, αλλά αυτό που δεν μπορούμε να φανταστούμε ακόμη.

Ακολουθήστε το Protagon στο Google News

Διαβάστε ακόμη...

Διαβάστε ακόμη...