Οταν ο Τζέιμς Κάμερον έγραφε το σενάριο για την πρώτη ταινία της σειράς επιστημονικής φαντασίας «Εξολοθρευτής» δεν θα μπορούσε να φανταστεί ότι το θέμα της –η εξόντωση της ανθρωπότητας από μηχανές Τεχνητής Νοημοσύνης (ΤΝ)– θα γινόταν παράδειγμα προς αποφυγή σχεδόν 30 χρόνια αργότερα. Και όμως, μερικές φορές η ζωή είναι αναγκασμένη να μιμηθεί την τέχνη.
Οταν το ρομπότ με τα χαρακτηριστικά του Αρνολντ Σβαρτσενέγκερ μεταφέρεται πίσω στο 1985 για να σκοτώσει τη μητέρα του ηγέτη της ανθρώπινης αντίστασης απέναντι στην τεχνολογία, η Σάρα Κόνορ αντιλαμβάνεται τον μελλοντικό κίνδυνο για την ανθρωπότητα και επιχειρεί μάταια να αποτρέψει τη δημιουργία του προγράμματος Skynet, που θα φέρει την «επανάσταση των μηχανών».
Στην περίπτωση του ανοιχτού προγράμματος ΤΝ ChatGPT η προειδοποίηση έρχεται έγκαιρα από τους ίδιους τους δημιουργούς του. Οι ηγέτες του ζητούν κανονιστικές ρυθμίσεις για τα «υπερευφυή» λειτουργικά, υποστηρίζοντας ότι χρειάζεται ένα ισοδύναμο του Διεθνούς Οργανισμού Ατομικής Ενέργειας για την προστασία της ανθρωπότητας από τον κίνδυνο να δημιουργηθεί, κατά λάθος, κάτι με τη δύναμη να την αφανίσει.
Σε ένα σύντομο σημείωμα που δημοσιεύθηκε στον ιστότοπο της εταιρείας, οι συνιδρυτές της, Γκρεγκ Μπρόκμαν και Ιλια Σάτσκεβερ, και ο διευθύνων σύμβουλος Σαμ Ολτμαν ζητούν μια διεθνή ρυθμιστική αρχή που να αρχίσει να εργάζεται πάνω στην «επιθεώρηση συστημάτων, απαιτήσεων ελέγχων και δοκιμών συμμόρφωσης με τα πρότυπα ασφαλείας», ώστε «να θέσει περιορισμούς στους βαθμούς ανάπτυξης και να ενισχύσει τα επίπεδα ασφαλείας», προκειμένου να μειωθεί ο «υπαρξιακός κίνδυνος» που θα μπορούσαν να θέτουν τέτοια συστήματα.
«Είναι πιθανό, μέσα στα επόμενα 10 χρόνια, τα συστήματα ΤΝ να ξεπεράσουν το επίπεδο δεξιοτήτων των ειδικών στους περισσότερους τομείς και να ασκούν παραγωγική δραστηριότητα αντίστοιχη μιας από τις μεγαλύτερες εταιρείες τού σήμερα» γράφουν, σύμφωνα με ρεπορτάζ του Guardian.
«Οσον αφορά τόσο τα πιθανά θετικά όσο και τα αρνητικά, η υπερευφυΐα θα είναι πιο ισχυρή από άλλες τεχνολογίες τις οποίες χρειάστηκε να αντιμετωπίσει η ανθρωπότητα στο παρελθόν. Μπορούμε να έχουμε ένα δραματικά πιο ευημερούν μέλλον, αλλά πρέπει να διαχειριστούμε τον κίνδυνο για να φτάσουμε εκεί. Δεδομένης της πιθανότητας υπαρξιακού κινδύνου, δεν μπορούμε απλώς να αντιδρούμε στις εξελίξεις» συμπληρώνουν.
Βραχυπρόθεσμα, η τριάδα ζητά «κάποιον βαθμό συντονισμού» μεταξύ των εταιρειών που εργάζονται στην έρευνα αιχμής της ΤΝ, προκειμένου να διασφαλιστεί ότι η ανάπτυξη ολοένα και πιο ισχυρών μοντέλων ενσωματώνεται ομαλά στην κοινωνία, δίνοντας προτεραιότητα στην ασφάλεια.
Αυτός ο συντονισμός θα μπορούσε να γίνει μέσω ενός κυβερνητικού προγράμματος, για παράδειγμα, ή μέσω μιας συλλογικής σύμβασης για τον περιορισμό της ανάπτυξης της ικανότητας ΤΝ. Οι ερευνητές έχουν προειδοποιήσει για τους πιθανούς κινδύνους της υπερευφυΐας εδώ και δεκαετίες, αλλά καθώς η ανάπτυξη της ΤΝ επιταχύνεται, αυτοί οι κίνδυνοι γίνονται ολοένα και πιο συγκεκριμένοι.
Το Κέντρο για την Ασφάλεια της Τεχνητής Νοημοσύνης (CAIS), που εδρεύει στις ΗΠΑ, το οποίο εργάζεται για τη «μείωση των κινδύνων κοινωνικής κλίμακας από την ΤΝ», περιγράφει οκτώ κατηγορίες «καταστροφικών» και «υπαρξιακών» κινδύνων που θα μπορούσε να προκαλέσει η ανάπτυξη της συγκεκριμένης τεχνολογίας.
Ενώ κάποιοι ανησυχούν για μια ισχυρή ΤΝ που καταστρέφει εντελώς την ανθρωπότητα –κατά λάθος ή επίτηδες–, το CAIS περιγράφει άλλες, πιο ολέθριες βλάβες. Ενας κόσμος όπου στα συστήματα ΤΝ παραδίδονται εθελοντικά ολοένα και περισσότερες εργασίες θα μπορούσε να οδηγήσει στην απώλεια της ικανότητας της ανθρωπότητας να αυτοκυβερνηθεί, με αποτέλεσμα να εξαρτάται πλήρως από τις μηχανές – κατάσταση που περιγράφεται ως «αδυναμία».
Και μια μικρή ομάδα ανθρώπων που ελέγχουν ισχυρά συστήματα θα μπορούσαν να «μετατρέψουν την ΤΝ σε μια συγκεντρωτική δύναμη», οδηγώντας σε ένα «κλείδωμα αξιών», ένα αιώνιο σύστημα καστών μεταξύ των κυβερνουμένων και των κυβερνώντων.
Οι πρωτοπόροι των ελεύθερων προγραμμάτων ΤΝ λένε ότι αυτοί οι κίνδυνοι σημαίνουν πως «οι άνθρωποι σε όλον τον κόσμο θα πρέπει να αποφασίζουν δημοκρατικά για τα όρια και τις προεπιλογές των συστημάτων ΤΝ», αλλά παραδέχονται ότι «δεν ξέρουμε ακόμη πώς να σχεδιάσουμε έναν τέτοιο μηχανισμό». Ωστόσο, λένε ότι η συνεχής ανάπτυξη ισχυρών συστημάτων αξίζει το ρίσκο.
«Πιστεύουμε ότι θα οδηγήσουν σε έναν πολύ καλύτερο κόσμο από αυτόν που μπορούμε να φανταστούμε σήμερα. Βλέπουμε ήδη πρώιμα παραδείγματα σε τομείς όπως η εκπαίδευση, η δημιουργική εργασία και η προσωπική παραγωγικότητα» γράφουν.
Παράλληλα, προειδοποιούν ότι θα μπορούσε να είναι επικίνδυνος ο τερματισμός της ανάπτυξής τους. «Καθώς τα πλεονεκτήματα είναι τεράστια, το κόστος κατασκευής τους μειώνεται κάθε χρόνο, ο αριθμός των παραγόντων που τα κατασκευάζουν αυξάνεται ραγδαία και είναι πλέον εγγενές μέρος της τεχνολογικής πορείας που βαδίζουμε, η διακοπή τους θα απαιτούσε κάτι σαν ένα παγκόσμιο καθεστώς επιτήρησης – ενώ ακόμη και αυτό δεν είναι εγγυημένο ότι θα λειτουργούσε. Πρέπει, λοιπόν, να τα κατασκευάσουμε σωστά» καταλήγουν.
Ακολουθήστε το Protagon στο Google News