Η Google αποφάσισε να συνεργαστεί με τον αμερικανικό Πεντάγωνο για την ανάπτυξη προηγμένων τεχνολογιών που θα αύξαναν δραματικά την νοημοσύνη των ιπτάμενων αυτόνομων οχημάτων τα οποία χρησιμοποιεί ο αμερικανικός στρατός, των διαφόρων ειδών drones δηλαδή.
Η Λόρα Νόλαν, μια εκ των κορυφαίων μηχανικών της Google, παραιτήθηκε όταν ο γίγαντας των ιντερνετικών υπηρεσιών της ζήτησε να συμμετάσχει σε αυτό το πρόγραμμα. Η Νόλαν κατήγγειλε τόσο το συγκεκριμένο πρόγραμμα όσο και γενικότερα τη δημιουργία μιας νέας γενιάς αυτόνομων οπλικών συστημάτων τα οποία ή ίδια χαρακτηρίζει «ρομπότ δολοφόνους». Υποστηρίζει μάλιστα ότι πρέπει να υπάρξει απαγόρευση στην κατασκευή και πολύ περισσότερο στην χρήση αυτόνομων οπλικών συστημάτων τα οποία δεν θα ελέγχουν έστω και από μακριά άνθρωποι αλλά θα δρουν και θα παίρνουν αποφάσεις μόνα τους.
Με απλά λόγια η Νόλαν φοβάται ότι έχουμε μπει σε μια πορεία που θα οδηγήσει στο να γίνουν πραγματικότητα τα εφιαλτικά σενάρια ταινιών επιστημονικής φαντασίας όπως το «Παιχνίδια Πολέμου» και ο «Εξολοθρευτής» όπου συστήματα και ρομπότ τεχνητής νοημοσύνης αναλαμβάνουν μόνα τους δράση και προκαλούν πολεμικές συρράξεις.
H Νόλαν μετέχει πλέον στην οργάνωση «Εκστρατεία Κατά των Ρομπότ Δολοφόνων» και όπως αναφέρει σε δημοσίευμα της η εφημερίδα Guardian συναντήθηκε και ενημέρωσε διπλωμάτες του ΟΗΕ στην Νέα Υόρκη και στην Γενεύη για τους κινδύνους που κρύβει ή ύπαρξη των αυτόνομων οπλικών συστημάτων. «Η πιθανότητα να συμβεί κάτι καταστροφικό σχετίζεται με τον αριθμό των αυτόνομων οπλικών συστημάτων που θα συνυπάρχουν σε μια περιοχή την ίδια στιγμή. Αν υπάρχουν εκατοντάδες ή και χιλιάδες τέτοια οπλικά συστήματα οι πιθανότητες να συμβούν αχρείαστες επιθέσεις, ακόμη και ακρότητες με αχρείαστες μαζικές δολοφονίες είναι μεγάλες. Μπορεί να συμβούν κατά λάθος πολύ σοβαρά περιστατικά επειδή αυτά τα συστήματα θα αρχίσουν να συμπεριφέρονται με μη αναμενόμενους τρόπους. Για αυτό κάθε προηγμένο τεχνολογικά οπλικό σύστημα πρέπει να βρίσκεται υπό ανθρώπινο έλεγχο αλλιώς θα πρέπει να απαγορευτούν επειδή θα είναι πολύ απρόβλεπτα και άρα επικίνδυνα», υποστηρίζει η Νόλαν.
Σύμφωνα με την Νόλαν ένα drone που εντοπίζει οπλισμένους άνδρες δεν θα μπορεί να αντιληφθεί αν πρόκειται για στρατιώτες ή για κυνηγούς ή για οτιδήποτε άλλο, θα τους δει ως πιθανή «απειλή» και θα τους επιτεθεί. «Οσο και να εκπαιδεύεις ένα λογισμικό δεν μπορείς ποτέ να του δώσεις την εμπειρία και την δυνατότητα να διακρίνει καταστάσεις με τον ίδιο τρόπο που το κάνει ο άνθρωπος. Πώς θα καταλάβει ένα ρομπότ αν κάποιο άτομο 18 ετών με ένα όπλο στο χέρι απλά κυνηγά λαγούς ή αν είναι αντάρτης;»
«Το άκρως ανησυχητικό με αυτά τα οπλικά συστήματα είναι ότι ο μόνος τρόπος να δοκιμαστούν είναι σε πραγματικές συνθήκες, να σταλούν δηλαδή σε πολεμικά μέτωπα ή σε στρατιωτικές επιχειρήσεις. Αν θέλεις να δεις και να τεστάρεις τις αποφάσεις που παίρνει ένα τέτοιο οπλικό σύστημα αυτό πρέπει να γίνει σε πραγματικό χρόνο. Ισως αυτό να συμβαίνει τώρα στην Συρία. Ποιος ξέρει; Η Ρωσία άλλωστε είναι κάθετα αντίθετη σε οποιαδήποτε συζήτηση για τον έλεγχο και πολύ περισσότερο για την απαγόρευση των αυτόνομων οπλικών συστημάτων», υπενθυμίζει η Νόλαν.
Οι πιθανές απειλές
Ορισμένα από τα αυτόνομα οπλικά συστήματα που αναπτύσσονται από διάφορες χώρες
- Τα AN-2 Anaconda και Sea Hunter είναι αυτόνομα πολεμικά σκάφη που λειτουργούν με τεχνητή νοημοσύνη και μπορούν ανάμεσα στα άλλα να ελέγχουν μια περιοχή για μεγάλο χρονικό διάστημα (2-3 μήνες) χωρίς να εμπλέκεται καθόλου ο ανθρώπινος παράγοντας.
- H Ρωσία κατασκευάζει μια ρομποτική εκδοχή του πολύ εντυπωσιακού τανκ T-14 Armata το οποίο θα μπορεί να λειτουργεί και να ρίχνει πυρά χωρίς να υπάρχει μέσα πλήρωμα ή να παίρνει εντολές από μακριά.