Στο άμεσο μέλλον πιθανώς να προκαλέσει και άλλους κινδύνους – οι οποίοι συζητούνται αυτόν τον καιρό από μεγιστάνες της τεχνολογίας και διεθνείς ηγέτες. Προς το παρόν, όμως, η Τεχνητή Νοημοσύνη έχει πυροδοτήσει μια άνευ προηγουμένου έκρηξη πλαστών πορνογραφικών εικόνων και βίντεο.
Η έκρηξη αυτή παρατηρείται λόγω της αύξησης φθηνών και εύχρηστων εργαλείων ΤΝ που μπορούν να «ξεγυμνώσουν» ανθρώπους σε φωτογραφίες –αναλύοντας πώς θα μπορούσαν να είναι τα σώματά τους και τοποθετώντας τα σε εικόνες– ή να αντικαταστήσουν ένα πρόσωπο σε πορνογραφικό βίντεο χωρίς κανείς να καταλάβει τη διαφορά.
Στους 10 κορυφαίους ιστοτόπους που φιλοξενούν φωτογραφίες πορνό δημιουργημένες από ΤΝ, τα πλαστά γυμνά έχουν αυξηθεί κατά περισσότερο από 290% από το 2018, σύμφωνα με δηλώσεις της Ζενεβιέβ Ο, αναλύτριας του κλάδου, σε ρεπορτάζ της Washington Post.
Οι συγκεκριμένοι ιστότοποι παρουσιάζουν διασημότητες και πολιτικές προσωπικότητες, όπως η Δημοκρατική βουλευτής της Νέας Υόρκης Αλεξάντρια Οκάσιο-Κορτέζ, μαζί με συνηθισμένα έφηβα κορίτσια, των οποίων οι φωτογραφίες έχουν καταληφθεί από κακόβουλους χάκερ ώστε να υποκινήσουν την ντροπή, να εκβιάσουν για χρήματα ή να βιώσουν τις ιδιωτικές φαντασιώσεις τους.
Τα θύματα έχουν ελάχιστες επιλογές. Δεν υπάρχει αμερικανικός ομοσπονδιακός νόμος που να διέπει τα deepfake πορνό, και μόνο λίγες Πολιτείες έχουν θεσπίσει νομικούς κανόνες. Το εκτελεστικό διάταγμα του προέδρου Τζο Μπάιντεν για την ΤΝ, που εκδόθηκε την περασμένη Δευτέρα, συνιστά αλλά δεν απαιτεί από τις εταιρείες να επισημαίνουν φωτογραφίες, βίντεο και ήχο που δημιουργούνται από την ΤΝ, ώστε να υποδεικνύονται δημιουργίες από υπολογιστή.
Εν τω μεταξύ, νομικοί μελετητές προειδοποιούν ότι οι ψεύτικες εικόνες με ΤΝ ενδέχεται να μην εμπίπτουν στην προστασία των πνευματικών δικαιωμάτων σχετικά με τις προσωπικές ομοιότητες, επειδή αντλούνται από σύνολα δεδομένων που εμπεριέχουν εκατομμύρια φωτογραφίες.
Η εμφάνιση των εικόνων ΤΝ ενέχει ιδιαίτερο κίνδυνο για γυναίκες και έφηβες, πολλές από τις οποίες δεν είναι προετοιμασμένες για τέτοιας μορφής έκθεση στη δημόσια σφαίρα. Μια μελέτη του 2019 από τη Sensity AI, εταιρεία που παρακολουθεί τα deepfakes, διαπίστωσε ότι το 96% των deepfake εικόνων είναι πορνογραφικές και το 99% αυτών στοχοποιούν γυναίκες.
Χαρακτηριστική είναι η περίπτωση μιας 14χρονης μαθήτριας στη Νότια Ισπανία, που ανακάλυψε σοκαρισμένη μια γυμνή φωτογραφία της, την οποία δεν είχε τραβήξει ποτέ. Μια ομάδα αγοριών της περιοχής είχε αρπάξει ντυμένες φωτογραφίες από τα προφίλ των μέσων κοινωνικής δικτύωσης αρκετών κοριτσιών της πόλης τους και χρησιμοποίησε μια εφαρμογή «απογύμνωσης» για να δημιουργήσει τις γυμνές φωτογραφίες, σύμφωνα με την αστυνομία.
Η συγκεκριμένη εφαρμογή είναι ένα από τα πολλά εργαλεία ΤΝ που χρησιμοποιούν πραγματικές εικόνες για τη δημιουργία γυμνών φωτογραφιών, οι οποίες έχουν κατακλύσει το διαδίκτυο τους τελευταίους μήνες. Αναλύοντας εκατομμύρια εικόνες, τα λογισμικά ΤΝ μπορούν να προβλέψουν πώς ένα σώμα θα δείχνει γυμνό, και να «επικολλήσουν» ομαλά ένα πρόσωπο σε πορνογραφικό βίντεο.
Αν και πολλές συσκευές δημιουργίας εικόνων ΤΝ εμποδίζουν τους χρήστες να παράγουν πορνογραφικό υλικό, λογισμικά ανοιχτού κώδικα, όπως το Stable Diffusion, δημοσιοποιούν τον κώδικά τους, επιτρέποντας σε ερασιτέχνες προγραμματιστές να προσαρμόσουν την τεχνολογία – συχνά για κακόβουλους σκοπούς.
Μόλις αυτές οι εφαρμογές γίνουν δημόσιες, χρησιμοποιούν προγράμματα παραπομπής που ενθαρρύνουν τους χρήστες να μοιράζονται τις φωτογραφίες που δημιουργούνται από ΤΝ στα μέσα κοινωνικής δικτύωσης, με αντάλλαγμα μετρητά. Στους 10 κορυφαίους ιστοτόπους που φιλοξενούν ψεύτικες εικόνες πορνό έχουν αναρτηθεί φέτος περισσότερες από 415.000 φωτογραφίες, οι οποίες συγκέντρωσαν περίπου 90 εκατ. προβολές.
Τα πορνογραφικά βίντεο που δημιουργούνται από ΤΝ παρουσιάζουν έκρηξη στο διαδίκτυο. Περισσότερα από 143.000 βίντεο προστέθηκαν το 2023 — αριθμός που ξεπερνά όλα τα νέα βίντεο από το 2016 έως το 2022. Τα πλαστά βίντεο έχουν λάβει περισσότερες από 4,2 δισ. προβολές.
Το αμερικανικό FBI προειδοποίησε τον περασμένο Ιούνιο για αύξηση των σεξουαλικών εκβιασμών από απατεώνες που απαιτούσαν πληρωμή ή φωτογραφίες, με αντάλλαγμα τη μη διανομή σεξουαλικών εικόνων. Αν και δεν είναι σαφές το ποσοστό αυτών των εικόνων που έχουν δημιουργηθεί μέσω ΤΝ, η πρακτική επεκτείνεται. Από τον περασμένο Σεπτέμβριο, πάνω από 26.800 άνθρωποι έχουν πέσει θύματα «εκβιασμού», σημειώνοντας αύξηση 149% από το 2019, αναφέρει το FBI.
Τον περασμένο Μάιο, ένα δημοφιλές φόρουμ πορνογραφίας άνοιξε ένα thread με τίτλο «Μπορώ να προσποιηθώ την κοπέλα που γουστάρεις». Η ιδέα ήταν απλή: «Στείλτε μου όποια θέλετε να δείτε γυμνή και μπορώ να σας την κατασκευάσω» χρησιμοποιώντας προγράμματα ΤΝ, έγραψε ο συντονιστής. Μέσα σε διάστημα λίγων ωρών ο ιστότοπος πλημμύρισε από φωτογραφίες γυναικών που ήταν συνάδελφοι, αφεντικά, γειτόνισσες ή συμμαθήτριες των χρηστών.
Οι διασημότητες αποτελούν δημοφιλείς στόχους των δημιουργών πλαστού πορνογραφικού υλικού, οι οποίοι επωφελούνται από το ενδιαφέρον για γυμνές φωτογραφίες διάσημων ηθοποιών. Ωστόσο, οι ιστότοποι με διασημότητες ενδέχεται να οδηγήσουν σε έξαρση άλλων τύπων γυμνού. Οι ιστότοποι συχνά περιλαμβάνουν «ερασιτεχνικό» περιεχόμενο από άγνωστα άτομα, και φιλοξενούν διαφημίσεις που εμπορεύονται εργαλεία δημιουργίας πορνό μέσω ΤΝ.
Η Google έχει εφαρμόσει πολιτικές για την αποτροπή εμφάνισης μη συναινετικών σεξουαλικών εικόνων στα αποτελέσματα αναζήτησής της, αλλά η προστασία της απέναντι στις deepfake εικόνες δεν είναι τόσο ισχυρή. Το Deepfake πορνό και τα εργαλεία του εμφανίζονται ευδιάκριτα στις μηχανές αναζήτησης της εταιρείας, ακόμη και χωρίς την αναζήτηση συγκεκριμένου περιεχομένου που δημιουργείται από ΤΝ.
Ελλείψει ομοσπονδιακών νόμων, τουλάχιστον εννέα αμερικανικές Πολιτείες –συμπεριλαμβανομένων της Καλιφόρνιας, του Τέξας και της Βιρτζίνια– έχουν εγκρίνει νομοθεσίες κατά των deepfakes. Αλλά αυτοί οι νόμοι ποικίλλουν ως προς το εύρος τους. Σε ορισμένες Πολιτείες τα θύματα μπορούν να ασκήσουν ποινικές διώξεις, ενώ σε άλλες επιτρέπονται μόνον αστικές αγωγές – αν και η διαδικασία επιβεβαίωσης του μηνυόμενου μπορεί να αποδειχθεί δύσκολη.
Ακολουθήστε το Protagon στο Google News