Οι χειρότεροι εφιάλτες σχετικά με τις εικόνες σεξουαλικής κακοποίησης παιδιών που δημιουργούνται από Τεχνητή Νοημοσύνη γίνονται πραγματικότητα και απειλούν να κατακλύσουν το διαδίκτυο, προειδοποίησε το Internet Watch Foundation (IWF)
Αυτός ο παγκόσμιος οργανισμός ελέγχου και προστασίας των παιδιών από την online παιδική πορνογραφία, που εδρεύει στη Βρετανία, ανακοίνωσε ότι βρήκε περίπου 3.000 τέτοιου τύπου εικόνες δημιουργημένες μέσω ΤΝ, που παραβιάζουν τη σχετική νομοθεσία.
Το IWF αναφέρει ότι φωτογραφίες θυμάτων κακοποίησης στην πραγματική ζωή ενσωματώνονται σε μοντέλα ΤΝ, τα οποία στη συνέχεια παράγουν νέες απεικονίσεις τους.
Οπως σημειώνει σε δημοσίευμά της η βρετανική εφημερίδα Guardian, η τεχνολογία ΤΝ χρησιμοποιήθηκε επίσης για τη δημιουργία εικόνων διασημοτήτων που έχουν «απογηρανθεί», και στη συνέχεια απεικονίζονται ως παιδιά σε σενάρια σεξουαλικής κακοποίησης.
Αλλα παραδείγματα υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) περιλάμβαναν τη χρήση εργαλείων ΤΝ για να απεικονίζονται γυμνά παιδιά, φωτογραφίες των οποίων υπάρχουν στο Διαδίκτυο, αλλά εκεί είναι ντυμένα.
Το IWF λέει ότι είχε εδώ και καιρό εντοπίσει χρήση ΤΝ για παραγωγή παιδικής πορνογραφίας, αλλά πλέον διαπιστώνεται μια επιτάχυνση στη χρήση αυτής της τεχνολογίας για τον συγκεκριμένο σκοπό.
«Νωρίτερα φέτος προειδοποιήσαμε ότι οι εικόνες ΤΝ θα μπορούσαν σύντομα να γίνουν δυσδιάκριτες από τις πραγματικές εικόνες παιδιών που υποφέρουν από σεξουαλική κακοποίηση, και ότι θα μπορούσαμε να αρχίσουμε να βλέπουμε τέτοιες εικόνες να πολλαπλασιάζονται σε πολύ μεγαλύτερους αριθμούς. Τώρα έχουμε ξεπεράσει αυτό το σημείο. Είναι ανατριχιαστικό, βλέπουμε εγκληματίες να εκπαιδεύουν την ΤΝ τους πάνω σε φωτογραφίες πραγματικών θυμάτων κακοποίησης. Παιδιά που έχουν βιαστεί στο παρελθόν ενσωματώνονται τώρα σε νέα σενάρια, επειδή κάποιος κάπου θέλει να το δει» λέει η Σούζι Χάργκριβς, διευθύνουσα σύμβουλος του IWF.
Η οργάνωση αναφέρει επίσης ότι έχει στη διάθεσή της στοιχεία για πωλήσεις στο διαδίκτυο τέτοιου είδους υλικού, δημιουργημένου από ΤΝ.
Η έρευνα
Τα τελευταία ευρήματα του IWF βασίστηκαν σε μια έρευνα διάρκειας ενός μήνα σε ένα φόρουμ κακοποίησης παιδιών στον αποκαλούμενο Σκοτεινό Ιστό, μια περιοχή του Διαδικτύου όπου μπορεί κάποιος να έχει πρόσβαση μόνο με ειδικά προγράμματα περιήγησης – και όχι τις συμβατικές μηχανές πλοήγησης και αναζήτησης.
Οι ερευνητές εντόπισαν 11.108 εικόνες στο φόρουμ, με 2.978 από αυτές να παραβιάζουν τη βρετανική νομοθεσία απεικονίζοντας σεξουαλική κακοποίηση παιδιών.
Το CSAM, που δημιουργείται από την ΤΝ, είναι παράνομο σύμφωνα με τον Νόμο για την Προστασία των Παιδιών του 1978, ο οποίος ποινικοποιεί τη λήψη, διανομή και κατοχή «άσεμνης φωτογραφίας ή ψευδοφωτογραφίας» παιδιού.
Το IWF σημειώνει ότι η συντριπτική πλειονότητα του παράνομου υλικού που είχε αποκαλυφθεί παραβιάζει τον νόμο, με περισσότερες από μία στις πέντε από αυτές τις εικόνες να ταξινομούνται στην κατηγορία Α, η οποία αφορά σε περιεχόμενο που απεικονίζει βιασμό και σεξουαλικό βασανισμό.
Η IWF ανησυχεί μήπως ένα κύμα CSAM-δημιούργημα ΤΝ αποσπάσει την προσοχή των υπηρεσιών επιβολής του Νόμου από τον εντοπισμό περιστατικών πραγματικής κακοποίησης και την παροχή βοήθειας στα θύματα. «Αν δεν συνειδητοποιήσουμε το μέγεθος του προβλήματος, αυτό το υλικό απειλεί να κατακλύσει το διαδίκτυο» λέει η ο Χάργκριβς.
Ο Νταν Σέξτον, επικεφαλής τεχνολογίας στο IWF, σημειώνει ότι το εργαλείο δημιουργίας εικόνας Stable Diffusion, ένα μοντέλο ΤΝ που μπορεί να προσαρμοστεί ώστε να βοηθήσει στην παραγωγή CSAM, ήταν το μόνο προϊόν ΤΝ που συζητήθηκε στο φόρουμ.
«Εχουμε δει συζητήσεις γύρω από τη δημιουργία περιεχομένου με χρήση του Stable Diffusion, το οποίο είναι ένα ανοιχτά διαθέσιμο λογισμικό» αναφέρει ο Σέξτον.
Η Stability AI, η βρετανική εταιρεία πίσω από το Stable Diffusion, δήλωσε ότι «στις πλατφόρμες μας απαγορεύεται οποιαδήποτε χρήση για παράνομους ή ανήθικους σκοπούς. Οι πολιτικές μας είναι σαφείς και περιλαμβάνουν και το CSAM».
Σύμφωνα με κυβερνητικές πηγές, το CSAM που δημιουργείται από ΤΝ θα καλύπτεται από το νομοσχέδιο για την ασφάλεια στο Διαδίκτυο, που πρόκειται να γίνει άμεσα νόμος, και οι εταιρείες μέσων κοινωνικής δικτύωσης οφείλουν να αποτρέψουν την εμφάνισή του στις πλατφόρμες τους.
Ακολουθήστε το Protagon στο Google News