«Οι τεχνητά παραγόμενες εικόνες πραγματικών ειδησεογραφικών γεγονότων πολλαπλασιάζονται στους ιστοτόπους, συσκοτίζοντας την αλήθεια» προειδοποιεί η Washington Post. Για παράδειγμα, μια εικόνα δείχνει ένα αγόρι και ένα κορίτσι στην Ουκρανία πιασμένα χέρι-χέρι, να στέκονται μόνα τους στα ερείπια μιας βομβαρδισμένης πόλης.
Εκ πρώτης όψεως, θα μπορούσε να χαρακτηριστεί το εμβληματικό καρέ ενός φωτορεπόρτερ με πείρα στην κάλυψη πολεμικών συγκρούσεων. Ωστόσο, αυτή η εικόνα, όπως και πολλές ακόμη που δείχνουν π.χ. παιδιά να παίζουν ποδόσφαιρo στα χαλάσματα της Γάζας, αποτελούν προϊόν λογισμικού Τεχνητής Νοημοσύνης.
Ψεύτικες φωτογραφίες όπως αυτές τις οποίες αναδεικνύει η Washington Post, αποτελούσαν μέρος μιας τεράστιας βιβλιοθήκης φωτορεαλιστικών απομιμήσεων που πωλούνταν σε έναν από τους μεγαλύτερους ιστοτόπους που διαθέτουν με συνδρομή εικόνες στο διαδίκτυο, μέχρι που ανακοίνωσε τηv αλλαγή της πολιτικής του αυτή την εβδομάδα.
Απαντώντας σε ερωτήσεις της Washington Post, η ιστοσελίδα εικόνων αρχείου Adobe Stock δήλωσε την Τρίτη ότι θα αποσύρει τις εικόνες που δημιουργούνται με ΤΝ και φαίνεται να απεικονίζουν πραγματικά γεγονότα, ενώ θα λάβει νέα μέτρα για να αποτρέψει τη χρήση των εικόνων της με παραπλανητικούς τρόπους.
Οι ραγδαίες εξελίξεις της τεχνολογίας έχουν ως αποτέλεσμα οι αυτοματοποιημένες εικόνες που παράγονται μέσω ΤΝ να είναι όλο και πιο δύσκολο να διακριθούν από τις πραγματικές. «Oι ειδικοί λένε ότι ο πολλαπλασιασμός τους σε ιστοτόπους όπως το Adobe Stock και το Shutterstock απειλεί να επιταχύνει την εξάπλωσή τους, θολώνοντας τα όρια μεταξύ μυθοπλασίας και πραγματικότητας» υπογραμμίζει η αμερικανική εφημερίδα.
Η υπηρεσία Adobe Stock, στην οποία φωτογράφοι και καλλιτέχνες μπορούν να ανεβάζουν εικόνες ώστε να τις κατεβάζουν και να τις δημοσιεύουν αλλού οι πελάτες της υπηρεσίας, έγινε πέρυσι η πρώτη μεγάλη πλατφόρμα που αγκάλιασε τις εικόνες που δημιουργούνται με τη χρήση ΤΝ. Η κίνηση αυτή δέχθηκε κριτική μετά την εμφάνιση μιας φωτορεαλιστικής εικόνας ΤΝ που απεικόνιζε μια έκρηξη στη Γάζα, η οποία εμφανίστηκε σε διάφορους ιστοτόπους, χωρίς καμία ένδειξη ότι ήταν ψεύτικη.
Η Washington Post σημειώνει ότι μια πρόσφατη αναζήτηση με τη λέξη «Γάζα» στο Adobe Stock εμφάνιζε περισσότερες από 3.000 εικόνες που χαρακτηρίστηκαν «AI-generated», ανάμεσα στα 13.000 συνολικά αποτελέσματα. Στις ΤΝ εικόνες υπήρχε μια σειρά που απεικόνιζε μικρά παιδιά, φοβισμένα και μόνα, να κουβαλούν τα πράγματά τους καθώς απομακρύνονταν από τα καπνισμένα ερείπια μιας αστικής γειτονιάς.
Το ίδιο συνέβη με την αναζήτηση φωτογραφιών για τον «πόλεμο στην Ουκρανία». Το Adobe Stock περιείχε περισσότερες από 15.000 ψεύτικες εικόνες της σύγκρουσης, συμπεριλαμβανομένης μιας εικόνας ενός μικρού κοριτσιού που κρατάει ένα αρκουδάκι μπροστά σε ένα σκηνικό από ερείπια.
«Μπαίνουμε σε έναν κόσμο στον οποίον, όταν κοιτάζετε μια εικόνα online ή offline, πρέπει να κάνετε την ερώτηση: “Είναι πραγματική;”» δήλωσε ο Κρεγκ Πίτερς, διευθύνων σύμβουλος της Getty Images, ενός από τους μεγαλύτερους προμηθευτές φωτογραφιών παγκοσμίως. Η Adobe δήλωσε αρχικά στην WP ότι έχει εφαρμόσει πολιτικές που υποδεικνύουν σαφώς τέτοιες εικόνες ως εικόνες που δημιουργήθηκαν με ΤΝ.
Επειτα από επισημάνσεις ότι κάποιες από αυτές χρησιμοποιήθηκαν ως φωτορεπορτάζ, η εταιρεία παρουσίασε την Τρίτη (21/11) αυστηρότερους κανόνες για το ζήτημα. Περιλαμβάνουν την απαγόρευση εικόνων ΤΝ των οποίων οι τίτλοι υπονοούν ότι απεικονίζουν γεγονότα που έχουν ειδησεογραφικό ενδιαφέρον, και την τοποθέτηση νέων, σαφέστερων ετικετών στο περιεχόμενο που παράγεται με ΤΝ.
«Η Adobe δεσμεύεται να καταπολεμήσει την παραπληροφόρηση» δήλωσε ο εκπρόσωπος της εταιρείας, Κέβιν Φου. Σημείωσε ότι η Adobe έχει πρωτοστατήσει σε μια Πρωτοβουλία για την Αυθεντικότητα του Περιεχομένου η οποία συνεργάζεται με εκδότες, κατασκευαστές φωτογραφικών μηχανών και ειδικούς του χώρου για την υιοθέτηση προτύπων και την επισήμανση εικόνων που έχουν δημιουργηθεί ή έχουν δεχθεί επεξεργασία με τη χρήση ΤΝ.
«Την Τετάρτη (22/11), ωστόσο, χιλιάδες εικόνες που δημιουργήθηκαν με ΤΝ παρέμεναν στον ιστότοπό της, συμπεριλαμβανομένων ορισμένων που εξακολουθούσαν να μην έχουν ετικέτες» σημειώνει το δημοσίευμα της Washington Post.
Στον ιστότοπο του Shutterstock, συνεχίζει η εφημερίδα, η λέξη «Γάζα» επέστρεψε περισσότερες από 130 εικόνες που χαρακτηρίστηκαν «AI-generated», αν και λίγες από αυτές ήταν τόσο φωτορεαλιστικές όσο εκείνες στο Adobe Stock. «Η Shutterstock δεν απάντησε σε αιτήματα για σχόλια» σημειώνει η αμερικανική εφημερίδα.
Ο Τόνι Ελκινς, μέλος του μη κερδοσκοπικού οργανισμού Poynter, με έδρα τις ΗΠΑ, ο οποίος ασχολείται με τις πρακτικές των ΜΜΕ, δήλωσε πως είναι βέβαιος ότι ορισμένα μέσα ενημέρωσης θα χρησιμοποιήσουν εικόνες που δημιουργούνται με ΤΝ στο μέλλον, για έναν λόγο: «τα χρήματα».
Οι φθηνές εικόνες αρχείου έχουν αποδειχθεί εδώ και καιρό ένας οικονομικά αποδοτικός τρόπος για την παροχή εικόνων μαζί με άρθρα κειμένου, εξήγησε. Τώρα που η ΤΝ καθιστά ολοένα και πιο εύκολο για σχεδόν οποιονδήποτε να δημιουργήσει μια υψηλής ποιότητας εικόνα για ένα ειδησεογραφικό γεγονός, θα είναι δελεαστικό για κάποιους οργανισμούς μέσων ενημέρωσης να τις χρησιμοποιούν.
Η Getty Images έχει υιοθετήσει μια διαφορετική προσέγγιση από την Adobe Stock ή τη Shutterstock, απαγορεύοντας εντελώς τις εικόνες που δημιουργούνται με ΤΝ. Η εταιρεία έχει μηνύσει μια μεγάλη εταιρεία ΤΝ, τη Stable Diffusion, ισχυριζόμενη ότι το δικό της σύστημα παραγωγής εικόνων ΤΝ παραβιάζει τα πνευματικά δικαιώματα των πραγματικών φωτογραφιών, τα οποία κατέχει η Getty.
Ο Κρεγκ Πίτερς, διευθύνων σύμβουλος της Getty Images, επέκρινε την προσέγγιση της Adobe λέγοντας ότι δεν αρκεί να βασίζεται στους μεμονωμένους καλλιτέχνες και τους παραγωγούς περιεχομένου ώστε να επισημαίνουν εκείνοι τις εικόνες τους ως «AI-generated». Πρόσθεσε ότι οι τεχνολογικές εταιρείες που κατασκευάζουν εργαλεία ΤΝ εικόνων θα πρέπει να ενσωματώσουν ανεξίτηλα σημάδια στις ίδιες εικόνες τους, μια πρακτική που είναι γνωστή ως «υδατογράφημα», ώστε να υποδεικνύουν ότι φτιάχτηκαν με τη χρήση ΤΝ, χωρίς να μπορεί κάποιος να αφαιρέσει αυτή την «ετικέτα».
Ακολουθήστε το Protagon στο Google News