661
Ο Τζόναθαν Τάρλεϊ, διακεκριμένος καθηγητής, σε παλαιότερη κατάθεσή του στο Κογκρέσο. Τώρα βρέθηκε «κατηγορούμενος» από το ChatGPT | Youtube/PBS

To ChatGPT κατηγόρησε ψευδώς καθηγητή Νομικής για σεξουαλική επίθεση

Protagon Team Protagon Team 8 Απριλίου 2023, 15:45
Ο Τζόναθαν Τάρλεϊ, διακεκριμένος καθηγητής, σε παλαιότερη κατάθεσή του στο Κογκρέσο. Τώρα βρέθηκε «κατηγορούμενος» από το ChatGPT
|Youtube/PBS

To ChatGPT κατηγόρησε ψευδώς καθηγητή Νομικής για σεξουαλική επίθεση

Protagon Team Protagon Team 8 Απριλίου 2023, 15:45

Το ChatGPT κατηγόρησε ψευδώς έναν διακεκριμένο καθηγητή νομικής ότι παρενόχλησε μία από τις φοιτήτριές του και η υπόθεση καταδεικνύει τους κινδύνους της Τεχνητής Νοημοσύνης. Ο Τζόναθαν Τάρλεϊ, του Πανεπιστημίου του Τζόρτζταουν, είπε ότι οι κατηγορίες διατυπώθηκαν από το λογισμικό κατά τη διάρκεια έρευνας που έκανε ένας άλλος καθηγητής. Το λογισμικό ισχυρίστηκε ότι ο Τάρλεϊ προέβη σε σεξουαλικά υπονοούμενα και προσπάθησε να αγγίξει απρεπώς μια φοιτήτρια κατά τη διάρκεια εκπαιδευτικού ταξιδιού στην Αλάσκα. Μάλιστα, ανέφερε ένα άρθρο από τη Washington Post ως αποδεικτικό στοιχείο.

Ο Τάρλεϊ έγραψε στη USA Today: «Αρχικά ήταν έκπληξη για μένα, επειδή δεν έχω πάει ποτέ στην Αλάσκα με φοιτητές μου. Η Post δεν δημοσίευσε ποτέ ένα τέτοιο άρθρο και δεν έχω κατηγορηθεί ποτέ για σεξουαλική παρενόχληση ή επίθεση ή οτιδήποτε σχετικό. Οταν μου το είπαν, βρήκα την κατηγορία κωμική. Μετά από σκέψη, όμως, κατάλαβα ότι είναι κάτι πολύ απειλητικό».

Πριν από λίγες ημέρες, ένας δήμαρχος στην Αυστραλία απείλησε με μήνυση για συκοφαντική δυσφήμιση την OpenAI, τη δημιουργό εταιρία του ChatGPT, καθώς το λογισμικό ισχυρίστηκε ότι ο ίδιος έχει φυλακιστεί στο παρελθόν για δωροδοκία, σύμφωνα με τους Times. Την περασμένη Παρασκευή η Ιταλία απαγόρευσε το ChatGPT όταν βρέθηκαν ενδείξεις ότι η OpenAI επεξεργαζόταν παράνομα προσωπικά δεδομένα και πληροφορίες.

«Οι πληροφορίες που δίνει το ChatGPT δεν ανταποκρίνονται πάντα στην πραγματικότητα» δήλωσε κρατικός αξιωματούχος. Τα λογισμικά Τεχνητής Νοημοσύνης, όπως το ChatGPT, είναι μεγάλα γλωσσικά μοντέλα που εκπαιδεύονται πάνω σε δισεκατομμύρια λέξεις που συλλέγονται από το Διαδίκτυο. Γράφουν προβλέποντας την επόμενη λέξη της πρότασης βασιζόμενα σε ένα στατιστικό μοντέλο, αλλά αυτό συχνά παράγει λάθη που ονομάζονται «παραισθήσεις».

Η τάση για παραισθήσεις αναγνωρίζεται από την OpenAI και άλλες εταιρείες όπως η Microsoft και η Google, οι οποίες αναγράφουν εμφανείς δηλώσεις αποποίησης ευθύνης για τους χρήστες στο λογισμικού.

Στην περίπτωση του Τάρλεϊ, ο Γιουτζίν Βόλοχ, καθηγητής Νομικής στο UCLA, έκανε έρευνα ακριβώς πάνω στη συκοφαντική δυσφήμιση που ξεκινά από την Τεχνητή Νοημοσύνη και ζήτησε από το ChatGPT να του δώσει έναν κατάλογο με νομικούς που έχουν διαπράξει σεξουαλική παρενόχληση. Το λογισμικό έδωσε πέντε απαντήσεις, τρεις από τις οποίες ήταν ψευδείς, και αναφέρθηκε σε ανύπαρκτα άρθρα στην Post, τη Miami Herald και τους Los Angeles Times. Δίπλα στο όνομα του Τάρλεϊ ήταν μια αναφορά σε «άρθρο της Washington Post της 21ης Μαρτίου 2018». Το άρθρο δεν υπάρχει και δεν υπήρξε ποτέ.

Η ίδια η Washington Post, έγραψε στη συνέχεια ολόκληρο άρθρο για το τι συμβαίνει όταν το ChatGPT λέει ψέματα για αληθινούς ανθρώπους.

Ο Τομ Κλέαρ, δικηγόρος που ειδικεύεται σε υποθέσεις συκοφαντικής δυσφήμισης, δήλωσε ότι η νομοθεσία έχει πολλά κενά σε σχέση με την τεχνολογία. «Θα δούμε πολλές τέτοιες υποθέσεις, τουλάχιστον στις ΗΠΑ, και τα δικαστήρια θα αναγκαστουν να ακολουθήσουν πολύ γρήγορα τις τεχνολογικές εξελίξεις» εξήγησε.

Ανέφερε ότι αυτοί που κινδυνεύουν περισσότερο να μηνυθούν είναι εκείνοι που ζήτησαν την πληροφορία από το λογισμικό και όσοι  δημοσίευσαν τα αποτελέσματα. Η OpenAI θα πρέπει να μηνυθεί σύμφωνα με τους νόμους περί ευθύνης προϊόντων, αντί για συκοφαντική δυσφήμιση, επειδή θα προστατεύεται σύμφωνα με το άρθρο 230 του νόμου περί Ευπρέπειας των Επικοινωνιών. Πιστεύει ότι μια μήνυση κατά της OpenAI θα είναι μια πολύ δύσκολη νομική κίνηση.

Η Εμα Γούλκοτ, επικεφαλής του τμήματος προστασίας της φήμης στο δικηγορικό γραφείο Mishcon de Reya, είπε ότι το λογισμικό έχει τα χαρακτηριστικά των πρώτων ημερών της Wikipedia: «Επειδή δημιουργεί περιεχόμενο από πηγές που είναι διαθέσιμες στο Διαδίκτυο, οι αναγνώστες μπορεί κάλλιστα να υποθέσουν ότι όσα γράφει είναι αλήθεια. Ενώ το OpenAI προειδοποιεί ότι η νέα τεχνολογία του μπορεί να δημιουργήσει “ανακριβή ή παραπλανητικά” αποτελέσματα, υπάρχει πραγματικός κίνδυνος οι άνθρωποι να βασιστούν σε αυτήν και οι συκοφαντικοί ισχυρισμοί που δημιουργούνται από την Τεχνητή Νοημοσύνη να προκαλέσουν σοβαρή βλάβη στη φήμη ενός ατόμου».

Η Open AI δημοσίευσε την Πέμπτη ένα κείμενο για την προσέγγισή της στο ζήτημα της ασφάλειας. «Πρέπει να γίνει πολλή δουλειά ακόμη για να μειώσουμε κι άλλο την πιθανότητα λαθών και παραισθήσεων και να εκπαιδεύσουμε το κοινό πάνω στους περιορισμούς των εργαλείων της Τεχνητής Νοημοσύνης». Η εταιρεία προσέθεσε ότι προχώρησε σε κάποιες ρυθμίσεις στα λογισμικά της, έτσι ώστε να απορρίπτουν τα αιτήματα για προσωπικές πληροφορίες.

Ακολουθήστε το Protagon στο Google News

Διαβάστε ακόμη...

Διαβάστε ακόμη...