1963
Στην ιστοσελίδα Character.AI οι χρήστες μπορούν να συνομιλήσουν με λογικοφανή αντίγραφα όλων, από τον Πλάτωνα και τον Νίτσε έως τον Σωκράτη και τον Τούρινγκ και από τη Μπίλι Αϊλις έως τον Τζο Μπάιντεν | CreativeProtagon/Shutterstock/Character.AI

Θέλω να μιλήσω με το άβαταρ του Πλάτωνα, μπορώ;

Protagon Team Protagon Team 29 Ιανουαρίου 2023, 11:27
Στην ιστοσελίδα Character.AI οι χρήστες μπορούν να συνομιλήσουν με λογικοφανή αντίγραφα όλων, από τον Πλάτωνα και τον Νίτσε έως τον Σωκράτη και τον Τούρινγκ και από τη Μπίλι Αϊλις έως τον Τζο Μπάιντεν
|CreativeProtagon/Shutterstock/Character.AI

Θέλω να μιλήσω με το άβαταρ του Πλάτωνα, μπορώ;

Protagon Team Protagon Team 29 Ιανουαρίου 2023, 11:27

Ας ξεκινήσουμε με έναν ορισμό: Το chatbot είναι λογισμικό που εκτελεί συγκεκριμένες λειτουργίες μιμούμενο όσο το δυνατόν καλύτερα τον ανθρώπινο, γραπτό και προφορικό, λόγο.

Πρόσφατα, ο Γιόνας Τιλ, επικεφαλής κοινωνικοοικονομικών σπουδών σε ένα πανεπιστήμιο στη βόρεια Γερμανία, πέρασε πάνω από μία ώρα στην ιστοσελίδα Character.AI συνομιλώντας στο Διαδίκτυο με μερικούς από τους αριστερούς πολιτικούς φιλοσόφους που μελετούσε. Βεβαίως, στη συζήτηση δεν συμμετείχαν οι πραγματικοί φιλόσοφοι, αλλά τα εικονικά τους αντίγραφα, χάρη σε εξελιγμένα chatbots.

Το αγαπημένο του Τιλ, γράφει στους New York Times ο Κέιντ Μετζ, ήταν ένα bot που μιμούνταν τον Καρλ Κάουτσκι, έναν τσεχοαυστριακό σοσιαλιστή που πέθανε πριν από τον Β’ Παγκόσμιο Πόλεμο. Οταν ο γερμανός καθηγητής ζήτησε από το ψηφιακό άβαταρ του Κάουτσκι να δώσει κάποιες συμβουλές στους σύγχρονους σοσιαλιστές που αγωνίζονται να ανοικοδομήσουν το εργατικό κίνημα στη Γερμανία, το Κάουτσκι-μποτ πρότεινε να βγάλουν μια εφημερίδα. «Μπορούν να τη χρησιμοποιήσουν, όχι μόνο ως μέσο διάδοσης της σοσιαλιστικής προπαγάνδας, η οποία είναι ελλιπής στη Γερμανία προς το παρόν, αλλά και για να οργανώσουν τους ανθρώπους της εργατικής τάξης», είπε το μποτ.

Συνέχισε υποστηρίζοντας ότι, μετά τα λάθη που έκανε, η εργατική τάξη θα «συνέλθει» τελικά και θα αγκαλιάσει μια σύγχρονη μαρξιστική επανάσταση. «Το προλεταριάτο βρίσκεται σε χαμηλό σημείο της ιστορίας του αυτή τη στιγμή», έγραψε το μποτ. «Τελικά, θα συνειδητοποιήσουν τα ελαττώματα του καπιταλισμού, ειδικά λόγω της κλιματικής αλλαγής».

Ο Τιλ συναντήθηκε και με άλλους εικονικούς διανοούμενους, όπως ο αγγλοσάξονας Τζέρι Αλαν Κοέν, κορυφαίος εκπρόσωπος του αναλυτικού μαρξισμού και σοσιαλιστής θεωρητικός, και ο αφροαμερικανός πολιτικός επιστήμονας Αντολφ Ριντ τζούνιορ· μπορούσε, όμως, να έχει διαλέξει σχεδόν οποιονδήποτε, ζωντανό ή νεκρό, πραγματικό ή φανταστικό χαρακτήρα.

Στην ιστοσελίδα Character.AI, που εμφανίστηκε αυτό το καλοκαίρι, οι χρήστες μπορούν να συνομιλήσουν με λογικοφανή αντίγραφα όλων, από τη βασίλισσα Ελισάβετ και τον Ουίλιαμ Σαίξπηρ έως την Μπίλι Αϊλις και τον Ελον Μασκ (υπάρχουν αρκετές εκδοχές). Οποιον θέλετε να καλέσετε ή να επινοήσετε, είναι διαθέσιμος για συνομιλία. Η εταιρεία –και η ιστοσελίδα– ιδρύθηκε από τους Ντάνιελ ντε Φρέιτας και Νόαμ Σαζίερ, δυο πρώην ερευνητές τεχνητής νοημοσύνης της Google, και είναι μια από τις πολλές προσπάθειες για την κατασκευή ενός νέου είδους chatbot. Αυτά τα ρομπότ δεν μπορούν να μιλήσουν ακριβώς όπως ένας άνθρωπος, αλλά φαίνεται να το κάνουν συχνά.

Στα τέλη του Νοεμβρίου, το OpenAI, ένα εργαστήριο Τεχνητής Νοημοσύνης στο Σαν Φρανσίσκο, αποκάλυψε το μποτ ChatGPT, που έκανε περισσότερους από ένα εκατομμύριο ανθρώπους να αισθάνονται σαν να συνομιλούν με έναν άλλον πραγματικό άνθρωπο. Παρόμοιες τεχνολογίες βρίσκονται υπό ανάπτυξη στην Google, στη Meta και άλλους τεχνολογικούς γίγαντες. Ορισμένες εταιρείες, ωστόσο, ήταν απρόθυμες να μοιραστούν την τεχνολογία με το ευρύτερο κοινό. Επειδή αυτά τα ρομπότ μαθαίνουν τις δεξιότητές τους από δεδομένα που δημοσιεύονται στο Διαδίκτυο από πραγματικούς ανθρώπους, συχνά δημιουργούν αναλήθειες, ρητορική μίσους και γλώσσα προκατειλημμένη κατά των γυναικών και των έγχρωμων. Με κακή χρήση, θα μπορούσαν να γίνουν ένας πιο αποτελεσματικός τρόπος σε καμπάνιες παραπληροφόρησης, που έχουν γίνει κοινός τόπος τα τελευταία χρόνια.

«Χωρίς πρόσθετα προστατευτικά “κιγκλιδώματα”, θα καταλήξουν να αντανακλούν όλες τις προκαταλήψεις και τις τοξικές πληροφορίες που υπάρχουν ήδη στον Ιστό», δήλωσε η Μάργκαρετ Μίτσελ, πρώην ερευνήτρια Τεχνητής Νοημοσύνης στη Microsoft και την Google, όπου βοήθησε στη δημιουργία της ομάδας Ethical A.I. Πλέον, δουλεύει με τη start-up τεχνητής νοημοσύνης Hugging Face.

Αλλες εταιρείες, ωστόσο, συμπεριλαμβανομένης της Character.AI, είναι βέβαιες ότι το κοινό θα μάθει να αποδέχεται τα ελαττώματα των chatbots και θα αναπτύξει μια υγιή δυσπιστία σε αυτά που λένε, γράφει στους New York Times ο Κέιντ Μετζ. Ο Τιλ, στο μεταξύ, διαπίστωσε ότι τα μποτς στο Character.AI είχαν ταλέντο στη συνομιλία και την ικανότητα να υποδύονται ανθρώπους της πραγματικής ζωής: «Αν διαβάσετε τι έγραφε κάποιος σαν τον Κάουτσκι τον 19ο αιώνα, δεν χρησιμοποιεί την ίδια γλώσσα που χρησιμοποιούμε σήμερα», είπε ο γερμανός καθηγητής. «Αλλά η Τεχνητή Νοημοσύνη μπορεί με κάποιο τρόπο να μεταφράσει τις ιδέες του στα αγγλικά που συνηθίζονται σήμερα».

Προς το παρόν, αυτά και άλλα προηγμένα chatbots αποτελούν πηγή ψυχαγωγίας. Και γίνονται γρήγορα ένας πιο ισχυρός τρόπος αλληλεπίδρασης με μηχανές. Οι ειδικοί εξακολουθούν να συζητούν εάν τα πλεονεκτήματα αυτών των τεχνολογιών θα αντισταθμίσουν τα μειονεκτήματα και τις πιθανότητες να βλάψουν τους χρήστες, αλλά όλοι συμφωνούν σε ένα σημείο: η αξιοπιστία της προσποιητής συνομιλίας θα συνεχίσει να βελτιώνεται.

Η τέχνη της συνομιλίας

Το 2015, ο Ντάνιελ ντε Φρέιτας, εργαζόμενος τότε ως μηχανικός λογισμικού στη Microsoft, διάβασε μια ερευνητική εργασία που δημοσιεύτηκε από επιστήμονες στο Google Brain, το κορυφαίο εργαστήριο τεχνητής νοημοσύνης της Google. Αναλυτικά, με αυτό που αποκαλούσε «Νευρωνικό Μοντέλο Συνομιλίας», η δημοσίευση έδειξε πώς μια μηχανή μπορεί να μάθει την τέχνη της συνομιλίας αναλύοντας μεταγραφές διαλόγων από εκατοντάδες ταινίες.

Περιέγραψε τι είναι νευρωνικό δίκτυο, όπως αποκαλούν οι ερευνητές Τεχνητής Νοημοσύνης ένα μαθηματικό σύστημα που έχει διαμορφωθεί χαλαρά, σύμφωνα με τον ιστό των νευρώνων στον εγκέφαλο. Η ίδια τεχνολογία μεταφράζει επίσης κείμενα, π.χ. από ισπανικά σε αγγλικά, σε υπηρεσίες όπως το Google Translate, και προσδιορίζει τα σήματα κυκλοφορίας για πεζούς και για αυτοοδηγούμενα οχήματα στους δρόμους της πόλης.

Ενα νευρωνικό δίκτυο μαθαίνει δεξιότητες εντοπίζοντας μοτίβα σε τεράστιες ποσότητες ψηφιακών δεδομένων. Αναλύοντας, για παράδειγμα, χιλιάδες φωτογραφίες γάτας, μπορεί να μάθει να αναγνωρίζει μια γάτα. Το νευρωνικό σύστημα που περιγράφεται στη δημοσίευση της Google απέχει πολύ από το τέλειο, αλλά φαινόταν να συνομιλεί κάθε τόσο σαν πραγματικό άτομο.

Οταν ο Ντε Φρέιτας διάβασε τη δημοσίευση δεν ήταν ακόμη ερευνητής Τεχνητής Νοημοσύνης· ήταν μηχανικός λογισμικού που εργαζόταν σε μηχανές αναζήτησης. Αλλά αυτό που πραγματικά ήθελε ήταν να φτάσει την ιδέα της Google στα λογικά της όρια. «Θα έλεγες ότι αυτό το ρομπότ μπορούσε να γενικεύει», είπε. «Αυτό που έλεγε δεν έμοιαζε με αυτό που υπήρχε σε σενάριο ταινίας».

Ο Ντε Φρέιτας άρχισε να εργάζεται στην Google το 2017. Επίσημα, ήταν μηχανικός στο YouTube, αλλά στο 20% του χρόνου του άρχισε να δημιουργεί το δικό του chatbot – σύμφωνα με μια παράδοση της Google που επιτρέπει στους υπαλλήλους της να εξερευνούν νέες ιδέες παράλληλα με τις καθημερινές τους υποχρεώσεις.

Η ιδέα ήταν να εκπαιδεύσει ένα νευρωνικό δίκτυο χρησιμοποιώντας μια πολύ μεγαλύτερη συλλογή διαλόγων: δέσμες αρχείων καταγραφής συνομιλιών που είχαν συλλεχθεί από υπηρεσίες μέσων κοινωνικής δικτύωσης  και άλλους ιστοτόπους σε ολόκληρο το Διαδίκτυο. Η ιδέα του ήταν απλή αλλά απαιτούσε τεράστιες ποσότητες ισχύος επεξεργασίας υπολογιστή. Ακόμη και ένας υπερυπολογιστής θα χρειαζόταν εβδομάδες ή και μήνες για να αναλύσει όλα αυτά τα δεδομένα.

Ως μηχανικός της Google, του επιτρεπόταν μεν να τρέξει πειραματικό λογισμικό στο τεράστιο δίκτυο κέντρων δεδομένων υπολογιστών της εταιρείας, αλλά μπορούσε να χρησιμοποιήσει μόνο ένα μικρό κλάσμα της υπολογιστικής ισχύος που απαιτείται για την εκπαίδευση του chatbot του. Αρχισε, λοιπόν, να δανείζεται χρόνο από άλλους μηχανικούς. Καθώς το σύστημα ανέλυε περισσότερα δεδομένα, οι δεξιότητές του βελτιώνονταν με άλματα και όρια.

Αρχικά, εκπαίδευσε το chatbot του χρησιμοποιώντας αυτό που ονομάζεται LSTM (Long Short-Term Memory), ένα νευρωνικό δίκτυο που σχεδιάστηκε τη δεκαετία του 1990, ειδικά για φυσική γλώσσα. Σύντομα, όμως, άλλαξε σε ένα νέο είδος νευρωνικού δικτύου που ονομάζεται μετασχηματιστής και αναπτύχθηκε από μια ομάδα ερευνητών τεχνητής νοημοσύνης της Google, μεταξύ των οποίων και ο Νόαμ Σαζίερ.

Σε αντίθεση με ένα LSTM, το οποίο διαβάζει μία λέξη τη φορά, ένας μετασχηματιστής μπορεί να χρησιμοποιήσει πολλούς επεξεργαστές υπολογιστή για να αναλύσει ένα ολόκληρο έγγραφο σε ένα μόνο βήμα. Η Google, το OpenAI και άλλοι οργανισμοί χρησιμοποιούσαν ήδη μετασχηματιστές για να κατασκευάσουν «μεγάλα γλωσσικά μοντέλα», όπως ονομάζονται συστήματα κατάλληλα για ένα ευρύ φάσμα γλωσσικών εργασιών, από τη σύνταξη tweets έως την απάντηση σε ερωτήσεις.

Δουλεύοντας ακόμα μόνος του, ο Ντε Φρέιτας  εστίασε την ιδέα του στη συζήτηση, τροφοδοτώντας τον μετασχηματιστή του με όσο το δυνατόν περισσότερους διαλόγους. Ηταν μια εξαιρετικά απλή προσέγγιση αλλά, όπως του αρέσει να λέει, «απλές λύσεις για απίστευτα αποτελέσματα».

Το αποτέλεσμα ήταν ένα chatbot που το ονόμασε Meena. Ηταν τόσο αποτελεσματικό ώστε η Google Brain προσέλαβε τον Ντε Φρέιτας και μετέτρεψε το έργο του σε επίσημη ερευνητική προσπάθεια. Η Meena έγινε LaMDA, συντομογραφία του Language Model for Dialogue Applications (Γλωσικό Μοντέλο για Εφαρμογές Διαλόγων).

Το έργο πέρασε στη συνείδηση του κόσμου στις αρχές του περασμένου καλοκαιριού, όταν ένας άλλος μηχανικός της Google, ο Μπλέικ Λεμόιν, είπε στην Washington Post ότι ο LaMDA «έχει ψυχή». Αυτός ο ισχυρισμός ήταν, αν μη τι άλλο, υπερβολικός. Αλλά οι αντιδράσεις που προκάλεσε έδειξαν πόσο γρήγορα βελτιώνονταν τα chatbots μέσα σε κορυφαία εργαστήρια, όπως το Google Brain και το OpenAI.

Η Google έδειχνε απρόθυμη να κυκλοφορήσει την τεχνολογία, ανησυχώντας ότι η ικανότητά της για παραπληροφόρηση και ακόμη περισσότερη τοξική γλώσσα θα μπορούσε να βλάψει την επωνυμία της εταιρείας. Αλλά οι Ντε Φρέιτας και Σαζίερ είχαν ήδη φύγει από την Google, αποφασισμένοι να φέρουν αυτό το είδος τεχνολογίας στα χέρια όσο το δυνατόν περισσότερων ανθρώπων μέσω της νέας τους εταιρείας, Character.AI. «Η τεχνολογία είναι χρήσιμη σήμερα, για διασκέδαση, για συναισθηματική υποστήριξη, για τη δημιουργία ιδεών, για κάθε είδους δημιουργικότητα», είπε ο κ. Σαζίερ.

Σχεδιασμός «λογικοφανούς συνομιλίας»

Το ChatGPT, το ρομπότ που κυκλοφόρησε το OpenAI στα τέλη Νοεμβρίου, σχεδιάστηκε για να λειτουργεί ως ένα νέο είδος μηχανής ερωτήσεων και απαντήσεων. Είναι αρκετά καλό σε αυτόν τον ρόλο, αλλά ο χρήστης δεν ξέρει πότε το chatbot θα ισχυριστεί κάτι ψευδές. Μπορεί, για παράδειγμα, να σας πει ότι το επίσημο νόμισμα της Ελβετίας είναι το ευρώ (ενώ στην πραγματικότητα είναι το ελβετικό φράγκο) ή ότι ο περίφημος άλτης βάτραχος της Καλαβέρας του Μαρκ Τουέιν μπορούσε όχι μόνο να πηδήξει, αλλά και να μιλήσει. Οι ερευνητές Τεχνητής Νοημοσύνης αποκαλούν τα ψεύδη αυτής της γενιάς «ψευδαίσθηση».

Κατά τη δημιουργία του Character.AI, οι Ντε Φρέιτας και Σαζίερ είχαν έναν διαφορετικό στόχο: την ανοιχτή συνομιλία. Πιστεύουν ότι τα σημερινά chatbots ταιριάζουν καλύτερα σε αυτό το είδος υπηρεσίας, προς το παρόν ως μέσο ψυχαγωγίας, τεκμηριωμένης ή όχι. Οπως αναφέρει κάθε σελίδα στον ιστότοπό τους, «ό,τι λένε οι χαρακτήρες είναι κατασκευασμένο».

«Αυτά τα συστήματα δεν έχουν σχεδιαστεί για την αλήθεια», σημείωσε ο Σαζίερ, «Είναι σχεδιασμένα για λογικοφανή συζήτηση».

Ο δύο ερευνητές και οι συνάδελφοί τους δεν κατασκεύασαν απλά ένα μποτ που μιμείται τον Ελον Μασκ, ένα άλλο που μιμείται τη βασίλισσα Ελισάβετ και ένα τρίτο που παπαγαλίζει τον Ουίλιαμ Σαίξπηρ. Εφτιαξαν ένα ενιαίο σύστημα, που μπορεί να μιμηθεί όλους αυτούς τους ανθρώπους και αμέτρητους άλλους. Εχει μάθει από πλήθος γενικών διαλόγων, καθώς και από άρθρα, ειδήσεις, βιβλία και άλλα ψηφιακά κείμενα, που περιγράφουν ανθρώπους όπως ο Ελον Μασκ, η βασίλισσα Ελισάβετ και ο Ουίλιαμ Σαίξπηρ.

Το σύστημα έχει επίσης έναν τρόπο να συνδυάζει διαφορετικές έννοιες, που μαθαίνονται κατά τη διάρκεια της εκπαίδευσης. Το αποτέλεσμα είναι μια πρακτικά ατελείωτη συλλογή ρομπότ που μπορούν να μιμηθούν μια πρακτικά ατελείωτη συλλογή ανθρώπων, σε έναν πρακτικά ατελείωτο αριθμό θεμάτων, όπως διαπίστωσε ο Τιλ όταν συνομίλησε με το μποτ Καρλ Κάουτσκι.

Μερικές φορές, το μποτ διορθώνει πράγματα. Αλλες φορές δεν το κάνει. Οταν μίλησε με ένα άβαταρ που είχε σκοπό να μιμηθεί τον αμερικανό πολιτικό στοχαστή του 20ού αιώνα Αντολφ Ριντ τζούνιορ, ο Τιλ παρατήρησε ότι τον είχαν μετατρέψει σε «κάποιο είδος μαχητικού μαοϊκού, πράγμα που σίγουρα δεν είναι σωστό».

Οπως η Google, το OpenAI και άλλα κορυφαία εργαστήρια, οι Ντε Φρέιτας και Σαζίερ και οι συνάδελφοί τους σχεδιάζουν να εκπαιδεύσουν το σύστημά τους τροφοδοτώντας το με ολοένα μεγαλύτερες ποσότητες ψηφιακών δεδομένων. Αυτή η εκπαίδευση μπορεί να διαρκέσει μήνες και να κοστίσει εκατομμύρια δολάρια· μπορεί επίσης να οξύνει τις δεξιότητες του τεχνητού συνομιλητή.

Ωστόσο, ερευνητές λένε ότι η ταχεία βελτίωση των τελευταίων ετών δεν θα διαρκέσει πολύ. Ο Ρίτσαρντ Σόκερ, πρώην επικεφαλής Τεχνητής Νοημοσύνης στη Salesforce, ο οποίος τώρα διευθύνει τη start-up You.com, πιστεύει ότι αυτές οι εκθετικές βελτιώσεις θα αρχίσουν να εξισορροπούνται τα επόμενα χρόνια, όταν τα γλωσσικά μοντέλα φτάσουν στο σημείο να έχουν αναλύσει σχεδόν όλα τα κείμενα που υπάρχουν στο Διαδίκτυο.

Αλλά ο Σαζίερ πιστεύει ότι ο δρόμος είναι πολύ μακρύς. «Υπάρχουν δισεκατομμύρια άνθρωποι στον κόσμο που δημιουργούν κείμενα συνεχώς. Οι άνθρωποι θα συνεχίσουν να ξοδεύουν όλο και περισσότερα χρήματα για να εκπαιδεύουν ολοένα και πιο έξυπνα συστήματα. Δεν είμαστε καθόλου κοντά στο τέλος αυτής της τάσης», υποστηρίζει.

Ακολουθήστε το Protagon στο Google News

Διαβάστε ακόμη...

Διαβάστε ακόμη...