Τρίτη 26 Νοεμβρίου 2024

ΘΑ ΖΗΣΟΥΜΕ ΣΤΟ ΜΕΛΛΟΝ ΣΕ ΕΝΑ ΚΟΣΜΟ ΓΕΜΑΤΟ ΡΕΠΛΙΚΕΣ;

Η ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΜΠΟΡΕΙ ΤΩΡΑ ΝΑ ΔΗΜΙΟΥΡΓΗΣΕΙ ΕΝΑ ΑΝΤΙΓΡΑΦΟ ΤΗΣ ΠΡΟΣΩΠΙΚΟΤΗΤΑΣ 



Γράφει ο  Τζέιμς Ο' Ντόνελ

Μια δίωρη συνέντευξη είναι αρκετή για να αποτυπωθούν με ακρίβεια οι αξίες και οι προτιμήσεις σας, σύμφωνα με νέα έρευνα από το Stanford και το Google DeepMind.

Φανταστείτε να καθίσετε με ένα μοντέλο AI για μια προφορική δίωρη συνέντευξη. 

Μια φιλική φωνή σας καθοδηγεί σε μια συζήτηση που κυμαίνεται από την παιδική σας ηλικία, τις διαμορφωτικές αναμνήσεις σας και την καριέρα σας έως τις σκέψεις σας για τη μεταναστευτική πολιτική. 

Λίγο αργότερα, ένα εικονικό αντίγραφο του εαυτού σας είναι σε θέση να ενσωματώσει τις αξίες και τις προτιμήσεις σας με εκπληκτική ακρίβεια.

Αυτό είναι πλέον δυνατό, σύμφωνα με ένα νέο έγγραφο από μια ομάδα που περιλαμβάνει ερευνητές από το Στάνφορντ και το Google DeepMind, το οποίο έχει δημοσιευθεί στο arXiv και δεν έχει ακόμη αξιολογηθεί από ομοτίμους.

Με επικεφαλής τον Joon Sung Park, διδακτορικό φοιτητή του Στάνφορντ στην επιστήμη των υπολογιστών, η ομάδα στρατολόγησε 1.000 άτομα που διέφεραν ανάλογα με την ηλικία, το φύλο, τη φυλή, την περιοχή, την εκπαίδευση και την πολιτική ιδεολογία. 

Πληρώθηκαν έως και 100 δολάρια για τη συμμετοχή τους. Από συνεντεύξεις μαζί τους, η ομάδα δημιούργησε αντίγραφα πρακτόρων αυτών των ατόμων. 

Ως δοκιμή του πόσο καλά οι πράκτορες μιμήθηκαν τους ανθρώπινους ομολόγους τους, οι συμμετέχοντες έκαναν μια σειρά από τεστ προσωπικότητας, κοινωνικές έρευνες και παιχνίδια λογικής, δύο φορές το καθένα, με διαφορά δύο εβδομάδων. Στη συνέχεια, οι πράκτορες ολοκλήρωσαν τις ίδιες ασκήσεις. Τα αποτελέσματα ήταν 85% παρόμοια.

«Αν μπορείς να έχεις ένα σωρό μικρά "εσύ" να τρέχουν και να παίρνουν πραγματικά τις αποφάσεις που θα έπαιρνες – αυτό, νομίζω, είναι τελικά το μέλλον», λέει ο Park.


Στο έγγραφο τα αντίγραφα ονομάζονται πράκτορες προσομοίωσης και η ώθηση για τη δημιουργία τους είναι να διευκολύνουν τους ερευνητές στις κοινωνικές επιστήμες και σε άλλους τομείς να διεξάγουν μελέτες που θα ήταν δαπανηρές, μη πρακτικές ή ανήθικες να κάνουν με πραγματικά ανθρώπινα θέματα. 

Εάν μπορείτε να δημιουργήσετε μοντέλα AI που συμπεριφέρονται σαν πραγματικοί άνθρωποι, μπορείτε να τα χρησιμοποιήσετε για να δοκιμάσετε τα πάντα, από το πόσο καλά οι παρεμβάσεις στα μέσα κοινωνικής δικτύωσης καταπολεμούν την παραπληροφόρηση έως τις συμπεριφορές που προκαλούν κυκλοφοριακή συμφόρηση.

Τέτοιοι πράκτορες προσομοίωσης είναι ελαφρώς διαφορετικοί από τους πράκτορες που κυριαρχούν στο έργο των κορυφαίων εταιρειών AI σήμερα. Ονομάζονται πράκτορες που βασίζονται σε εργαλεία, αυτά είναι μοντέλα κατασκευασμένα για να κάνουν πράγματα για εσάς, όχι να συνομιλούν μαζί σας. 

Για παράδειγμα, μπορεί να εισάγουν δεδομένα, να ανακτούν πληροφορίες που έχετε αποθηκεύσει κάπου ή—κάποια μέρα—να κλείνουν ταξίδια για εσάς και να προγραμματίζουν συναντήσεις. 

Η Salesforce ανακοίνωσε τους δικούς της πράκτορες που βασίζονται σε εργαλεία τον Σεπτέμβριο, ακολουθούμενη από την Anthropic τον Οκτώβριο και η OpenAI σχεδιάζει να κυκλοφορήσει μερικούς τον Ιανουάριο, σύμφωνα με το Bloomberg.


Οι δύο τύποι παραγόντων είναι διαφορετικοί, αλλά μοιράζονται κοινό έδαφος. Η έρευνα σχετικά με τους πράκτορες προσομοίωσης, όπως αυτοί σε αυτό το έγγραφο, είναι πιθανό να οδηγήσει σε ισχυρότερους πράκτορες AI συνολικά, λέει ο John Horton, αναπληρωτής καθηγητής τεχνολογιών πληροφοριών στο MIT Sloan School of Management, ο οποίος ίδρυσε μια εταιρεία για τη διεξαγωγή έρευνας χρησιμοποιώντας συμμετέχοντες με προσομοίωση AI.

«Αυτό το έγγραφο δείχνει πώς μπορείτε να κάνετε ένα είδος υβριδίου: να χρησιμοποιήσετε πραγματικούς ανθρώπους για να δημιουργήσετε προσωπικότητες που μπορούν στη συνέχεια να χρησιμοποιηθούν προγραμματικά / σε προσομοίωση με τρόπους που δεν θα μπορούσατε με πραγματικούς ανθρώπους», δήλωσε στο MIT Technology Review σε ένα email.

Η έρευνα έρχεται με επιφυλάξεις, μεταξύ των οποίων και ο κίνδυνος που επισημαίνει. Ακριβώς όπως η τεχνολογία παραγωγής εικόνας έχει διευκολύνει τη δημιουργία επιβλαβών deepfakes ανθρώπων χωρίς τη συγκατάθεσή τους, οποιαδήποτε τεχνολογία παραγωγής πρακτόρων εγείρει ερωτήματα σχετικά με την ευκολία με την οποία οι άνθρωποι μπορούν να δημιουργήσουν εργαλεία για να προσωποποιήσουν άλλους στο διαδίκτυο, λέγοντας ή εξουσιοδοτώντας πράγματα που δεν σκόπευαν να πουν.

Οι μέθοδοι αξιολόγησης που χρησιμοποίησε η ομάδα για να ελέγξει πόσο καλά οι πράκτορες AI αναπαρήγαγαν τους αντίστοιχους ανθρώπους τους ήταν επίσης αρκετά βασικές. 

Αυτές περιελάμβαναν τη Γενική Κοινωνική Έρευνα - η οποία συλλέγει πληροφορίες σχετικά με τα δημογραφικά στοιχεία, την ευτυχία, τις συμπεριφορές και πολλά άλλα - και αξιολογήσεις των πέντε μεγάλων χαρακτηριστικών της προσωπικότητας: δεκτικότητα στην εμπειρία, ευσυνειδησία, εξωστρέφεια, ευχαρίστηση και νευρωτισμός. 

Τέτοια τεστ χρησιμοποιούνται συνήθως στην έρευνα των κοινωνικών επιστημών, αλλά δεν προσποιούνται ότι συλλαμβάνουν όλες τις μοναδικές λεπτομέρειες που μας κάνουν τον εαυτό μας.

 Οι πράκτορες της τεχνητής νοημοσύνης ήταν επίσης χειρότεροι στην αναπαραγωγή των ανθρώπων σε δοκιμές συμπεριφοράς όπως το «παιχνίδι δικτάτορα», το οποίο έχει ως στόχο να φωτίσει τον τρόπο με τον οποίο οι συμμετέχοντες θεωρούν αξίες όπως η δικαιοσύνη.

Σχετική ιστορία



Τι είναι οι πράκτορες AI;


Το επόμενο μεγάλο πράγμα είναι τα εργαλεία AI που μπορούν να κάνουν πιο περίπλοκες εργασίες. Δείτε πώς θα λειτουργήσουν.


Για να δημιουργήσουν έναν πράκτορα AI που αναπαράγει καλά τους ανθρώπους, οι ερευνητές χρειάστηκαν τρόπους για να αποστάξουν τη μοναδικότητά μας σε γλώσσα που μπορούν να κατανοήσουν τα μοντέλα AI. Επέλεξαν ποιοτικές συνεντεύξεις για να κάνουν ακριβώς αυτό, λέει ο Park. 

Λέει ότι ήταν πεπεισμένος ότι οι συνεντεύξεις είναι ο πιο αποτελεσματικός τρόπος για να μάθεις για κάποιον αφού εμφανίστηκε σε αμέτρητα podcast μετά από μια εργασία του 2023 που έγραψε για τους γενετικούς παράγοντες, η οποία προκάλεσε τεράστιο ενδιαφέρον στον τομέα. 

«Θα πήγαινα ίσως σε μια δίωρη συνέντευξη podcast podcast και μετά τη συνέντευξη, ένιωσα πως, ουάου, οι άνθρωποι ξέρουν πολλά για μένα τώρα», λέει. «Δύο ώρες μπορεί να είναι πολύ ισχυρές».

Αυτές οι συνεντεύξεις μπορούν επίσης να αποκαλύψουν ιδιοσυγκρασίες που είναι λιγότερο πιθανό να εμφανιστούν σε μια έρευνα. «Φανταστείτε ότι κάποιος είχε καρκίνο, αλλά τελικά θεραπεύτηκε πέρυσι. 

Αυτές είναι πολύ μοναδικές πληροφορίες για εσάς που λένε πολλά για το πώς μπορεί να συμπεριφέρεστε και να σκέφτεστε τα πράγματα», λέει. Θα ήταν δύσκολο να δημιουργηθούν ερωτήσεις έρευνας που προκαλούν τέτοιου είδους αναμνήσεις και απαντήσεις.

Ωστόσο, οι συνεντεύξεις δεν είναι η μόνη επιλογή. Οι εταιρείες που προσφέρονται να κάνουν «ψηφιακά δίδυμα» χρηστών, όπως ο Tavus, μπορούν να έχουν τα μοντέλα AI τους να απορροφούν μηνύματα ηλεκτρονικού ταχυδρομείου πελατών ή άλλα δεδομένα. 

Τείνει να χρειάζεται ένα αρκετά μεγάλο σύνολο δεδομένων για να αναπαραχθεί η προσωπικότητα κάποιου με αυτόν τον τρόπο, μου είπε ο διευθύνων σύμβουλος της Tavus, Hassaan Raza, αλλά αυτό το νέο έγγραφο προτείνει μια πιο αποτελεσματική διαδρομή.

"Αυτό που ήταν πραγματικά ωραίο εδώ είναι ότι δείχνουν ότι μπορεί να μην χρειάζεστε τόσες πολλές πληροφορίες", λέει ο Raza, προσθέτοντας ότι η εταιρεία του θα πειραματιστεί με την προσέγγιση.

 «Τι θα λέγατε να μιλήσετε με έναν ερευνητή τεχνητής νοημοσύνης για 30 λεπτά σήμερα, 30 λεπτά αύριο; Και μετά το χρησιμοποιούμε για να κατασκευάσουμε αυτό το ψηφιακό δίδυμο από εσάς».




Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου