ΑΥΤΟ ΠΟΥ ΜΟΙΡΑΖΕΣΤΕ ΜΕ ΤΟ CHATGPT ΜΠΟΡΕΙ ΝΑ ΧΡΗΣΙΜΟΠΟΙΗΘΕΙ ΕΝΑΝΤΙΟΝ ΣΑΣ

Από τον Tyler Durden
/ Συντάχθηκε από τον Martin Young
μέσω CoinTelegraph.com
Η OpenAI θα μπορούσε νομικά να υποχρεωθεί να παράγει ευαίσθητες πληροφορίες και έγγραφα που μοιράζονται με το chatbot τεχνητής νοημοσύνης ChatGPT, προειδοποιεί ο διευθύνων σύμβουλος της OpenAI, Sam Altman.
Ο Altman τόνισε το κενό απορρήτου ως «τεράστιο ζήτημα» κατά τη διάρκεια συνέντευξης με τον podcaster Theo Von την περασμένη εβδομάδα, αποκαλύπτοντας ότι, σε αντίθεση με τις συνομιλίες με θεραπευτές, δικηγόρους ή γιατρούς με νομική προστασία προνομίων, οι συνομιλίες με το ChatGPT δεν έχουν επί του παρόντος τέτοια προστασία.
«Και αυτή τη στιγμή, αν μιλήσεις με έναν θεραπευτή ή έναν δικηγόρο ή έναν γιατρό για αυτά τα προβλήματα, υπάρχει σαν νομικό προνόμιο για αυτό... Και δεν το έχουμε καταλάβει ακόμα όταν μιλάτε στο ChatGPT».
Πρόσθεσε ότι αν μιλήσετε στο ChatGPT για «τα πιο ευαίσθητα πράγματά σας» και στη συνέχεια υπάρξει αγωγή, «θα μπορούσε να μας ζητηθεί να το παρουσιάσουμε».
Τα σχόλια του Altman έρχονται εν μέσω αυξημένης χρήσης της τεχνητής νοημοσύνης για ψυχολογική υποστήριξη, ιατρικές και οικονομικές συμβουλές.
«Νομίζω ότι αυτό είναι πολύ μπερδεμένο», δήλωσε ο Altman, προσθέτοντας ότι «θα πρέπει να έχουμε την ίδια έννοια της ιδιωτικής ζωής για τις συνομιλίες σας με την τεχνητή νοημοσύνη που κάνουμε με έναν θεραπευτή ή οτιδήποτε άλλο».
Η Daily News από το Ίδρυμα Art of Liberty είναι μια έκδοση που υποστηρίζεται από αναγνώστες. Για να λαμβάνετε νέες αναρτήσεις και να υποστηρίζετε τη δουλειά μου, σκεφτείτε να γίνετε δωρεάν ή επί πληρωμή συνδρομητής.
Sam Altman στο podcast This Past Weekend. Πηγή: YouTube
Έλλειψη νομικού πλαισίου για την τεχνητή νοημοσύνη
Ο Altman εξέφρασε επίσης την ανάγκη για ένα νομικό πλαίσιο πολιτικής για την τεχνητή νοημοσύνη, λέγοντας ότι αυτό είναι ένα «τεράστιο ζήτημα».
«Αυτός είναι ένας από τους λόγους που φοβάμαι μερικές φορές να χρησιμοποιήσω ορισμένα πράγματα τεχνητής νοημοσύνης, επειδή δεν ξέρω πόσες προσωπικές πληροφορίες θέλω να βάλω, επειδή δεν ξέρω ποιος θα τις έχει».
Πιστεύει ότι θα πρέπει να υπάρχει η ίδια έννοια της ιδιωτικής ζωής για τις συνομιλίες AI όπως υπάρχει με τους θεραπευτές ή τους γιατρούς και οι υπεύθυνοι χάραξης πολιτικής με τους οποίους έχει μιλήσει συμφωνούν ότι αυτό πρέπει να επιλυθεί και απαιτεί γρήγορη δράση.
Ευρύτερες ανησυχίες σχετικά με την εποπτεία
Ο Altman εξέφρασε επίσης ανησυχίες για περισσότερη επιτήρηση που προέρχεται από την επιτάχυνση της υιοθέτησης της τεχνητής νοημοσύνης παγκοσμίως.
«Ανησυχώ ότι όσο περισσότερη τεχνητή νοημοσύνη έχουμε στον κόσμο, τόσο περισσότερη επιτήρηση θα θέλει ο κόσμος», είπε, καθώς οι κυβερνήσεις θα θέλουν να βεβαιωθούν ότι οι άνθρωποι δεν χρησιμοποιούν την τεχνολογία για τρομοκρατία ή φαύλους σκοπούς.
Είπε ότι για το λόγο αυτό, η ιδιωτικότητα δεν χρειάζεται να είναι απόλυτη και ήταν «απολύτως πρόθυμος να θέσει σε κίνδυνο κάποια ιδιωτικότητα για συλλογική ασφάλεια», αλλά υπήρχε μια προειδοποίηση.
«Η ιστορία είναι ότι η κυβέρνηση το παρατραβάει αυτό και είμαι πραγματικά νευρικός γι' αυτό».

Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου