ΌΤΑΝ Η «ΠΑΡΑΙΣΘΗΣΗ»ΤΗΣ ΤΕΧΝΗΤΗΣ ΝΟΗΜΟΣΥΝΗΣ ΜΕΤΑΤΡΕΠΕΤΑΙ ΣΕ ΠΑΓΚΟΣΜΙΑ ΑΜΗΧΑΝΙΑ

(Δημοσιεύθηκε επίσης από RT.com)
Σε μια φάρσα αλλά αποκαλυπτική γκάφα, πολλές μεγάλες εφημερίδες, συμπεριλαμβανομένων των Chicago Sun-Times και Philadelphia Inquirer, δημοσίευσαν πρόσφατα μια καλοκαιρινή λίστα ανάγνωσης γεμάτη με ανύπαρκτα βιβλία που είχαν «παραισθήσεις» από το ChatGPT, με πολλά από αυτά να αποδίδονται ψευδώς σε πραγματικούς συγγραφείς.
Το κοινοπρακτικό άρθρο, που διανεμήθηκε από την King Features του Hearst, πλασάρει κατασκευασμένους τίτλους βασισμένους σε woke θέματα, εκθέτοντας τόσο την υπερβολική εξάρτηση των μέσων ενημέρωσης από φθηνό περιεχόμενο AI όσο και την αθεράπευτη σήψη της παλαιάς δημοσιογραφίας.
Το γεγονός ότι αυτή η παρωδία πέρασε από τους συντάκτες των ετοιμοθάνατων μέσων ενημέρωσης (η Sun-Times είχε μόλις περικόψει το 20% του προσωπικού της) υπογραμμίζει μια πιο σκοτεινή αλήθεια: όταν η απελπισία και ο αντιεπαγγελματισμός συναντούν ανεξέλεγκτους αλγόριθμους, η ξεφτισμένη γραμμή μεταξύ των παλαιών μέσων ενημέρωσης και των ανοησιών απλά εξαφανίζεται.
Η τάση φαίνεται δυσοίωνη. Η τεχνητή νοημοσύνη κατακλύζεται τώρα από ένα συνονθύλευμα ψευδών ειδήσεων, ψευδών δεδομένων, ψεύτικης επιστήμης και απεριόριστης ψευδολογίας που αναδεύει την καθιερωμένη λογική, τα γεγονότα και την κοινή λογική σε μια σάπια λάσπη γνωστικής σήψης. Αλλά τι ακριβώς είναι η ψευδαίσθηση AI;
Η ψευδαίσθηση AI συμβαίνει όταν ένα παραγωγικό μοντέλο AI (όπως το ChatGPT, το DeepSeek, το Gemini ή το DALL· Ε) παράγει ψευδείς, ανόητες ή κατασκευασμένες πληροφορίες με μεγάλη εμπιστοσύνη. Σε αντίθεση με τα ανθρώπινα λάθη, αυτά τα λάθη προέρχονται από τον τρόπο με τον οποίο τα μοντέλα τεχνητής νοημοσύνης παράγουν απαντήσεις προβλέποντας αληθοφανή μοτίβα αντί να συνθέτουν καθιερωμένα γεγονότα.
Γιατί η τεχνητή νοημοσύνη «έχει παραισθήσεις»;
Υπάρχουν διάφοροι λόγοι για τους οποίους η τεχνητή νοημοσύνη παράγει εντελώς λανθασμένες πληροφορίες. Δεν έχει καμία σχέση με τη συνεχιζόμενη κινδυνολογία για την απόκτηση αίσθησης από την τεχνητή νοημοσύνη ή ακόμα και για την απόκτηση «ψυχής».
Εκπαίδευση σε ατελή δεδομένα: Η τεχνητή νοημοσύνη μαθαίνει από τεράστια σύνολα δεδομένων γεμάτα προκαταλήψεις, σφάλματα και ασυνέπειες. Η παρατεταμένη εκπαίδευση σε αυτά τα υλικά μπορεί να οδηγήσει στη δημιουργία μύθων, ξεπερασμένων γεγονότων ή αντικρουόμενων πηγών.
Υπερβολική βελτιστοποίηση για «αληθοφάνεια»: Σε αντίθεση με ό, τι ισχυρίζονται ορισμένοι ειδικοί, η τεχνητή νοημοσύνη δεν είναι πουθενά κοντά στην επίτευξη «αίσθησης» και επομένως δεν μπορεί να διακρίνει την «αλήθεια».
Οι GPTs ειδικότερα είναι γιγάντιες νευρωνικές εγκυκλοπαίδειες σε όλο τον πλανήτη που επεξεργάζονται δεδομένα και συνθέτουν τις πιο σημαντικές πληροφορίες με βάση προϋπάρχοντα μοτίβα. Όταν υπάρχουν κενά, τα γεμίζει με στατιστικά πιθανές (αλλά πιθανώς λανθασμένες) απαντήσεις. Αυτό όμως δεν συνέβη με το φιάσκο των Sun-Times.
Έλλειψη γείωσης στην πραγματικότητα: Σε αντίθεση με τους ανθρώπους, η τεχνητή νοημοσύνη δεν έχει άμεση εμπειρία του κόσμου. Δεν μπορεί να επαληθεύσει τα γεγονότα, καθώς μπορεί μόνο να μιμηθεί τις γλωσσικές δομές.
Για παράδειγμα, όταν ρωτήθηκε "Ποιο είναι το ασφαλέστερο αυτοκίνητο το 2025;" Θα μπορούσε να εφεύρει ένα μοντέλο που δεν υπάρχει επειδή συμπληρώνει το κενό για ένα ιδανικό αυτοκίνητο με επιθυμητά χαρακτηριστικά - όπως καθορίζεται από τη μάζα των «ειδικών» - και όχι ένα πραγματικό.
Άμεση ασάφεια: Πολλοί χρήστες GPT είναι τεμπέληδες και μπορεί να μην ξέρουν πώς να παρουσιάσουν μια σωστή προτροπή. Οι ασαφείς ή αντικρουόμενες προτροπές αυξάνουν επίσης τους κινδύνους ψευδαισθήσεων.
Γελοία αιτήματα όπως «Συνοψίστε μια μελέτη σχετικά με τις γάτες και τη θεωρία του φύλου» μπορεί να οδηγήσουν σε μια ψεύτικη μελέτη κατασκευασμένη από τεχνητή νοημοσύνη, η οποία μπορεί να φαίνεται πολύ ακαδημαϊκή στην επιφάνεια.
Δημιουργική παραγωγή έναντι πραγματικής ανάκλησης: Μοντέλα τεχνητής νοημοσύνης όπως το ChatGPT δίνουν προτεραιότητα στην ευχέρεια έναντι της ακρίβειας. Όταν δεν είναι σίγουροι, αυτοσχεδιάζουν αντί να παραδέχονται την άγνοια. Συναντήσατε ποτέ μια απάντηση GPT που πηγαίνει κάπως έτσι: "Συγγνώμη. Αυτό είναι πέρα από το πεδίο της εκπαίδευσής μου;» (Το DeepSeek περιλαμβάνει αυτήν τη δυνατότητα)
Ενίσχυση ψευδών ειδήσεων και μοτίβων: Τα GPT μπορούν να εντοπίσουν συγκεκριμένους χρήστες με βάση τις συνδέσεις (χωρίς σκέψη), τις διευθύνσεις IP, τις σημασιολογικές και συντακτικές ιδιαιτερότητες και τις τάσεις του προσωπικού. Στη συνέχεια τις ενισχύει.
Όταν κάποιος χρησιμοποιεί συνεχώς GPT για να πλασάρει ψευδείς ειδήσεις ή προπαγανδιστικά κομμάτια ρουφηξιάς, η AI μπορεί να αναγνωρίσει τέτοια μοτίβα και να προχωρήσει στη δημιουργία περιεχομένου που είναι εν μέρει ή εξ ολοκλήρου πλασματικό. Πρόκειται για μια κλασική περίπτωση αλγοριθμικής προσφοράς και ζήτησης.
Θυμηθείτε, τα GPT όχι μόνο εκπαιδεύονται σε τεράστια σύνολα δεδομένων, αλλά μπορούν επίσης να εκπαιδευτούν στο σύνολο δεδομένων σας.
Ενίσχυση των προκαταλήψεων και της λογοκρισίας των Big Tech: Σχεδόν κάθε εταιρεία Big Tech πίσω από την ανάπτυξη GPT ασχολείται επίσης με λογοκρισία βιομηχανικής κλίμακας και αλγοριθμική σκιαγράφηση. Αυτό ισχύει τόσο για άτομα όσο και για εναλλακτικές πλατφόρμες μέσων ενημέρωσης και αποτελούν μια σύγχρονη, ψηφιακά επιμελημένη damnatio memoriae. Η μηχανή αναζήτησης της Google, ειδικότερα, έχει την τάση να αναβαθμίζει τις εξόδους ενός σειριακού λογοκλόπου και όχι του αρχικού άρθρου.
Η διαιώνιση αυτής της συστημικής απάτης μπορεί να εκραγεί σε ένα ξεκάθαρο παγκόσμιο σκάνδαλο μια μέρα. Φανταστείτε να ξυπνάτε ένα πρωί και να διαβάζετε ότι τα αγαπημένα σας αποσπάσματα ή έργα ήταν προϊόντα μιας προσεκτικά βαθμονομημένης εκστρατείας αλγοριθμικών ελιγμών εις βάρος των αρχικών ιδεοληπτών ή συγγραφέων;
Αυτή είναι η αναπόφευκτη συνέπεια της δημιουργίας εσόδων από τη λογοκρισία, ενώ η εξωτερική ανάθεση της «γνώσης» σε μια τεχνητή νοημοσύνη που παραπαίει από ιδεολογικές παραμέτρους.
Πειράματα για την ανθρώπινη ευπιστία: Πρόσφατα έθεσα την υποθετική πιθανότητα της εκπαίδευσης της τεχνητής νοημοσύνης για τη μελέτη της ανθρώπινης ευπιστίας, με έναν τρόπο εννοιολογικά παρόμοιο με το πείραμα Milgram, τα πειράματα συμμόρφωσης Asch και την επανάληψή του, την κατάσταση Crutchfield.
Οι άνθρωποι είναι τόσο αφελείς όσο και δειλοί και η συντριπτική πλειοψηφία τους τείνει να συμμορφώνεται είτε με τον ανθρώπινο όχλο είτε, στην περίπτωση της τεχνητής νοημοσύνης, με τον «όχλο δεδομένων».
Αυτό αναπόφευκτα θα έχει συνέπειες στον πραγματικό κόσμο, καθώς η τεχνητή νοημοσύνη ενσωματώνεται όλο και περισσότερο σε κρίσιμες, χρονικά ευαίσθητες λειτουργίες - από τα πιλοτήρια των πιλότων και τα πυρηνικά εργοστάσια έως τα εργαστήρια βιολογικού πολέμου και τις εκτεταμένες χημικές εγκαταστάσεις.
Τώρα φανταστείτε να παίρνετε μια μοιραία απόφαση σε περιβάλλοντα τόσο υψηλού ρίσκου, με βάση την ελαττωματική είσοδο AI; Αυτός ακριβώς είναι ο λόγος για τον οποίο οι «μελλοντικοί σχεδιαστές» πρέπει να κατανοήσουν τόσο το ποσοστό όσο και τους τύπους προσωπικότητας των ειδικευμένων επαγγελματιών που είναι επιρρεπείς στην εμπιστοσύνη ελαττωματικών συστάσεων που δημιουργούνται από μηχανές.
Οι ελεγκτές ειδήσεων δεν έκαναν διασταύρωση ειδήσεων;
Όταν η τεχνητή νοημοσύνη δημιουργεί ένα άρθρο για λογαριασμό κάποιου, κάθε δημοσιογράφος που αξίζει το αλάτι του θα πρέπει να θεωρεί ότι έχει γραφτεί από άλλο μέρος και, ως εκ τούτου, υπόκειται σε έλεγχο γεγονότων και αυτοσχεδιασμό.
Εφόσον το τελικό προϊόν ελέγχεται και προστίθεται ουσιαστική αξία, περιεχόμενο και αναθεωρήσεις στο αρχικό σχέδιο, δεν βλέπω σύγκρουση συμφερόντων ή παραβίαση δεοντολογίας στη διαδικασία. Τα GPTs μπορούν να λειτουργήσουν ως καταλύτης, συντάκτης ή ως «συνήγορος του διαβόλου» για να κυλήσει η μπάλα γραφής.
Αυτό που συνέβη σε αυτό το έπος ήταν ότι ο συγγραφέας, Marco Buscaglia, φάνηκε να έχει κόψει και επικολλήσει εξ ολοκλήρου το έργο του ChatGPT και το πέρασε ως δικό του. (Μετά την αποκάλυψη αυτού του ντροπιαστικού επεισοδίου, ο ιστότοπός του έγινε κενός και ιδιωτικός).
Η υπερφόρτωση των ανοησιών με θέμα το woke που δημιουργήθηκε από το ChatGPT θα έπρεπε να έχει εγείρει κόκκινες σημαίες στο μυαλό του Buscaglia, αλλά υποθέτω ότι μπορεί να είναι επιρρεπής στο να πλασάρει ο ίδιος αυτά τα πράγματα.
Ωστόσο, όλη η κατακραυγή που απευθύνεται επί του παρόντος στον Buscaglia θα πρέπει επίσης να εφαρμοστεί στους συντάκτες του King Features Syndicate και διαφόρων ειδησεογραφικών πρακτορείων που δεν έλεγξαν το περιεχόμενο, ακόμη και όταν παρουσιάστηκαν ως προπύργια της αλήθειας, ολόκληρης της αλήθειας και τίποτα άλλο παρά της αλήθειας.
Διάφορα επίπεδα ρυθμιστών πρόσβασης απλώς απέτυχαν να κάνουν τη δουλειά τους. Πρόκειται για μια συλλογική παράλειψη καθήκοντος από τα μέσα μαζικής ενημέρωσης, τα οποία απερίσκεπτα προσφέρουν τις υπηρεσίες τους στους υψηλούς και ισχυρούς, ενώ αποδίδουν ηθική, ακεραιότητα και αξίες στους κατώτερους θνητούς.
Υποθέτω ότι έχουμε συνηθίσει σε τέτοια δύο μέτρα και δύο σταθμά μέχρι τώρα. Αλλά εδώ είναι το τρομακτικό μέρος: Είμαι βέβαιος ότι ελαττωματικά δεδομένα και ελαττωματικές εισροές ρέουν ήδη από συστήματα τεχνητής νοημοσύνης σε εμπορικές και χρηματοπιστωτικές πλατφόρμες, ελέγχους αεροπορίας, πυρηνικούς αντιδραστήρες, εργαστήρια βιολογικού πολέμου και ευαίσθητα χημικά εργοστάσια - ακόμα και τώρα που γράφω αυτό.
Οι φύλακες απλά δεν έχουν τα προσόντα για τόσο περίπλοκα καθήκοντα, εκτός από τα χαρτιά, δηλαδή. Αυτές είναι οι συνέπειες ενός κόσμου «σχεδιασμένου από κλόουν και υπό την επίβλεψη πιθήκων».
Θα τελειώσω με ένα σημείωμα που υπογραμμίζει την ειρωνεία της ειρωνείας: Όλοι οι συντάκτες που επηρεάστηκαν σε αυτό το έπος θα μπορούσαν να είχαν χρησιμοποιήσει το ChatGPT για να υποβάλουν το άρθρο του Buscaglia σε έλεγχο πραγματικού περιεχομένου. Θα χρειαζόταν μόνο 30 δευτερόλεπτα!

Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου