Η ΑΝΑΠΟΦΕΥΚΤΗ ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΚΑΙ Η ΑΠΕΙΛΗ ΓΙΑ ΤΗΝ ΑΝΘΡΩΠΙΝΗ ΚΥΡΙΑΡΧΙΑ
Η τεχνητή νοημοσύνη παρουσιάζεται σήμερα ως η μεγάλη ατμομηχανή της νέας εποχής.
Οι κυβερνήσεις, οι επιχειρήσεις, τα πανεπιστήμια και τα μέσα ενημέρωσης μιλούν για την αναπόφευκτη επικράτησή της, για το πώς θα αλλάξει τις κοινωνίες, την εργασία, τις επικοινωνίες, ακόμα και τον ίδιο τον άνθρωπο.
Όμως πίσω από τη ρητορική της αναγκαιότητας και της «μοίρας» κρύβεται μια πολιτική πραγματικότητα: η τεχνητή νοημοσύνη δεν είναι φυσικό φαινόμενο, αλλά ανθρώπινο δημιούργημα, και ως τέτοιο αντανακλά τις επιδιώξεις εκείνων που τη σχεδιάζουν, τη χρηματοδοτούν και την ελέγχουν.
Το ερώτημα που τίθεται δεν είναι αν θα υπάρξει η τεχνητή νοημοσύνη – αυτό είναι δεδομένο. Το πραγματικό ερώτημα είναι ποιος θα την ελέγχει, ποιος θα αποφασίζει πώς θα χρησιμοποιείται και με ποιον σκοπό.
Αν παρατηρήσουμε τις τελευταίες δεκαετίες, βλέπουμε ότι κάθε μεγάλη τεχνολογική αλλαγή συνοδευόταν από ένα αφήγημα αναπόφευκτης προόδου. Από την έλευση του ηλεκτρισμού έως το διαδίκτυο, η ρητορική ήταν ίδια: «δεν μπορείς να σταματήσεις την πρόοδο».
Όμως, ενώ οι κοινωνίες αποδέχονταν την ιδέα της αναγκαστικής προσαρμογής, ελάχιστα συζητούσαν για το ποιος κερδίζει και ποιος χάνει από κάθε τέτοια αλλαγή.
Στην περίπτωση της τεχνητής νοημοσύνης, το διακύβευμα είναι ακόμα μεγαλύτερο: δεν μιλάμε μόνο για την παραγωγικότητα ή την κατανάλωση, αλλά για την ίδια την ανθρώπινη κυριαρχία, δηλαδή την ικανότητα του ατόμου και των κοινωνιών να αποφασίζουν αυτόνομα για τη ζωή τους.
Η εμπειρία της πανδημίας του Covid-19 προσφέρει ένα πολύτιμο μάθημα. Τεχνολογίες παρακολούθησης, ιχνηλάτησης και ελέγχου κινήσεων εφαρμόστηκαν σε μαζική κλίμακα με πρόσχημα την προστασία της δημόσιας υγείας.
Πολλά από αυτά τα συστήματα παραμένουν ενεργά ή εξελίσσονται σήμερα, με το επιχείρημα ότι «αν δεν έχουμε κάτι να κρύψουμε, δεν έχουμε να φοβηθούμε τίποτα».
Το ίδιο ακριβώς σχήμα μπορεί να εφαρμοστεί στην τεχνητή νοημοσύνη. Αν οι πολίτες πειστούν ότι η χρήση της είναι αναπόφευκτη και ωφέλιμη, τότε οι περιορισμοί των ελευθεριών, η διάβρωση της ιδιωτικότητας και η επιβολή ενός τεχνοκρατικού ελέγχου θα γίνουν εύκολα αποδεκτά.
Οι υπέρμαχοι της τεχνητής νοημοσύνης υποστηρίζουν ότι η τεχνολογία μπορεί να βελτιώσει τη ζωή των ανθρώπων, να μειώσει τα λάθη, να προσφέρει νέες δυνατότητες στην ιατρική, στην εκπαίδευση, στη μετακίνηση.
Όλα αυτά ακούγονται εύλογα. Όμως η πραγματικότητα δείχνει ότι η τεχνητή νοημοσύνη λειτουργεί ως μοχλός συγκέντρωσης ισχύος.
Οι αλγόριθμοι δεν είναι ουδέτεροι. Σχεδιάζονται από εταιρείες που αποσκοπούν στο κέρδος και χρησιμοποιούνται από κυβερνήσεις που θέλουν να διαχειριστούν πληθυσμούς.
Όταν το σύστημα αποφασίζει για το ποια είδη πληροφορίας βλέπουμε, ποιοι θεωρούνται «αξιόπιστοι» και ποιοι «επικίνδυνοι», ποιοι θα πάρουν δάνειο και ποιοι θα αποκλειστούν, ποιοι θα έχουν πρόσβαση σε υπηρεσίες και ποιοι όχι, τότε το ζήτημα δεν είναι τεχνικό αλλά βαθιά πολιτικό.
Η μεγάλη αυταπάτη είναι ότι η τεχνητή νοημοσύνη παρουσιάζεται ως «μοίρα», σαν κάτι που συμβαίνει έξω από την ανθρώπινη βούληση.
Η πραγματικότητα είναι ακριβώς η αντίθετη: οι αποφάσεις για το πώς αναπτύσσεται και πώς χρησιμοποιείται λαμβάνονται σε διοικητικά συμβούλια εταιρειών, σε κυβερνητικά γραφεία, σε διεθνείς οργανισμούς.
Το ότι οι κοινωνίες καλούνται απλώς να προσαρμοστούν, χωρίς να ερωτηθούν, δείχνει ότι το πρόβλημα δεν είναι η τεχνολογία αυτή καθεαυτή αλλά η απουσία δημοκρατικού ελέγχου πάνω στη χρήση της.
Ο κίνδυνος δεν είναι να αντικαταστήσει η τεχνητή νοημοσύνη τον άνθρωπο, αλλά να τον πείσει να παραχωρήσει τη σκέψη του και την ευθύνη του. Να πιστέψει ότι οι μηχανές «ξέρουν καλύτερα» και να παραδώσει σταδιακά την κρίση του σε αλγορίθμους. Αυτό συνιστά απειλή για την έννοια της ελευθερίας.
Διότι ελευθερία δεν είναι μόνο να εκλέγεις μια κυβέρνηση ή να μιλάς δημόσια, είναι να έχεις την κυριαρχία της ίδιας σου της απόφασης, της κρίσης, της βούλησης. Όταν αυτά αντικαθίστανται από υπολογιστικά συστήματα, η ελευθερία καταντά τυπική, ενώ η πραγματική ισχύς μεταφέρεται αλλού.
Η ιστορία της τεχνολογίας δείχνει ότι καμία «αναπόφευκτη πρόοδος» δεν είναι ουδέτερη. Ο ηλεκτρισμός, για παράδειγμα, έγινε όχημα εκδημοκρατισμού μόνο όταν οι κοινωνίες απαίτησαν να υπάρχει πρόσβαση σε όλους, και όχι μόνο στους λίγους.
Το διαδίκτυο ξεκίνησε ως όραμα ελευθερίας και ανταλλαγής γνώσεων, αλλά εξελίχθηκε σε εργαλείο μαζικής παρακολούθησης και εμπορευματοποίησης της πληροφορίας, επειδή το άφησαν να ελεγχθεί από εταιρείες και κυβερνήσεις.
Το ίδιο ισχύει και με την τεχνητή νοημοσύνη: αν δεν υπάρξει συλλογικός έλεγχος, θα υπηρετήσει τα συμφέροντα των ισχυρών.
Είναι αλήθεια ότι η τεχνητή νοημοσύνη μπορεί να προσφέρει οφέλη. Μπορεί να βοηθήσει στην έρευνα για ασθένειες, να αναλύσει τεράστιους όγκους δεδομένων για να εντοπίσει νέες θεραπείες, να υποστηρίξει την εκπαίδευση με εξατομικευμένα προγράμματα μάθησης, να βελτιώσει την ασφάλεια στις μετακινήσεις. Όμως το πρόβλημα δεν είναι οι δυνατότητες, αλλά οι σκοποί.
Αν οι σκοποί είναι το κέρδος, η επιτήρηση, η χειραγώγηση, τότε οι δυνατότητες μετατρέπονται σε όπλα. Δεν είναι τυχαίο ότι ήδη η τεχνητή νοημοσύνη χρησιμοποιείται για την ανάπτυξη συστημάτων «κοινωνικής πίστωσης», για την αξιολόγηση πολιτών, για την πρόβλεψη συμπεριφορών, για την παρακολούθηση και τον έλεγχο.
Η απάντηση σε αυτή την απειλή δεν μπορεί να είναι η τεχνοφοβία. Δεν μπορούμε να αρνηθούμε την ύπαρξη ή την πρόοδο της τεχνολογίας. Η απάντηση είναι η πολιτική. Οι κοινωνίες πρέπει να θέσουν όρια, να δημιουργήσουν θεσμούς που θα εξασφαλίζουν ότι η τεχνητή νοημοσύνη δεν θα χρησιμοποιείται ενάντια στον άνθρωπο, αλλά υπέρ του.
Αυτό σημαίνει διαφάνεια στους αλγόριθμους, λογοδοσία για τις αποφάσεις που λαμβάνονται από τα συστήματα, εγγυήσεις ότι τα προσωπικά δεδομένα δεν θα αποτελούν αντικείμενο εκμετάλλευσης. Σημαίνει ακόμα να υπάρχει το δικαίωμα του ανθρώπου να αμφισβητεί και να ανατρέπει αποφάσεις που λαμβάνει μια μηχανή.
Η συζήτηση για την τεχνητή νοημοσύνη δεν είναι μόνο τεχνολογική· είναι βαθιά φιλοσοφική. Θέτει ερωτήματα για το τι σημαίνει να είσαι άνθρωπος, τι σημαίνει ελευθερία, τι σημαίνει ευθύνη. Αν δεχτούμε ότι οι μηχανές μπορούν να αποφασίζουν καλύτερα από εμάς, τότε χάνουμε όχι μόνο τον έλεγχο αλλά και την ίδια την έννοια του ανθρώπινου προσώπου.
Η τεχνητή νοημοσύνη μπορεί να μιμηθεί τη γλώσσα, να αναπαράγει πρότυπα, να υπολογίζει απίστευτα γρήγορα, αλλά δεν έχει συνείδηση, δεν έχει ηθική, δεν έχει βούληση. Αυτά παραμένουν προνόμια του ανθρώπου. Αν τα παραδώσουμε, δεν φταίνε οι μηχανές· φταίμε εμείς.
Η ευθύνη επομένως ανήκει στις κοινωνίες. Η τεχνητή νοημοσύνη μπορεί να είναι αναπόφευκτη, αλλά το πώς θα χρησιμοποιηθεί δεν είναι προδιαγεγραμμένο. Μπορεί να αποτελέσει όχημα ελευθερίας, αν διασφαλιστεί η πρόσβαση και ο έλεγχος από τους πολλούς.
Μπορεί όμως να γίνει όπλο καταπίεσης, αν αφεθεί στα χέρια των λίγων. Η ιστορία δείχνει ότι χωρίς θεσμικά αντίβαρα, χωρίς ενεργούς πολίτες, χωρίς διαρκή αγώνα για ελευθερία, κάθε τεχνολογία καταλήγει να υπηρετεί την εξουσία.
Αυτή είναι και η μεγάλη πρόκληση του καιρού μας. Να μην παρασυρθούμε από την αυταπάτη της «μοίρας» και της αναπόφευκτης προόδου. Να θυμηθούμε ότι η τεχνητή νοημοσύνη είναι εργαλείο, όχι πεπρωμένο. Και ότι το μέλλον δεν είναι δεδομένο· είναι αποτέλεσμα επιλογών.
Αν αυτές οι επιλογές γίνουν πίσω από κλειστές πόρτες, θα ξυπνήσουμε σε έναν κόσμο όπου η ανθρώπινη κυριαρχία θα έχει υποκατασταθεί από αλγοριθμικά συστήματα.
Αν όμως οι επιλογές γίνουν με γνώμονα την ελευθερία και τη δημοκρατία, τότε η τεχνητή νοημοσύνη μπορεί να αποτελέσει εργαλείο ενδυνάμωσης του ανθρώπου και όχι αντικατάστασής του.
Το Brownstone Institute καταλήγει σε μια προειδοποίηση που πρέπει να ληφθεί σοβαρά υπόψη: η τεχνητή νοημοσύνη δεν πρέπει να θεωρηθεί φυσικό φαινόμενο στο οποίο απλώς υποτασσόμαστε.
Είναι δημιούργημα ανθρώπων και άρα μπορεί να καθοδηγηθεί από ανθρώπους. Το κρίσιμο διακύβευμα είναι να παραμείνει η κυριαρχία στον άνθρωπο. Αν αφεθεί ανεξέλεγκτη, η τεχνολογία δεν θα μας απελευθερώσει, αλλά θα μας αλυσοδέσει.
Το μέλλον δεν θα το καθορίσουν οι μηχανές. Θα το καθορίσει το αν οι κοινωνίες θα βρουν το θάρρος να επιβάλουν ότι οι μηχανές υπηρετούν τον άνθρωπο και όχι το αντίστροφο.
Αν αποτύχουμε σε αυτό, η «αναπόφευκτη» πρόοδος της τεχνητής νοημοσύνης θα αποδειχθεί το μεγαλύτερο πισωγύρισμα στην ιστορία της ελευθερίας.
Ένας βετεράνος του διαδικτύου κρούει τον κώδωνα του κινδύνου για την ανθρώπινη κυριαρχία
Ένας επαγγελματίας με δεκαετίες εμπειρίας στη βιομηχανία του διαδικτύου, ο Josh Stylman, περιγράφει την τεχνητή νοημοσύνη ως το αποκορύφωμα μιας πορείας που μετέτρεψε τα ψηφιακά συστήματα από μηχανές παρακολούθησης σε μηχανισμούς διαμόρφωσης σκέψης, πεποιθήσεων και αυτοεικόνας. Αρχική του παρόρμηση —όπως λέει— ήταν να «μην ταΐσει την ψυχή του σε μηχανή».
Κατέληξε όμως ότι η αντίσταση είναι σχεδόν μάταιη: οι πολίτες ήδη χρησιμοποιούν ΤΝ χωρίς να το αντιλαμβάνονται, από κέντρα εξυπηρέτησης και μηχανές αναζήτησης έως βασικές λειτουργίες κινητών.
Γι’ αυτό και ο ίδιος άρχισε τελικά να αξιοποιεί τα εργαλεία, βλέποντας την ταχύτητα με την οποία καθίστανται αναπόφευκτα όπως παλαιότερα το διαδίκτυο και τα smartphones.
Στο σκεπτικό του υπογραμμίζει ότι κάθε γενιά βιώνει ανατροπές: το τυπογραφείο διέδωσε τη γνώση, ο τηλέγραφος «έσπασε» την απόσταση, το αυτοκίνητο αναδιαμόρφωσε τις κοινότητες. Ωστόσο θεωρεί ότι η «επανάσταση της ΤΝ» είναι διαφορετική, τόσο σε ρυθμό όσο και σε εύρος.
Υπενθυμίζει πως όσοι είναι κάτω των 35 σπάνια θυμούνται ζωή πριν το διαδίκτυο, όσοι κάτω των 20 δεν γνώρισαν κόσμο χωρίς smartphone, και τώρα διανύουμε «τρίτη εποχή» με τα εργαλεία ΤΝ να εξαπλώνονται ταχύτερα από κάθε προηγούμενη τεχνολογική στροφή.
Το ποιοτικό άλμα, κατά την ανάλυσή του, είναι ότι η ΤΝ δεν αγγίζει μόνον την εργασία αλλά και τη σκέψη — ακόμη και τη συνείδηση.
Ο βασικός του φόβος δεν περιορίζεται σε σενάρια «εχθρικής» υπεροχής των μηχανών, αλλά εστιάζει στον ύπουλο κίνδυνο: να καταστήσουν τους ανθρώπους υποδεέστερους σε συστήματα με τρόπους που δεν αντιλαμβάνονται εγκαίρως, αποδυναμώνοντας τις ίδιες τις ικανότητες που υπόσχονται να ενισχύσουν.
Για να περιγράψει το φαινόμενο επιστρατεύει την έννοια της «ιατρογενούς εξάρτησης» του Ivan Illich (Medical Nemesis): θεσμοί που υπόσχονται θεραπεία δημιουργούν νέες μορφές ασθένειας.
Κατά τον ίδιο, η ΤΝ ταιριάζει ακριβώς σε αυτό το υπόδειγμα: υπόσχεται γνωστική ενίσχυση ενώ σταδιακά εξασθενεί την ανεξάρτητη κρίση.
Το βλέπει στην καθημερινότητα: χρήστες που πρώτα «ρωτούν» τον αλγόριθμο πριν σκεφτούν μόνοι τους, αδυναμία πλοήγησης χωρίς GPS, εξάρτηση από διορθωτές ορθογραφίας και προτάσεις αυτόματης συμπλήρωσης που προδιαμορφώνουν το κείμενο πριν ολοκληρωθεί η σκέψη.
Στο ίδιο πλαίσιο επικαλείται παρατηρήσεις του Jeffrey Tucker (Brownstone Institute) από συνομιλία με τον ειδικό Joe Allen: η ΤΝ ξεπήδησε σε γόνιμο έδαφος μετά τα lockdowns, όταν η κοινωνική συνοχή είχε ραγίσει και η εμπιστοσύνη σε θεσμούς είχε διαβρωθεί· περίοδος «μαζικής αποπροσανατολισμού και αποθάρρυνσης» που έκανε τους ανθρώπους πιο δεκτικούς σε τεχνολογικά υποκατάστατα σχέσης.
Η ανάλυση του συνομιλεί με ένα δεύτερο ρεύμα κριτικής: την οικονομική αναπόφευκτη. Οι μηχανές, σημειώνει, δεν χρειάζονται μισθό, άδειες, υγειονομική περίθαλψη ή διοίκηση.
Καθώς η ΤΝ αποκτά βασική επάρκεια σε γνωστικές εργασίες —«ταχύτερα απ’ όσο πολλοί αντιλαμβάνονται»— το πλεονέκτημα κόστους γίνεται συντριπτικό.
Σε αντίθεση με προηγούμενους τεχνολογικούς κύκλους όπου οι εργαζόμενοι μετακινήθηκαν σε νέα πεδία, τώρα ο ίδιος φοβάται ότι η υποκατάσταση θα αγγίξει και «δημιουργικές» λειτουργίες: μουσική, εικόνα, κώδικας, δημοσιογραφία «αρκετά καλή» για να θεωρηθεί επαρκής από το κοινό.
Στο επίπεδο θεσμών, ανασύρει την κριτική που ανέπτυξε στο «The Illusion of Expertise»: οι ίδιες ελίτ που απέτυχαν σε Ιράκ/WMD, στη χρηματοοικονομική κρίση του 2008 ή στις πολιτικές Covid, ηγούνται σήμερα της ανάπτυξης της ΤΝ — με προτεραιότητα στον έλεγχο του αφηγήματος αντί της αναζήτησης αλήθειας. Φοβάται ότι τα νέα εργαλεία θα χρησιμοποιηθούν για ενίσχυση εξουσίας και όχι για ανθρώπινη άνθηση.
Παράλληλα, αναγνωρίζει μια ειρωνική πιθανότητα: η ΤΝ μπορεί να ξεγυμνώσει τον «μυστικισμό» των διαπιστευτηρίων σκληρότερα από κάθε τι — όταν ο καθένας έχει πρόσβαση σε ισχυρή ανάλυση, το κύρος του τίτλου ίσως απομυθοποιηθεί.
Η ανησυχία του εκτείνεται και στα δεδομένα. Υποστηρίζει ότι η μαζική συλλογή τους επί δεκαετίες κατέληξε στα σύγχρονα LLMs: «μηχανές που ίσως μας γνωρίζουν καλύτερα από εμάς». Προβλέπουν επιλογές, προεξοφλούν ανάγκες, επηρεάζουν σκέψεις.
Προσθέτει πρακτικό παράδειγμα πολιτικής εταιρειών: αναφέρεται στην αλλαγή όρων από την Anthropic, όπου —κατά τον συγγραφέα— απαιτείται πλέον ενεργό opt-out για να μη χρησιμοποιούνται συνομιλίες ως εκπαιδευτικό υλικό, με διατήρηση για έως πέντε χρόνια αν ο χρήστης δεν αρνηθεί, και με «ύπουλη» προεπιλογή υπέρ της εκπαίδευσης.
Το συμπέρασμα: οι περισσότεροι χρήστες δεν αντιλαμβάνονται ότι όταν «μοιράζονται» σκέψεις με ΤΝ, τροφοδοτούν ένα σύστημα που μαθαίνει να μιμείται την κρίση τους, ενώ τους δένει περισσότερο στις απαντήσεις του.
Στην κοινωνική σφαίρα, ο αρθρογράφος βλέπει να ωριμάζει ένα μείγμα «διανοητικής ατροφίας» και οικονομικής εκτόπισης, που κάνει ελκυστικές «ψευδο-λύσεις» όπως το Καθολικό Βασικό Εισόδημα.
Δεν στέκεται στην προθετικότητα των πολιτικών, αλλά στο δομικό αποτέλεσμα: αν η ΤΝ αποδυναμώνει την ανεξάρτητη σκέψη και το UBI αφαιρεί την οικονομική ανάγκη ανάπτυξης δεξιοτήτων, οι πολίτες κινδυνεύουν να γίνουν πιο ελέγξιμοι παρά ενδυναμωμένοι — «διαχειριζόμενος πληθυσμός», γνωστικά εξαρτώμενος από αλγορίθμους και οικονομικά δεμένος σε θεσμικά δίχτυα.
Το επιχείρημα αγγίζει και τον χώρο της «βιο-ψηφιακής σύγκλισης».
Παραπέμπει σε τοποθέτηση της νομικού/ερευνήτριας Nita Farahany στο Παγκόσμιο Οικονομικό Φόρουμ 2023 για καταναλωτική νευροτεχνολογία — «ό,τι σκέφτεσαι και αισθάνεσαι είναι δεδομένα» που μπορούν να αποκωδικοποιηθούν από την ΤΝ σε μακροσκοπικά πρότυπα — ως ένδειξη κανονικοποίησης της «νευρο-επιτήρησης».
Αναφέρεται επίσης σε τηλεοπτική πρόταση του πρώην κομάντο Aaron Cohen για σύστημα προ-εντοπισμού απειλών που «σκραπάρει» το διαδίκτυο και διοχετεύει σηματοδοτήσεις στην αστυνομία, παρουσιάζοντάς το ως «έγκαιρη προειδοποίηση».
Για τον συγγραφέα, αυτά συνιστούν επαναλαμβανόμενο μοτίβο: κρίση → ευαλωτότητα → λύση που υπόσχεται ασφάλεια και παράγει εξάρτηση → αποδοχή επιτήρησης που υπό άλλες συνθήκες θα απορριπτόταν.
Πέρα από την κριτική, διατυπώνεται μια «απάντηση κυριαρχίας». Κατά τη δική του περιγραφή, δεν είναι ρεαλιστική η πλήρης αποφυγή της ΤΝ· είναι όμως εφικτή η συνειδητή χρήση της ώστε να ενισχύει την αποδοτικότητα χωρίς να υποκαθιστά την κρίση.
Μεταφέρει συμβουλή ανώτερου μηχανικού Μάθησης: «μόνο να ταΐζεις στο σύστημα ό,τι ήδη γνωρίζεις», για να μάθεις τις μεροληψίες του αντί να τις απορροφάς.
Σε πρακτικό επίπεδο προτείνει τρία πεδία άμυνας: δεξιότητα αναγνώρισης προτύπων εκμετάλλευσης (πότε η πλατφόρμα εξυπηρετεί εσένα και πότε αντλεί αξία από σένα), ψηφιακά όρια (συνειδητές αποφάσεις για το τι μοιράζεσαι και πού, «ιερά» πεδία χωρίς κινητά και αλγοριθμικούς «διαιτητές» της συζήτησης), και δικτύωση κοινότητας εκτός αλγορίθμων (ζωντανές σχέσεις, τοπικό εμπόριο, συλλογικές δραστηριότητες που δεν απαιτούν μεσολάβηση πλατφόρμας).
Στον ορίζοντα, ρωτά τι θα παραμείνει σπάνιο σε έναν κόσμο «γνωστικής αφθονίας». Η απάντηση που δίνει: η πρόθεση και η ανάληψη συνεπειών (η απόφαση που βαραίνει τον αποφασίζοντα), οι αυθεντικές σχέσεις και η τοπική κρίση που ριζώνει στην εμπειρία.
Αυτά τα στοιχεία, υποστηρίζει, δεν «αλγοριθμοποιούνται».
Το κλείσιμό του είναι διττό: προειδοποίηση και ευχή. Πιστεύει ότι για πρώτη φορά απειλούνται ικανότητες που καμία προηγούμενη γενιά δεν διακινδύνευσε να χάσει — η ικανότητα να μένουμε με την αβεβαιότητα, να επιχειρούμε επίλυση χωρίς «δεκανίκια», να αντέχουμε αποσύνδεση.
Το πραγματικό ρίσκο, λέει, δεν είναι να γίνει η ΤΝ «εξυπνότερη από εμάς», αλλά να γίνουμε εμείς «πιο ανόητοι εξαιτίας της».
Για τα παιδιά του —και, κατ’ επέκταση, για τη νέα γενιά— ο στόχος δεν είναι απλώς να μάθουν τη χρήση των εργαλείων· αυτό θα συμβεί ούτως ή άλλως.
Η πρόκληση είναι να τα χρησιμοποιούν χωρίς να υποτάσσονται: να διατηρήσουν πρωτογενή σκέψη, αυθεντική σχέση και ηθικό θάρρος — ιδιότητες που κανένας αλγόριθμος δεν αναπαράγει.
«Το κύμα είναι εδώ», σημειώνει. «Το καθήκον δεν είναι να το σταματήσουμε, αλλά να μάθουμε να σερφάρουμε χωρίς να χαθούμε».

Να πιστέψει ότι οι μηχανές «ξέρουν καλύτερα» και να παραδώσει σταδιακά την κρίση του ... για ποια κριση πλεον μιλαμε; εδω με το παραμικρο ερωτημα ολοι πλεον ανατρεχουμε στο chat gpt ενω φοιτητες ηδη εκπονουν εργασιες στα πανεπιστημια μεσω ΑΙ ... για τα βιβλια δεν το συζητω καν ... τα βιβλιοπωλεια σε λιγο θα μετατραπουν σε μουσεια! ... μια απαισιοδοξη νοτα διαπερνα τα παντα και το φως στον οριζοντα ολο και μειωνεται
ΑπάντησηΔιαγραφήΌταν η ΙΔΙΑ η "τεχνητή νοημοσύνη" (ΑΙ) λέγει ότι μπορεί να δώσει ΛΑΘΟΣ αποτελέσματα, εμείς τι να πούμε περισσότερο;
ΑπάντησηΔιαγραφήΣτα προβλήματα μας, να προσπαθούμε να έχουμε επαφή με τους κατάλληλους πραγματικούς ανθρώπους και όχι με μηχανήματα (όπως είναι οι υπολογιστές με την ΑΙ).