ΕΙΔΙΚΟΙ ΠΡΟΕΙΔΟΠΟΙΟΥΝ ΓΙΑ ΤΟΝ ΚΙΝΔΥΝΟ ΕΞΑΦΑΝΙΣΗΣ ΤΩΝ ΑΝΘΡΩΠΩΝ, ΑΠΟ ΤΗΝ ΓΡΗΓΟΡΗ ΑΝΑΠΤΥΞΗ ΟΠΛΩΝ ΤΕΧΝΗΤΗΣ ΝΟΗΜΟΣΥΝΗΣ
Bλέπουν να βρίσκονται στα πρόθυρα της δημιουργίας «γενικής τεχνητής νοημοσύνης» ή «υπερνοημοσύνης»—προγράμματα AI τόσο ισχυρά που μπορούν να αντιγράψουν όλες τις πτυχές της ανθρώπινης γνώσης, καθιστώντας τον ανθρώπινο προγραμματισμό περιττό
Ειδικοί: Το πρόσφατο θέμα στην αίθουσα συνεδριάσεων σχετικά με την ηγεσία του OpenAI –της startup τεχνολογίας με έδρα το Σαν Φρανσίσκο πίσω από το δημοφιλές πρόγραμμα υπολογιστή ChatGPT– έχει περιγραφεί ως μια εταιρική πάλη εξουσίας, μια σύγκρουσημε γνώμονα τον εγωισμό και την διαμάχη για την κυκλοφορία περισσότερων ικανών παραλλαγών ChatGPT.
Η διαμάχη γίνεται μεταξύ των στελεχών της εταιρείας που προτιμούν την απεριόριστη έρευνα για προηγμένες μορφές τεχνητής νοημοσύνης (AI) και εκείνων που, φοβούμενοι τα δυνητικά καταστροφικά αποτελέσματα τέτοιων προσπαθειών, προσπάθησαν να επιβραδύνουν τον ρυθμό της ανάπτυξης AI .
Ταυτόχρονα περίπου με την έναρξη αυτής της εποχικής μάχης, ένας παρόμοιος αγώνας εκτυλίσσονταν στα Ηνωμένα Έθνη στη Νέα Υόρκη και στα κυβερνητικά γραφεία στην Ουάσιγκτον, DC, σχετικά με την ανάπτυξη αυτόνομων οπλικών συστημάτων – πλοία drone, αεροπλάνα και τανκς. από AI και όχι από ανθρώπους.
Σε αυτόν τον διαγωνισμό, ένας ευρύς συνασπισμός διπλωματών και ακτιβιστών για τα ανθρώπινα δικαιώματα προσπάθησε να επιβάλει μια νομικά δεσμευτική απαγόρευση τέτοιων συσκευών -που ονομάζονται «ρομπότ δολοφόνοι» από τους αντιπάλους- ενώ αξιωματούχοι των Υπουργείων Εξωτερικών και Άμυνας υποστηρίζουν την ταχεία ανάπτυξή τους.
Το ζήτημα και στα δύο σύνολα διαφωνιών είναι οι απόψεις σχετικά με την αξιοπιστία προηγμένων μορφών τεχνητής νοημοσύνης, ειδικά των μοντέλων που χρησιμοποιούνται σε συστήματα «γεννητικής τεχνητής νοημοσύνης» όπως το ChatGPT.
(Προγράμματα όπως αυτά ονομάζονται «παραγωγικά» επειδή μπορούν να δημιουργήσουν κείμενο ή εικόνες ανθρώπινης ποιότητας με βάση μια στατιστική ανάλυση δεδομένων που συλλέγονται από το Διαδίκτυο).
Κάποιοι επιστήμονες προειδοποιούν πως τέτοιες ενέργειες, δεν πρέπει να γίνονται χωρίς ουσιαστικές δικλειδες.
Η κρίση πυροδοτήθηκε από ανησυχίες μεταξύ των μελών του αρχικού διοικητικού συμβουλίου ότι ο (Sam Altman Διευθύνων Σύμβουλος της OpenAI από το 2019) και το επιτελείο του έστρεφαν υπερβολικά προς την κατεύθυνση της ταχείας ανάπτυξης της τεχνητής νοημοσύνης, παρά τις δεσμεύσεις για μεγαλύτερη προσοχή.
Ο Altman και πολλοί από τους συναδέλφους του βλέπουν να βρίσκονται στα πρόθυρα της δημιουργίας «γενικής τεχνητής νοημοσύνης» ή «υπερνοημοσύνης»—προγράμματα AI τόσο ισχυρά που μπορούν να αντιγράψουν όλες τις πτυχές της ανθρώπινης γνώσης, καθιστώντας τον ανθρώπινο προγραμματισμό περιττό.
Τέτοια συστήματα, υποστηρίζεται, θα είναι σε θέση να θεραπεύσουν τις περισσότερες ανθρώπινες ασθένειες και να κάνουν άλλα ευεργετικά θαύματα – αλλά οι επικριτές, προειδοποιούν ότι θα καταργήσουν τις περισσότερες ανθρώπινες εργασίες και μπορεί, τελικά, να επιλέξουν να εξαλείψουν εντελώς τους ανθρώπους ως άχρηστα αντικείμενα…
«Όσον αφορά τόσο τα πιθανά θετικά όσο και τα αρνητικά, η υπερευφυΐα θα είναι πιο ισχυρή από άλλες τεχνολογίες που η ανθρωπότητα είχε να αντιμετωπίσει στο παρελθόν», έγραψαν ο Άλτμαν και οι κορυφαίοι συνάδελφοί του τον Μάιο. «Μπορούμε να έχουμε ένα δραματικά πιο ευημερούν μέλλον. αλλά πρέπει να διαχειριστούμε τον κίνδυνο για να φτάσουμε εκεί».
Για τον Άλτμαν, όπως και για πολλούς άλλους στον τομέα της τεχνητής νοημοσύνης, αυτός ο κίνδυνος έχει μια «υπαρξιακή» διάσταση, που συνεπάγεται την πιθανή κατάρρευση του ανθρώπινου πολιτισμού – και, στο άκρο, την ανθρώπινη εξαφάνιση. «Νομίζω ότι αν αυτή η τεχνολογία πάει στραβά, μπορεί να πάει πολύ στραβά», είπε σε ακρόαση της Γερουσίας στις 16 Μαΐου.
Ωστόσο, ο Άλτμαν και άλλοι κορυφαίοι αξιωματούχοι της τεχνητής νοημοσύνης πιστεύουν ότι η υπερνοημοσύνη μπορεί, και πρέπει να επιδιωχθεί, αρκεί να εγκατασταθούν επαρκείς δικλείδες ασφαλείας στην πορεία. «Πιστεύουμε ότι τα οφέλη των εργαλείων που έχουμε χρησιμοποιήσει μέχρι στιγμής υπερτερούν κατά πολύ των κινδύνων, αλλά η διασφάλιση της ασφάλειάς τους είναι ζωτικής σημασίας για τη δουλειά μας», είπε στην υποεπιτροπή της Γερουσίας για το απόρρητο, την τεχνολογία και το νόμο.
Η Ουάσιγκτον προωθεί γρήγορα την χρήση της τεχνητής νοημοσύνης στον πόλεμο
Ένας παρόμοιος λογισμός σχετικά με την εκμετάλλευση της προηγμένης τεχνητής νοημοσύνης διέπει τις προοπτικές των ανώτερων αξιωματούχων στα Υπουργεία Εξωτερικών και Άμυνας, οι οποίοι υποστηρίζουν ότι η τεχνητή νοημοσύνη μπορεί και πρέπει να χρησιμοποιηθεί για τη λειτουργία μελλοντικών οπλικών συστημάτων – εφόσον αυτό γίνεται με «ευθύνη».
«Δεν μπορούμε να προβλέψουμε πώς θα εξελιχθούν οι τεχνολογίες τεχνητής νοημοσύνης ή τι μπορεί να είναι ικανές σε ένα έτος ή πέντε χρόνια απο σήμερα», δήλωσε ο Μπόνι Τζένκινς, υφυπουργός Εξωτερικών για τον έλεγχο των όπλων, σε παρουσίαση του ΟΗΕ στις 13 Νοεμβρίου.
Ωστόσο, σημείωσε, οι Ηνωμένες Πολιτείες είναι αποφασισμένες να «θέσουν σε εφαρμογή τις απαραίτητες πολιτικές και να οικοδομήσουν τις τεχνικές ικανότητες που θα επιτρέψουν την υπεύθυνη ανάπτυξη και χρήση [της τεχνητής νοημοσύνης από τον στρατό], ανεξάρτητα από τις τεχνολογικές εξελίξεις».
Ο Τζένκινς ήταν στον ΟΗΕ εκείνη την ημέρα για να αποκαλύψει μια «Πολιτική Διακήρυξη για την Υπεύθυνη Στρατιωτική Χρήση Τεχνητής Νοημοσύνης και Αυτονομίας», μια έκκληση εμπνευσμένη από τις ΗΠΑ για εθελοντικούς περιορισμούς στην ανάπτυξη αυτόνομων όπλων με δυνατότητα τεχνητής νοημοσύνης.
Η δήλωση του ομολογεί , μεταξύ άλλων, ότι «τα κράτη πρέπει να διασφαλίζουν ότι η ασφάλεια και η αποτελεσματικότητα των στρατιωτικών δυνατοτήτων τεχνητής νοημοσύνης υπόκεινται σε κατάλληλες και αυστηρές δοκιμές» και ότι «τα κράτη θα πρέπει να εφαρμόζουν τις κατάλληλες διασφαλίσεις για τον μετριασμό των κινδύνωνστη στρατιωτική τεχνητή νοημοσύνη, όπως την ικανότητα… απενεργοποίησης αναπτυγμένων συστημάτων, όταν τέτοια συστήματα επιδεικνύουν αυτόνομη συμπεριφορά.”
Τίποτα από αυτά, ωστόσο, δεν αποτελεί νομικά δεσμευτική υποχρέωση των κρατών που υπογράφουν τη δήλωση. Αντίθετα, συνεπάγεται απλώς μια υπόσχεση τήρησης μιας σειράς βέλτιστων πρακτικών, χωρίς απαίτηση να αποδειχθεί συμμόρφωση με αυτά τα μέτρα ή κίνδυνος τιμωρίας εάν διαπιστωθεί ότι δεν συμμορφώνονται.
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου