Η CLAUDE A.I. ΘΑ ΕΠΕΞΕΡΓΑΣΤΕΙ ΜΥΣΤΙΚΑ ΚΥΒΕΡΝΗΤΙΚΑ ΔΕΔΟΜΕΝΑ ΜΕΣΩ ΤΗΣ ΝΕΑΣ ΣΥΜΦΩΝΙΑΣ ΤΗΣ PALANTIR
ΒΙΝΤΕΟ
Η Anthropic ανακοίνωσε μια συνεργασία με την Palantir και την Amazon Web Services για να φέρει τα μοντέλα Claude AI σε απροσδιόριστες υπηρεσίες πληροφοριών και άμυνας των ΗΠΑ.
Το Claude, μια οικογένεια γλωσσικών μοντέλων τεχνητής νοημοσύνης παρόμοια με αυτά που τροφοδοτούν το ChatGPT, θα λειτουργεί εντός της πλατφόρμας της Palantir χρησιμοποιώντας φιλοξενία AWS για την επεξεργασία και ανάλυση δεδομένων.
Ωστόσο, ορισμένοι επικριτές έχουν χαρακτηρίσει τη συμφωνία ως αντιφατική με τους ευρέως δημοσιοποιημένους στόχους της Anthropic για την «ασφάλεια της τεχνητής νοημοσύνης».
Στο X, ο πρώην συν-επικεφαλής της ηθικής AI της Google, Timnit Gebru, έγραψε για τη νέα συμφωνία της Anthropic με την Palantir: «Κοιτάξτε πώς ενδιαφέρονται τόσο πολύ για τους "υπαρξιακούς κινδύνους για την ανθρωπότητα"».
Η συνεργασία καθιστά τον Claude διαθέσιμο στο περιβάλλον Impact Level 6 (IL6) της Palantir, ένα αμυντικά διαπιστευμένο σύστημα που χειρίζεται δεδομένα κρίσιμα για την εθνική ασφάλεια μέχρι το «μυστικό» επίπεδο διαβάθμισης.
Αυτή η κίνηση ακολουθεί μια ευρύτερη τάση των εταιρειών AI που αναζητούν αμυντικά συμβόλαια, με τη Meta να προσφέρει τα μοντέλα Llama σε αμυντικούς εταίρους και την OpenAI να επιδιώκει στενότερους δεσμούς με το Υπουργείο Άμυνας.
Σε ένα δελτίο τύπου, οι εταιρείες περιέγραψαν τρία βασικά καθήκοντα για τον Claude σε θέματα άμυνας και πληροφοριών: εκτέλεση λειτουργιών σε μεγάλους όγκους σύνθετων δεδομένων σε υψηλές ταχύτητες, εντοπισμός μοτίβων και τάσεων εντός αυτών των δεδομένων και εξορθολογισμός της αναθεώρησης και προετοιμασίας εγγράφων.
Ενώ η ανακοίνωση της εταιρικής σχέσης υποδηλώνει ευρείες δυνατότητες για ανάλυση πληροφοριών με τεχνητή νοημοσύνη, αναφέρει ότι οι ανθρώπινοι αξιωματούχοι θα διατηρήσουν την εξουσία λήψης αποφάσεων σε αυτές τις επιχειρήσεις.
Ως σημείο αναφοράς για τις δυνατότητες της τεχνολογίας, η Palantir ανέφερε ότι μια (ανώνυμη) αμερικανική ασφαλιστική εταιρεία χρησιμοποίησε 78 πράκτορες AI που τροφοδοτούνται από την πλατφόρμα τους και τον Claude για να μειώσει τη διαδικασία αναδοχής από δύο εβδομάδες σε τρεις ώρες.
Η νέα συνεργασία βασίζεται στην προηγούμενη ενσωμάτωση του Claude από την Anthropic στο AWS GovCloud, μια υπηρεσία που δημιουργήθηκε για κυβερνητικό cloud computing. Η Anthropic, η οποία ξεκίνησε πρόσφατα τις δραστηριότητές της στην Ευρώπη, αναζητά χρηματοδότηση σε αποτίμηση έως και 40 δισεκατομμυρίων δολαρίων. Η εταιρεία έχει συγκεντρώσει 7,6 δισεκατομμύρια δολάρια, με την Amazon ως κύριο επενδυτή της.
Ένα ηθικό ναρκοπέδιο
Από τότε που οι ιδρυτές της ξεκίνησαν την Anthropic το 2021, η εταιρεία έχει πλασαριστεί ως μια προσέγγιση που υιοθετεί μια προσέγγιση εστιασμένη στην ηθική και την ασφάλεια στην ανάπτυξη AI.
Η εταιρεία διαφοροποιείται από ανταγωνιστές όπως η OpenAI υιοθετώντας αυτό που αποκαλεί υπεύθυνες πρακτικές ανάπτυξης και αυτοεπιβαλλόμενους ηθικούς περιορισμούς στα μοντέλα της, όπως το σύστημα "Constitutional AI".
Όπως επισημαίνει ο Futurism, αυτή η νέα αμυντική συνεργασία φαίνεται να έρχεται σε σύγκρουση με τη δημόσια προσωπικότητα του «καλού παιδιού» της Anthropic και παρατηρούν οι ειδήμονες υπέρ της τεχνητής νοημοσύνης στα μέσα κοινωνικής δικτύωσης.
Ο συχνός σχολιαστής AI Nabeel S. Qureshi έγραψε στο X: «Φανταστείτε να πείτε στους αποτελεσματικούς αλτρουιστές ιδρυτές της Anthropic το 2021 ότι μόλις τρία χρόνια μετά την ίδρυση της εταιρείας, θα υπέγραφαν συνεργασίες για να αναπτύξουν το μοντέλο ~AGI κατευθείαν στις στρατιωτικές πρώτες γραμμές."
Το λογότυπο "Constitutional AI" της Anthropic.
Εκτός από τις συνέπειες της συνεργασίας με τις υπηρεσίες άμυνας και πληροφοριών, η συμφωνία συνδέει την Anthropic με την Palantir, μια αμφιλεγόμενη εταιρεία που κέρδισε πρόσφατα σύμβαση 480 εκατομμυρίων δολαρίων για την ανάπτυξη ενός συστήματος αναγνώρισης στόχων με τεχνητή νοημοσύνη που ονομάζεται Maven Smart System για τον αμερικανικό στρατό.
Το Project Maven έχει προκαλέσει κριτική στον τομέα της τεχνολογίας σχετικά με τις στρατιωτικές εφαρμογές της τεχνολογίας AI.
Αξίζει να σημειωθεί ότι οι όροι παροχής υπηρεσιών της Anthropic περιγράφουν συγκεκριμένους κανόνες και περιορισμούς για κυβερνητική χρήση.
Αυτοί οι όροι επιτρέπουν δραστηριότητες όπως η ανάλυση ξένων πληροφοριών και ο εντοπισμός συγκεκαλυμμένων εκστρατειών επιρροής, ενώ απαγορεύουν χρήσεις όπως η παραπληροφόρηση, η ανάπτυξη όπλων, η λογοκρισία και η εγχώρια παρακολούθηση.
Οι κυβερνητικές υπηρεσίες που διατηρούν τακτική επικοινωνία με την Anthropic σχετικά με τη χρήση του Claude ενδέχεται να λάβουν ευρύτερες άδειες για τη χρήση των μοντέλων AI.
Ακόμα κι αν ο Claude δεν χρησιμοποιείται ποτέ για να στοχεύσει έναν άνθρωπο ή ως μέρος ενός οπλικού συστήματος, άλλα ζητήματα παραμένουν.
Ενώ τα μοντέλα Claude χαίρουν μεγάλης εκτίμησης στην κοινότητα της τεχνητής νοημοσύνης, (όπως όλα τα LLM) έχουν την τάση να συγχέονται, δημιουργώντας ενδεχομένως λανθασμένες πληροφορίες με τρόπο που είναι δύσκολο να εντοπιστεί.
Αυτό είναι ένα τεράστιο πιθανό πρόβλημα που θα μπορούσε να επηρεάσει την αποτελεσματικότητα του Claude με μυστικά κυβερνητικά δεδομένα και αυτό το γεγονός, μαζί με τις άλλες ενώσεις, ανησυχεί τον Victor Tangermann του Futurism.
Όπως το θέτει, «είναι μια ανησυχητική συνεργασία που δημιουργεί τους αυξανόμενους δεσμούς της βιομηχανίας AI με το στρατιωτικό-βιομηχανικό σύμπλεγμα των ΗΠΑ, μια ανησυχητική τάση που θα πρέπει να εγείρει κάθε είδους καμπάνες συναγερμού δεδομένων των πολλών εγγενών ελαττωμάτων της τεχνολογίας - και ακόμη περισσότερο όταν θα μπορούσαν να διακυβεύονται ζωές».
Ο Benj Edwards είναι ο Ανώτερος Ρεπόρτερ AI της Ars Technica και ιδρυτής του αποκλειστικού AI beat του ιστότοπου το 2022. Είναι επίσης ένας ευρέως αναφερόμενος ιστορικός τεχνολογίας.
Στον ελεύθερο χρόνο του, γράφει και ηχογραφεί μουσική, συλλέγει vintage υπολογιστές και απολαμβάνει τη φύση. Ζει στο Raleigh, NC.
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου