
Την Τετάρτη, ο Anpropic δημοσίευσε μια έκθεση που περιγράφει λεπτομερώς τον τρόπο με τον οποίο ο Claude χρησιμοποιήθηκε εσφαλμένα τον Μάρτιο. Αυτό αποκάλυψε κάποιες εκπληκτικές και νέες τάσεις στον τρόπο με τον οποίο οι ηθοποιοί των απειλών και η κατάχρηση της συνομιλίας και οι αυξανόμενοι κίνδυνοι που αναπτύσσονται γενετικά AI, ακόμη και με σωστή δοκιμή για ασφάλεια.
Προβλήματα ασφάλειας
Σε μια περίπτωση, ο Anthropic ανακάλυψε ότι ο “σύνθετος ηθοποιός” χρησιμοποίησε το Claude για να βοηθήσει τη διαρροή θέρμανσης των λογιστικών δεδομένων “που σχετίζονται με τις κάμερες ασφαλείας” για πρόσβαση σε συσκευές, η εταιρεία σημείωσε στη διαφήμιση.
Επίσης: Ως ερευνητής χωρίς τις δεξιότητες της κωδικοποίησης κακόβουλων προγραμμάτων, εξαπάτησε τον AI στη δημιουργία του Chrome Infostalers
Σε μια άλλη περίπτωση, ένα άτομο με “περιορισμένες τεχνικές δεξιότητες” μπορεί να αναπτύξει κακόβουλο λογισμικό, το οποίο συνήθως απαιτεί μεγαλύτερη εξέταση. Ο Claude βοήθησε αυτό το άτομο να πάρει ένα σετ ανοιχτού κώδικα από την εκτέλεση μόνο λόγων για πιο προηγμένες λειτουργίες λογισμικού, όπως η αναγνώριση των ατόμων και η δυνατότητα να σαρώσουν ένα σκοτεινό δίκτυο.
Η Anpropic Report αναφέρει ότι αυτή η περίπτωση δείχνει πώς η γενετική AI μπορεί να ενισχύσει αποτελεσματικά λιγότερο έμπειρους ηθοποιούς που δεν θα αποτελούν απειλή χωρίς ένα τέτοιο εργαλείο όπως ο Claude.
Επίσης: Ανθρωπογενές στο χάρτη της ηθικής του Claude. Εδώ είναι ο αγώνας συνομιλίας να εκτιμάται (και όχι)
Παρόλα αυτά, η εταιρεία δεν μπόρεσε να επιβεβαιώσει εάν οι ηθοποιοί αναπτύσσουν με επιτυχία αυτές τις παραβιάσεις.
Χειραγώγηση σε κοινωνικά δίκτυα
Το γεγονός ότι ο Anthropic αποκαλεί τη “λειτουργία της επιρροής ως υπηρεσία”-και την “νεότερη περίπτωση κακοποίησης” που βρήκε, οι ηθοποιοί χρησιμοποίησαν τον Claude για να δημιουργήσουν περιεχόμενο για κοινωνικά δίκτυα, συμπεριλαμβανομένων εικόνων. Η λειτουργία σκηνοθέτησε επίσης πώς και πότε περισσότερα από εκατό bots στο X και το Facebook θα αλληλεπιδρούν με θέσεις δεκάδων χιλιάδων ανθρώπινων λογαριασμών, σχολιάζοντας, συμπάθεια και ανταλλαγή.
“Ο Claude χρησιμοποιήθηκε ως ορχήστρα, η οποία αποφασίζει ποιες μετοχές των κοινωνικών δικτύων πρέπει να ληφθούν βάσει πολιτικά παρακινημένων χαρακτήρων”, ανέφερε η έκθεση, εξηγώντας ότι αυτός που στάθηκε πίσω από την επιχείρηση που καταβλήθηκε για να προωθήσει την πολιτική ατζέντα. Οι λογαριασμοί κάλυψαν αρκετές χώρες και γλώσσες, γεγονός που δείχνει παγκόσμια εργασία. Ο Anthropic πρόσθεσε ότι αυτό το στρώμα αλληλεπίδρασης ήταν η εξέλιξη από προηγούμενες εκστρατείες επιρροής.
“Αυτές οι πολιτικές αφηγήσεις συμφωνούν με αυτό που περιμένουμε από τις κρατικές εκστρατείες”, ανέφερε η εταιρεία στο θέμα της, αν και δεν μπορεί να επιβεβαιώσει αυτή την υποψία.
Επίσης: Project Liberty Project για την αποκέντρωση του Tiktok μπορεί να είναι ένα σχέδιο για το καλύτερο Διαδίκτυο
Αυτή η εξέλιξη είναι σημαντική επειδή ο χρήστης μπορεί να δημιουργήσει ένα ημι -αυτόνομο σύστημα με το Claude. Ο Anpropic αναμένει ότι αυτός ο τύπος ακατάλληλης χρήσης θα συνεχιστεί καθώς αναπτύσσεται τα συστήματα του AI του AI.
Πρόσληψη απάτης
Ο Anthropic ανακάλυψε επίσης ένα σχέδιο για την επιλογή προσωπικού κοινωνικής μηχανικής σε όλη την Ανατολική Ευρώπη, το οποίο χρησιμοποίησε τον Claude για να κάνει τη γλώσσα της απάτης πιο πειστικά επαγγελματίας ή ποιο είναι το όνομα της “γλωσσικής αποχέτευσης”. Συγκεκριμένα, μεταξύ αυτών των ηθοποιών, ο Claude πλύθηκε το πρωτότυπο, όχι το γηγενές αγγλικό κείμενο του, έμοιαζε σαν να έγραψε έναν μεταφορέα, ώστε να μπορούν να θέσουν καλύτερα ως διαχειριστές προσλήψεων.
Ακατάλληλη προστασία χρήσης
“Το πνευματικό μας πρόγραμμα έχει σχεδιαστεί για να είναι ένα δίκτυο ασφαλείας, βρίσκοντας μια βλάβη που δεν λαμβάνεται από την ανίχνευση της τυπικής κλίμακας μας και για να προσθέσει το πλαίσιο στο πόσο κακοί ηθοποιοί χρησιμοποιούν τα μοντέλα μας κακόβουλα”, ανέφεραν οι ανθρωπχτόνες για τη διαδικασία τους. Μετά την ανάλυση των συνομιλιών, για να βρεθούν γενικά προγράμματα ακατάλληλης χρήσης και συγκεκριμένων περιπτώσεων, η εταιρεία απαγόρευσε τους λογαριασμούς.
“Αυτά τα παραδείγματα επιλέχθηκαν επειδή απεικονίζουν σαφώς τις τάσεις που προκύπτουν από το πώς οι κακόβουλοι ηθοποιοί προσαρμόζονται και χρησιμοποιούν μοντέλα Frontier AI”, δήλωσε ο Anthropic σε μια διαφήμιση. “Ελπίζουμε να συμβάλουμε στην ευρύτερη κατανόηση του αναπτυσσόμενου τοπίου των απειλών και να βοηθήσουμε ένα ευρύτερο οικοσύστημα να αναπτύξει πιο αξιόπιστες εγγυήσεις”.
Επίσης: Είναι μια πραγματική εικόνα ή AI; Τώρα η Adobe έχει μια αίτηση για αυτό – αυτό είναι πώς να το χρησιμοποιήσετε
Η έκθεση ακολούθησε τις ειδήσεις από το εσωτερικό της OpenAI, ότι η εταιρεία μείωσε απότομα τους όρους των μοντέλων δοκιμών. Η υπέρβαση και μετά την ανάπτυξη, η δοκιμή νέων μοντέλων τεχνητής νοημοσύνης είναι απαραίτητη για την άμβλυνση της βλάβης που μπορούν να προκαλέσουν σε ξένα χέρια. Το γεγονός ότι η Inpropic – μια εταιρεία γνωστή στο χώρο της τεχνητής νοημοσύνης, για τη δέσμευσή της για δοκιμή και γενική προσοχή – ανακάλυψε αυτές τις επιλογές για χρήση μετά από μια πιο συντηρητική δοκιμή από τους ανταγωνιστές είναι σημαντική.
Δεδομένου ότι η ομοσπονδιακή ρύθμιση της τεχνητής νοημοσύνης παραμένει ασαφής στο πλαίσιο της διοίκησης του Trump, η αυτοαναφορά και τα τρίτα μέρη είναι οι μόνες εγγυήσεις για την παρακολούθηση της γενετικής ΑΙ.