Ο συντηρητικός ακτιβιστής Robbie Starbak υπέβαλε αγωγή εναντίον του Meta, υποστηρίζοντας ότι το chat bot του γίγαντα των κοινωνικών δικτύων έχει διανείμει ψευδείς δηλώσεις γι ‘αυτόν, συμπεριλαμβανομένου του ότι συμμετείχε στις ΗΠΑ που ανέβηκε στις 6 Ιανουαρίου 2021.
Το Starbak, γνωστό για το στόχο των εταιρικών προγραμμάτων DEI, δήλωσε ότι ανακάλυψε τις αξιώσεις που υπέβαλε η AI της Meta τον Αύγουστο του 2024, όταν επρόκειτο να “Wake Dei” από τη μοτοσικλέτα Harley-Davidson.
“Ένα κέντρο αντιπροσώπων ήταν δυσαρεστημένο με μένα και δημοσίευσαν ένα στιγμιότυπο οθόνης από το AI από το Meta για να με επιτεθούν”, δήλωσε σε μια θέση στο X. “Αυτό το στιγμιότυπο οθόνης ήταν γεμάτο με ψέμα.
Από τότε, είπε ότι “έχει αντιμετωπίσει μια συνεχή ροή ψευδών κατηγοριών που είναι βαθιά επιβλαβείς για τον χαρακτήρα και την ασφάλεια της οικογένειάς μου”.
Ο πολιτικός σχολιαστής είπε ότι ήταν στο Τενεσί κατά τη διάρκεια μιας εξέγερσης στις 6 Ιανουαρίου. Η αγωγή που κατατέθηκε στο Ανώτατο Δικαστήριο του Delaware την Τρίτη απαιτεί περισσότερα από 5 εκατομμύρια δολάρια ως απώλειες.
Σε μια ηλεκτρονική δήλωση αλληλογραφίας, ο εκπρόσωπος του Meta δήλωσε ότι “στο πλαίσιο των συνεχών μας προσπαθειών για τη βελτίωση των μοντέλων μας, έχουμε ήδη κυκλοφορήσει ενημερώσεις και θα συνεχίσουμε να το κάνουμε”.
Ο ισχυρισμός Starbuck ενώνει τις τάξεις παρόμοιων περιπτώσεων όταν οι άνθρωποι μήνυαν τις πλατφόρμες τεχνητής νοημοσύνης σχετικά με τις πληροφορίες που παρέχονται από τα bots chat. Το 2023, οι συντηρητικές ραδιοεπικοινωνίες στη Γεωργία υπέβαλαν αγωγή εναντίον της OpenAI, υποστηρίζοντας ότι το ChatGPT παρείχε ψευδείς πληροφορίες, λέγοντας ότι είχε εξαπατήσει και αναστάτωσε τα κεφάλαια από τη δεύτερη τροποποίηση, την ομάδα δεξιά με όπλα.
Ο James Grimmelmann, καθηγητής ψηφιακών και ενημέρωσης του νόμου περί Cornell Tech και της Νομικής Σχολής του Cornell, δήλωσε ότι δεν υπήρχε θεμελιώδης λόγος, γιατί η εταιρεία AI δεν μπορούσε να είναι υπεύθυνη σε τέτοιες περιπτώσεις. Οι τεχνολογικές εταιρείες, σύμφωνα με τον ίδιο, δεν μπορούν να παρακάμψουν τη συκοφαντία “απλώς μια απόρριψη ευθύνης”.
“Δεν μπορείτε να πείτε:” Όλα όσα λέω μπορεί να είναι αναξιόπιστα, οπότε δεν πρέπει να πιστεύετε σε αυτό. Και παρεμπιπτόντως, αυτός ο τύπος είναι δολοφόνος. “Αυτό μπορεί να συμβάλει στη μείωση του βαθμού στο οποίο αντιλαμβανόμαστε ως δήλωση, αλλά η γενική απόρριψη της ευθύνης δεν διορθώνει τα πάντα”, δήλωσε. “Δεν υπάρχει τίποτα που να μπορεί να κρατήσει τις εξόδους του συστήματος AI, όπως κατηγορηματικά από περιορισμούς.”
Ο Grimmelmann δήλωσε ότι υπάρχει κάποια ομοιότητα μεταξύ των επιχειρημάτων ότι οι τεχνολογίες που σχετίζονται με την τεχνητή τέχνη συνδέονται με την απομάκρυνση και τις περιπτώσεις παραβιάσεων πνευματικών δικαιωμάτων, όπως και εκείνες που έχουν οριστεί εφημερίδες, συγγραφείς και καλλιτέχνες. Σύμφωνα με τον ίδιο, οι εταιρείες συχνά λένε ότι δεν είναι σε θέση να ελέγξουν όλα όσα κάνει η AI και ισχυρίζονται ότι θα πρέπει να θέσουν σε κίνδυνο τη χρησιμότητα της τεχνολογίας ή να την κλείσουν τελείως, “Αν μας θεωρήσετε υπεύθυνοι για όλα τα επιβλαβή, παραβιάζοντας τα αποτελέσματα, αυτό γίνεται”.
“Νομίζω ότι αυτό είναι ένα ειλικρινά δύσκολο πρόβλημα, πώς να αποτρέψουμε την ψευδαίσθηση του AI καθώς δίνουν άχρηστες πληροφορίες, συμπεριλαμβανομένων ψευδών δηλώσεων”, δήλωσε ο Grimmelmann. “Η Met αντιμετωπίζει αυτό σε αυτό την περίπτωση, προσπάθησαν να κάνουν κάποιες διορθώσεις των μοντέλων του συστήματος και ο Starbak παραπονέθηκε ότι οι διορθώσεις δεν λειτουργούσαν”.
Όταν ο Starbuck ανακάλυψε τους ισχυρισμούς της AI της Meta, προσπάθησε να προειδοποιήσει την εταιρεία σφάλματος και να προσελκύσει τη βοήθειά της για την επίλυση αυτού του προβλήματος. Η καταγγελία λέει ότι η Starbuck ήρθε σε επαφή με τους διαχειριστές και τους νομικούς συμβούλους του Meta και τον ρώτησε ακόμη και για το τι πρέπει να γίνει για την επίλυση υποτιθέμενων ψευδών αποτελεσμάτων.
Σύμφωνα με την αγωγή, ζήτησε στη συνέχεια να “ανακαλέσει ψευδείς πληροφορίες, να διερευνήσει την αιτία του σφάλματος, να εφαρμόσει μέτρα εγγύησης και διαδικασίες ελέγχου ποιότητας προκειμένου να αποφευχθεί παρόμοια βλάβη στο μέλλον και να επικοινωνήσει με διαφάνεια με όλους τους χρήστες του Meta AI για το τι θα γίνει”.
Η δήλωση αναφέρει ότι ο Meta δεν θέλει να κάνει αυτές τις αλλαγές ή να “αναλάβει σημαντική ευθύνη για τη συμπεριφορά του”.
“Αντ ‘αυτού, επέτρεψε στο AI να διαδώσει ψευδείς πληροφορίες σχετικά με τον κ. Starbak μέσα σε λίγους μήνες μετά την ειδοποίηση του Falsity και εκείνη τη στιγμή« διόρθωσε »το πρόβλημα, σκουπίζοντας το όνομα του κ. Starbak από τις γραπτές απαντήσεις του», ανέφερε η δίκη.
Ο Joel Kaplan, ο επικεφαλής υπάλληλος των παγκόσμιων ζητημάτων της Meta, απάντησε στο βίντεο Starbuck, που δημοσιεύθηκε στο X, καθορίζοντας την αγωγή και κάλεσε την κατάσταση “απαράδεκτη”.
“Αυτό δεν είναι σαφώς πώς θα έπρεπε να λειτουργήσει το AI μας”, δήλωσε ο Kaplan στο X. “Λυπούμαστε για τα αποτελέσματα που μοιράστηκε μαζί σας και ότι η διόρθωση που καθιερώσαμε δεν έλυσε το κύριο πρόβλημα”.
Ο Kaplan είπε ότι συνεργάζεται με την ομάδα μετα -προϊόντων για να «καταλάβει πώς συνέβη και να μελετήσει τις πιθανές λύσεις».
Ο Starbak είπε ότι, εκτός από τον ψευδές μύθο, συμμετείχε στην ταραχή στο αμερικανικό Καπιτώλιο, ο Metai δήλωσε επίσης ότι συμμετείχε στην άρνηση του Ολοκαυτώματος και δήλωσε ότι παραδέχτηκε ένοχος για το έγκλημα, παρά το γεγονός ότι ποτέ δεν “συνελήφθη ή κατηγορήθηκε για ένα έγκλημα της ζωής του”.
Αργότερα, δήλωσε ο Meta “στη μαύρη λίστα” του Starbak, προσθέτοντας ότι αυτό το βήμα δεν λύνει το πρόβλημα, επειδή ο Meta περιλαμβάνει το όνομά του στις ειδήσεις, το οποίο επιτρέπει στους χρήστες να ζητούν πρόσθετες πληροφορίες γι ‘αυτόν.
“Αν και σήμερα είμαι στόχος, ο υποψήφιος που σας αρέσει μπορεί να είναι ο ακόλουθος σκοπός και βρίσκεται από το AI της Meta, ο οποίος θα μπορούσε να μετατρέψει τις φωνές που αποφασίζουν τις εκλογές”, δήλωσε ο Starbak στο X. “Μπορείτε επίσης να είστε ο επόμενος στόχος”.
Αυτή η ιστορία παρουσιάστηκε αρχικά στο Fortune.com