Πολλοί οργανισμοί είτε καθυστερούν είτε απενεργοποιούν τη δημιουργία τεχνητής νοημοσύνης λόγω ανησυχιών σχετικά με τη δεοντολογία και την ασφάλειά της. Αυτό προκαλεί εκκλήσεις για τη μετακίνηση της τεχνητής νοημοσύνης εκτός των τμημάτων τεχνολογίας και τη συμμετοχή περισσότερων μη τεχνικών επιχειρηματιών στο σχεδιασμό και τη διαχείριση της τεχνητής νοημοσύνης.
Επίσης: Τα πιο δημοφιλή εργαλεία AI του 2024 (και τι σημαίνει αυτό)
Σύμφωνα με μια πρόσφατη έρευνα του Ινστιτούτου Επιχειρηματικής Αξίας της IBM, περισσότερες από τις μισές (56%) των εταιρειών καθυστερούν σημαντικές επενδύσεις σε γενετική τεχνητή νοημοσύνη μέχρι να υπάρξει σαφήνεια σχετικά με τα πρότυπα και τους κανονισμούς της τεχνητής νοημοσύνης. Τουλάχιστον το 72% δήλωσε ότι θα ήταν πρόθυμο να παραιτηθεί από τα οφέλη της γενετικής τεχνητής νοημοσύνης λόγω ηθικών ανησυχιών.
Πιο πολύπλοκα από τεχνολογικά ζητήματα
Πολλές από τις τεχνικές προκλήσεις που σχετίζονται με την τεχνητή νοημοσύνη έχουν ήδη λυθεί, αλλά η σκληρή δουλειά που σχετίζεται με την ηθική της τεχνητής νοημοσύνης έρχεται τώρα στο προσκήνιο. Αυτό αποδεικνύεται ακόμη πιο δύσκολο από την επίλυση τεχνολογικών προβλημάτων.
Η πρόκληση για τις ομάδες ανάπτυξης σε αυτό το στάδιο είναι να «αναγνωρίσουν ότι η οικοδόμηση ηθικής τεχνητής νοημοσύνης δεν είναι αυστηρά ένα τεχνικό πρόβλημα, αλλά ένα κοινωνικοτεχνικό πρόβλημα», δήλωσε η Φαίδρα Μποινοδίρη, παγκόσμιος ηγέτης για αξιόπιστη τεχνητή νοημοσύνη στην IBM Consulting, σε πρόσφατο podcast. Αυτό σημαίνει ότι η επίβλεψη της τεχνητής νοημοσύνης πρέπει να εκτείνεται πέρα από τα τμήματα πληροφορικής και τις ομάδες διαχείρισης δεδομένων εντός των οργανισμών.
Επίσης: 15 εκπληκτικοί τρόποι χρήσης AI για εξοικονόμηση εβδομάδων εργασίας το 2024.
Για να δημιουργήσετε υπεύθυνα μοντέλα τεχνητής νοημοσύνης, «χρειάζεστε μια ομάδα που δεν είναι μόνο επιστήμονες δεδομένων», είπε ο Boinodiris. «Επί δεκαετίες λέγαμε ότι όσοι δεν έχουν παραδοσιακές γνώσεις τομέα δεν ανήκουν στην αίθουσα. Αυτό είναι τεράστιο λάθος».
Οι ομάδες τεχνητής νοημοσύνης πρέπει να κάνουν αυτές τις ερωτήσεις στον εαυτό τους
Είναι επίσης αξιοσημείωτο ότι τα καλά τοποθετημένα μοντέλα AI «είναι επίσης πιο ακριβή μοντέλα», πρόσθεσε. Για να επιτευχθεί αυτό, «η ομάδα που αναπτύσσει το μοντέλο πρέπει να είναι διεπιστημονική, όχι ασύνδετη». Μια ιδανική ομάδα τεχνητής νοημοσύνης θα περιλαμβάνει «ειδικούς στη γλωσσολογία και τη φιλοσοφία, γονείς, νέους ανθρώπους, απλούς ανθρώπους από διαφορετικές εμπειρίες ζωής και διαφορετικό κοινωνικοοικονομικό υπόβαθρο», προέτρεψε. “Όσο περισσότερη ποικιλία, τόσο το καλύτερο.” Τα μέλη της ομάδας πρέπει να σταθμίσουν τις απαντήσεις στα ακόλουθα είδη ερωτήσεων:
- “Λύνει αυτό το AI το πρόβλημα που χρειαζόμαστε;”
- «Είναι σωστά δεδομένα σύμφωνα με τους ειδικούς;»
- «Ποιες είναι οι ακούσιες συνέπειες της τεχνητής νοημοσύνης;»
- «Πώς μπορούμε να μετριάζουμε αυτές τις επιπτώσεις;»
Πολύ σημαντικό στρατηγικά
Οι ηγέτες των επιχειρήσεων μπορεί να είναι όλο και πιο επιφυλακτικοί σχετικά με τις ηθικές συνέπειες της τεχνητής νοημοσύνης, αλλά βλέπουν επίσης την ισχυρή ηθική ως πηγή ανταγωνιστικής δύναμης. Το εβδομήντα πέντε τοις εκατό των στελεχών θεωρούν την ηθική της τεχνητής νοημοσύνης ως σημαντική πηγή ανταγωνιστικής διαφοροποίησης και η πλειοψηφία —54%— αναμένει ότι η ηθική της τεχνητής νοημοσύνης είναι «πολύ στρατηγικά σημαντική». Αυτό είναι ένα σημαντικό μήνυμα για τους ενδιαφερόμενους: περισσότερο από το 85% των καταναλωτών, των πολιτών και των εργαζομένων που ερωτήθηκαν εκτιμούν την ηθική της τεχνητής νοημοσύνης.
Επίσης: Είμαι ειδικός στα εργαλεία τεχνητής νοημοσύνης και αυτά είναι τα μόνα που πληρώνω.
Η έκθεση της IBM αναφέρει ότι το ολιστικό πλαίσιο της ηθικής της τεχνητής νοημοσύνης προσδιορίζει τρεις τύπους απόδοσης επένδυσης (ROI) που μπορούν να επιτευχθούν από επενδύσεις στην ηθική της τεχνητής νοημοσύνης:
- Οικονομικό αποτέλεσμα (απτή απόδοση επένδυσης): Τα απτά ή άμεσα οικονομικά οφέλη από την ηθική της τεχνητής νοημοσύνης καλύπτουν μετρήσιμους παράγοντες «όπως εξοικονόμηση κόστους, αύξηση εσόδων ή μειωμένο κόστος κεφαλαίου. Για παράδειγμα, ένας οργανισμός μπορεί να αποφύγει τα ρυθμιστικά πρόστιμα επενδύοντας στη διαχείριση κινδύνου AI».
- Αντίκτυπος ευκαιρίας (μακροπρόθεσμη απόδοση επένδυσης): Αυτό υποδηλώνει μακροπρόθεσμα οφέλη από τις προσπάθειες ηθικής τεχνητής νοημοσύνης. Τα παραδείγματα μπορεί να περιλαμβάνουν: «Η τεχνική υποδομή ή οι αποκλειστικές πλατφόρμες ηθικής μπορούν να επιτρέψουν στους οργανισμούς να εκσυγχρονιστούν με τρόπους που οδηγούν σε περαιτέρω εξοικονόμηση κόστους και καινοτομία».
- Επίδραση φήμης (άυλη απόδοση επένδυσης): Τα άυλα ή δύσκολα ποσοτικά οφέλη που προκύπτουν από έντονες προσπάθειες ηθικής τεχνητής νοημοσύνης περιλαμβάνουν παράγοντες όπως η επωνυμία και η κουλτούρα, που επηρεάζουν θετικά τη “φήμη ενός οργανισμού μεταξύ των μετόχων, των κυβερνήσεων, των εργαζομένων και των πελατών”. Αυτό θα μπορούσε να περιλαμβάνει «βελτίωση περιβαλλοντικών, κοινωνικών επιδόσεων και διακυβέρνησης. αύξηση της διατήρησης των εργαζομένων? και θετική κάλυψη από τα μέσα ενημέρωσης».
Πολλά στελέχη και διευθυντικά στελέχη δεν έχουν πλήρη επίγνωση τριών πιθανών τομέων επιρροής που μπορούν να έχουν οι προσπάθειες ηθικής τεχνητής νοημοσύνης, που απαιτούν μια συνεχή διαδικασία μάθησης. Ο Boinodiris συμβουλεύει να προσελκύσετε «τους πιο έμπειρους εμπειρογνώμονές σας σε θέματα δεοντολογίας AI για να εκπαιδεύσουν τα ανώτερα στελέχη σχετικά με τις διαφορές μεταξύ των προσεγγίσεων πρόληψης απωλειών και δημιουργίας αξίας στην ηθική της τεχνητής νοημοσύνης. Βοηθήστε τα στελέχη να οραματιστούν τις δυνατότητες για ευρύτερη χρήση τεχνολογιών, πλατφορμών και υποδομών ηθικής τεχνητής νοημοσύνης».