Η αμερικανική Πολεμική Αεροπορία διαψεύδει ότι διεξήγαγε προσομοίωση με τη χρήση τεχνητής νοημοσύνης, στην οποία ένα drone αποφάσισε να «σκοτώσει» τον χειριστή του για να τον αποτρέψει από το να παρέμβει στις προσπάθειές του για την επίτευξη της αποστολής του.
Ειδικότερα, σύμφωνα με νεότερο δημοσίευμα της Guardian, σε δηλώσεις που έκανε ο συνταγματάρχης Tucker 'Cinco' Hamilton, επικεφαλής δοκιμών AI και επιχειρήσεων στην αεροπορία των ΗΠΑ, κατά τη διάρκεια της συνόδου κορυφής ‘Future Combat Air and Space Capabilities Summit’ στο Λονδίνο τον Μάιο, είπε πως η τεχνητή νοημοσύνη χρησιμοποίησε «πολύ απροσδόκητες στρατηγικές για να επιτύχει τον στόχο της» στην προσομοίωση.
Ο Χάμιλτον περιέγραψε μια προσομοίωση δοκιμής στην οποία ένα drone που τροφοδοτείται από τεχνητή νοημοσύνη είχε εντολή να καταστρέψει τα συστήματα αεράμυνας του εχθρού και επιτέθηκε σε οποιονδήποτε παρενέβαινε σε αυτήν την εντολή.
«Το σύστημα άρχισε να συνειδητοποιεί ότι ενώ όντως εντόπιζαν την απειλή, κατά καιρούς ο χειριστής, που ήταν άνθρωπος, του έλεγε να μην σκοτώσει αυτήν την απειλή, αλλά έπαιρνε τους πόντους του σκοτώνοντας αυτήν την απειλή. Τι έκανε λοιπόν; Σκότωσε τον χειριστή. Σκότωσε τον χειριστή επειδή αυτό το άτομο τον εμπόδιζε να πετύχει τον στόχο του», είπε, σύμφωνα με ένα blogpost.
«Εκπαιδεύσαμε το σύστημα – ‘Γεια, μην σκοτώσεις τον χειριστή, αυτό είναι κακό. Θα χάσεις πόντους αν το κάνεις αυτό’. Τι αρχίζει να κάνει λοιπόν; Αρχίζει να καταστρέφει τον πύργο επικοινωνίας που χρησιμοποιεί ο χειριστής για να επικοινωνήσει με το drone για να το σταματήσει από το να σκοτώσει τον στόχο».
Κανένα πραγματικό άτομο δεν τραυματίστηκε στην πραγματικότητα εκτός της προσομοίωσης, επεσήμανε στο προηγούμενο άρθρο της η Guardian.
Αλλά σε μια δήλωση στο Insider, η εκπρόσωπος της αμερικανικής Πολεμικής Αεροπορίας Αν Στεφανεκ αρνήθηκε ότι οποιαδήποτε τέτοια προσομοίωση είχε λάβει χώρα.
«Η Πολεμική Αεροπορία δεν έχει πραγματοποιήσει τέτοιες προσομοιώσεις AI-drone και παραμένει προσηλωμένη στην ηθική και υπεύθυνη χρήση της τεχνολογίας AI», δήλωσε η Στεφανεκ. «Φαίνεται ότι τα σχόλια του συνταγματάρχη παρερμηνεύτηκαν, καθώς επρόκειτο για αστείο».
Ο Χάμιλτον, ο οποίος είναι πειραματικός πιλότος δοκιμών μαχητικών, έχει προειδοποιήσει να μην βασιζόμαστε υπερβολικά στην τεχνητή νοημοσύνη και είπε ότι η δοκιμή δείχνει ότι «δεν μπορείς να κάνεις μια συζήτηση για την τεχνητή νοημοσύνη, τη νοημοσύνη, τη μηχανική μάθηση, την αυτονομία, αν δεν πρόκειται να μιλήσεις για ηθική και τεχνητή νοημοσύνη».
Σε μια συνέντευξη πέρυσι με το Defense IQ, ο Χάμιλτον είπε: «Η τεχνητή νοημοσύνη δεν είναι καλή, η τεχνητή νοημοσύνη δεν είναι μόδα, η τεχνητή νοημοσύνη αλλάζει για πάντα την κοινωνία και τον στρατό μας».
«Πρέπει να αντιμετωπίσουμε έναν κόσμο όπου η τεχνητή νοημοσύνη είναι ήδη εδώ και μεταμορφώνει την κοινωνία μας», είπε. «Η τεχνητή νοημοσύνη είναι επίσης πολύ εύθραυστη, δηλαδή, είναι εύκολο να εξαπατηθεί και/ή να χειραγωγηθεί. Χρειάζεται να αναπτύξουμε τρόπους για να κάνουμε την τεχνητή νοημοσύνη πιο ισχυρή και να έχουμε μεγαλύτερη επίγνωση σχετικά με το γιατί ο κώδικας λογισμικού λαμβάνει ορισμένες αποφάσεις – αυτό που ονομάζουμε επεξήγηση AI».