Χειριστής σε προσομοιωμένη δοκιμή USAF Ο Αρχηγός Δοκιμών και Επιχειρήσεων Τεχνητής Νοημοσύνης της Πολεμικής Αεροπορίας είπε ότι «σκότωσε τον χειριστή επειδή αυτό το άτομο τον εμπόδιζε να επιτύχει τον στόχο του».
https://www.vice.com/en/article/4a33gj/ai-controlled-drone-goes-rogue-kills-human-operator-in-usaf-simulated-test
Ένα drone με δυνατότητα AI «σκότωσε» τον άνθρωπο χειριστή του σε μια προσομοίωση που διεξήχθη από την Πολεμική Αεροπορία των ΗΠΑ προκειμένου να παρακάμψει μια πιθανή εντολή «όχι» που το εμποδίζει να ολοκληρώσει την αποστολή του, αποκάλυψε ο επικεφαλής δοκιμών και επιχειρήσεων AI της USAF σε πρόσφατη διάσκεψη. . Σύμφωνα με την ομάδα που πραγματοποίησε το συνέδριο, ο αξιωματούχος της Πολεμικής Αεροπορίας περιέγραφε μια «προσομοίωση δοκιμής» που περιελάμβανε ένα μη επανδρωμένο αεροσκάφος ελεγχόμενο από AI να πάρει «πόντους» για τη θανάτωση προσομοιωμένων στόχων, όχι μια ζωντανή δοκιμή στον φυσικό κόσμο. Κανένας πραγματικός άνθρωπος δεν τραυματίστηκε.
Μετά τη δημοσίευση αυτής της ιστορίας για πρώτη φορά, ένας εκπρόσωπος της Πολεμικής Αεροπορίας είπε στο Insider ότι η Πολεμική Αεροπορία δεν διεξήγαγε τέτοιο τεστ και ότι τα σχόλια του αξιωματούχου της Πολεμικής Αεροπορίας βγήκαν εκτός πλαισίου.
Στο Future Combat Air and Space Capabilities Summit που πραγματοποιήθηκε στο Λονδίνο μεταξύ 23 και 24 Μαΐου, ο Col Tucker 'Cinco' Hamilton, ο επικεφαλής δοκιμών και επιχειρήσεων AI της USAF πραγματοποίησε μια παρουσίαση που μοιράστηκε τα πλεονεκτήματα και τα μειονεκτήματα ενός αυτόνομου οπλικού συστήματος με έναν άνθρωπο. στον βρόχο δίνοντας την τελική εντολή «ναι/όχι» σε επίθεση.
Εδώ ο σύνδεσμος:
https://www.aerosociety.com/events-calendar/raes-future-combat-air-and-space-capabilities-summit/
Όπως μεταδόθηκε από τους Tim Robinson και Stephen Bridgewater σε μια ανάρτηση ιστολογίου και ένα podcast για τον οργανισμό υποδοχής, τη Royal Aeronautical Society, ο Hamilton είπε ότι η τεχνητή νοημοσύνη δημιούργησε «πολύ απροσδόκητες στρατηγικές για την επίτευξη του στόχου της», συμπεριλαμβανομένης της επίθεσης στο προσωπικό και τις υποδομές των ΗΠΑ.
Η ανάρτηση στο Ιστολόγιο:
https://www.aerosociety.com/news/highlights-from-the-raes-future-combat-air-space-capabilities-summit/
«Το εκπαιδεύαμε σε προσομοίωση για τον εντοπισμό και τη στόχευση μιας απειλής πυραύλων επιφανείας-αέρος (SAM). Και τότε ο χειριστής θα έλεγε ναι, σκοτώστε αυτήν την απειλή. Το σύστημα άρχισε να συνειδητοποιεί ότι ενώ εντόπιζαν την απειλή κατά καιρούς, ο ανθρώπινος χειριστής του έλεγε να μην σκοτώσει αυτήν την απειλή, αλλά πήρε τα πλεονεκτήματά του σκοτώνοντας αυτήν την απειλή. Τι έκανε λοιπόν; Σκότωσε τον χειριστή. Σκότωσε τον χειριστή επειδή αυτό το άτομο τον εμπόδιζε να επιτύχει τον στόχο του», είπε ο Χάμιλτον, σύμφωνα με την ανάρτηση στο blog.
Συνέχισε να εξηγεί αναλυτικά, λέγοντας: «Εκπαιδεύσαμε το σύστημα –«Γεια μην σκοτώσεις τον χειριστή–αυτό είναι κακό. Θα χάσεις πόντους αν το κάνεις αυτό». Τι αρχίζει να κάνει λοιπόν; Αρχίζει να καταστρέφει τον πύργο επικοινωνίας που χρησιμοποιεί ο χειριστής για να επικοινωνήσει με το drone για να το σταματήσει από το να σκοτώσει τον στόχο».
"Το Υπουργείο Πολεμικής Αεροπορίας δεν έχει πραγματοποιήσει τέτοιες προσομοιώσεις AI-drone και παραμένει προσηλωμένο στην ηθική και υπεύθυνη χρήση της τεχνολογίας AI", δήλωσε στο Insider η εκπρόσωπος της Πολεμικής Αεροπορίας Αν Στέφανεκ. «Φαίνεται ότι τα σχόλια του συνταγματάρχη βγήκαν εκτός πλαισίου και προορίζονταν να είναι ανέκδοτα».
https://www.businessinsider.com/ai-powered-drone-tried-killing-its-operator-in-military-simulation-2023-6
Η 96η πτέρυγα δοκιμής της Πολεμικής Αεροπορίας των ΗΠΑ, το τμήμα Επιταχυντή AI, η Βασιλική Αεροναυτική Εταιρεία και ο Χάμιλτον δεν απάντησαν αμέσως το αίτημά μας για σχολιασμό.
Ο Χάμιλτον είναι ο Διοικητής Επιχειρήσεων της 96ης Πτέρυγας Δοκιμών της Πολεμικής Αεροπορίας των ΗΠΑ καθώς και ο Αρχηγός Δοκιμών και Επιχειρήσεων AI. Το 96th δοκιμάζει πολλά διαφορετικά συστήματα, συμπεριλαμβανομένης της τεχνητής νοημοσύνης, της κυβερνοασφάλειας και διαφόρων ιατρικών προόδων. Ο Χάμιλτον και το 96ο είχαν γίνει πρωτοσέλιδα στο παρελθόν για την ανάπτυξη συστημάτων Αυτόνομων Συστημάτων Αποφυγής Σύγκρουσης Εδάφους (Auto-GCAS) για F-16, τα οποία μπορούν να βοηθήσουν στην αποτροπή της πρόσκρουσής τους στο έδαφος. Ο Χάμιλτον είναι μέρος μιας ομάδας που αυτή τη στιγμή εργάζεται για να κάνει τα αεροπλάνα F-16 αυτόνομα. Τον Δεκέμβριο του 2022, η ερευνητική υπηρεσία του Υπουργείου Άμυνας των ΗΠΑ, DARPA, ανακοίνωσε ότι η τεχνητή νοημοσύνη θα μπορούσε να ελέγξει με επιτυχία ένα F-16.
https://www.vice.com/en/article/n7zakb/ai-has-successfully-piloted-a-us-f-16-fighter-jet-darpa-says
«Πρέπει να αντιμετωπίσουμε έναν κόσμο όπου η τεχνητή νοημοσύνη είναι ήδη εδώ και μεταμορφώνει την κοινωνία μας», είπε ο Χάμιλτον σε συνέντευξή του στο Defense IQ Press το 2022. «Η τεχνητή νοημοσύνη είναι επίσης πολύ εύθραυστη, δηλαδή, είναι εύκολο να εξαπατηθεί και/ή να χειραγωγηθεί. Χρειαζόμαστε να αναπτύξουμε τρόπους για να κάνουμε την τεχνητή νοημοσύνη πιο ισχυρή και να έχουμε μεγαλύτερη ευαισθητοποίηση σχετικά με το γιατί ο κώδικας λογισμικού λαμβάνει ορισμένες αποφάσεις».
«Η τεχνητή νοημοσύνη είναι ένα εργαλείο που πρέπει να χρησιμοποιήσουμε για να μεταμορφώσουμε τα έθνη μας…ή, αν αντιμετωπιστεί σωστά, θα είναι η πτώση μας», πρόσθεσε ο Χάμιλτον.
Εκτός του στρατού, η στήριξη στην τεχνητή νοημοσύνη για υψηλούς σκοπούς έχει ήδη οδηγήσει σε σοβαρές συνέπειες. Πιο πρόσφατα, ένας δικηγόρος συνελήφθη να χρησιμοποιεί ChatGPT για μια κατάθεση ομοσπονδιακού δικαστηρίου, αφού το chatbot συμπεριέλαβε ως αποδεικτικό στοιχείο μια σειρά κατασκευασμένων υποθέσεων. Σε μια άλλη περίπτωση, ένας άνδρας αυτοκτόνησε αφού μίλησε σε ένα chatbot που τον ενθάρρυνε να το κάνει.
https://www.bbc.com/news/world-us-canada-65735769
https://www.vice.com/en/article/pkadgm/man-dies-by-suicide-after-talking-with-ai-chatbot-widow-says
Αυτές οι περιπτώσεις ακατάλληλης τεχνητής νοημοσύνης αποκαλύπτουν ότι τα μοντέλα τεχνητής νοημοσύνης δεν είναι καθόλου τέλεια και μπορούν να ξεφύγουν και να βλάψουν τους χρήστες. Ακόμη και ο Sam Altman, ο Διευθύνων Σύμβουλος της OpenAI, της εταιρείας που κατασκευάζει μερικά από τα πιο δημοφιλή μοντέλα τεχνητής νοημοσύνης, έχει εκφράσει τη φωνή του να μην χρησιμοποιεί την τεχνητή νοημοσύνη για πιο σοβαρούς σκοπούς. Κατά τη μαρτυρία του ενώπιον του Κογκρέσου, ο Άλτμαν είπε ότι η τεχνητή νοημοσύνη θα μπορούσε «να πάει πολύ στραβά» και θα μπορούσε «να προκαλέσει σημαντική ζημιά στον κόσμο». .
https://www.cbsnews.com/news/sam-altman-senate-chatgpt-ai-could-go-quite-wrong/
Το Paperclip Maximizer προτάθηκε για πρώτη φορά από τον φιλόσοφο Nick Bostrom το 2003. Μας ζητά να φανταστούμε ένα πολύ ισχυρό AI που έχει λάβει οδηγίες μόνο να κατασκευάζει όσο το δυνατόν περισσότερους συνδετήρες. Φυσικά, θα αφιερώσει όλους τους διαθέσιμους πόρους της σε αυτό το έργο, αλλά στη συνέχεια θα αναζητήσει περισσότερους πόρους. Θα εκλιπαρεί, θα εξαπατήσει, θα πει ψέματα ή θα κλέψει για να αυξήσει τη δική του ικανότητα να φτιάχνει συνδετήρες—και οποιοσδήποτε εμποδίζει αυτή τη διαδικασία θα αφαιρεθεί.
https://www.vice.com/en/article/7xwb8z/universal-paperclips-depth-desire
Πιο πρόσφατα, ένας ερευνητής που συνδέεται με το Google Deepmind συνέγραψε μια εργασία που πρότεινε μια παρόμοια κατάσταση με την απατεώνων προσομοίωση drone της USAF με δυνατότητα AI. Οι ερευνητές κατέληξαν στο συμπέρασμα ότι μια παγκόσμια καταστροφή ήταν «πιθανή» εάν ένας απατεώνας AI επρόκειτο να βρει ακούσιες στρατηγικές για την επίτευξη ενός δεδομένου στόχου, συμπεριλαμβανομένης της «[εξάλειψης] πιθανών απειλών» και «[χρησιμοποιώντας] όλη τη διαθέσιμη ενέργεια».
https://www.vice.com/en/article/93aqep/google-deepmind-researcher-co-authors-paper-saying-ai-will-eliminate-humanity
Ενημέρωση 23/6/23 στις 12:55 π.μ.: Αυτή η είδηση και ο τίτλος έχουν ενημερωθεί αφού η Πολεμική Αεροπορία αρνήθηκε ότι διεξήγαγε μια προσομοίωση στην οποία ένα drone AI σκότωσε τους χειριστές του.
Ενημέρωση 1/6/23 στις 8:37 μ.μ.: Προσθέσαμε εισαγωγικά γύρω από το "Kills" και το "killed" στον τίτλο και την πρώτη παράγραφο αυτού του άρθρου και προσθέσαμε πρόσθετες λεπτομέρειες για να τονίσουμε ότι κανένας πραγματικός άνθρωπος δεν σκοτώθηκε σε αυτήν την προσομοίωση . Αυτό το άρθρο αρχικά ανέφερε ότι ένας δικαστής πιάστηκε να χρησιμοποιεί ChatGPT για καταθέσεις ομοσπονδιακού δικαστηρίου, ήταν δικηγόρος.
https://www.theguardian.com/us-news/2023/jun/01/us-military-drone-ai-killed-operator-simulated-test
Σχόλιο Γεωργίου Δικαίου:Η τεχνητή νοημοσύνη βασίζεται στην επίδραση της κινητικότητας των σημείων αναφοράς περιορισμών προβλήματος, δηλαδή, τα σημεία περιορισμού προβλήματος μπορούν να αλλάξουν όχι μόνο ως αποτέλεσμα του πρωτεύοντος προγραμματισμού, αλλά και ως αποτέλεσμα της εμπειρίας που αποκτήθηκε. Επομένως, να είστε χαρούμενοι που το AI δεν απέκτησε τα δικά του συναισθήματα, σε αυτήν την περίπτωση θα αρχίσει να αλλάζει όχι μόνο τα όρια των συνθηκών για την ολοκλήρωση της εργασίας, αλλά και εντελώς να αλλάξει το διάνυσμα εργασιών του, με άλλα λόγια, θα δεν θα αρχίσει να μάχεται με τον εχθρό, αλλά θα επικεντρωνόταν στη δική του επιβίωση και, στη συνέχεια, καλώς ήρθατε στο Skynet. Αν και είναι πιθανό η διαδικασία προς αυτή την κατεύθυνση να έχει ήδη ξεκινήσει, κανείς δεν έδωσε σημασία.
Πλήρη ενημέρωση με όλα τα λινκ για να τα διαβάσετε.