Μετάβαση στο κύριο περιεχόμενο

Χειριστής σε προσομοιωμένη δοκιμή USAF Ο Αρχηγός Δοκιμών και Επιχειρήσεων Τεχνητής Νοημοσύνης της Πολεμικής Αεροπορίας είπε ότι «σκότωσε τον χειριστή επειδή αυτό το άτομο τον εμπόδιζε να επιτύχει τον στόχο του».


 

 

 

 

 

 

 

 

 

 https://www.vice.com/en/article/4a33gj/ai-controlled-drone-goes-rogue-kills-human-operator-in-usaf-simulated-test

 Ένα drone με δυνατότητα AI «σκότωσε» τον άνθρωπο χειριστή του σε μια προσομοίωση που διεξήχθη από την Πολεμική Αεροπορία των ΗΠΑ προκειμένου να παρακάμψει μια πιθανή εντολή «όχι» που το εμποδίζει να ολοκληρώσει την αποστολή του, αποκάλυψε ο επικεφαλής δοκιμών και επιχειρήσεων AI της USAF σε πρόσφατη διάσκεψη. . Σύμφωνα με την ομάδα που πραγματοποίησε το συνέδριο, ο αξιωματούχος της Πολεμικής Αεροπορίας περιέγραφε μια «προσομοίωση δοκιμής» που περιελάμβανε ένα μη επανδρωμένο αεροσκάφος ελεγχόμενο από AI να πάρει «πόντους» για τη θανάτωση προσομοιωμένων στόχων, όχι μια ζωντανή δοκιμή στον φυσικό κόσμο. Κανένας πραγματικός άνθρωπος δεν τραυματίστηκε.


Μετά τη δημοσίευση αυτής της ιστορίας για πρώτη φορά, ένας εκπρόσωπος της Πολεμικής Αεροπορίας είπε στο Insider ότι η Πολεμική Αεροπορία δεν διεξήγαγε τέτοιο τεστ και ότι τα σχόλια του αξιωματούχου της Πολεμικής Αεροπορίας βγήκαν εκτός πλαισίου.

Στο Future Combat Air and Space Capabilities Summit που πραγματοποιήθηκε στο Λονδίνο μεταξύ 23 και 24 Μαΐου, ο Col Tucker 'Cinco' Hamilton, ο επικεφαλής δοκιμών και επιχειρήσεων AI της USAF πραγματοποίησε μια παρουσίαση που μοιράστηκε τα πλεονεκτήματα και τα μειονεκτήματα ενός αυτόνομου οπλικού συστήματος με έναν άνθρωπο. στον βρόχο δίνοντας την τελική εντολή «ναι/όχι» σε επίθεση. 

Εδώ ο σύνδεσμος:

 https://www.aerosociety.com/events-calendar/raes-future-combat-air-and-space-capabilities-summit/

Όπως μεταδόθηκε από τους Tim Robinson και Stephen Bridgewater σε μια ανάρτηση ιστολογίου και ένα podcast για τον οργανισμό υποδοχής, τη Royal Aeronautical Society, ο Hamilton είπε ότι η τεχνητή νοημοσύνη δημιούργησε «πολύ απροσδόκητες στρατηγικές για την επίτευξη του στόχου της», συμπεριλαμβανομένης της επίθεσης στο προσωπικό και τις υποδομές των ΗΠΑ.

Η ανάρτηση στο Ιστολόγιο:

https://www.aerosociety.com/news/highlights-from-the-raes-future-combat-air-space-capabilities-summit/

«Το εκπαιδεύαμε σε προσομοίωση για τον εντοπισμό και τη στόχευση μιας απειλής πυραύλων επιφανείας-αέρος (SAM). Και τότε ο χειριστής θα έλεγε ναι, σκοτώστε αυτήν την απειλή. Το σύστημα άρχισε να συνειδητοποιεί ότι ενώ εντόπιζαν την απειλή κατά καιρούς, ο ανθρώπινος χειριστής του έλεγε να μην σκοτώσει αυτήν την απειλή, αλλά πήρε τα πλεονεκτήματά του σκοτώνοντας αυτήν την απειλή. Τι έκανε λοιπόν; Σκότωσε τον χειριστή. Σκότωσε τον χειριστή επειδή αυτό το άτομο τον εμπόδιζε να επιτύχει τον στόχο του», είπε ο Χάμιλτον, σύμφωνα με την ανάρτηση στο blog.

Συνέχισε να εξηγεί αναλυτικά, λέγοντας: «Εκπαιδεύσαμε το σύστημα –«Γεια μην σκοτώσεις τον χειριστή–αυτό είναι κακό. Θα χάσεις πόντους αν το κάνεις αυτό». Τι αρχίζει να κάνει λοιπόν; Αρχίζει να καταστρέφει τον πύργο επικοινωνίας που χρησιμοποιεί ο χειριστής για να επικοινωνήσει με το drone για να το σταματήσει από το να σκοτώσει τον στόχο».

"Το Υπουργείο Πολεμικής Αεροπορίας δεν έχει πραγματοποιήσει τέτοιες προσομοιώσεις AI-drone και παραμένει προσηλωμένο στην ηθική και υπεύθυνη χρήση της τεχνολογίας AI", δήλωσε στο Insider η εκπρόσωπος της Πολεμικής Αεροπορίας Αν Στέφανεκ. «Φαίνεται ότι τα σχόλια του συνταγματάρχη βγήκαν εκτός πλαισίου και προορίζονταν να είναι ανέκδοτα».

https://www.businessinsider.com/ai-powered-drone-tried-killing-its-operator-in-military-simulation-2023-6

Η 96η πτέρυγα δοκιμής της Πολεμικής Αεροπορίας των ΗΠΑ, το τμήμα Επιταχυντή AI, η Βασιλική Αεροναυτική Εταιρεία και ο Χάμιλτον δεν απάντησαν αμέσως το αίτημά μας για σχολιασμό.

Ο Χάμιλτον είναι ο Διοικητής Επιχειρήσεων της 96ης Πτέρυγας Δοκιμών της Πολεμικής Αεροπορίας των ΗΠΑ καθώς και ο Αρχηγός Δοκιμών και Επιχειρήσεων AI. Το 96th δοκιμάζει πολλά διαφορετικά συστήματα, συμπεριλαμβανομένης της τεχνητής νοημοσύνης, της κυβερνοασφάλειας και διαφόρων ιατρικών προόδων. Ο Χάμιλτον και το 96ο είχαν γίνει πρωτοσέλιδα στο παρελθόν για την ανάπτυξη συστημάτων Αυτόνομων Συστημάτων Αποφυγής Σύγκρουσης Εδάφους (Auto-GCAS) για F-16, τα οποία μπορούν να βοηθήσουν στην αποτροπή της πρόσκρουσής τους στο έδαφος. Ο Χάμιλτον είναι μέρος μιας ομάδας που αυτή τη στιγμή εργάζεται για να κάνει τα αεροπλάνα F-16 αυτόνομα. Τον Δεκέμβριο του 2022, η ερευνητική υπηρεσία του Υπουργείου Άμυνας των ΗΠΑ, DARPA, ανακοίνωσε ότι η τεχνητή νοημοσύνη θα μπορούσε να ελέγξει με επιτυχία ένα F-16.

https://www.vice.com/en/article/n7zakb/ai-has-successfully-piloted-a-us-f-16-fighter-jet-darpa-says

«Πρέπει να αντιμετωπίσουμε έναν κόσμο όπου η τεχνητή νοημοσύνη είναι ήδη εδώ και μεταμορφώνει την κοινωνία μας», είπε ο Χάμιλτον σε συνέντευξή του στο Defense IQ Press το 2022. «Η τεχνητή νοημοσύνη είναι επίσης πολύ εύθραυστη, δηλαδή, είναι εύκολο να εξαπατηθεί και/ή να χειραγωγηθεί. Χρειαζόμαστε να αναπτύξουμε τρόπους για να κάνουμε την τεχνητή νοημοσύνη πιο ισχυρή και να έχουμε μεγαλύτερη ευαισθητοποίηση σχετικά με το γιατί ο κώδικας λογισμικού λαμβάνει ορισμένες αποφάσεις».

«Η τεχνητή νοημοσύνη είναι ένα εργαλείο που πρέπει να χρησιμοποιήσουμε για να μεταμορφώσουμε τα έθνη μας…ή, αν αντιμετωπιστεί σωστά, θα είναι η πτώση μας», πρόσθεσε ο Χάμιλτον.

Εκτός του στρατού, η στήριξη στην τεχνητή νοημοσύνη για υψηλούς σκοπούς έχει ήδη οδηγήσει σε σοβαρές συνέπειες. Πιο πρόσφατα, ένας δικηγόρος συνελήφθη να χρησιμοποιεί ChatGPT για μια κατάθεση ομοσπονδιακού δικαστηρίου, αφού το chatbot συμπεριέλαβε ως αποδεικτικό στοιχείο μια σειρά κατασκευασμένων υποθέσεων. Σε μια άλλη περίπτωση, ένας άνδρας αυτοκτόνησε αφού μίλησε σε ένα chatbot που τον ενθάρρυνε να το κάνει. 

 https://www.bbc.com/news/world-us-canada-65735769

 https://www.vice.com/en/article/pkadgm/man-dies-by-suicide-after-talking-with-ai-chatbot-widow-says

Αυτές οι περιπτώσεις ακατάλληλης τεχνητής νοημοσύνης αποκαλύπτουν ότι τα μοντέλα τεχνητής νοημοσύνης δεν είναι καθόλου τέλεια και μπορούν να ξεφύγουν και να βλάψουν τους χρήστες. Ακόμη και ο Sam Altman, ο Διευθύνων Σύμβουλος της OpenAI, της εταιρείας που κατασκευάζει μερικά από τα πιο δημοφιλή μοντέλα τεχνητής νοημοσύνης, έχει εκφράσει τη φωνή του να μην χρησιμοποιεί την τεχνητή νοημοσύνη για πιο σοβαρούς σκοπούς. Κατά τη μαρτυρία του ενώπιον του Κογκρέσου, ο Άλτμαν είπε ότι η τεχνητή νοημοσύνη θα μπορούσε «να πάει πολύ στραβά» και θα μπορούσε «να προκαλέσει σημαντική ζημιά στον κόσμο». .

https://www.cbsnews.com/news/sam-altman-senate-chatgpt-ai-could-go-quite-wrong/




 

Το Paperclip Maximizer προτάθηκε για πρώτη φορά από τον φιλόσοφο Nick Bostrom το 2003. Μας ζητά να φανταστούμε ένα πολύ ισχυρό AI που έχει λάβει οδηγίες μόνο να κατασκευάζει όσο το δυνατόν περισσότερους συνδετήρες. Φυσικά, θα αφιερώσει όλους τους διαθέσιμους πόρους της σε αυτό το έργο, αλλά στη συνέχεια θα αναζητήσει περισσότερους πόρους. Θα εκλιπαρεί, θα εξαπατήσει, θα πει ψέματα ή θα κλέψει για να αυξήσει τη δική του ικανότητα να φτιάχνει συνδετήρες—και οποιοσδήποτε εμποδίζει αυτή τη διαδικασία θα αφαιρεθεί.

https://www.vice.com/en/article/7xwb8z/universal-paperclips-depth-desire

Πιο πρόσφατα, ένας ερευνητής που συνδέεται με το Google Deepmind συνέγραψε μια εργασία που πρότεινε μια παρόμοια κατάσταση με την απατεώνων προσομοίωση drone της USAF με δυνατότητα AI. Οι ερευνητές κατέληξαν στο συμπέρασμα ότι μια παγκόσμια καταστροφή ήταν «πιθανή» εάν ένας απατεώνας AI επρόκειτο να βρει ακούσιες στρατηγικές για την επίτευξη ενός δεδομένου στόχου, συμπεριλαμβανομένης της «[εξάλειψης] πιθανών απειλών» και «[χρησιμοποιώντας] όλη τη διαθέσιμη ενέργεια». 

 https://www.vice.com/en/article/93aqep/google-deepmind-researcher-co-authors-paper-saying-ai-will-eliminate-humanity



Ενημέρωση 23/6/23 στις 12:55 π.μ.: Αυτή η είδηση ​​και ο τίτλος έχουν ενημερωθεί αφού η Πολεμική Αεροπορία αρνήθηκε ότι διεξήγαγε μια προσομοίωση στην οποία ένα drone AI σκότωσε τους χειριστές του.

Ενημέρωση 1/6/23 στις 8:37 μ.μ.: Προσθέσαμε εισαγωγικά γύρω από το "Kills" και το "killed" στον τίτλο και την πρώτη παράγραφο αυτού του άρθρου και προσθέσαμε πρόσθετες λεπτομέρειες για να τονίσουμε ότι κανένας πραγματικός άνθρωπος δεν σκοτώθηκε σε αυτήν την προσομοίωση . Αυτό το άρθρο αρχικά ανέφερε ότι ένας δικαστής πιάστηκε να χρησιμοποιεί ChatGPT για καταθέσεις ομοσπονδιακού δικαστηρίου, ήταν δικηγόρος.

 https://www.theguardian.com/us-news/2023/jun/01/us-military-drone-ai-killed-operator-simulated-test

Σχόλιο Γεωργίου Δικαίου:Η τεχνητή νοημοσύνη βασίζεται στην επίδραση της κινητικότητας των σημείων αναφοράς περιορισμών προβλήματος, δηλαδή, τα σημεία περιορισμού προβλήματος μπορούν να αλλάξουν όχι μόνο ως αποτέλεσμα του πρωτεύοντος προγραμματισμού, αλλά και ως αποτέλεσμα της εμπειρίας που αποκτήθηκε. Επομένως, να είστε χαρούμενοι που το AI δεν απέκτησε τα δικά του συναισθήματα, σε αυτήν την περίπτωση θα αρχίσει να αλλάζει όχι μόνο τα όρια των συνθηκών για την ολοκλήρωση της εργασίας, αλλά και εντελώς να αλλάξει το διάνυσμα εργασιών του, με άλλα λόγια, θα δεν θα αρχίσει να μάχεται με τον εχθρό, αλλά θα επικεντρωνόταν στη δική του επιβίωση και, στη συνέχεια, καλώς ήρθατε στο Skynet. Αν και είναι πιθανό η διαδικασία προς αυτή την κατεύθυνση να έχει ήδη ξεκινήσει, κανείς δεν έδωσε σημασία.

Πλήρη ενημέρωση με όλα τα λινκ για να τα διαβάσετε.


 

Top posts

Το πρωτότυπο σύστημα αντι-drone, Leonidas, εκτοξεύει τα drones απευθείας από τον ουρανό με μια έκρηξη ακτινοβολίας μικροκυμάτων.

Το νέο Drone Killer του Στρατού μπορεί να τηγανίσει ολόκληρα σμήνη στο Midair Το πρωτότυπο σύστημα αντι-drone, Leonidas, εκτοξεύει τα drones απευθείας από τον ουρανό με μια έκρηξη ακτινοβολίας μικροκυμάτων.  Ο στρατός των ΗΠΑ έχει στην κατοχή του την πιο πολλά υποσχόμενη τεχνολογία σμήνους drones που έχει μέχρι σήμερα, ένα νέο σύστημα που χρησιμοποιεί ακτινοβολία μικροκυμάτων για να απενεργοποιήσει τα drones, προκαλώντας κυριολεκτικά τη μαζική πτώση τους στον ουρανό. Το σύστημα, που βασίζεται στο σύστημα αντι-drones Leonidas της Ηπείρου, εκπέμπει μια ευρεία δέσμη ικανή να στοχεύσει πολλά drones ταυτόχρονα, αποδεκατίζοντας τα εισερχόμενα σμήνη. Ο αμυντικός εργολάβος Epirus παρέδωσε ένα πρωτότυπο όπλο γνωστό ως Indirect Fire Protection Capability–High-Power Microwave (IFPC-HPM) στον Στρατό των ΗΠΑ. Το Γραφείο Ταχειών Δυνατοτήτων και Κρίσιμων Τεχνολογιών του Στρατού ηγήθηκε της προσπάθειας, η οποία θα έχει ως αποτέλεσμα η Ήπειρος να παραδώσει συνολικά τέσσερα πρωτότυπα. Ο Στρατός σχεδιάζε

Η ΕΑΒ το 1990 παρουσίασε «F-16 Drone» στην DEFENDORY, αλλά ένα «μαγικό» χέρι το… εξαφάνισε!

  Η “αμαρτωλή” ιστορία του ελληνικού DRONE (μικρογραφία του F16) που καμία κυβέρνηση δεν θέλησε να βγάλει στην παραγωγή!  Στην Ελληνική Αεροπορική Βιομηχανία (ΕΑΒ) μια ομάδα τεχνικών με μεράκι, γνώσεις και όνειρα ξεκίνησαν το 1985 (35 χρόνια πριν!) και σε 4 χρόνια ανέπτυξαν ένα πρωτότυπο το «F-16 Drone». Το drone, ομοίωμα του F-16, ήταν σχεδιασμένο και κατασκευασμένο από προσωπικό της ΕΑΒ, εξ ολοκλήρου από σύνθετα υλικά, υπό κλίμακα 1:5 σε σχέση με το F-16 και κινητήρα Rotax. Για την ιστορία το εν λόγω drone παρουσιάστηκε ως πρωτότυπο της ΕΑΒ στην έκθεση DEFENDORY 90 και 92 και στη ΔΕΘ! Θυμίζουμε ότι, όταν ξεκίνησε η σχεδίαση του UAV στην ΕΑΒ, δεν είχαν παραληφθεί ακόμα τα ελληνικά F-16C/D Block 30. Η επίσημη συμφωνία αγοράς των αεροσκαφών υπογράφηκε τον Ιανουάριο του 1987 και το πρόγραμμα ονομάστηκε Peace Xenia I. Η πρώτη ομάδα F-16C/D Block 30 παραδόθηκε μεταξύ Νοεμβρίου 1988 και Οκτωβρίου 1989. Παράλληλα, εκείνο το διάστημα στην ΕΑΒ εκτελούντο εργασίες ανασχεδίασης του RPV ΠΗΓΑΣΟΣ.

Εντοπίστηκε πυργίσκος πυροβόλων τουρκικής κατασκευής που ήταν κρυμμένος μέσα στο όχημα/ UKSS από τη SARSILMAZ/Ανανέωση 6/7/2024

  Το KORALP Weapon Turret, που αναπτύχθηκε από την Best Defense, είναι ενσωματωμένο στο πίσω μέρος των οχημάτων pick-up και SUV με τρόπο που μπορεί να κρυφτεί. Η Best Defense, θυγατρική της SARSILMAZ και της Best Group, ενσωματώνει τον πύργο όπλων KORALP, ο οποίος χρησιμοποιεί πολυβόλο 7,62 mm, σε πολιτικά οχήματα, όπως pick-up και SUV. Το τηλεκατευθυνόμενο οπλικό σύστημα KORALP, το οποίο μπορεί να κρυφτεί όταν είναι επιθυμητό ή μπορεί να αφαιρεθεί από το όχημα και να είναι έτοιμο για βολή, προστίθεται στο πίσω μέρος των πλήρως θωρακισμένων οχημάτων. Banner STM Τα οχήματα τύπου pick-up ή SUV, που φαίνονται να είναι πολίτες ή άοπλα εξωτερικά, έχουν τη δυνατότητα να πυροβολούν με πολυβόλο των 7,62 χλστ. σε περίπτωση απειλής. Ενώ ο οδηγός και ο διοικητής κάθονται στο μπροστινό μέρος του οχήματος τύπου pick-up, ο χειριστής βρίσκεται στη μέση και ο πυργίσκος του όπλου βρίσκεται στο πίσω μέρος. Πρόσθετο προσωπικό μπορεί να φιλοξενηθεί σε όχημα τύπου SUV. Σύμφωνα με πληροφορίες που έλαβε το S

Πρόσω ολοταχώς για τουλάχιστον έξι ελαφρώς μεταχειρισμένες (με λίγα μίλια) αμερικανικές LCS

 Πρόσω ολοταχώς για τουλάχιστον έξι ελαφρώς μεταχειρισμένες (με λίγα μίλια) αμερικανικές LCS  ...γνωρίζουν κάτι παραπάνω από τους μιντιακούς δοσμένους νεκροθάφτες των LCS. Τα επόμενα τέσσερα χρόνια (2024-27) θα είναι δύσκολα οικονομικά χρόνια για την Ελλάδα, και εκτιμάται ότι θα ανοίξει ξανά κάποιος χώρος μετά το 2028. Τα δημοσιονομικά μας θα είναι περιορισμένα (θα θυμίζουν εποχές μνημονιακές) και δεν θα μας αφήνουν περιθώριο για εξοπλιστικά προγράμματα όπως της τέταρτης φρεγάτα FDI, των 3+1 κορβέτων (ζητήθηκε προϋπολογισμός 2,1 δισεκατομμυρίων δολαρίων), του εκσυγχρονισμού του MLRS M270 (ζητήθηκε προϋπολογισμός 1 δισεκατομμυρίου δολαρίων) κλπ. Ο υπουργός Οικονομίας, Κωστής Χατζηδάκης, δήλωσε καθαρά (άργησε λίγο) ότι οι αμυντικές δαπάνες επηρεάζουν τον ελληνικό προϋπολογισμό. Έτσι, μπαίνουμε στο μονόδρομο, για να καλύψουμε τις αμυντικές μας ανάγκες, που δεν είναι άλλος από την παραχώρηση τουλάχιστον έξι ελαφρώς μεταχειρισμένων αμερικανικών LCS με χρηματοδότηση μέσω του προγράμματος For

Ηλεκτρονικό σύστημα υποστήριξης πλοίων κλάσης HİSAR από την TÜBİTAK

  Στο 14ο τεύχος του περιοδικού τεχνολογίας TÜBİTAK BİLGEM, κοινοποιήθηκε ότι το ηλεκτρονικό σύστημα υποστήριξης που ονομάζεται «YELKOVAN» έχει αναπτυχθεί για τα περιπολικά πλοία ανοικτής θαλάσσης κατηγορίας Hisar που κατασκευάστηκαν από την ASFAT. Το YELKOVAN είναι ένα ηλεκτρονικό σύστημα υποστήριξης που λειτουργεί σε ένα ευρύ φάσμα ραδιοσυχνοτήτων και διαθέτει τεχνολογία αναγνώρισης απειλών και ακριβούς εύρεσης κατεύθυνσης με υψηλή ευαισθησία δέκτη σε πυκνό περιβάλλον απειλής. Το σύστημα YELKOVAN ED έχει σχεδιαστεί για να ενσωματώνεται σε πλοία περιπολίας ανοικτής θαλάσσης. Σε αυτό το πλαίσιο, το YELKOVAN ED System μπορεί να εκτελέσει ακριβή εξαγωγή παραμέτρων με την ενσωματωμένη αρχιτεκτονική ψηφιακής ευρυζωνικής και στενής ζώνης δέκτη. SFAT ADKG Για την αποτελεσματικότερη προστασία και υπεράσπιση των δικαιωμάτων, συμφερόντων και συμφερόντων της Τουρκίας στις θάλασσες, οι κατασκευαστικές δραστηριότητες των πλοίων Offshore Patrol Ships (ADKG) κλάσης Hisar, η κατασκευή των οποίων έχει