Could artificial
intelligence upend concepts of nuclear deterrence that have helped spare the
world from nuclear war since 1945? Stunning advances in AI—coupled with a
proliferation of drones, satellites, and other sensors—raise the possibility
that countries could find and threaten each other's nuclear forces, escalating
tensions. A new RAND Corporation paper finds that
artificial intelligence has the potential to upend the foundations of nuclear
deterrence by the year 2040.
Η τεχνητή νοημοσύνη έχει τη δυνατότητα να ανατρέψει τις βάσεις της πυρηνικής αποτροπής, και ως εκ τούτου την πυρηνική ισορροπία, ως το 2040, σύμφωνα με δημοσίευση του RAND Corporation (αμερικανικό think tank).
Αν και θεωρείται μάλλον απίθανη η εμφάνιση «αποκαλυπτικών» μηχανών φοβερής καταστρεπτικότητας που θα ελέγχονται από τεχνητές νοημοσύνες, ο κίνδυνος που συνιστά η τεχνητή νοημοσύνη για την πυρηνική ασφάλεια έγκειται, σύμφωνα με την έρευνα, στη δυνατότητά της να ενθαρρύνει τους ανθρώπους να πάρουν ρίσκα τα οποία μπορεί να έχουν δυνάμει τρομακτικές συνέπειες.
Αν και θεωρείται μάλλον απίθανη η εμφάνιση «αποκαλυπτικών» μηχανών φοβερής καταστρεπτικότητας που θα ελέγχονται από τεχνητές νοημοσύνες, ο κίνδυνος που συνιστά η τεχνητή νοημοσύνη για την πυρηνική ασφάλεια έγκειται, σύμφωνα με την έρευνα, στη δυνατότητά της να ενθαρρύνει τους ανθρώπους να πάρουν ρίσκα τα οποία μπορεί να έχουν δυνάμει τρομακτικές συνέπειες.
A Minuteman nuclear
missile in its silo at Warren Air Force Base in Wyoming, 1965. LOWELL
GEORGIA/NATIONAL GEOGRAPHIC/GETTY IMAGES
Όπως
αναφέρεται στην έρευνα, κατά την περίοδο του Ψυχρού Πολέμου η αρχή της
αμοιβαίας εξασφαλισμένης καταστροφής (MAD- Mutually Assured Destruction)
διατηρούσε την ειρήνη (έστω και ασταθή) μεταξύ των υπερδυνάμεων, καθώς διασφάλιζε
πως οποιαδήποτε επίθεση θα επέφερε καταστροφικά αντίποινα. Το αποτέλεσμα ήταν η
επίτευξη στρατηγικής σταθερότητας, καθώς ελαχιστοποιούνταν τα κίνητρα για
ενέργειες που θα μπορούσαν να οδηγήσουν σε πυρηνικό πόλεμο.
Illustrations by
bubaone/Getty Images and jolygon/Adobe Stock. Design by Chara Williams/RAND
Corporation.
Σύμφωνα
με το νέο paper, τις προσεχείς δεκαετίες η τεχνητή νοημοσύνη θα έχει τη
δυνατότητα να «φθείρει» το δόγμα της αμοιβαίας εξασφαλισμένης καταστροφής,
υπονομεύοντας τη στρατηγική σταθερότητα: Βελτιωμένες τεχνολογίες αισθητήρων θα
μπορούσαν να εισάγουν στην «εξίσωση» την δυνατότητα καταστροφής δυνάμεων που θα
μπορούσαν να προβούν σε αντίποινα, όπως αυτοκινούμενοι εκτοξευτές πυραύλων και
υποβρύχια. Ως αποτέλεσμα, τα αντίπαλα κράτη ενδεχομένως να βρίσκονταν στον
πειρασμό να επιδιώξουν δυνατότητες πρώτου πλήγματος, με σκοπό να αποκτήσουν
πλεονέκτημα στις διαπραγματεύσεις με τους αντιπάλους τους, ακόμα και αν δεν
έχουν σκοπό να επιτεθούν. Αυτό υπονομεύει τη στρατηγική σταθερότητα, επειδή,
ακόμα και αν μια χώρα με τέτοιες δυνατότητες δεν προτίθεται να τις
χρησιμοποιήσει, οι αντίπαλοί της δεν μπορούν να το γνωρίζουν.
«Η σύνδεση μεταξύ του πυρηνικού πολέμου και
της τεχνητής νοημοσύνης δεν είναι καινούρια- βασικά οι ιστορίες τους συνδέονται»
σχολιάζει ο Έντουαρντ Γκάιστ, ένας από τους συντάκτες του άρθρου. «Μεγάλο μέρος της πρώιμης ανάπτυξης της ΑΙ
έλαβε χώρα προς στήριξη στρατιωτικών προσπαθειών, ή με στρατιωτικούς σκοπούς
κατά νου».
Όπως
πρόσθεσε, ένα τέτοιο παράδειγμα ήταν το Survivable Adaptive Planning Experiment
τη δεκαετία του 1980 που είχε σκοπό τη χρήση ΑΙ για την αξιοποίηση δεδομένων
αναγνώρισης για σκοπούς σχεδίων στόχευσης με πυρηνικά όπλα.
Advances in
artificial intelligence (AI) are enabling previously infeasible capabilities,
potentially destabilizing the delicate balances that have forestalled nuclear
war since 1945. Will these developments upset the nuclear strategic balance,
and, if so, for better or for worse? To start to address this question, RAND
researchers held a series of workshops that were attended by prominent experts
on AI and nuclear security. The workshops examined the impact of advanced
computing on nuclear security through 2040. The culmination of those workshops,
this Perspective — one of a series that examines critical security challenges
in 2040 — places the intersection of AI and nuclear war in historical context
and characterizes the range of expert opinions. It then describes the types of
anticipated concerns and benefits through two illustrative examples: AI for
detection and for tracking and targeting and AI as a trusted adviser in
escalation decisions. In view of the capabilities that AI may be expected to
enable and how adversaries may perceive them, AI has the potential to
exacerbate emerging challenges to nuclear strategic stability by the year 2040
even with only modest rates of technical progress. Thus, it is important to
understand how this might happen and to assure that it does not.
Μια
πιο αισιόδοξη προσέγγιση είναι ότι η ΑΙ θα μπορούσε να βελτιώσει τη στρατηγική
σταθερότητα, βελτιώνοντας την ακρίβεια στη συλλογή και ανάλυση πληροφοριών,
σύμφωνα με την δημοσίευση. Επίσης, αν και η ΑΙ θα μπορούσε να κάνει πιο
ευάλωτες τις δυνάμεις δεύτερου πλήγματος, βελτιωμένες δυνατότητες
παρακολούθησης και ερμηνείας των εχθρικών ενεργειών θα μπορούσαν να μειώσουν το
ενδεχόμενο κάποιου λάθους που θα μπορούσε να επιφέρει κλιμάκωση. Οι ερευνητές
υποστηρίζουν πως, δεδομένων των βελτιώσεων στο μέλλον, είναι δυνατόν τα
συστήματα τεχνητής νοημοσύνης να αναπτύξουν δυνατότητες οι οποίες, αν και όχι
αλάθητες, θα ήταν λιγότερο επιρρεπείς σε σφάλματα από τους ανθρώπους- άρα θα
είχαν σταθεροποιητική επίδραση μακροπρόθεσμα. Πάντως δεν τη συμμερίζονται
πολλοί αυτή την αισιοδοξία: «Κάποιοι
ερευνητές φοβούνται πως μια αυξημένη εξάρτηση από την τεχνητή νοημοσύνη μπορεί
να οδηγήσει σε νέα είδη καταστροφικών λαθών» λέει ο Άντριου Λον, άλλος ένας
από τους συντάκτες της έρευνας. «Ίσως να
υπάρχει πίεση για χρήση τεχνητής νοημοσύνης πριν να είναι ώριμη τεχνολογικά, ή
μπορεί να είναι ευάλωτη σε υπονόμευση από αντιπάλους. Οπότε, η διατήρηση της
στρατηγικής σταθερότητας τις προσεχείς δεκαετίες ίσως να αποδειχθεί εξαιρετικά
δύσκολη και όλες οι πυρηνικές δυνάμεις πρέπει να συμμετέχουν στη δημιουργία
θεσμών που θα βοηθούν στον περιορισμό του πυρηνικού κινδύνου».
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου