Τετάρτη, 25 Απριλίου 2018

Η τεχνητή νοημοσύνη μπορεί να ανατρέψει την πυρηνική ισορροπία ως το 2040. By 2040, Artificial Intelligence Could Upend Nuclear Stability

Could artificial intelligence upend concepts of nuclear deterrence that have helped spare the world from nuclear war since 1945? Stunning advances in AI—coupled with a proliferation of drones, satellites, and other sensors—raise the possibility that countries could find and threaten each other's nuclear forces, escalating tensions. A new RAND Corporation paper finds that artificial intelligence has the potential to upend the foundations of nuclear deterrence by the year 2040.

Η τεχνητή νοημοσύνη έχει τη δυνατότητα να ανατρέψει τις βάσεις της πυρηνικής αποτροπής, και ως εκ τούτου την πυρηνική ισορροπία, ως το 2040, σύμφωνα με δημοσίευση του RAND Corporation (αμερικανικό think tank).

Αν και θεωρείται μάλλον απίθανη η εμφάνιση «αποκαλυπτικών» μηχανών φοβερής καταστρεπτικότητας που θα ελέγχονται από τεχνητές νοημοσύνες, ο κίνδυνος που συνιστά η τεχνητή νοημοσύνη για την πυρηνική ασφάλεια έγκειται, σύμφωνα με την έρευνα, στη δυνατότητά της να ενθαρρύνει τους ανθρώπους να πάρουν ρίσκα τα οποία μπορεί να έχουν δυνάμει τρομακτικές συνέπειες.

A Minuteman nuclear missile in its silo at Warren Air Force Base in Wyoming, 1965. LOWELL GEORGIA/NATIONAL GEOGRAPHIC/GETTY IMAGES

Όπως αναφέρεται στην έρευνα, κατά την περίοδο του Ψυχρού Πολέμου η αρχή της αμοιβαίας εξασφαλισμένης καταστροφής (MAD- Mutually Assured Destruction) διατηρούσε την ειρήνη (έστω και ασταθή) μεταξύ των υπερδυνάμεων, καθώς διασφάλιζε πως οποιαδήποτε επίθεση θα επέφερε καταστροφικά αντίποινα. Το αποτέλεσμα ήταν η επίτευξη στρατηγικής σταθερότητας, καθώς ελαχιστοποιούνταν τα κίνητρα για ενέργειες που θα μπορούσαν να οδηγήσουν σε πυρηνικό πόλεμο.

Illustrations by bubaone/Getty Images and jolygon/Adobe Stock. Design by Chara Williams/RAND Corporation.

Σύμφωνα με το νέο paper, τις προσεχείς δεκαετίες η τεχνητή νοημοσύνη θα έχει τη δυνατότητα να «φθείρει» το δόγμα της αμοιβαίας εξασφαλισμένης καταστροφής, υπονομεύοντας τη στρατηγική σταθερότητα: Βελτιωμένες τεχνολογίες αισθητήρων θα μπορούσαν να εισάγουν στην «εξίσωση» την δυνατότητα καταστροφής δυνάμεων που θα μπορούσαν να προβούν σε αντίποινα, όπως αυτοκινούμενοι εκτοξευτές πυραύλων και υποβρύχια. Ως αποτέλεσμα, τα αντίπαλα κράτη ενδεχομένως να βρίσκονταν στον πειρασμό να επιδιώξουν δυνατότητες πρώτου πλήγματος, με σκοπό να αποκτήσουν πλεονέκτημα στις διαπραγματεύσεις με τους αντιπάλους τους, ακόμα και αν δεν έχουν σκοπό να επιτεθούν. Αυτό υπονομεύει τη στρατηγική σταθερότητα, επειδή, ακόμα και αν μια χώρα με τέτοιες δυνατότητες δεν προτίθεται να τις χρησιμοποιήσει, οι αντίπαλοί της δεν μπορούν να το γνωρίζουν.

«Η σύνδεση μεταξύ του πυρηνικού πολέμου και της τεχνητής νοημοσύνης δεν είναι καινούρια- βασικά οι ιστορίες τους συνδέονται» σχολιάζει ο Έντουαρντ Γκάιστ, ένας από τους συντάκτες του άρθρου. «Μεγάλο μέρος της πρώιμης ανάπτυξης της ΑΙ έλαβε χώρα προς στήριξη στρατιωτικών προσπαθειών, ή με στρατιωτικούς σκοπούς κατά νου».

Όπως πρόσθεσε, ένα τέτοιο παράδειγμα ήταν το Survivable Adaptive Planning Experiment τη δεκαετία του 1980 που είχε σκοπό τη χρήση ΑΙ για την αξιοποίηση δεδομένων αναγνώρισης για σκοπούς σχεδίων στόχευσης με πυρηνικά όπλα.

Advances in artificial intelligence (AI) are enabling previously infeasible capabilities, potentially destabilizing the delicate balances that have forestalled nuclear war since 1945. Will these developments upset the nuclear strategic balance, and, if so, for better or for worse? To start to address this question, RAND researchers held a series of workshops that were attended by prominent experts on AI and nuclear security. The workshops examined the impact of advanced computing on nuclear security through 2040. The culmination of those workshops, this Perspective — one of a series that examines critical security challenges in 2040 — places the intersection of AI and nuclear war in historical context and characterizes the range of expert opinions. It then describes the types of anticipated concerns and benefits through two illustrative examples: AI for detection and for tracking and targeting and AI as a trusted adviser in escalation decisions. In view of the capabilities that AI may be expected to enable and how adversaries may perceive them, AI has the potential to exacerbate emerging challenges to nuclear strategic stability by the year 2040 even with only modest rates of technical progress. Thus, it is important to understand how this might happen and to assure that it does not.

Μια πιο αισιόδοξη προσέγγιση είναι ότι η ΑΙ θα μπορούσε να βελτιώσει τη στρατηγική σταθερότητα, βελτιώνοντας την ακρίβεια στη συλλογή και ανάλυση πληροφοριών, σύμφωνα με την δημοσίευση. Επίσης, αν και η ΑΙ θα μπορούσε να κάνει πιο ευάλωτες τις δυνάμεις δεύτερου πλήγματος, βελτιωμένες δυνατότητες παρακολούθησης και ερμηνείας των εχθρικών ενεργειών θα μπορούσαν να μειώσουν το ενδεχόμενο κάποιου λάθους που θα μπορούσε να επιφέρει κλιμάκωση. Οι ερευνητές υποστηρίζουν πως, δεδομένων των βελτιώσεων στο μέλλον, είναι δυνατόν τα συστήματα τεχνητής νοημοσύνης να αναπτύξουν δυνατότητες οι οποίες, αν και όχι αλάθητες, θα ήταν λιγότερο επιρρεπείς σε σφάλματα από τους ανθρώπους- άρα θα είχαν σταθεροποιητική επίδραση μακροπρόθεσμα. Πάντως δεν τη συμμερίζονται πολλοί αυτή την αισιοδοξία: «Κάποιοι ερευνητές φοβούνται πως μια αυξημένη εξάρτηση από την τεχνητή νοημοσύνη μπορεί να οδηγήσει σε νέα είδη καταστροφικών λαθών» λέει ο Άντριου Λον, άλλος ένας από τους συντάκτες της έρευνας. «Ίσως να υπάρχει πίεση για χρήση τεχνητής νοημοσύνης πριν να είναι ώριμη τεχνολογικά, ή μπορεί να είναι ευάλωτη σε υπονόμευση από αντιπάλους. Οπότε, η διατήρηση της στρατηγικής σταθερότητας τις προσεχείς δεκαετίες ίσως να αποδειχθεί εξαιρετικά δύσκολη και όλες οι πυρηνικές δυνάμεις πρέπει να συμμετέχουν στη δημιουργία θεσμών που θα βοηθούν στον περιορισμό του πυρηνικού κινδύνου».