Στις 14 Μαρτίου, ένα αμερικανικό μη επανδρωμένο αεροσκάφος επιτήρησης βρισκόταν σε αποστολή ρουτίνας στον διεθνή εναέριο χώρο πάνω από τη Μαύρη Θάλασσα, όταν αναχαιτίστηκε από δύο ρωσικά μαχητικά αεροσκάφη (εικόνα, επάνω, από aspistrategist.org.au).
Το παράδειγμα της Μαύρης Θάλασσας
Για σχεδόν μισή ώρα, τα αεροσκάφη παρενοχλούσαν το αμερικανικό σύστημα, ένα MQ-9 Reaper, περνώντας από δίπλα του και ρίχνοντας καύσιμα πάνω στα φτερά και τους αισθητήρες του (φωτογραφία, κάτω).
Ενα από αυτά χτύπησε την έλικα του Reaper, καθιστώντας το μη λειτουργικό και αναγκάζοντας τους αμερικανούς χειριστές του να το ρίξουν στη θάλασσα. Λίγο αργότερα, η Μόσχα απένειμε μετάλλια στους δύο ρώσους πιλότους που ενεπλάκησαν στο περιστατικό.
Κάθε κίνηση του Reaper – συμπεριλαμβανομένης της αυτοκαταστροφής του μετά τη σύγκρουση – επιβλέπονταν και καθοδηγείτο από τις αμερικανικές δυνάμεις σε μια αίθουσα ελέγχου χιλιάδες μίλια μακριά. Τι θα γινόταν, όμως, αν το μη επανδρωμένο αεροσκάφος δεν το χειρίζονταν καθόλου άνθρωποι, αλλά ανεξάρτητο, τεχνητά ευφυές λογισμικό;
Τι θα γινόταν αν αυτό το λογισμικό είχε αντιληφθεί τη ρωσική παρενόχληση ως επίθεση; Δεδομένης της ιλιγγιώδους ταχύτητας της καινοτομίας στην τεχνητή νοημοσύνη (ΤΝ) και τις αυτόνομες τεχνολογίες, αυτό το σενάριο θα μπορούσε σύντομα να γίνει πραγματικότητα, γράφει σε ανάλυσή της η Lauren Kahn, ερευνήτρια στο Συμβούλιο Εξωτερικών Σχέσεων (Council on Foreign Relations).
Τα παραδοσιακά στρατιωτικά συστήματα και τεχνολογίες προέρχονται από έναν κόσμο στον οποίο οι άνθρωποι λαμβάνουν επιτόπου, ή τουλάχιστον σε πραγματικό χρόνο, αποφάσεις ζωής και θανάτου. Τα συστήματα με τεχνητή νοημοσύνη εξαρτώνται λιγότερο απ’ αυτό το ανθρώπινο στοιχείο και τα μελλοντικά αυτόνομα συστήματα ίσως να μην το έχουν καθόλου.
Οταν συμβεί το αναπόφευκτο
Αυτή η προοπτική όχι μόνο εγείρει ακανθώδη ζητήματα λογοδοσίας, αλλά σημαίνει επίσης ότι δεν υπάρχουν καθιερωμένα πρωτόκολλα για τις περιπτώσεις που τα πράγματα πάνε στραβά.
Τι θα συνέβαινε αν ένα αμερικανικό αυτόνομο μη επανδρωμένο αεροσκάφος βομβάρδιζε έναν στόχο τον οποίο προοριζόταν μόνο να παρακολουθεί; Πώς θα διαβεβαίωνε η Ουάσιγκτον την άλλη πλευρά ότι το περιστατικό ήταν ακούσιο και δεν θα επαναληφθεί;
Οταν συμβεί το αναπόφευκτο, και ένα μερικώς ή πλήρως αυτόνομο σύστημα εμπλακεί σε ατύχημα, τα κράτη θα χρειαστούν έναν μηχανισμό στον οποίο θα μπορούν ν’ απευθυνθούν – ένα πλαίσιο που θα καθοδηγεί τα εμπλεκόμενα μέρη και θα τους παρέχει πιθανές εξόδους για την αποφυγή ανεπιθύμητων συγκρούσεων.
Οι Ηνωμένες Πολιτείες έκαναν ένα μικρό βήμα προς αυτήν την κατεύθυνση όταν δημοσίευσαν τον Φεβρουάριο μια διακήρυξη που περιέγραφε το όραμά τους για την υπεύθυνη στρατιωτική χρήση της τεχνητής νοημοσύνης (Artificial Intelligence, AI) και των αυτόνομων συστημάτων.
Η διακήρυξη περιλάμβανε αρκετές ορθές προτάσεις, μεταξύ των οποίων ότι η AI δεν θα πρέπει ποτέ να επιτρέπεται να καθορίζει τη χρήση πυρηνικών όπλων.
Αλλά δεν προσέφερε ακριβείς κατευθυντήριες γραμμές για το πώς τα κράτη θα μπορούσαν να ρυθμίσουν τη συμπεριφορά των συστημάτων AI, ούτε έθεσε κανέναν δίαυλο επικοινωνίας μέσω του οποίου θα μπορούσαν να ξεκαθαρίσουν γρήγορα τυχόν παρανοήσεις. Χρειάζεται επειγόντως ένα πιο ολοκληρωμένο πλαίσιο, με μεγαλύτερη συμμετοχή από άλλες κυβερνήσεις.
Εμπνευση από τον Ψυχρό Πόλεμο
Για έμπνευση, τα κράτη θα μπορούσαν να μελετήσουν ένα υποτιμημένο επεισόδιο του Ψυχρού Πολέμου. Στη δεκαετία του 1970, οι ηγέτες των ΗΠΑ και της Σοβιετικής Ενωσης κατεύνασαν τις αυξανόμενες εντάσεις μεταξύ των πολεμικών ναυτικών τους, θέτοντας κανόνες για απρογραμμάτιστες συναντήσεις στην ανοικτή θάλασσα.
Οι κυβερνήσεις σήμερα θα πρέπει ν’ ακολουθήσουν μια παρόμοια διαδρομή μέσα στα αχαρτογράφητα νερά του πολέμου που καθοδηγείται από την τεχνητή νοημοσύνη.
Θα πρέπει να συμφωνήσουν σε βασικές κατευθυντήριες γραμμές τώρα, μαζί με πρωτόκολλα για τη μεγιστοποίηση της διαφάνειας και την ελαχιστοποίηση του κινδύνου θανατηφόρων λανθασμένων υπολογισμών και λανθασμένης επικοινωνίας.
Χωρίς μια τέτοια θεμελιώδη συμφωνία, τα μελλοντικά μεμονωμένα περιστατικά που αφορούν συστήματα με τεχνητή νοημοσύνη και αυτόνομα συστήματα θα μπορούσαν πολύ εύκολα να ξεφύγουν από τον έλεγχο.
Εκτός πρωτοκόλλου
Η απώλεια ενός αμερικανικού μη επανδρωμένου αεροσκάφους επιτήρησης πάνω από τη Μαύρη Θάλασσα τον Μάρτιο ήταν ανησυχητική. Ο αμερικανικός στρατός έχει σαφώς καθορισμένες διαδικασίες για το πώς θα ενεργήσει σε περίπτωση κατάρριψης ενός από τα επανδρωμένα αεροσκάφη του.
Αλλά η πρόσφατη εμπειρία δείχνει ότι τα τυποποιημένα πρωτόκολλα δεν επεκτείνονται απαραίτητα και στα μη επανδρωμένα αεροσκάφη.
Σ’ ένα περιστατικό του 2019, το Ιράν κατέρριψε ένα μη επανδρωμένο αεροσκάφος του Πολεμικού Ναυτικού των ΗΠΑ πάνω από τα Στενά του Ορμούζ, προκαλώντας μια αλυσιδωτή αντίδραση στο εσωτερικό του Πενταγώνου και του Λευκού Οίκου που παραλίγο να οδηγήσει σε αμερικανικά αντίποινα κατά του Ιράν.
Οι αμερικανικές δυνάμεις φέρεται να απείχαν δέκα λεπτά από την προσβολή του στόχου τους όταν το πλήγμα ματαιώθηκε, σύμφωνα με τον τότε πρόεδρο των ΗΠΑ, Ντόναλντ Τραμπ.
Την τελευταία στιγμή, οι ηγέτες στην Ουάσιγκτον είχαν αποφασίσει ότι ένα στρατιωτικό χτύπημα ήταν δυσανάλογο και επέλεξαν αντ’ αυτού μια κυβερνοεπίθεση κατά των ιρανικών συστημάτων πληροφοριών και πυραύλων.
Σημαντικές επενδύσεις
Το πλεονέκτημα των τηλεχειριζόμενων αεροσκαφών είναι ότι, όταν οι συνθήκες είναι κατάλληλες, μπορούν να μειώσουν τον κίνδυνο κλιμάκωσης αντί να τον αυξήσουν.
Αυτό οφείλεται εν μέρει στο γεγονός ότι η απώλεια ενός άψυχου μηχανήματος, όσο ακριβό και αν είναι αυτό, είναι ευκολότερο να χωνευτεί από τον θάνατο ενός πληρώματος αεροσκαφών. Αλλά αυτή η θετική πλευρά μπορεί να εξαφανιστεί καθώς οι τεχνολογίες εξελίσσονται.
Πλήρως αυτόνομα στρατιωτικά συστήματα δεν υπάρχουν ακόμη, και η ανάπτυξη συστημάτων με τεχνητή νοημοσύνη στο πεδίο της μάχης παραμένει περιορισμένη. Ωστόσο, οι στρατοί παγκοσμίως επενδύουν σημαντικά στην έρευνα και την ανάπτυξη της τεχνητής νοημοσύνης.
Μόνο το υπουργείο Αμυνας των ΗΠΑ έχει σχεδόν 700 ενεργά έργα τεχνητής νοημοσύνης. Μεταξύ αυτών, το πρόγραμμα Scarlet Dragon του αμερικανικού στρατού, το οποίο έχει χρησιμοποιήσει ΑΙ για τον εντοπισμό στόχων σε ασκήσεις με πραγματικά πυρά, και το Task Force 59 του αμερικανικού ναυτικού, που επιδιώκει την ανάπτυξη οικονομικά αποδοτικών, πλήρως αυτόνομων συστημάτων επιτήρησης.
Η Πολεμική Αεροπορία των ΗΠΑ ελπίζει να κατασκευάσει μια μέρα σμήνη έξυπνων όπλων ικανών να επικοινωνούν αυτόνομα μεταξύ τους και να ανταλλάσσουν πληροφορίες για πιθανούς στόχους.
Στον πόλεμο της Ουκρανίας
Ο αμερικανικός στρατός δεν είναι ο μόνος καινοτόμος σε αυτό το μέτωπο. Τον Απρίλιο, η Αυστραλία, το Ηνωμένο Βασίλειο, και οι Ηνωμένες Πολιτείες διεξήγαγαν μια κοινή δοκιμή κατά την οποία σμήνος εναέριων και επίγειων οχημάτων με δυνατότητα τεχνητής νοημοσύνης συνεργάστηκε για τον εντοπισμό και την παρακολούθηση στόχων.
Το Πεκίνο επενδύει σε μια σειρά από υποβρύχιους αισθητήρες με δυνατότητες τεχνητής νοημοσύνης, ορισμένοι από τους οποίους φέρεται να χρησιμοποιούνται ήδη στη Θάλασσα της Νότιας Κίνας. Ο πόλεμος στην Ουκρανία έχει γίνει μάρτυρας μερικών από τις πρώτες πραγματικές χρήσεις της ΑΙ σε άμεσες συγκρούσεις.
Μεταξύ άλλων, οι ουκρανικές δυνάμεις έχουν χρησιμοποιήσει μια διεπαφή (interface) λογισμικού ΑΙ που ενοποιεί εμπορικά δορυφορικά δεδομένα, θερμικές εικόνες πυρών πυροβολικού, και άλλες πληροφορίες, οι οποίες τοποθετούνται σε ψηφιακούς χάρτες και οι διοικητές στο έδαφος μπορούν να χρησιμοποιήσουν για να επιλέξουν τους στόχους τους.
Θανατηφόρες παρανοήσεις
Ενθαρρυμένοι από τα οφέλη που ήδη αποκομίζουν από τα συστήματα με τεχνητή νοημοσύνη, οι στρατοί πιθανότατα θα παραμείνουν στην τρέχουσα πορεία τους και θα σχεδιάσουν νέα με αυξανόμενο βαθμό αυτονομίας.
Αυτή η ώθηση προς την αυτονομία με χρήση τεχνητής νοημοσύνης σίγουρα θα ξεκλειδώσει στρατηγικά και τακτικά πλεονεκτήματα, αλλά με κάποιο κόστος.