Τεχνολογια - Επιστημη

Ποιος είναι ο ρόλος της τεχνητής νοημοσύνης στις πολεμικές επιχειρήσεις στο Ιράν;

Το κρίσιμο ερώτημα από εδώ και πέρα είναι αν η πολεμική επιχείρηση μετατρέπεται σε ένα καθεστώς όπου η ταχύτητα υπολογισμού λειτουργεί αντιστρόφως ανάλογα με την ανθρώπινη ευθύνη και φρόνηση.

Άλκης Γούναρης
7’ ΔΙΑΒΑΣΜΑ
UPD

Η σύγκρουση του Πενταγώνου με την επιχείρηση Anthropic, τα ηθικά διλήμματα της χρήσης Τεχνητής Νοημοσύνης στις στρατιωτικές επιχειρήσεις και ποιος παίρνει τελικά την ευθύνη

Με τον τίτλο «Ποιος αποφασίζει πού θα πέσουν οι βόμβες στο Ιράν; Ίσως όχι άνθρωποι», η ιστοσελίδα του New Republic, ενός μέσου που τοποθετείται στην αριστερή πτέρυγα των Δημοκρατικών στις ΗΠΑ, θέτει το ερώτημα για το ποιος αποφασίζει τους στόχους των βομβιστικών επιθέσεων και εκφράζει την ανησυχία ότι, ενδεχομένως, οι αμερικανικές και ισραηλινές ένοπλες δυνάμεις δεν βρίσκονται πραγματικά «στον βρόχο» των αποφάσεων. Το New Republic περιγράφει ένα σενάριο δράσης αυτόνομων οπλικών συστημάτων καθοδηγούμενων από Τεχνητή Νοημοσύνη.

Τα Αυτόνομα Οπλικά Συστήματα και το βασικό διακύβευμα

Η συζήτηση για τη δράση των αυτόνομων οπλικών συστημάτων AWS (Autonomous Weapons Systems) και LAWS (Lethal Autonomous Weapons Systems), όπως είναι ευρύτερα γνωστά, δηλαδή συστημάτων χωρίς άνθρωπο-χειριστή, που επιχειρούν ή και βάλλουν κατά συγκεκριμένων στόχων, δεν είναι καινούργια: προηγείται του πρόσφατου «μπουμ» της παραγωγικής ΤΝ. Το κεντρικό διακύβευμα είναι το πού τελειώνει η ανθρώπινη κρίση και η ευθύνη και πού αρχίζει η αυτόνομη δράση των μηχανών, ιδίως σε επιχειρήσεις υψηλής πολυπλοκότητας, μεγάλης ταχύτητας και βαρύνουσας σημασίας, όπου οι επιλογές μεταφράζονται σε αποφάσεις ζωής και θανάτου.

Κάποιοι λένε ότι ο άνθρωπος οφείλει να ελέγχει, να κατευθύνει και να αποφασίζει για τη δράση των οπλικών συστημάτων, εγκρίνοντας ή απορρίπτοντας το τελικό χτύπημα

Τα στρατηγεία και τα κέντρα λήψης αποφάσεων πολεμικών επιχειρήσεων προβληματίζονται για το ποιος πρέπει να είναι ο ρόλος του ανθρώπινου παράγοντα στις δύσκολες στρατιωτικές επιχειρήσεις, για το επιχειρησιακό εύρος των αυτόνομων οπλικών συστημάτων, αλλά και για τον πραγματικό βαθμό αυτονομίας τους. Σε γενικές γραμμές ταξινομούμε τρεις βαθμούς ανθρώπινου ελέγχου - αυτονομίας μηχανών, οι οποίοι περιγράφουν τον ρόλο του ανθρώπινου παράγοντα στον «βρόχο» λειτουργίας των συστημάτων ως «in the loop», «on the loop» και «off the loop». Αυτή η διάκριση έχει σημασία για τη λογοδοσία, την ηθική αξιολόγηση των πράξεων και, ενδεχομένως, την απόδοση ηθικού status, τόσο στους εμπλεκόμενους φορείς όσο και στις ίδιες τις μηχανές. Ορισμένοι προβάλλουν μια «συντηρητική» θέση, σύμφωνα με την οποία ο άνθρωπος πρέπει να βρίσκεται πάντα in the loop, με την έννοια ότι οφείλει να ελέγχει, να κατευθύνει, να συντονίζει και να αποφασίζει για τη δράση των οπλικών συστημάτων, εγκρίνοντας ή απορρίπτοντας το τελικό χτύπημα.

Άλλοι θεωρούν αυτή τη χρήση παρωχημένη και λιγότερο αποτελεσματική, καθώς ένας χειριστής που βρίσκεται δεκάδες χιλιόμετρα μακριά από το όπλο ή το αεροσκάφος δεν μπορεί να έχει ούτε άμεση αντίληψη της κατάστασης, ούτε την ταχύτητα και την ευελιξία που μπορεί να διαθέτει ένα αυτόνομο σύστημα ΤΝ. Σε αυτή την εκδοχή προτείνεται ένας άνθρωπος επόπτης on the loop, ενώ το σύστημα επιχειρεί αυτόνομα και ο άνθρωπος διατηρεί τη δυνατότητα να παρέμβει, να αναστείλει ή να τροποποιήσει τη λειτουργία του, αν κρίνει ότι απαιτείται διαφορετική απόφαση από εκείνη που «προτείνει» ή εκτελεί το σύστημα. Ουσιαστικά, εδώ ο ανθρώπινος ρόλος συμπυκνώνεται στο δικαίωμα άσκησης βέτο. Όσο για τους ακραίους τεχνο-οπτιμιστές, τονίζουν τα πλεονεκτήματα μιας κατάστασης human off the loop, κατά την οποία τα οπλικά συστήματα επιχειρούν μόνα τους, χωρίς ανθρώπινη παρέμβαση στο κρίσιμο σημείο της δράσης τους.

Επιχειρήματα υπέρ και κατά της αυτονομίας των οπλικών συστημάτων

Τα συνήθη επιχειρήματα που διατυπώνονται υπέρ και κατά αυτών των τριών εναλλακτικών ανθρώπινου ελέγχου και μηχανικής αυτονομίας συνοψίζονται ως εξής: 

Υπέρ του μεγαλύτερου βαθμού αυτονομίας προβάλλονται ισχυρισμοί για την αποτελεσματικότητα των συστημάτων, τη δυνατότητα επεξεργασίας όγκων δεδομένων που υπερβαίνουν τις ανθρώπινες δυνατότητες, την ταχύτητα στη λήψη αποφάσεων και την επιχειρησιακή ακρίβεια. Επισημαίνεται ότι αυτά τα συστήματα είναι άοκνα συγκριτικά με τους ανθρώπους στρατιώτες: μπορούν να επιχειρούν συνεχώς και δεν περιορίζονται από κόπωση ή από δυσμενείς καιρικές συνθήκες, όπως ζέστη ή ψύχος. Στο ίδιο πλαίσιο, υποστηρίζεται ότι μπορούν να πραγματοποιούν «χειρουργικές» επιχειρήσεις ακριβείας σε στόχους υψηλής επικινδυνότητας, περιορίζοντας ή ακόμη και μηδενίζοντας τις παράπλευρες απώλειες αμάχων ή μη εμπλεκόμενων στρατιωτών. Τέλος, το γεγονός ότι δεν διαθέτουν «συναισθήματα» προβάλλεται ως πλεονέκτημα, στο μέτρο που αποκλείει τη συναισθηματική αστάθεια, την επιρρέπεια σε μεροληψία, αλλά και τη λήψη αποφάσεων υπό καθεστώς φόβου, άγχους, εκδικητικότητας ή οδύνης – παράγοντες που μπορούν να οδηγήσουν τους στρατιώτες σε παραβιάσεις των αρχών του δικαίου του πολέμου.

Το γεγονός δε ότι τα οπλικά συστήματα δεν διαθέτουν «συναισθήματα», δεν αξιολογείται ως πλεονέκτημα αλλά ως κίνδυνος, εφόσον μπορεί να τα μετατρέψει σε «ψυχρούς εκτελεστές», τύπου Terminator

Υπέρ του ευρύτερου ανθρώπινου ελέγχου και της μικρότερης αυτονομίας προβάλλονται, κατ’ αρχάς, επιχειρήματα για τον κίνδυνο σφάλματος, είτε λόγω κακής ποιότητας δεδομένων, είτε λόγω ασάφειας εντολών, αστοχίας αισθητήρων, παρεμβολών, δολιοφθοράς ή χακαρίσματος. Το γεγονός δε ότι αυτά τα συστήματα δεν διαθέτουν «συναισθήματα», δεν αξιολογείται ως πλεονέκτημα, αλλά ως κίνδυνος, εφόσον μπορεί να τα μετατρέψει σε «ψυχρούς εκτελεστές», τύπου Terminator, που δεν λαμβάνουν υπόψη ανθρώπινες ευαισθησίες και ιδιαιτερότητες ή δεν διαθέτουν αυτό που αποκαλούμε ηθική «συνείδηση»· το αποτέλεσμα είναι ότι στα χέρια ολοκληρωτικών καθεστώτων μπορούν να χρησιμοποιηθούν ως όπλα εξολόθρευσης πληθυσμιακών ομάδων ή άμαχου πληθυσμού. Εξάλλου, η εξ αποστάσεως παρακολούθηση των επιχειρήσεων τείνει να μεταβάλλει την πολεμική σύγκρουση εν γένει σε κάτι που μοιάζει με βιντεοπαιχνίδι, αποφορτίζοντας αξιολογικά την αφαίρεση ανθρώπινων ζωών, ακόμη και όταν πρόκειται για αμάχους.

Το σημαντικότερο όμως επιχείρημα κατά της απόλυτης αυτονομίας είναι ότι η εκχώρηση της «απόφασης» και της ανεξάρτητης από τον άνθρωπο δράσης στις μηχανές μπορεί να αποκρύψει την ανθρώπινη ευθύνη για τις πολεμικές πράξεις και να απαλλάξει ουσιαστικά την ανώτατη στρατιωτική ή την πολιτική ηγεσία από το βάρος δυσάρεστων αποφάσεων, ή να περιορίσει την ευθύνη της όταν κάτι πάει στραβά, καθώς ένα αθέμιτο χτύπημα ή αποτέλεσμα μπορεί να αποδοθεί σε «ατύχημα» ή σε λάθος της μηχανής.

Η σύγκρουση Πενταγώνου – Anthropic και οι «κόκκινες γραμμές»

Η πρόσφατη σύγκρουση του αμερικανικού Πενταγώνου με την Anthropic, τον βασικό έως εκείνη τη στιγμή πάροχο σε κρίσιμες εφαρμογές εθνικής ασφάλειας —λίγες ώρες πριν από την αμερικανική επίθεση στο Ιράν— εγείρει ερωτήματα για τον ρόλο της ΤΝ στη συγκεκριμένη συνθήκη και επαναφέρει στο προσκήνιο το ζήτημα των αυτόνομων οπλικών συστημάτων. Σύμφωνα με τους αναλυτές, δεν πρόκειται για μια τυπική «νομική» διαφωνία, αλλά για μια σύγκρουση αντιλήψεων γύρω από τις «κόκκινες γραμμές» που πρέπει να χαραχθούν στη χρήση των συστημάτων αυτών και στο κατά πόσο η χρήση τους παραβιάζει ή διαμορφώνει ένα συγκεκριμένο πλαίσιο «Ηθικής της Τεχνητής Νοημοσύνης».

Ουσιαστικά αυτό που ζήτησε η Αμερική είναι να απαλλαγεί από τις ηθικές δεσμεύσεις σε ένα πλαίσιο όπου το όριο είναι πρωτίστως νομικό, και ό,τι δεν απαγορεύεται ρητά επιτρέπεται

Η ιστορία συνέβη περίπου ως εξής: η Anthropic διαπραγματευόταν με το επιτελείο του υπουργείου άμυνας των ΗΠΑ για αλλαγές στους όρους χρήσης των συστημάτων της, επιμένοντας να διατηρηθούν ρητοί περιορισμοί, ιδίως ως προς τη χρήση των συστημάτων της εταιρείας σε πλήρως αυτόνομα οπλικά συστήματα, αλλά και ως προς εφαρμογές μαζικής επιτήρησης αμερικανών πολιτών, όπως ενδεικτικά: παρακολούθηση ιστορικού αλληλεπίδρασης με chatbot, πλοήγησης στο ίντερνετ και αναζητήσεις στο Google, διαδρομές και κοινοποιήσεις μέσω GPS, on line αγορές και άλλα στοιχεία που θα μπορούσαν να αξιολογηθούν και να ανιχνευτούν σε αυτά ύποπτα patterns. Η αμερικανική πλευρά φέρεται ότι πίεσε για μια πιο «χαλαρή» διατύπωση των όρων, ζητώντας από την Anthropic να παρέχει τα συστήματά της γενικώς για «κάθε νόμιμη χρήση». Ουσιαστικά αυτό που ζήτησε είναι να απαλλαγεί από τις ηθικές δεσμεύσεις σε ένα πλαίσιο όπου το όριο είναι πρωτίστως νομικό, και ό,τι δεν απαγορεύεται ρητά επιτρέπεται. Μετά την άρνηση της Anthropic η ρήξη κλιμακώθηκε, με τον πρόεδρο Τραμπ να διατάσσει τις ομοσπονδιακές υπηρεσίες να παύσουν τη χρήση της τεχνολογίας της, ενώ το Πεντάγωνο χαρακτήρισε την εταιρεία «supply chain risk», με την Anthropic να δηλώνει ότι θα προσφύγει στα αρμόδια δικαστήρια για τη διαφύλαξη των συμφερόντων της.

Λίγες ώρες αργότερα, η ανταγωνιστική εταιρεία OpenAI ανακοίνωσε συμφωνία με το Υπουργείο Άμυνας, δεχόμενη μια ασάφεια του τύπου «all lawful purposes», χωρίς να οριοθετεί ρητά η ίδια τις ηθικές δεσμεύσεις εντός των οποίων θα γίνεται χρήση των συστημάτων της. Σε ανακοίνωσή της, η OpenAI υποστηρίζει ότι τα συστήματά της δεν θα χρησιμοποιηθούν σε αυτόνομα οπλικά συστήματα όπου ο νόμος ή η πολιτική απαιτούν ανθρώπινο έλεγχο και ότι υπάρχουν «πρωτόκολλα ασφάλειας και εποπτείας». Ωστόσο, η κριτική εστιάζει ακριβώς σε αυτό το σημείο, όπου το όριο προσδιορίζεται από τη «νόμιμη» και όχι την «ηθική» χρήση και κατά συνέπεια το τι είναι σωστό και τι όχι αποτελεί αντικείμενο ερμηνείας του εκάστοτε νόμου και ίσως, πολύ αργότερα, από τη χρήση του συστήματος. Ιδιαιτέρως σε ζητήματα που αφορούν την επιτήρηση, τη συλλογή δεδομένων και τα μοτίβα συμπεριφοράς των πολιτών, όπως έχει αποδειχθεί στο παρελθόν, π.χ. στις υποθέσεις του Facebook, της Cambridge Analytica κ.ά., η παραβίαση των δικαιωμάτων των χρηστών γίνεται αρχικά μέσω «νομότυπων» διαδικασιών, οι οποίες δεν απαγορεύονται ρητά.

Δεν θα πρέπει να ξαφνιάζει η αλλαγή στάσης του Πενταγώνου, χωρίς αυτό να σημαίνει ότι δεν θα πρέπει να δημιουργεί εύλογα ερωτήματα η χρονική στιγμή κατά την οποία συνέβη

Η εξέλιξη αυτή φαίνεται να εντάσσεται σε μια αναμενόμενη ακολουθία γεγονότων που επιχειρούν να αλλάξουν τον τρόπο χρήσης των συστημάτων ΤΝ. Οι ΗΠΑ αρχικά είχαν υιοθετήσει ήδη από το 2020 ένα σχετικά περιοριστικό πλαίσιο για τη χρήση ΤΝ στο Υπουργείο Άμυνας, δίνοντας έμφαση σε αρχές όπως η υπευθυνότητα, η ισοτιμία, η ανιχνευσιμότητα, η αξιοπιστία και η δυνατότητα διακυβέρνησης των συστημάτων Τεχνητής Νοημοσύνης. Παρόμοιες ηθικές αρχές, και ορολογία, υιοθετήθηκαν το 2021 από το ΝΑΤΟ και το 2022 από το Ηνωμένο Βασίλειο. Όμως αυτού του τύπου οι ρυθμιστικές δεσμεύσεις δεν ήταν συμβατές με την πολιτική του προέδρου Τραμπ και το «Σχέδιο Δράσης για την ΤΝ» του 2025 με το οποίο επιχειρείται να ανακοπεί η διεθνής, κυρίως ευρωπαϊκού τύπου, υπερρύθμιση της ΤΝ, στο όνομα της άρσης των «εμποδίων» στην καινοτομία. Ως εκ τούτου δεν θα πρέπει να ξαφνιάζει η αλλαγή στάσης του Πενταγώνου, χωρίς αυτό να σημαίνει ότι δεν θα πρέπει να δημιουργεί εύλογα ερωτήματα η χρονική στιγμή κατά την οποία συνέβη. 

Η απαγόρευση χρήσης της τεχνολογίας της Anthropic από τις ομοσπονδιακές υπηρεσίες δεν σημαίνει κατ’ ανάγκην διακοπή της επιχειρησιακής αξιοποίησης όσων έχουν ήδη παραχθεί από την εν λόγω τεχνολογία για τον πόλεμο. Επιμέρους εργαλεία, μοντέλα και διαδικασίες, συσσώρευση «γνώσης» που έχουν αναλυθεί στη διάρκεια προηγούμενων μηνών και ανίχνευση μοτίβων, καθιστούν σαφές ότι η πολεμική χρήση των συστημάτων ΤΝ υπερβαίνει τα LAWS, δηλαδή τις αυτόνομες πολεμικές μηχανές που βάλλουν κατά των στόχων.

Η στρατιωτική ΤΝ αφορά την ασύλληπτη ταχύτητα του χρόνου απόφασης σε όλο τον κύκλο των επιχειρήσεων – από την ανάλυση δεδομένων, την εξέταση εναλλακτικών και την ανίχνευση μοτίβων, έως τη χάραξη στρατηγικής και την εκτέλεση

Ακόμη και αν οι λεπτομέρειες παραμένουν αδιαφανείς, το κρίσιμο συμπέρασμα είναι ότι η στρατιωτική ΤΝ δεν αφορά μόνο τον βομβαρδισμό ή τη δράση LAWS, αφορά την ασύλληπτη ταχύτητα του χρόνου απόφασης σε όλο τον κύκλο των επιχειρήσεων – από την ανάλυση δεδομένων, την εξέταση εναλλακτικών και την ανίχνευση μοτίβων, έως τη χάραξη στρατηγικής και την εκτέλεση. Σε τέτοιες καταστάσεις, αδιανόητης για τους ανθρώπινους ρυθμούς σκέψης, «συμπίεσης» του χρόνου απόφασης ακόμα και αν ο άνθρωπος βρίσκεται στον επιχειρησιακό βρόχο λειτουργίας των μηχανών, in ή on the loop, ο ρόλος του κινδυνεύει να γίνει διακοσμητικός (ρόλος παρατηρητή), χωρίς να δύναται να συνεισφέρει ουσιαστικά, να κρίνει και να αναλάβει επί της ουσίας την ευθύνη.

Η παρουσία της ΤΝ αλλάζει τον ρυθμό των πολεμικών επιχειρήσεων

Περισσότερα στοιχεία για το ποια συστήματα χρησιμοποιούνται σήμερα στον πόλεμο του Ιράν, σε ποιον βαθμό και με τι επίπεδο αυτονομίας θα μάθουμε πιθανότητα σύντομα. Ωστόσο, όπως γίνεται ήδη φανερό, η παρουσία της ΤΝ αλλάζει τον ρυθμό των πολεμικών επιχειρήσεων. Ακόμα και αν η πλήρης αυτονομία των οπλικών συστημάτων παραμένει συζητήσιμη, ο συνολικός χρόνος συλλογής, επεξεργασίας, ανάλυσης δεδομένων και λήψης αποφάσεων, έχει μειωθεί σε τέτοιο βαθμό, που η δυνατότητα πραγματικού ανθρώπινου ελέγχου τίθεται εν αμφιβόλω. Τελικά, όπως διαμορφώνεται η νέα συνθήκη, το κρίσιμο ερώτημα δεν είναι απλώς σε ποιον βαθμό ελέγχου της λειτουργίας των συστημάτων εμπλέκεται ο ανθρώπινος παράγοντας, αλλά αν η πολεμική επιχείρηση μετατρέπεται σε ένα καθεστώς όπου η ταχύτητα υπολογισμού λειτουργεί αντιστρόφως ανάλογα με την ανθρώπινη ευθύνη και φρόνηση.