ΡΟΜΠΟΤ ΠΟΥ ΣΚΟΤΩΝΟΥΝ: ΚΑΤΑΣΚΕΥΑΣΤΕΣ ΚΑΙ Η ΣΚΟΤΕΙΝΗ ΠΡΟΟΠΤΙΚΗ ΤΟΥ ΜΕΛΛΟΝΤΟΣ
Ενώ στην Ολλανδία εκπρόσωποι 80 χωρών υπέγραφαν 'έκκληση για δράση' υπεύθυνης χρήσης της τεχνητής νοημοσύνης στον στρατό, στις ΗΠΑ αναθεωρούνταν οδηγία για να διευκολυνθεί η ανάπτυξη θανατηφόρων αυτόνομων οπλικών συστημάτων.
Στα μέσα του Φλεβάρη συναντήθηκαν στο Παγκόσμιο Φόρουμ της Χάγης εκπρόσωποι κυβερνήσεων 80 χωρών, για να συζητήσουν για το μέλλον της στρατιωτικής τεχνητής νοημοσύνης. Ή όπως είπαν “για την υπεύθυνη τεχνητή νοημοσύνη στον στρατιωτικό τομέα”.
Το REAIM 2023 (Responsible Artificial Intelligence in the Military Domain) ήταν πρωτοβουλία της ολλανδικής κυβέρνησης και διήρκεσε δυο ημέρες.
Συζητήθηκαν οι ευκαιρίες, οι προκλήσεις και οι κίνδυνοι της χρήσης τεχνητής νοημοσύνης από τους στρατούς, παρουσία 2.500 εμπειρογνωμόνων επί της ΑΙ και ηγέτες του κλάδου, από 100 χώρες.
Όπως ανέφερε το δελτίο Τύπου “ήταν η πρώτη παγκόσμια προσπάθεια να αποτραπεί η διάδοση θανάσιμων αυτόνομων όπλων και να εισαχθούν η ηθική, η υπευθυνότητα, η ανάληψη ευθυνών και ο ηθικός παράγοντας, στην ταχύτατη ανάπτυξη τεχνολογίας όπλων που μπορεί να έχει κατακλυσμικές συνέπειες”.
Οι εργασίες ολοκληρώθηκαν με “έκκληση για δράση” επί της υπεύθυνης ανάπτυξης, της επιστράτευσης και της χρήσης στρατιωτικής ΑΙ. Την υπέγραψαν πολλοί. Όχι αυτοί που αναπτύσσουν σχετικά όπλα.
Συμφωνήθηκε και η δημιουργία Παγκόσμια Επιτροπή για την τεχνητή νοημοσύνη, για να ελέγξει τους κανονισμούς και να κάνει σχετικές αναθεωρήσεις.
Σε κανένα σημείο δεν τέθηκε ζήτημα περιορισμού στη δημιουργία αυτών των όπλων. Που σκοτώνουν. Μόνα. Χωρίς εντολή χειριστή.
Αν ‘δίδαξε’ κάτι ο πόλεμος της Ρωσίας στην Ουκρανία, σε όσους αναπτύσσουν όπλα αυτό ήταν πως η οπλισμένη τεχνητή νοημοσύνη είναι το μέλλον των εχθροπραξιών.
Πιο συγκεκριμένα, τα Κiller Robots. Ή επισήμως τα θανατηφόρα αυτόνομα οπλικά συστήματα (Lethal autonomous weapons systems -LAWS).
Δεν πρόκειται για Terminators, αλλά συστήματα που μπορούν να ‘περιπλανιούνται’ σε μια περιοχή, όπως αναζητούν στόχους που έχουν ‘εκπαιδευτεί’, από αλγόριθμους machine learning, να αναγνωρίζουν (από εγκαταστάσεις, οχήματα, άλλα όπλα και φυσικά συγκεκριμένους ανθρώπους) και να εξουδετερώνουν.
Το ‘χεις δει σε ταινίες sci-fi. Το είδες εν μέρει και στην Ουκρανία.
Tώρα θα διαβάσεις πως υπάρχει και στα εργαστήρια των +10 χωρών που κάνουν σχετικές επενδύσεις σε έρευνα και ανάπτυξη. Όλοι ‘ανέβασαν’ ρυθμούς, όπως αυξάνονταν οι απώλειες στην Ουκρανία και προέκυψε η πίεση για τα πλεονεκτήματα που δίνει ένα πλήρως αυτόνομο όπλο-ρομπότ στο πεδίο της μάχης.
Αυτόνομα οπλικά συστήματα σε έκδοση drone χρησιμοποιούν οι Ουκρανοί, για να αναχαιτίζουν ημιαυτόνομα drones που απειλούν ενεργειακές εγκαταστάσεις.
Όπως εν τω μεταξύ, διαβεβαιώνουν αυτοί που φτιάχνουν τα drones που χρειάζονται το χέρι ελεγκτή για τις αποφάσεις, είναι ήδη εφικτή η τεχνολογία που μπορεί να τα μετατρέψει σε πλήρως αυτόνομα.
Οι δε, Ρώσοι ανακοίνωσαν στς 15/2 τη μαζική παραγωγή Killer Robots.
Αντιλαμβάνεσαι πως άπαξ και διαδοθεί η τεχνογνωσία, δεν θα υπάρχει ελπίδα ελέγχου.
Άρα χρειαζόμαστε άμεσα κανονισμούς.
Εξ ου και η Παγκόσμια Επιτροπή για την τεχνητή νοημοσύνη.
Βέβαια, στην άλλη ακτή του Ατλαντικού, την ίδια ώρα συμβαίνουν επίσης πράγματα που ευνοούν τα LAWS.
Οι Αμερικανοί έχουν πάρει ήδη τα μέτρα τους
Πριν τη συνάντηση στην Ολλανδία, στις 25 Ιανουαρίου το υπουργείο Άμυνας των ΗΠΑ δημοσίευσε αναθεωρημένη ντιρεκτίβα για “την αυτονομία στα οπλικά συστήματα”. Ήταν η πρώτη σε διάστημα μιας δεκαετίας. Ήταν και η πρώτη στην ιστορία που επικεντρώθηκε στα αυτόνομα όπλα τεχνητής νοημοσύνης.
Η οδηγία των Αμερικανών διαδέχθηκε ένα σχετικό πλάνο εφαρμογής που δημοσίευσε το ΝΑΤΟ στις 13/10 του 2022. Σε αυτό αναφερόταν ως στόχος η διατήρηση “της τεχνολογίας αιχμής” της συμμαχίας επί των αυτόνομων οπλικών συστημάτων.
Ναι, των Killer Robots.
Ειρήσθω εν παρόδω, στην οδηγία των ΗΠΑ ως αυτόνομο οπλικό σύστημα ορίζεται “ένα οπλικό σύστημα που μόλις ενεργοποιηθεί, μπορεί να επιλέξει τους στόχους και να εμπλακεί, χωρίς περαιτέρω παρέμβαση από χειριστή (άτομο)”.
Εξηγείται πως η εφαρμογή της οδηγίας αφορά
- το υπουργείο Άμυνας των ΗΠΑ,
- το σχεδιασμό, την ανάπτυξη, την απόκτηση, τη δοκιμή, την τοποθέτηση και την απασχόληση των αυτόνομων και ημιαυτόνομων οπλικών συστημάτων -συμπεριλαμβανομένων των κατευθυνόμενων πυρομαχικών που είναι ικανά αυτοματοποιημένης επιλογής στόχων και
- την εφαρμογή θανατηφόρου ή μη θανατηφόρου, κινητικής ή μη κινητικής, δύναμης από αυτόνομα ή ημιαυτόνομα οπλικά συστήματα.
Δεν αφορά τη CIA που έπαιξε πρωταγωνιστικό ρόλο στη χρήση οπλισμένων drones εκτός των συνόρων των ΗΠΑ.
Τονίζεται ότι τα συγκεκριμένα συστήματα είναι και τρόπος να μένουν ασφαλείς οι στρατιώτες.
Οι κατασκευαστές συνεχίζουν αμέριμνοι τη δουλειά τους
Στην παρούσα φάση οι ΗΠΑ, Κίνα, Ρωσία, Νότια Κορέα και Ευρωπαϊκή Ένωση κάνουν τεράστιες επενδύσεις στην ανάπτυξη στρατιωτικών εφαρμογών τεχνητής νοημοσύνης (AI) -και συναφών τεχνολογιών-, για τον αέρα, την ξηρά και τη θάλασσα.
Η Αυστραλία, η Ινδία, το Ιράν, το Ισραήλ, η Τουρκία και η Μεγάλη Βρετανία επενδύουν και στην ανάπτυξη κανονισμών “με διαρκώς διευρυνόμενο φάσμα μεγεθών και δυνατοτήτων”, όπως αναφέρει το Foreign Policy.
Δηλαδή, τα Killer Robots θα κυκλοφορούν σε όλα τα μεγέθη και όλους τους τύπους.
Στις διπλωματικές συζητήσεις που γίνονται από το 2014, όσοι φτιάχνουν LAWS αντιστέκονται σταθερά στις αυξανόμενες εκκλήσεις για διαπραγμάτευση ενός νέου, νομικά δεσμευτικού, μέσου για αυτόνομα οπλικά συστήματα.
Οι ΗΠΑ πρότειναν να συμφωνήσουν οι ‘συνεργάτες’ (οι άλλες χώρες που είναι στην πρώτη γραμμή ανάπτυξης) σε εθελοντικές δεσμεύσεις, όπως έναν “κώδικα συμπεριφοράς” που θα ορίζει την ανάπτυξη και τη χρήση αυτόνομων οπλικών συστημάτων.
Οι διεθνείς προτάσεις (όπως αυτή της Stop Killer Robots -συνασπισμού περισσότερων από 190 μη κυβερνητικών οργανώσεων σε 67 χώρες που εργάζεται για το νέο διεθνές δίκαιο για την αυτονομία στα οπλικά συστήματα) απαιτούν μια νέα συνθήκη, για την απαγόρευση και τη ρύθμιση των αυτόνομων οπλικών συστημάτων.
Οι περισσότεροι κατασκευαστές ζητούν την απαγόρευση της ανάπτυξης και χρήσης νόμων.
Η ιστορική στιγμή που χάθηκε
Το Δεκέμβριο του 2021, έπειτα από οκτώ χρόνια τεχνικών συζητήσεων, εκπρόσωποι κυβερνήσεων και πολιτών είχαν συναντηθεί στα Ηνωμένα Έθνη στη Γενεύη, για να καθορίσουν μια ατζέντα ως προς τη ρύθμιση των νόμων.
Οι περισσότεροι είχαν ταχθεί υπέρ νομικά δεσμευτικών κανόνων, για την ανάπτυξη και τη χρήση αυτών των τεχνολογιών.
Αποτέλεσμα ωστόσο, δεν υπήρξε. Εννοώ κάποια συμφωνία που να ‘χει υπογραφές.
Βέβαια και το 2017 που υπήρξε η Συνθήκη για την Απαγόρευση των Πυρηνικών Όπλων και είχε και πολλές υπογραφές, λίγοι έκαναν αυτά που δεσμεύτηκαν.
“Οι αποφάσεις εν καιρώ πολέμου πρέπει να συνεχίσουν να ανήκουν σε ανθρώπους”
Όπως επισήμανε η Human Rights Watch που μελέτησε την οδηγία των ΗΠΑ μαζί με την Διεθνή Κλινική Για τα ανθρώπινα δικαιώματα της νομικής σχολής του Harvard “η ντιρεκτίβα δεν περιλαμβάνει αυστηρούς κανόνες για τη δημιουργία αυτόνομων οπλικών συστημάτων, αλλά τη διευκολύνει.
Υπάρχουν σοβαρές αμφιβολίες ότι τα πλήρως αυτόνομα όπλα θα είναι ικανά να πληρούν τα πρότυπα του διεθνούς ανθρωπιστικού δικαίου, συμπεριλαμβανομένων των κανόνων διάκρισης, αναλογικότητας και στρατιωτικής αναγκαιότητας.
Θα μπορούσαν να απειλήσουν το θεμελιώδες δικαίωμα στη ζωή και την αρχή της ανθρώπινης αξιοπρέπειας”.
Αναφέρθηκε ότι όπως και στην προηγούμενη οδηγία, έτσι και σε αυτή υποστηρίζεται ότι “τα αυτόνομα και ημιαυτόνομα οπλικά συστήματα θα σχεδιαστούν, ώστε να επιτρέπουν στους διοικητές και τους χειριστές να ασκούν κατάλληλα επίπεδα ανθρώπινης κρίσης για τη χρήση βίας”.
Η σημείωση αυτή συμμορφώνεται με το διεθνές ανθρωπιστικό δίκαιο. ”Ωστόσο, παραμένει ασαφής για το τι συνιστά “κατάλληλο επίπεδο” ανθρώπινης κρίσης”.
Σε ό,τι αφορά την επισήμανση για επανεξέταση των προϋποθέσεων “που πρέπει να πληρούν, πριν δοθεί η έγκριση για την ανάπτυξη ή τη χρήση αυτόνομων οπλικών συστημάτων με θανατηφόρα δύναμη”, σε περιπτώσεις “επείγουσας στρατιωτικής ανάγκης” μπορεί να προσπεραστεί από υψηλόβαθμους αξιωματούχους.
“Μολονότι υπάρχει μικρή διαφάνεια, φαίνεται πως το αίτημα επανεξέτασης δεν έχει χρησιμοποιηθεί ποτέ έως σήμερα”.
Όπως και η προηγούμενη οδηγία, εν τω μεταξύ έτσι κι αυτή δεν περιορίζει τη διάδοση αυτών των συστημάτων. Τουναντίον, επιτρέπει “διεθνείς πωλήσεις και μεταφορές”, εφόσον “εγκρίνονται σύμφωνα με τις υπάρχουσες απαιτήσεις και διαδικασίες τεχνολογικής ασφάλειας και γνωστοποίησης από το εξωτερικό”.
Όσοι αγωνίζονται εδώ και χρόνια να ελέγξουν το καθεστώς των αυτόνομων οπλικών συστημάτων, έχουν ως κύριο επιχείρημα πως οι αποφάσεις που αφορούν τη ζωή ή το θάνατο σε καιρό πολέμου, πρέπει να παραμείνουν στα χέρια των ανθρώπων.
Η παράδοση σε αλγόριθμο ισοδυναμεί με την απόλυτη μορφή ψηφιακής απανθρωποποίησης.
Όσα είναι ή μπορούν να πάνε λάθος με τα LAWS
Η διευθύντρια υπεράσπισης όπλων του οργανισμού, Mary Wareham δήλωσε χαρακτηριστικά ότι “η επιδίωξη των ΗΠΑ για αυτόνομα οπλικά συστήματα χωρίς δεσμευτικούς νομικούς κανόνες για τη ρητή αντιμετώπιση των κινδύνων είναι συνταγή καταστροφής.
Η εθνική πολιτική και νομοθεσία πρέπει να πάρουν επειγόντως τα μέτρα τους, για την αντιμετώπιση των κινδύνων και των προκλήσεων που εγείρονται με την αφαίρεση του ανθρώπινου ελέγχου από τη χρήση βίας”.
Υπάρχει ανησυχία για διευκόλυνση βίας σε μεγάλη κλίμακα, αφού δεν υπάρχει ο περιορισμός των ανθρώπων που μπορούν να τα επανδρώσουν ή να τα ελέγξουν.
Επίσης, ο συνδυασμός της αναγνώρισης προσώπου με άλλες τεχνολογίες, μπορούν να κάνουν στόχους ανθρώπους με συγκεκριμένα χαρακτηριστικά. Έτσι, ομάδες βίας και κρατικοί στρατοί θα έχουν τη δυνατότητα να διαπράξουν πολιτικές δολοφονίες και εθνοκάθαρση.
Τρίτον, τα θανατηφόρα αυτόνομα οπλικά συστήματα μπορούν να διευκολύνουν όσους κρύβονται πίσω από αυτά να διατηρήσουν άγνωστες τις ταυτότητες τους. Ως εκ τούτου, μπορούν να να ανατρέψουν τις πολιτικές παραγγελίες και να επιτρέψουν τον αυστηρότερο αυταρχικό έλεγχο.
Τέλος, ένα μηχάνημα πάντα μπορεί να χαλάσει και να μπερδέψει έναν στόχο με έναν πολίτη.