Σπύρος Μανουσέλης
Πολλοί άνθρωποι σε όλο τον κόσμο εντυπωσιάστηκαν από την αποφασιστικότητα με την οποία επιφανείς επιστήμονες αλλά και αρκετοί πρόεδροι μεγάλων εταιρειών της ρομποτικής βιομηχανίας, όπως ο Ελον Μασκ (Elon Musk) και ο Μουσταφά Σουλεϊμάν (Mustafa Suleyman), ζήτησαν επίσημα με κοινή επιστολή τους προς τον Οργανισμό Ηνωμένων Εθνών να αναλάβει άμεσα πρωτοβουλίες και να επέμβει ώστε να εμποδιστεί, μέσω μιας διεθνούς συμφωνίας, η χρήση αυτόνομων ρομποτικών μηχανών σε στρατιωτικές επιχειρήσεις.
Αυτή η ανοιχτή επιστολή-έκκληση προς τον ΟΗΕ, την οποία κατέθεσαν στις 20 Αυγούστου, ήταν το προϊόν της Διεθνούς Διάσκεψης για την Τεχνητή Νοημοσύνη (Joint Conference on Artificial Intelligence ή IJCAI) που έλαβε χώρα στη Μελβούρνη της Αυστραλίας.
Μια διεθνής πρωτοβουλία στην οποία συμμετείχαν, φέτος, όχι μόνο επιφανείς επιστήμονες αλλά και πρωταγωνιστές από τις πιο μεγάλες εταιρείες ρομποτικής και η οποία, πρωτίστως, στοχεύει στην ευαισθητοποίηση της κοινής γνώμης και στην ενημέρωση της διεθνούς πολιτικής κοινότητας για τις μη προβλέψιμες και εξαιρετικά επισφαλείς εφαρμογές της ρομποτικής και της Τεχνητής Νοημοσύνης για πολεμικούς σκοπούς.
Ωστόσο, με αυτή τη βαρυσήμαντη και αποκαλυπτική επιστολή τους θέλησαν να στείλουν, εγκαίρως, ένα πολύ ηχηρό μήνυμα προς τους κυβερνητικούς εκπροσώπους οι οποίοι θα συμμετείχαν στην πρώτη διεθνή σύσκεψη για τη στρατιωτική χρήση αυτόνομων θανατηφόρων συστημάτων (GGE). Μια σύσκεψη που είχε προγραμματιστεί να γίνει την επόμενη ημέρα και η οποία τελικά, μετά την ανακοίνωση της ανοιχτής επιστολής στο ΟΗΕ, «αναβλήθηκε επ’ αόριστον».
Πράγματι, όπως τονίζουν ρητά στην επιστολή τους οι 116 αυθεντίες που την υπογράφουν:
«Τα αυτόνομα θανατηφόρα όπλα απειλούν να γίνουν η τρίτη επανάσταση στο στρατιωτικό πεδίο. Από τη στιγμή που θα εμφανιστούν, θα επιτρέψουν στις ένοπλες συγκρούσεις να λαμβάνουν χώρα σε μια αδιανόητη, μέχρι σήμερα, χωρική κλίμακα και σε τόσο γρήγορες χρονικές κλίμακες που θα ήταν ασύλληπτες για τους ανθρώπους: είναι όπλα που δικτάτορες και τρομοκράτες ενδέχεται να στέψουν ενάντια σε αθώους λαούς και επιπλέον όπλα που οι χάκερ μπορούν να αναπρογραμματίσουν ώστε να συμπεριφέρονται όπως αυτοί επιθυμούν. Δεν έχουμε πολύ χρόνο να αντιδράσουμε: απ’ τη στιγμή που θα ανοίξει το κουτί της Πανδώρας, θα είναι εξαιρετικά δύσκολο να κλείσει».
Και καταλήγουν:
«Καλούμε όσους θα συμμετάσχουν στις εργασίες του GGE να καταβάλουν κάθε προσπάθεια ώστε να εμποδίσουν μια νέα διεθνή κούρσα για την κατασκευή αυτόνομων όπλων, να προστατεύσουν τους πολίτες από την καταχρηστική στρατιωτική εφαρμογή τους και να αποτρέψουν τις αποσταθεροποιητικές συνέπειες αυτών των τεχνολογιών».
Πάντως, αξίζει να σημειωθεί ότι οι εντυπωσιακές τεχνολογικές εξελίξεις στο πεδίο της ρομποτικής δεν οδηγούν, για την ώρα, στη δημιουργία ανθρωπόμορφων ρομπότ-στρατιωτών, αλλά μόνο σε πολεμικά συστήματα που είναι ικανά να εκδηλώνουν κάποιες ανθρώπινες ικανότητες, π.χ. τανκς, κανόνια ή βομβαρδιστικά που μπορούν να κινούνται και να επιλέγουν αυτόνομα τον στόχο τους, βάσει των προγραμμάτων που διαθέτουν.
Με δεδομένη, όμως, την ταχύτατη ανάπτυξη της τεχνολογίας των «ευφυών» μηχανών, σε δύο ή τρεις δεκαετίες, προβλέπεται ότι θα είναι εφικτή η κατασκευή ανθρωπόμορφων στρατιωτών, οι οποίοι όχι μόνο θα αποδειχτούν πολύ πιο οικονομικοί, αλλά και πολύ πιο αποτελεσματικοί από τους... ανθρώπινους στρατιώτες, εφόσον δεν θα είναι προγραμματισμένοι να εμφανίζουν τις τυπικές ανθρώπινες «αδυναμίες», όπως π.χ. τον φόβο του θανάτου, την ανυπακοή στις εντολές ή τη νοσταλγία της ειρηνικής ζωής.
Η έκκληση λοιπόν να αντισταθούμε, με κάθε τρόπο, στην ορατή πλέον δυνατότητα των πιο ισχυρών οικονομικά και στρατιωτικά χωρών στο να επενδύσουν σε τέτοιες θανατηφόρες πολεμικές μηχανές είναι όχι μόνο δικαιολογημένη, αλλά και οδυνηρά επίκαιρη. Μετά τον Β’ Παγκόσμιο Πόλεμο, η διεθνής κοινότητα κατάφερε -ώς έναν βαθμό- να ελέγξει τη διάδοση των χημικών και πυρηνικών όπλων.
Σε αυτές τις εξελίξεις αποφασιστικό ρόλο έπαιξε η ενημέρωση των πολιτών για τις καταστροφικές συνέπειες αυτών των όπλων. Σήμερα, είναι εξίσου επιτακτική η ανάγκη ενημέρωσης για τις ανεξέλεγκτες αυτοκαταστροφικές συνέπειες της δημιουργίας αυτόνομων πολεμικών μηχανών.
Πηγή: efsyn.gr
Η Σφήκα: Επιλογές
Πολλοί άνθρωποι σε όλο τον κόσμο εντυπωσιάστηκαν από την αποφασιστικότητα με την οποία επιφανείς επιστήμονες αλλά και αρκετοί πρόεδροι μεγάλων εταιρειών της ρομποτικής βιομηχανίας, όπως ο Ελον Μασκ (Elon Musk) και ο Μουσταφά Σουλεϊμάν (Mustafa Suleyman), ζήτησαν επίσημα με κοινή επιστολή τους προς τον Οργανισμό Ηνωμένων Εθνών να αναλάβει άμεσα πρωτοβουλίες και να επέμβει ώστε να εμποδιστεί, μέσω μιας διεθνούς συμφωνίας, η χρήση αυτόνομων ρομποτικών μηχανών σε στρατιωτικές επιχειρήσεις.
Αυτή η ανοιχτή επιστολή-έκκληση προς τον ΟΗΕ, την οποία κατέθεσαν στις 20 Αυγούστου, ήταν το προϊόν της Διεθνούς Διάσκεψης για την Τεχνητή Νοημοσύνη (Joint Conference on Artificial Intelligence ή IJCAI) που έλαβε χώρα στη Μελβούρνη της Αυστραλίας.
Μια διεθνής πρωτοβουλία στην οποία συμμετείχαν, φέτος, όχι μόνο επιφανείς επιστήμονες αλλά και πρωταγωνιστές από τις πιο μεγάλες εταιρείες ρομποτικής και η οποία, πρωτίστως, στοχεύει στην ευαισθητοποίηση της κοινής γνώμης και στην ενημέρωση της διεθνούς πολιτικής κοινότητας για τις μη προβλέψιμες και εξαιρετικά επισφαλείς εφαρμογές της ρομποτικής και της Τεχνητής Νοημοσύνης για πολεμικούς σκοπούς.
Ωστόσο, με αυτή τη βαρυσήμαντη και αποκαλυπτική επιστολή τους θέλησαν να στείλουν, εγκαίρως, ένα πολύ ηχηρό μήνυμα προς τους κυβερνητικούς εκπροσώπους οι οποίοι θα συμμετείχαν στην πρώτη διεθνή σύσκεψη για τη στρατιωτική χρήση αυτόνομων θανατηφόρων συστημάτων (GGE). Μια σύσκεψη που είχε προγραμματιστεί να γίνει την επόμενη ημέρα και η οποία τελικά, μετά την ανακοίνωση της ανοιχτής επιστολής στο ΟΗΕ, «αναβλήθηκε επ’ αόριστον».
Ποιος θα ελέγχει τα ρομπότ-στρατιώτες;
Πράγματι, όπως τονίζουν ρητά στην επιστολή τους οι 116 αυθεντίες που την υπογράφουν:
«Τα αυτόνομα θανατηφόρα όπλα απειλούν να γίνουν η τρίτη επανάσταση στο στρατιωτικό πεδίο. Από τη στιγμή που θα εμφανιστούν, θα επιτρέψουν στις ένοπλες συγκρούσεις να λαμβάνουν χώρα σε μια αδιανόητη, μέχρι σήμερα, χωρική κλίμακα και σε τόσο γρήγορες χρονικές κλίμακες που θα ήταν ασύλληπτες για τους ανθρώπους: είναι όπλα που δικτάτορες και τρομοκράτες ενδέχεται να στέψουν ενάντια σε αθώους λαούς και επιπλέον όπλα που οι χάκερ μπορούν να αναπρογραμματίσουν ώστε να συμπεριφέρονται όπως αυτοί επιθυμούν. Δεν έχουμε πολύ χρόνο να αντιδράσουμε: απ’ τη στιγμή που θα ανοίξει το κουτί της Πανδώρας, θα είναι εξαιρετικά δύσκολο να κλείσει».
Και καταλήγουν:
«Καλούμε όσους θα συμμετάσχουν στις εργασίες του GGE να καταβάλουν κάθε προσπάθεια ώστε να εμποδίσουν μια νέα διεθνή κούρσα για την κατασκευή αυτόνομων όπλων, να προστατεύσουν τους πολίτες από την καταχρηστική στρατιωτική εφαρμογή τους και να αποτρέψουν τις αποσταθεροποιητικές συνέπειες αυτών των τεχνολογιών».
Πάντως, αξίζει να σημειωθεί ότι οι εντυπωσιακές τεχνολογικές εξελίξεις στο πεδίο της ρομποτικής δεν οδηγούν, για την ώρα, στη δημιουργία ανθρωπόμορφων ρομπότ-στρατιωτών, αλλά μόνο σε πολεμικά συστήματα που είναι ικανά να εκδηλώνουν κάποιες ανθρώπινες ικανότητες, π.χ. τανκς, κανόνια ή βομβαρδιστικά που μπορούν να κινούνται και να επιλέγουν αυτόνομα τον στόχο τους, βάσει των προγραμμάτων που διαθέτουν.
Με δεδομένη, όμως, την ταχύτατη ανάπτυξη της τεχνολογίας των «ευφυών» μηχανών, σε δύο ή τρεις δεκαετίες, προβλέπεται ότι θα είναι εφικτή η κατασκευή ανθρωπόμορφων στρατιωτών, οι οποίοι όχι μόνο θα αποδειχτούν πολύ πιο οικονομικοί, αλλά και πολύ πιο αποτελεσματικοί από τους... ανθρώπινους στρατιώτες, εφόσον δεν θα είναι προγραμματισμένοι να εμφανίζουν τις τυπικές ανθρώπινες «αδυναμίες», όπως π.χ. τον φόβο του θανάτου, την ανυπακοή στις εντολές ή τη νοσταλγία της ειρηνικής ζωής.
Η έκκληση λοιπόν να αντισταθούμε, με κάθε τρόπο, στην ορατή πλέον δυνατότητα των πιο ισχυρών οικονομικά και στρατιωτικά χωρών στο να επενδύσουν σε τέτοιες θανατηφόρες πολεμικές μηχανές είναι όχι μόνο δικαιολογημένη, αλλά και οδυνηρά επίκαιρη. Μετά τον Β’ Παγκόσμιο Πόλεμο, η διεθνής κοινότητα κατάφερε -ώς έναν βαθμό- να ελέγξει τη διάδοση των χημικών και πυρηνικών όπλων.
Σε αυτές τις εξελίξεις αποφασιστικό ρόλο έπαιξε η ενημέρωση των πολιτών για τις καταστροφικές συνέπειες αυτών των όπλων. Σήμερα, είναι εξίσου επιτακτική η ανάγκη ενημέρωσης για τις ανεξέλεγκτες αυτοκαταστροφικές συνέπειες της δημιουργίας αυτόνομων πολεμικών μηχανών.
Πηγή: efsyn.gr
Η Σφήκα: Επιλογές
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου