Παράκαμψη προς το κυρίως περιεχόμενο
Εικόνα
12:09 | 28/07/2015

Μια νέα παγκόσμια κούρσα εξοπλιστικών ανταγωνισμών, η οποία αυτή τη φορά θα αφορά τα αυτόνομα οπλικά συστήματα που βασίζονται στην τεχνητή νοημοσύνη, είναι σχεδόν βέβαιο ότι θα ξεσπάσει τα επόμενα χρόνια, εκτός και οι κυβερνήσεις απαγορεύσουν έγκαιρα αυτά τα επικίνδυνα όπλα. 

Τη σχετική έκκληση-προειδοποίηση απηύθυναν πάνω από 1.000 επιστήμονες και ειδικοί της τεχνολογίας, με επικεφαλής τον διάσημο αστροφυσικό Στίβεν Χόκινγκ, οι οποίοι έδωσαν στη δημοσιότητα σχετική ανοικτή επιστολή προς τα κράτη και κάθε αρμόδιο διεθνή οργανισμό.

Τη σχετική πρωτοβουλία είχε η οργάνωση «Future of Life Institute» (Ινστιτούτο για το Μέλλον της Ζωής) και η επιστολή παρουσιάσθηκε σε διεθνή συνδιάσκεψη για την τεχνητή νοημοσύνη στο Μπουένος Άιρες της Αργεντινής, σύμφωνα με τη βρετανική «Γκάρντιαν». 

Μεταξύ άλλων, την επιστολή συνυπογράφουν ο δισεκατομμυριούχος τεχνο-επιχειρηματίας Έλον Μασκ (Tesla, SpaceX, Pay Pal κ.α.), ο συνιδρυτής της Apple Στιβ Βόζνιακ, ο επικεφαλής της Google Deep Mind Ντέμης Χασάμπης, ο γλωσσολόγος Νόαμ Τσόμσκι του ΜΙΤ κ.α.

«Η κατάληξη της σημερινής τεχνολογικής πορείας είναι προφανής: τα αυτόνομα όπλα θα γίνουν τα Καλάσνικοφ του αύριο. Το βασικό ερώτημα για την ανθρωπότητα σήμερα, είναι αν θα ξεκινήσει μια παγκόσμια κούρσα εξοπλισμών τεχνητής νοημοσύνης ή αν θα εμποδίσει να αρχίσει κάτι τέτοιο», τονίζεται στην επιστολή-προειδοποίηση.

Οι συνυπογράφοντες επισημαίνουν ότι «η τεχνολογία της τεχνητής νοημοσύνης έχει φθάσει σε ένα σημείο όπου η ανάπτυξη αυτόνομων όπλων είναι -πρακτικά, αν όχι και νομικά- εφικτή μέσα στα επόμενα χρόνια, όχι δεκαετίες. Αυτά που διακυβεύονται, είναι σημαντικά: Τα αυτόνομα όπλα έχουν περιγραφεί ως η τρίτη επανάσταση στους εξοπλισμούς, μετά την πυρίτιδα και τα πυρηνικά όπλα».
Οι επιστήμονες και οι ρομποτιστές αναφέρουν ότι από τη μια η τεχνητή νοημοσύνη μπορεί όντως να χρησιμοποιηθεί για να καταστήσει πιο ασφαλές το πεδίο της μάχης για το στρατιωτικό προσωπικό. Από την άλλη όμως, τα επιθετικά όπλα που θα λειτουργούν με δική τους πρωτοβουλία, θα οδηγήσουν τελικά σε μεγαλύτερη απώλεια ανθρώπινων ζωών.

Θεωρείται δεδομένο, όπως επισημαίνεται, πως αν μια χώρα αναπτύξει πρώτη τέτοια οπλικά συστήματα, που θα καταστρέφουν τους στόχους τους χωρίς καμία ανθρώπινη παρέμβαση, τότε άλλες χώρες θα απαντήσουν και ένας φαύλος κύκλος ανταγωνιστικών εξοπλισμών θα γίνει πραγματικότητα, με συνέπεια αυτά τα όπλα να διασπαρούν παντού στη Γη, όπως τα καλάσνικοφ. Μάλιστα, αντίθετα από τα πυρηνικά όπλα, τα ρομποτικά όπλα θα είναι δύσκολο να ελεγχθούν με παρόμοιο τρόπο, ενώ κάλλιστα μπορεί να πέσουν στα χέρια τρομοκρατών και εγκληματιών.

Ο Χόκινγκ και η «παρέα» του ζητούν να υπάρξει μια απαγόρευση σε επίπεδο Οργανισμού Ηνωμένων Εθνών, προτού είναι πολύ αργά για να μπει ξανά «το τζίνι στο μπουκάλι». 

Στο πρόσφατο παρελθόν προσωπικότητες όπως ο βρετανός αστροφυσικός και ο Μασκ έχουν προειδοποιήσει ότι η τεχνητή νοημοσύνη συνιστά «επίκληση δαιμόνων» και «τη μεγαλύτερη υπαρξιακή απειλή», που μπορεί να φέρει το τέλος της ανθρωπότητας. Κάτι περισσότερο θα ξέρουν...

 

zougla.gr

Policenet.gr © | 2024 Όροι Χρήσης.
developed by Pixelthis