Η τεχνητή νοημοσύνη μπορεί να εντοπίζει πιθανούς στόχους, να προτείνει επιθέσεις και να προσομοιώνει σενάρια μάχης. Στην πράξη λειτουργεί ως σύστημα “υποστήριξης αποφάσεων”. Στη θεωρία ο άνθρωπος εξακολουθεί να κρατά τον τελικό έλεγχο, στην πράξη όμως τα πράγματα είναι πιο σύνθετα.
Πριν από λίγα χρόνια, τα μη επανδρωμένα αεροσκάφη (drones) ήταν όπλα που χρησιμοποιούσαν κυρίως μεγάλες στρατιωτικές δυνάμεις. Σήμερα μπορούν να αγοραστούν, να συναρμολογηθούν ή ακόμη και να κατασκευαστούν με έναν τρισδιάστατο εκτυπωτή. Ένα drone μπορεί να κοστίζει μόλις μερικές χιλιάδες δολάρια κι όμως μπορεί να προκαλέσει ζημιές σε στρατιωτικές εγκαταστάσεις, ενεργειακές υποδομές ή ακόμη και σε πόλεις.
Η οικονομία του πολέμου αλλάζει.
Η τεχνολογία που κάποτε απαιτούσε τεράστιους στρατιωτικούς προϋπολογισμούς τώρα βρίσκεται στα χέρια μικρών κρατών, παραστρατιωτικών ομάδων ή ακόμη και εγκληματικών οργανώσεων. Αυτό δημιουργεί έναν νέο τύπο σύγκρουσης: πιο ασύμμετρο, διάχυτο και δύσκολο να ελεγχθεί. Ο πόλεμος γίνεται φθηνότερος κι όταν ο πόλεμος γίνεται φθηνότερος, γίνεται και πιο πιθανός.
Τα drones έχουν ήδη αλλάξει τον τρόπο διεξαγωγής πολέμων σε περιοχές όπως η Ουκρανία, η Μέση Ανατολή ή η Αφρική. Χιλιάδες μικρά μη επανδρωμένα συστήματα μπορούν να λειτουργήσουν σαν σμήνος, να επιτίθενται ταυτόχρονα και να προκαλούν ζημιές δυσανάλογες με το κόστος τους. Η επόμενη φάση είναι ακόμη πιο ανησυχητική κι αφορά την ενσωμάτωση τεχνητής νοημοσύνης στα drones.
Ένα αυτόνομο drone δεν χρειάζεται χειριστή. Μπορεί να πλοηγηθεί μόνο του, να αναγνωρίσει στόχους και να επιτεθεί με ακρίβεια. Αυτό δεν είναι επιστημονική φαντασία, αποτελεί ήδη αντικείμενο στρατιωτικής έρευνας σε πολλές χώρες.
Η ιστορία των σύγχρονων συγκρούσεων δείχνει ότι ακόμη και τα πιο εξελιγμένα συστήματα κάνουν λάθη. Αλγόριθμοι μπορούν να ταυτοποιήσουν λανθασμένα έναν στόχο. Δεδομένα μπορεί να είναι ελλιπή ή παραπλανητικά. Ένα λάθος μπορεί να οδηγήσει σε πλήγματα σε σχολεία, νοσοκομεία ή κατοικημένες περιοχές. Όταν η απόφαση λαμβάνεται από έναν άνθρωπο, υπάρχει ευθύνη, όταν η απόφαση προκύπτει από έναν αλγόριθμο, η ευθύνη γίνεται θολή.
Έτσι δημιουργείται ένα επικίνδυνο κενό λογοδοσίας.
Το πρόβλημα επιτείνεται από το γεγονός ότι η ανάπτυξη αυτών των τεχνολογιών προχωρά ταχύτερα από οποιοδήποτε διεθνές ρυθμιστικό πλαίσιο. Δεν υπάρχουν σαφείς παγκόσμιοι κανόνες για τη χρήση της τεχνητής νοημοσύνης στα όπλα. Οι διεθνείς οργανισμοί συζητούν, αλλά οι στρατιωτικές επενδύσεις συνεχίζονται με εντατικούς ρυθμούς κι αυτό οδηγεί σε μια νέα μορφή εξοπλιστικής κούρσας.
Κάθε μεγάλη δύναμη φοβάται ότι αν καθυστερήσει, οι αντίπαλοί της θα αποκτήσουν τεχνολογικό πλεονέκτημα. Το αποτέλεσμα είναι μια παγκόσμια πίεση για ταχύτερη ανάπτυξη όπλων τεχνητής νοημοσύνης, συχνά χωρίς επαρκείς δοκιμές ή ηθικούς περιορισμούς.
Η ιστορία μας έχει διδάξει ότι οι εξοπλιστικές κούρσες σπάνια οδηγούν σε σταθερότητα, συνήθως οδηγούν σε μεγαλύτερους κινδύνους.
Το παράδοξο είναι ότι η τεχνητή νοημοσύνη δημιουργήθηκε για να επεκτείνει τις ανθρώπινες δυνατότητες. Να βοηθήσει στην ιατρική, στην επιστήμη, στην κατανόηση του κόσμου. Σήμερα όμως χρησιμοποιείται όλο και περισσότερο για να αυτοματοποιήσει την πιο σκοτεινή ανθρώπινη δραστηριότητα: τη βία. Όσο η τεχνολογία προχωρά, τόσο πιο δύσκολο γίνεται να επαναφέρουμε τον έλεγχο.
Η πραγματική πρόκληση των επόμενων ετών δεν θα είναι τεχνολογική, θα είναι πολιτική. Οι κοινωνίες θα πρέπει να αποφασίσουν αν θέλουν έναν κόσμο όπου οι πόλεμοι καθοδηγούνται από αλγορίθμους και αυτόνομα όπλα ή έναν κόσμο όπου η ανθρώπινη κρίση παραμένει στο κέντρο των αποφάσεων ζωής και θανάτου.
*Με στοιχεία από το Rest of World
Πηγή: olafaq.gr/culture
Και η άλλη πλευρά της Al
olafaq.gr/ H υγεία είναι το πραγματικό τεστ της τεχνητής νοημοσύνης Ο ρόλος της τεχνητής νοημοσύνης στο επίπεδο της πρόληψης μπορεί να σηματοδοτήσει μία επανάσταση στην ιατρική. Του Μίλτου Τόσκα.

Μίλτος Τόσκας.