Τεχνολογία

Τεχνητή Νοημοσύνη: Βομβαρδίζοντας ταχύτερα και από την… ανθρώπινη σκέψη – Το σύστημα που δίνει ώθηση στην «αλυσίδα θανάτου»


Ένα δυστοπικό μέλλον για την ανθρωπότητα ξεδιπλώνεται μπροστά μας. Η Τεχνητή Νοημοσύνη επελαύνει σχεδόν σε όλους τους τομείς της ζωής μας.

Η εποχή που η ταχύτητα διεξαγωγής των βομβαρδισμών είναι μεγαλύτερη από την ταχύτητα της ίδιας ανθρώπινης σκέψης… ξεκίνησε

Η χρήση εργαλείων ΤΝ για την πραγματοποίηση επιθέσεων κατά του Ιράν έρχεται να σηματοδοτήσει τη νέα εποχή του πολέμου όπου η ταχύτητα διεξαγωγής των βομβαρδισμών είναι μεγαλύτερη από την ταχύτητα της ίδιας ανθρώπινης σκέψης, εν μέσω δικαιολογημένης ανησυχίας ότι οι υπεύθυνοι λήψης αποφάσεων παραγκωνίζονται.

Ο πόλεμος στο Ιράν

Το μοντέλο της Anthropic (Claude) φέρεται να χρησιμοποιήθηκε από τον αμερικανικό στρατό σε σειρά επιθέσεων στον πόλεμο που ξέσπασε στη Μέση Ανατολή. Η τεχνολογία συνέβαλε να δοθεί ώθηση στη λεγόμενη «αλυσίδα θανάτου», δηλαδή τη διαδικασία κατά την οποία η οποία μεσολαβεί από την αναγνώριση ενός στόχο έως την έγκριση για να «πατηθεί το κουμπί» από τους υπευθύνους.

Σύμφωνα με την Washington Post η περίπτωση του Ιράν είναι η πρώτη φορά που αξιοποιείται σε επιχειρήσεις μεγάλης κλίμακας σε πόλεμο.

Η βρετανική εφημερίδα Guardian φιλοξενεί στις σελίδες της ένα εκτενές ρεπορτάζ.

Οι ΗΠΑ και το Ισραήλ, που προηγουμένως χρησιμοποιούσαν τεχνητή νοημοσύνη για τον εντοπισμό στόχων στη Γάζα, εξαπέλυσαν σχεδόν 900 επιθέσεις εναντίον ιρανικών στόχων μόνο στις πρώτες 12 ώρες από την έναρξη του πολέμου, κατά τη διάρκεια των οποίων ισραηλινοί πύραυλοι σκότωσαν τον ανώτατο ηγέτη του Ιράν, Αγιατολάχ Αλί Χαμενεΐ.

Ειδήμονες που μελετούν τον τομέα αυτό υποστηρίζουν ότι η Τεχνητή Νοημοσύνη μειώνει δραστικά τον χρόνο που απαιτείται για τον σχεδιασμό σύνθετων επιθέσεων και θα μπορούσε να οδηγήσει τους ανθρώπους που εμπλέκονται σε αυτές απλώς στην έγκριση αυτοματοποιημένων σχεδίων επίθεσης.

Ο ρόλος της Anthropic και η Palantir

Η Anthropic, με έδρα το Σαν Φρανσίσκο, διαθέτει ένα από τα κορυφαία εργαστήρια ΤΝ και είχε σύμβαση χρήσης του μοντέλου της Claude με το αμερικανικό Πεντάγωνο και άλλες υπηρεσίες εθνικής ασφάλειας για να επιταχύνει τον σχεδιασμό του πολέμου.

Εντάχθηκε σε ένα σύστημα που αναπτύχθηκε από την εταιρεία πολεμικής τεχνολογίας Palantir σε συνεργασία με το Πεντάγωνο με σκοπό να «βελτιώσει δραματικά την ανάλυση πληροφοριών και να διευκολύνει τους αξιωματούχους στη διαδικασία λήψης αποφάσεων».

Στόχος ήταν η μηχανή Τεχνητής Νοημοσύνης να κάνει προτάσεις «για το τι πρέπει να στοχεύσουμε», κάτι που σε ορισμένες περιπτώσεις «είναι πολύ πιο γρήγορο από την ταχύτητα της σκέψης», σύμφωνα με τον Craig Jones, λέκτορα πολιτικής γεωγραφίας στο Πανεπιστήμιο του Newcastle.

Τα εξελιγμένα συστήματα ΑΙ μπορούν να αναλύουν γρήγορα μεγάλο όγκο δεδομένων σχετικά με πιθανούς στόχους αντλώντας πληροφορίες από βίντεο που έχουν τραβηχτεί από drones, υποκλοπές τηλεπικοινωνιών και φυσικά πληροφορίες από ανθρώπινες πηγές.

Το σύστημα της Palantir χρησιμοποιεί μηχανική μάθηση για να εντοπίζει και να ιεραρχεί στόχους και να προτείνει όπλα, λαμβάνοντας υπόψη τα αποθέματα και τις προηγούμενες επιδόσεις έναντι παρόμοιων στόχων.

«Αυτή είναι η επόμενη εποχή της στρατιωτικής τεχνολογίας», δήλωσε ο David Leslie, καθηγητής ηθικής, τεχνολογίας και κοινωνίας στο Queen Mary University του Λονδίνου, ο οποίος έχει παρακολουθήσει επιδείξεις στρατιωτικών συστημάτων Τεχνητής Νοημοσύνης.

Προειδοποίησε ότι η εξάρτηση από την ΤΝ μπορεί να οδηγήσει σε αυτό που ονόμασε «γνωστική αποφόρτιση». Οι άνθρωποι που έχουν την ευθύνη να λάβουν μια απόφαση για επίθεση μπορεί να αισθάνονται αποστασιοποιημένοι από τις συνέπειές της, επειδή η σκέψη παράγεται μια μηχανή.

Η ηθική διάσταση του θέματος

Προ ολίγων ημερών ο πρόεδρος Τραμπ έδωσε εντολή σε κάθε ομοσπονδιακή υπηρεσία να σταματήσει να χρησιμοποιεί τεχνολογία από την Anthropic. Οι λόγοι δεν είχαν καμία σχέση με πιθανούς ηθικούς φραγμούς. Η αμερικανική εταιρεία έχει θέσει δύο κόκκινες γραμμές για το Πεντάγωνο: ότι το Claude δεν θα χρησιμοποιηθεί σε αυτόνομα όπλα και ότι δεν θα χρησιμοποιηθεί στη μαζική παρακολούθηση πολιτών των ΗΠΑ.

Η άρνηση αυτή οδήγησε τον υπουργό Άμυνας των ΗΠΑ, Πιτ Χέγκσεθ, να δηλώσει ότι θεωρεί πλέον την εταιρεία Τεχνητής Νοημοσύνης «κίνδυνο για την εφοδιαστική αλυσίδα».

Η Anthropic προσέφυγε σε ομοσπονδιακό δικαστήριο της Καλιφόρνια, υποστηρίζοντας ότι ο χαρακτηρισμός είναι παράνομος και παραβιάζει το δικαίωμά της στην ελεύθερη έκφραση.

Η Palantir, ο μεγάλος εργολάβος της αμερικανικής κυβέρνησης, έχει ενσωματώσει το μοντέλο Claude της Anthropic  στο σύστημα Maven, λογισμικό που προσφέρει στις στρατιωτικές υπηρεσίες αναλύσεις πληροφοριών και δεδομένα στόχευσης.

Σε δηλώσεις του σε συνέδριο τεχνολογίας που αναρτήθηκαν και στο «X», ο Άλεξ Καρπ, αμφιλεγόμενος συνιδρυτής της Palantir, προειδοποίησε ότι οι εταιρείες ΑΙ που αρνούνται να υπακούσουν στον στρατό κινδυνεύουν με «κρατικοποίηση» της τεχνολογίας τους, συντασσόμενος κατά κάποιον τρόπο με την κυβέρνηση Τραμπ.

Η συζήτηση πλέον γύρω από την ΤΝ στον πόλεμο επικεντρώνεται κυρίως στην απώλεια του ανθρώπινου ελέγχου και την ευθύνη των αποφάσεων. Όταν ένας αλγόριθμος λαμβάνει μια απόφαση που οδηγεί σε παράπλευρες απώλειες ή εγκλήματα πολέμου, ποιος φταίει;

Η παγκόσμια κοινότητα (μέσω οργανισμών) πιέζει για μια διεθνή συνθήκη που θα απαγορεύει τα πλήρως αυτόνομα όπλα.



Source link

sporadesnews
the authorsporadesnews