Η Anthropic, η OpenAI και άλλες εταιρείες τεχνητής νοημοσύνης ετοιμάζονται να λανσάρουν νέα μοντέλα με προηγμένες ικανότητες κυβερνοπολέμου, γράφει την Κυριακή το Axios επικαλούμενο αξιωματούχους και στελέχη της βιομηχανίας ΑΙ.
Η Anthropic, μάλιστα, φέρεται να προειδοποιεί σιωπηλά τις κυβερνήσεις ότι το νέο μοντέλο που ετοιμάζει, με την προσωρινή ονομασία Mythos ή Capybara, καθιστά πολύ πιο πιθανές τις μαζικές κυβερνοεπιθέσεις.
Θα ήταν «το όπλο που ονειρεύονται οι χάκερ», ικανό να δρα αυτόνομα για να εισβάλει στα δίκτυα επιχειρήσεων, κυβερνήσεων και υποδομών κρίσιμης σημασίας.
Η προειδοποίηση δείχνει να επιβεβαιώνεται από το Fortune, το οποίο εξέταζε εσωτερικά έγγραφα που δημοσίευσε κατά λάθος η Anthropic και περιγράφουν το Mythos. Το μοντέλο φέρεται να βρίσκεται «μακράν μπροστά από άλλα μοντέλα στις ικανότητες κυβερνοχώρου».
«Συγκριτικά με τα σημερινό καλύτερο μοντέλο μας, το Claude Opus 4.6, το Capybara πετυχαίνει εντυπωσιακότερα score στον προγραμματισμό λογισμικού, την ακαδημαϊκή λογική και την κυβερνοασφάλεια, μεταξύ άλλων» έγραφε η Anthropic σε αδημοσίευτη ανάρτηση εταιρικού ιστολογίου.
Σύμφωνα με το Axios, υπάλληλοι επιχειρήσεων που χρησιμοποιούν μοντέλα ΑΙ και πράκτορες ΑΙ θα μπορούσαν άθελά τους να ανοίξουν κερκόπορτα για κυβερνοεπιθέσεις.
Η ομάδα τεχνικής υποστήριξης του Axios θεωρεί μάλιστα ότι οι κυβερνοεπιθέσεις από ΑΙ είναι σήμερα ο μεγαλύτερος κίνδυνος για την ειδησεογραφική ιστοσελίδα.
Οι προειδοποιήσεις έρχονται λίγους μήνες αφότου η Anthropic ανακοίνωσε τον Νοέμβριο ότι το Claude χρησιμοποιήθηκε στην «πρώτη καμπάνια κυβερνοκατασκοπείας που ενορχηστρώθηκε από ΑΙ».
Σύμφωνα με την εταιρεία, η κινεζική κυβερνοεπίθεση έβαλε στο στόχαστρο περίπου 39 οντότητες, όπως κυβερνητικές υπηρεσίες, εταιρείες τεχνολογίας, οικονομικά ιδρύματα και χημικές εταιρείες που δεν κατονομάζονται.
Στη συγκεκριμένη περίπτωση, ανέφερε η Anthropic, οι δράστες ξεγέλασαν το Claude λέγοντάς του ότι ήταν ερευνητές κυβερνοασφάλειας. Χώρισαν επίσης τις επιθέσεις σε επιμέρους βήματα για να μην ενεργοποιήσουν τις δικλείδες ασφαλείας του chatbot.
Ο κίνδυνος κυβερνοεπιθέσεων έρχεται να προστεθεί στις προειδοποιήσεις ότι η ΑΙ θα χρησιμοποιηθεί σε καμπάνιες παραπληροφόρησης.
Το 2024, η OpenAI ανακοίνωσε ότι κατάφερε να σταματήσει πέντε καμπάνιες κρατικής παραπληροφόρησης που βασίστηκαν στην τεχνολογία του ChatGPT.






