H πρόοδος της τεχνητής νοημοσύνης σύντομα θα επιτρέπει σε κακόβουλους παράγοντες να εξαπολύουν «σμήνη» από κακόβουλα bot που παρεμβαίνουν στον δημόσιο διάλογο και απειλούν τη δημοκρατία, προειδοποιεί ομάδα κορυφαίων ειδικών.
Η ακτιβίστρια της ελευθερίας του λόγου Μαρία Ρέσα, βραβευμένη με Νόμπελ Ειρήνης, είναι μέλος της ερευνητικής ομάδας που υπογράφει τη μελέτη στο περιοδικό Science, μαζί με ειδικούς του Χάρβαρντ, της Οξφόρδης, του Μπέρκλεϊ και του Γέιλ.
Ο συνδυασμός των μεγάλων γλωσσικών μοντέλων (LLM) με πράκτορες τεχνητής νοημοσύνης (AI agents) που αναλαμβάνουν σύνθετες εργασίες επιτρέπει τη δημιουργία «κακόβουλων σμηνών ΑΙ», εικονικών χαρακτήρων που διαθέτουν μνήμη και αίσθηση της ταυτότητάς τους.
Υποκρινόμενοι τους ανθρώπους, οι χαρακτήρες αυτοί θα μπορούσαν εύκολα να παρεισφρήσουν στα social media, μιμούμενοι την κοινωνική δυναμική των online κοινοτήτων, με στόχο να προωθήσουν ανυπόστατα αφηγήματα και να χειραγωγήσουν το δημόσιο διάλογο.
Πλαστή ομοφωνία
Η παραπληροφόρηση στη διάρκεια προεκλογικών περιόδων δεν είναι το μόνο ρίσκο, προειδοποιούν οι ερευνητές. Ανησυχούν ότι οι καμπάνιες επηρεασμού της κοινής γνώμης θα μπορούσαν να δημιουργήσουν την ψευδαίσθηση της ομοφωνίας για σημαντικά πολιτικά ή κοινωνικά θέματα, μια διαστρεβλωμένη εικόνα της πραγματικότητας που προωθεί εκλογικά ή άλλα συμφέροντα.
Τα σμήνη ΑΙ θα ήταν δύσκολο να γίνουν αντιληπτά, χάρη στην ικανότητά τους να προσαρμόζονται στη ροή της συζήτησης και να παράγουν διαφορετικά μηνύματα ανάλογα με τις συνθήκες, προειδοποιεί η μελέτη. Ήδη, ορισμένα μοντέλα ΑΙ έχουν μάθει να χρησιμοποιούν εκφράσεις αργκό ή να δημοσιεύουν αναρτήσεις σε ακανόνιστα χρονικά διαστήματα ώστε να αποφεύγουν τον εντοπισμό τους.
Δεδομένου ότι ο έλεγχος κάθε ανάρτησης ξεχωριστά δεν θα αρκούσε για την ανίχνευση εκστρατειών παραπληροφόρησης, οι ερευνητές ζητούν την ανάπτυξη συστημάτων που ανιχνεύουν τη συντονισμένη συμπεριφορά των bot στα κοινωνικά δίκτυα.
Ζητούν επίσης stress test στις πλατφόρμες κοινωνικής δικτύωσης, καθώς και τη δημιουργία ενός ανεξάρτητου Παρατηρητηρίου Επιρροής ΑΙ, στο οποίο θα συμμετέχουν ακαδημαϊκές ομάδες, μη κυβερνητικές οργανώσεις και φορείς της κοινωνίας των πολιτών.
«Εάν αυτά τα bots αρχίσουν να εξελίσσονται σε ένα συλλογικό σύνολο και να ανταλλάσσουν πληροφορίες για την επίλυση ενός προβλήματος —στη συγκεκριμένη περίπτωση ενός κακόβουλου στόχου, δηλαδή την ανάλυση μιας κοινότητας και τον εντοπισμό ενός αδύναμου σημείου— τότε ο συντονισμός τους θα αυξήσει την ακρίβεια και την αποτελεσματικότητά τους» δήλωσε στον Guardian ο Γιόνας Κουνστ, καθηγητής επικοινωνίας στη Σχολή Διοίκησης BI της Νορβηγίας, μέλος της συντακτικής ομάδας.
«Αυτή είναι μια πραγματικά σοβαρή απειλή, την οποία προβλέπουμε ότι θα γίνει πραγματικότητα» είπε.






