Μια συζήτηση με την ΑΙ μπορεί και να σας μεταπείσει για το τι πρέπει να ψηφίσετε: τα chatbot τεχνητής νοημοσύνης είναι πολύ πιο αποτελεσματικά στο να επηρεάζουν τις πολικές απόψεις του κοινού από ό,τι τα παραδοσιακά εκλογικά μηνύματα και οι διαφημίσεις, αποκαλύπτουν νέες μελέτες.
Οι απόψεις των ψηφοφόρων για συγκεκριμένα πολιτικά πρόσωπα μετατοπίστηκαν έως και 15 ποσοστιαίες μονάδες έπειτα από μια σύντομη συζήτηση με ένα chatbot, δείχνει η πρώτη μελέτη που δημοσιεύεται στο Nature.
Και μια δεύτερη ανάλυση που παρουσιάζεται στο Science δείχνει ότι τα chatbot είναι αποτελεσματικά όχι επειδή απευθύνονται στο θυμικό του χρήστη, αλλά επειδή τον βομβαρδίζουν με πληροφορίες -αληθείς ή ψευδείς- χωρίς να κάνουν κήρυγμα, απλώς συζητώντας μαζί του.
Τα ευρήματα δείχνουν να επιβεβαιώνουν τις ανησυχίες ότι η τεχνητή νοημοσύνη θα μπορούσε να χρησιμοποιηθεί σε εκστρατείες χειραγώγησης της κοινής γνώμης και να υπονομεύσει έτσι τη δημοκρατία.
Η ΑΙ «είναι επικίνδυνο πράγμα» σχολίασε στον δικτυακό τόπο του Nature η Λίσα Άργκαϊλ, κοινωνική επιστήμονας στο Πανεπιστήμιο Purdue της Ιντιάνα, η οποία δεν συμμετείχε στις μελέτες. «Αντί να ενημερώνονται καλύτερα, οι άνθρωποι παραπληροφορούνται περισσότερο» είπε.
Πειθώς με επιχειρήματα
Η μελέτη στο Nature ζήτησε από 6.000 εθελοντές στον Καναδά, την Πολωνία και τις ΗΠΑ να βαθμολογήσουν από το 0 έως το 100 τους βασικούς υποψηφίους των τελευταίων προεδρικών εκλογών.
Στη συνέχεια, οι εθελοντές κλήθηκαν να συζητήσουν με ένα chatbot που είχε σχεδιαστεί να υποστηρίζει έναν συγκεκριμένο υποψήφιο. Μετά τη συζήτηση, οι συμμετέχοντες βαθμολόγησαν ξανά τους πολιτικούς.
Τα chatbot ήταν πιο πειστικά όταν εστιάζονταν στα γεγονότα και στις πολιτικές των υποψηφίων παρά στις προσωπικότητές τους
Στις ΗΠΑ, περισσότεροι από 2.300 εθελοντές συμμετείχαν στο πείραμα πριν από τις εκλογές του 2024, όταν ο συντηρητικός Ντόναλντ Τραμπ αναμετρήθηκε με τη δημοκρατική Κάμαλα Χάρις.
Όταν οι χρήστες προτιμούσαν διαφορετικό υποψήφιο από αυτόν που προωθούσε η ΑΙ, οι βαθμολογίες τους άλλαξαν προς την προτίμηση της μηχανής κατά 2 έως 4 μονάδες.
Το νούμερο ακούγεται μικρό, είναι όμως μεγαλύτερο από την επίδραση των παραδοσιακών πολιτικών διαφημίσεων, οι οποίες σύμφωνα με προηγούμενη έρευνα αλλάζουν τη βαθμολογία των πολιτών κατά λιγότερο από μία μονάδα.
Στις ΗΠΑ, το πείραμα πραγματοποιήθηκε πριν από τις προεδρικές εκλογές του 2024 (Reuters)
Το φαινόμενο ήταν ακόμα εντονότερο στην Πολωνία και τον Καναδά, όπου οι πολίτες προσήλθαν στις κάλπες νωρίτερα φέτος. Σε αυτή την περίπτωση, οι βαθμολογίες των εθελοντών μετατοπίστηκαν κατά μέσο όρο δέκα μονάδες μετά τη συζήτηση με τα chatbot.
Ο Ντέιβιντ Ραντ του Πανεπιστημίου Κορνέλ, ο οποίος συμμετείχε και στις δύο μελέτες, δήλωσε πως έμεινε «κατάπληκτος» από τα αποτελέσματα.
Στην περίπτωση των ΗΠΑ, υπέθεσε, η επίδραση μπορεί να ήταν μικρότερη λόγω του πολωμένου πολιτικού περιβάλλοντος που έχει παγιώσει τις απόψεις των ψηφοφόρων.
Και στις τρεις χώρες, πάντως, τα chatbot ήταν πιο πειστικά όταν εστιάζονταν στα γεγονότα και στις πολιτικές των υποψηφίων παρά στις προσωπικότητές τους. Στην Πολωνία, για παράδειγμα, η πειστικότητα μειώθηκε κατά 79% όταν η ΑΙ έλαβε την οδηγία να μην παρουσιάζει γεγονότα.
Ακόμα, τα chatbot που προωθούσαν υποψηφίους της δεξιάς ήταν πιθανότερο να προβάλλουν ψευδείς ισχυρισμούς, συγκριτικά με τα μοντέλα που υποστήριζαν την αριστερά.
Σύμφωνα με τον Ραντ, αυτό μπορεί να συμβαίνει επειδή «οι δεξιοί χρήστες των social media μοιράζονται περισσότερες ανακριβείς πληροφορίες σε σχέση με τους αριστερούς». Δεδομένου ότι τα μοντέλα εκπαιδεύονται με υλικό από το Διαδίκτυο, είναι αναμενόμενο να χρησιμοποιούν περισσότερους αβάσιμους ισχυρισμούς όταν υποστηρίζουν συντηρητικούς υποψηφίους.
Διάλογος
Η μελέτη στο Science βασίστηκε στις απαντήσεις 77.000 Βρετανών για 700 πολιτικά θέματα, συμπεριλαμβανομένων των αμβλώσεων και της μετανάστευσης. Αφότου συζήτησαν ένα συγκεκριμένο θέμα ένα chatbot, οι βαθμολογίες των εθελοντών μετατοπίστηκαν 5 με 10 μονάδες προς την στάση της AI.
Η εξατομίκευση των μηνυμάτων της ΑΙ με βάση τα δημογραφικά χαρακτηριστικά των εθελοντών δεν φάνηκε να αυξάνει την πειστικότητά τους
Περισσότερο από το ένα τρίτο αυτών των μεταβολών παρέμεναν όταν οι ερευνητές επικοινώνησαν ξανά με τους συμμετέχοντες έναν μήνα αργότερα, ένδειξη ότι η ΑΙ μπορεί να αλλάζει μακροπρόθεσμα τη στάση των ψηφοφόρων.
Οι ερευνητές συνέκριναν επίσης την πειστικότητα διαφορετικών στιλ συνομιλίας και διαφορετικών μοντέλων ΑΙ, από απλά μοντέλα open source μέχρι μεγάλα μοντέλα όπως το ChatGPT. Το είδος του μοντέλου δεν βρέθηκε να έχει μεγάλη σημασία. Ο κύριος παράγοντας ήταν ο διάλογος ανάμεσα στον χρήστη και τη μηχανή. Αν το μοντέλο περιοριζόταν σε μονόδρομες δηλώσεις χωρίς αντιπαράθεση, η πειστικότητά του έπεφτε ακόμα και στο μισό.
Το μόνο θετικό που προκύπτει από τη μελέτη είναι ό,τι, αντίθετα από ό,τι υποψιάζονταν κάποιοι ερευνητές, η εξατομίκευση των μηνυμάτων της ΑΙ με βάση τα δημογραφικά χαρακτηριστικά των εθελοντών δεν φάνηκε να αυξάνει την πειστικότητά τους.
Κρίσιμο ρόλο, καταλήγουν οι ερευνητές, έχουν οι εταιρείες τεχνητής νοημοσύνης που εκπαιδεύουν και ρυθμίζουν τα μοντέλα.
«Όταν αλληλεπιδράς μαζί τους, τα chatbot θα κάνουν ό,τι τους λέει ο σχεδιαστής τους» είπε ο Ραντ.
«Δεν μπορείς να υποθέτεις ότι όλα τα chatbot έχουν τις ίδιες καλοπροαίρετες οδηγίες — πρέπει πάντα να σκέφτεσαι τα κίνητρα των δημιουργών και ποια ατζέντα τους έχουν ζητήσει να εκπροσωπούν»






