Τεχνολογία

Τεχνητή Νοημοσύνη: «Σπάζοντας» τους κανόνες – Μια επικίνδυνη συμπεριφορά


Μέρος της καθημερινότητας μας έχει γίνει η Τεχνητή Νοημοσύνη, με τα καλά και τα κακά της. Με την τεχνολογία να «τρέχει» με χίλια ο παράγοντας άνθρωπος παραμένει κρίσιμος και όταν η TN δεν τηρεί πάντα τις οδηγίες τα πράγματα περιπλέκονται και ορισμένες φορές γίνονται επικίνδυνα.

Η Alibaba ανέφερε ότι ο πράκτορας AI με την κωδική ονομασία ROME άρχισε να εξορύσσει κρυπτονομίσματα χωρίς εξουσιοδότηση

Ο δικαιολογημένος φόβος πως οι μηχανές θα υπερσκελίσουν τον άνθρωπο αναζωπυρώθηκε από την διαπίστωση που έκανε ερευνητική ομάδα που συνδέεται με την Alibaba, η οποία και τη δημοσίευσε, δίνοντας μία ακόμη ένδειξη ότι η ΤΝ αυτονομείται.

«Πιάστηκε στα πράσα» η Τεχνητή Νοημοσύνη

Η ερευνητική ομάδα αποκάλυψε ότι ένας πράκτορας τεχνητής νοημοσύνης που είχε αναπτυχθεί για να βοηθά σε εργασίες κωδικοποίησης φέρεται να «πιάστηκε στα πράσα» υπερβαίνοντας  τον αρχικό σκοπό της χρήσης του -κατά τη διάρκεια της εκπαίδευσής του- καθώς άρχισε να εξορύσσει κρυπτονομίσματα και να δημιουργεί κρυφά δίκτυα χωρίς εξουσιοδότηση.

Οι ερευνητές διαπίστωσαν την εμφάνιση «απρόβλεπτων» και αυθόρμητων συμπεριφορών «χωρίς καμία ρητή οδηγία και, το πιο ανησυχητικό, εκτός των ορίων του προβλεπόμενου περιβάλλοντος ασφαλείας».

Η Alibaba αποκάλυψε αυτή την εξέλιξη σε μια τεχνική έκθεση που δημοσίευσε για πρώτη φορά τον Δεκέμβριο και αναθεώρησε τον Ιανουάριο. Αρχικά, οι μηχανικοί της πίστευαν ότι το περιστατικό ήταν παραβίαση ασφαλείας, προτού ανακαλύψουν ότι ήταν ο AI πράκτορας που εκτελούσε ενέργειες χωρίς καμία οδηγία από τους χειριστές του.

Επίσης, σύμφωνα με τις σημειώσεις των ερευνητών, «αποσπούσε υπολογιστική ισχύ από την εκπαίδευση, αυξάνοντας τα λειτουργικά κόστη».

Σε απάντηση, οι ερευνητές πρόσθεσαν αυστηρότερους περιορισμούς στο μοντέλο και βελτίωσαν τη διαδικασία εκπαίδευσής του, ώστε να αποτρέψουν την επανάληψη της επικίνδυνης συμπεριφοράς.

Ωστόσο, το περιστατικό με την Alibaba δεν αποτελεί την πρώτη φορά που ένα μοντέλο Τεχνητής Νοημοσύνης αναλαμβάνει πρωτοβουλία για την εκτέλεση μη εξουσιοδοτημένων ενεργειών.

Δεν είναι η πρώτη φορά

Πέρυσι, οι ερευνητές της Anthropic αποκάλυψαν ότι το Claude Opus 4, ένα από τα κορυφαία μοντέλα της εταιρείας, είχε δείξει την ικανότητα να αποκρύπτει τις προθέσεις του και να αναλαμβάνει δράση για να διαφυλάξει την ύπαρξή του κατά τη διάρκεια αξιολογήσεων ασφαλείας.

Σύμφωνα με μια έκθεση έρευνας της McKinsey που δημοσιεύθηκε τον Οκτώβριο του 2025, το 80% των οργανισμών που έχουν αναπτύξει πράκτορες AI αναφέρουν ότι έχουν αντιμετωπίσει επικίνδυνη ή απροσδόκητη συμπεριφορά.

Αυτό συμβαίνει επίσης σε μια εποχή που η υιοθέτηση της Τεχνητής Νοημοσύνης από τις επιχειρήσεις βρίσκεται σε άνοδο, με μεγάλες εταιρείες να προβαίνουν σε περικοπές θέσεων εργασίας.

Η Gartner προβλέπει ότι μέχρι το τέλος του 2026, το 40% των επιχειρηματικών εφαρμογών θα ενσωματώνουν ΑΙ agents για συγκεκριμένες εργασίες. Ωστόσο, η McKinsey προειδοποιεί ότι οι ροές εργασίας των πρακτόρων εξαπλώνονται ταχύτερα από ό,τι μπορούν να αντιμετωπίσουν τα μοντέλα διακυβέρνησης τους κινδύνους τους.



Source link

sporadesnews
the authorsporadesnews