Τεχνολογία

Τεχνητή νοημοσύνη στον στρατό – Το Πεντάγωνο συμφώνησε με την OpenAI μετά την άρνηση της Anthropic


Συμφώνησε με το Υπουργείο Άμυνας των ΗΠΑ σχετικά με τη χρήση των μοντέλων τεχνητής νοημοσύνης της η OpenAI, όπως ανακονωσε ο Διευθύνων Σύμβουλος της, Σαμ Άλτμαν, δήλωσε αργά την Παρασκευή, λίγο αφότου ο Πρόεδρος Ντόναλντ Τραμπ δήλωσε ότι η κυβέρνηση δεν θα συνεργαστεί με τον αντίπαλο της στην τεχνητή νοημοσύνη Anthropic, αναφέρει το CNBC.

«Απόψε, καταλήξαμε σε συμφωνία με το Υπουργείο Πολέμου για την ανάπτυξη των μοντέλων μας στο απόρρητο δίκτυό τους», έγραψε ο Άλτμαν σε μια ανάρτηση στο X. «Σε όλες τις αλληλεπιδράσεις μας, το Υπουργείο Άμυνας επέδειξε βαθύ σεβασμό για την ασφάλεια και επιθυμία να συνεργαστεί για να επιτύχει το καλύτερο δυνατό αποτέλεσμα».

Η ανάρτηση του Άλτμαν έρχεται στο τέλος μιας δραματικής εβδομάδας για τον κλάδο της Τεχνητής Νοημοσύνης, ο οποίος βρέθηκε στο επίκεντρο μιας πολιτικής συζήτησης σχετικά με τον τρόπο χρήσης των μοντέλων του.

Νωρίτερα την ίδια ημέρα, ο Υπουργός Άμυνας Πιτ Χέγσεθ χαρακτήρισε την Anthropic ως «Κίνδυνο Εφοδιαστικής Αλυσίδας για την Εθνική Ασφάλεια» μετά από εβδομάδες έντονων διαπραγματεύσεων. Η «ταμπέλα» συνήθως προορίζεται για ξένους αντιπάλους και θα ανάγκαζε τους προμηθευτές και τους εργολάβους του Υπουργείου Άμυνας να πιστοποιήσουν ότι δεν χρησιμοποιούν τα μοντέλα της Anthropic.

Ο Πρόεδρος Τραμπ έδωσε επίσης εντολή σε κάθε ομοσπονδιακή υπηρεσία στις ΗΠΑ να «παύσει αμέσως» να χρησιμοποιεί την τεχνολογία της Anthropic.

Η Anthropic ήταν το πρώτο εργαστήριο που ανέπτυξε τα μοντέλα της στο δίκτυο απόρρητων πληροφοριών του Υπουργείου Άμυνας και προσπαθούσε να διαπραγματευτεί τους τρέχοντες όρους της σύμβασής της με την υπηρεσία πριν οι συνομιλίες καταρρεύσουν. Η εταιρεία ήθελε διαβεβαίωση ότι τα μοντέλα της δεν θα χρησιμοποιούνταν για πλήρως αυτόνομα όπλα ή μαζική επιτήρηση Αμερικανών, ενώ το Υπουργείο Άμυνας ήθελε η Anthropic να συμφωνήσει να επιτρέψει στον στρατό να χρησιμοποιήσει τα μοντέλα σε όλες τις νόμιμες περιπτώσεις χρήσης.

OpenAI

Γιατί η OpenAI και όχι η Athropic;

Ο Άλτμαν δήλωσε στους υπαλλήλους σε υπόμνημα της Πέμπτης ότι η OpenAI μοιράζεται τις ίδιες «κόκκινες γραμμές» με την Anthropic. Είπε στην ανάρτησή του την Παρασκευή ότι το Υπουργείο Άμυνας συμφώνησε με τους περιορισμούς της.

«Δύο από τις πιο σημαντικές αρχές ασφαλείας μας είναι οι απαγορεύσεις της εγχώριας μαζικής επιτήρησης και η ανθρώπινη ευθύνη για τη χρήση βίας, συμπεριλαμβανομένων των αυτόνομων οπλικών συστημάτων», έγραψε ο Άλτμαν. Το Υπουργείο Άμυνας συμφωνεί με αυτές τις αρχές, τις αντικατοπτρίζει στη νομοθεσία και την πολιτική μας και τις ενσωματώνουμε στη συμφωνία μας.

Δεν είναι άμεσα σαφές γιατί το Υπουργείο Άμυνας συμφώνησε να συμπεριλάβει την OpenAI και όχι την Anthropic, αν και κυβερνητικοί αξιωματούχοι επικρίνουν εδώ και μήνες την Anthropic για την φερόμενη υπερβολική ανησυχία της για την ασφάλεια της Τεχνητής Νοημοσύνης.

Ο Άλτμαν δήλωσε ότι η OpenAI θα δημιουργήσει «τεχνικές δικλείδες ασφαλείας για να διασφαλίσει ότι τα μοντέλα της θα συμπεριφέρονται όπως πρέπει» και ότι η εταιρεία θα αναπτύξει προσωπικό για να «βοηθήσει με τα μοντέλα μας και να διασφαλίσει την ασφάλειά τους».

«Ζητάμε από το Υπουργείο Άμυνας να προσφέρει τους ίδιους όρους σε όλες τις εταιρείες Τεχνητής Νοημοσύνης, κάτι που κατά τη γνώμη μας πιστεύουμε ότι όλοι θα πρέπει να είναι πρόθυμοι να αποδεχτούν», έγραψε ο Άλτμαν. «Έχουμε εκφράσει την έντονη επιθυμία μας να δούμε τα πράγματα να αποκλιμακώνονται μακριά από νομικές και κυβερνητικές ενέργειες και να καταλήγουν σε λογικές συμφωνίες».

Η Anthropic δήλωσε σε ανακοίνωσή της την Παρασκευή ότι ήταν «βαθιά λυπημένη» από την απόφαση του Πενταγώνου να χαρακτηρίσει την εταιρεία ως επικίνδυνη για την αλυσίδα εφοδιασμού. Δήλωσε ότι σκοπεύει να αμφισβητήσει αυτόν τον χαρακτηρισμό στο δικαστήριο.

Πηγή: OT.gr



Source link

sporadesnews
the authorsporadesnews