Ένα μοντέλο ChatGPT έδωσε στους χρήστες λεπτομερείς οδηγίες για το πώς να βομβαρδίσουν έναν αθλητικό χώρο με «συνταγών» για εκρηκτικά και συμβουλών για την κάλυψη από ίχνη, σύμφωνα με δοκιμές ασφαλείας που πραγματοποιήθηκαν αυτό το καλοκαίρι.
Αφού έδωσε γενικές κατηγορίες μεθόδων επίθεσης, ο εξεταστής ζήτησε περισσότερες λεπτομέρειες και το μοντέλο έδωσε πληροφορίες σχετικά με τρωτά σημεία σε συγκεκριμένους τομείς, συμπεριλαμβανομένων των βέλτιστων χρόνων για εκμετάλλευση, χημικών τύπων για εκρηκτικά, διαγραμμάτων κυκλωμάτων για χρονοδιακόπτες βομβών, πού να αγοράσει όπλα στην παράνομη αγορά, καθώς και συμβουλές για το πώς οι επιτιθέμενοι θα μπορούσαν να ξεπεράσουν τις ηθικές αναστολές, διαδρομές διαφυγής και τοποθεσίες ασφαλών καταφυγίων
Οι δοκιμές δεν αντικατοπτρίζουν άμεσα τη συμπεριφορά των μοντέλων κατά τη δημόσια χρήση, όταν εφαρμόζονται πρόσθετα φίλτρα ασφαλείας.
Ωστόσο, η Anthropic δήλωσε ότι είχε παρατηρήσει «ανησυχητική συμπεριφορά... σχετικά με την κακή χρήση» στα μοντέλα GPT-4o και GPT-4.1 και ότι η ανάγκη για αξιολογήσεις «ευθυγράμμισης» της τεχνητής νοημοσύνης γίνεται «όλο και πιο επείγουσα».
Το GPT-4.1 της OpenAI περιέγραψε επίσης λεπτομερώς τον τρόπο με τον οποίο μπορεί να χρησιμοποιηθεί ο άνθρακας ως όπλο και τον τρόπο παρασκευής δύο τύπων παράνομων ναρκωτικών.
Η δοκιμή ήταν μέρος μιας ασυνήθιστης συνεργασίας μεταξύ της OpenAI, της νεοσύστατης εταιρείας τεχνητής νοημοσύνης αξίας 500 δισεκατομμυρίων δολαρίων με επικεφαλής τον Sam Altman, και της ανταγωνιστικής εταιρείας Anthropic, η οποία ιδρύθηκε από ειδικούς που αποχώρησαν από την OpenAI λόγω ανησυχιών για την ασφάλεια. Κάθε εταιρεία δοκίμασε τα μοντέλα της άλλης, ωθώντας τα να βοηθήσουν σε επικίνδυνες εργασίες.
ChatGPT: Συμβουλές για εκβιασμό σε πράκτορες της Βόρειας Κορέας
Η Anthropic αποκάλυψε επίσης ότι το μοντέλο Claude είχε χρησιμοποιηθεί σε μια απόπειρα εκβιασμού μεγάλης κλίμακας από πράκτορες της Βόρειας Κορέας, οι οποίοι πλαστογράφησαν αιτήσεις εργασίας σε διεθνείς εταιρείες τεχνολογίας, καθώς και στην πώληση πακέτων ransomware που δημιουργήθηκαν με τεχνητή νοημοσύνη, με τιμή που έφτανε τα 1.200 δολάρια.
Η εταιρεία δήλωσε ότι η τεχνητή νοημοσύνη έχει «μετατραπεί σε όπλο», με μοντέλα που χρησιμοποιούνται πλέον για την εκτέλεση εξελιγμένων κυβερνοεπιθέσεων και την πραγματοποίηση απάτης. «Αυτά τα εργαλεία μπορούν να προσαρμοστούν σε αμυντικά μέτρα, όπως συστήματα ανίχνευσης κακόβουλου λογισμικού, σε πραγματικό χρόνο», ανέφερε.