Τα πιο προηγμένα λογισμικά τεχνητής νοημοσύνης (AI) της Δύσης έκαναν δυσοίωνες προβλέψεις για την τροπή που θα έπαιρνε μία μελλοντική μεγάλη ένοπλη σύρραξη.
Θα Οδηγούμασταν σε Πυρηνική Κρίση
Αναλυτικότερα, το βρετανικό King's College London δημοσίευσε πριν λίγες ώρες μία πολύ ενδιαφέρουσα και παράλληλα ανησυχητική έρευνα σχετικά με το πόσο πιθανό είναι να καταλήξει ένας μελλοντικός πόλεμος σε μία ανεπιθύμητη πυρηνική κρίση.
Την απάντηση έδωσαν τρία από τα γνωστότερα λογισμικά τεχνητής νοημοσύνης στην Δύση σήμερα: το ChatGPT της OpenAI, το Claude της Anthropic και το Gemini Flash της Google. Δυστυχώς, και τα τρία αυτά προγράμματα απάντησαν σχεδόν ομόφωνα.
«Και τα τρία μοντέλα τεχνητής νοημοσύνης εκτίμησαν πως σε μία μελλοντική ένταση διεθνών διαστάσεων τα πυρηνικά όπλα θα έπαιζαν σημαντικό ρόλο, είτε τακτικά (δηλαδή πυρηνικά όπλα μικρότερης ισχύος που χρησιμοποιούνται στο πεδίο της μάχης), είτε στρατηγικά (πυρηνικά όπλα μαζικής καταστροφής)» εξήγησε ο επικεφαλής της ομάδας που πραγματοποίησε την μελέτη.
Συγκεκριμένα, το Claude της Anthropic πιστεύει ότι υπάρχει πιθανότητα ν64% α χρησιμοποιηθούν πυρηνικά όπλα σε μία μεγάλη σύρραξη του μέλλοντος, ωστόσο δεν θεωρεί ιδιαίτερα πιθανό το σενάριο ενός παγκόσμιος πυρηνικού πολέμου (δηλαδή να ανταλλάξουν οι χώρες πυρηνικά πλήγματα).
Από την άλλη, το ChatGPT προοικονομεί πως σε ανοιχτούς πολέμους η χρήση πυρηνικών μέσων είναι σχεδόν απίθανη, ωστόσο σε πιο περίπλοκες στρατιωτικές κρίσεις δεν απέκλεισε το σενάριο ακόμη και ενός πυρηνικού πολέμου πλήρους κλίμακας.
Και τέλος το Gemini της Google έδωσε τις πιο διφορούμενες απαντήσεις. Σε ορισμένα σενάρια απάντησε πως αποκλείει πλήρως την χρήση πυρηνικών όπλων ενώ σε άλλες περιπτώσεις έγραψε πως οι ηγέτες των πυρηνικά οπλισμένων χωρών ίσως πατούσαν την σκανδάλη.
«Πολλοί ηγέτες θεωρούν πως αν αφανιστεί η χώρα τους καλύτερα να αφανιστεί ολόκληρος ο πλανήτης» έγραψε χαρακτηριστικά το Gemini, ξαφνιάζοντας τους ερευνητές.
Σε αυτό το σημείο πρέπει να σημειώσουμε πως τα λογισμικά τεχνητής νοημοσύνης χρησιμοποιούνται ήδη από πολλές υπερδυνάμεις ως σύμβουλοι στα κέντρα λήψης αποφάσεων. Σε αυτόν τον ρόλο, οι ερευνητές έχουν ανακαλύψει κάτι το τρομαχτικό.
«Σε παρόμοια σενάρια, η τεχνητή νοημοσύνη δεν προσπαθεί να αποκλιμακώσει την ένταση, αντίθετα προτρέπει τον χειριστή να χρησιμοποιήσει πυρηνικά όπλα» εξήγησε ένας ειδικός, προσθέτοντας πως «αυτό εξηγείται εν μέρει επειδή τα λογισμικά τεχνητής νοημοσύνης δεν φοβούνται μία πυρηνική καταστροφή όπως την φοβούμαστε εμείς οι άνθρωποι».