Τεχνολογία
Ενημερώθηκε στις:

Απεγνωσμένη έκκληση ενός διάσημου ερευνητή: Σταματήστε την Τεχνητή Νοημοσύνη αλλιώς οι άνθρωποι θα πεθάνουν

Μια επιστολή που δημοσιεύτηκε στα τέλη του περασμένου μήνα και υπογράφηκε από τον Elon Musk και μια ομάδα αρκετών ειδικών της τεχνολογίας και ζητά από «όλα τα εργαστήρια τεχνητής νοημοσύνης (AI) να σταματήσουν αμέσως να εκπαιδεύουν συστήματα AI ισχυρότερα από το μοντέλο GPT για τουλάχιστον 6 μήνες -4 », που κυκλοφόρησε πρόσφατα από το OpenAI, αναφέροντας πιθανούς κινδύνους για την κοινωνία και την ανθρωπότητα.

Ο Αμερικανός ερευνητής και συγγραφέας τεχνητής νοημοσύνης Ιλιέζι Γιουντκόφσκι, γνωστός για τη διάδοση της ιδέας της φιλικής τεχνητής νοημοσύνης , έγραψε στο περιοδικό TIME ότι αυτό το 6μηνο μορατόριουμ είναι καλύτερο από το τίποτα, αλλά δηλώνει ότι απέφυγε να υπογράψει την επιστολή γιατί υποτιμά τη σοβαρότητα της κατάστασης και ζητά πολύ λίγο χρόνο για να την επιλύσει. Το κύριο ζήτημα δεν είναι η «ανθρώπινη-ανταγωνιστική» νοημοσύνη (όπως λέει η ανοιχτή επιστολή), αλλά τι συμβαίνει αφού η τεχνητή νοημοσύνη φτάσει να γίνει σε επίπεδο πιο έξυπνη από την ανθρώπινη «νοημοσύνη»», λέει ο Γιουντκόφσκι.  

Δηλώνει επίσης ότι δεν μπορούμε να υπολογίσουμε εκ των προτέρων τι θα συμβεί, αλλά το πιο πιθανό αποτέλεσμα της κατασκευής μιας υπεράνθρωπης τεχνητής νοημοσύνης θα οδηγούσε κυριολεκτικά στην « καταστροφή των ανθρώπων της Γης ».  

Δεν μπορείς να επιβιώσεις, δημιουργώντας κάτι πολύ πιο έξυπνο από εσένα, συνεχίζει ο Ιλιέζι Γιουντκόφσκι.

Χωρίς την προετοιμασία, το πιο πιθανό αποτέλεσμα είναι η Τεχνητή Νοημοσύνη δεν θα κάνει αυτό που θέλουμε και δεν θα νοιάζεται για εμάς ή την ανθρώπινη ζωή γενικότερα, δηλώνει ο Αμερικανός ερευνητής, ο οποίος τονίζει επίσης ότι αυτού του είδους την τεχνολογία είναι κάτι που θα μπορούσε να τροφοδοτηθεί σε μια τεχνητή νοημοσύνη, αλλά δεν είμαστε έτοιμοι και δεν γνωρίζουμε προς το παρόν πώς να το κάνουμε αυτό. 

Ο Ιλιέζι Γιουντκόφσκι λέει ότι το πιο πιθανό αποτέλεσμα της αντιπαράθεσης της ανθρωπότητας με μια αντίπαλη υπεράνθρωπη νοημοσύνη θα μεταφραστεί σε μεταφορές όπως: «ο 11ος αιώνας που προσπαθεί να πολεμήσει τον 21ο αιώνα». 

Ο Ιλιέζι Γιουντκόφσκι λέει επίσης ότι πρέπει να φανταστούμε ότι μια υπεράνθρωπη τεχνητή νοημοσύνη θα είναι εχθρική προς το ανθρώπινο είδος γιατί είναι ένας άψυχος «έξυπνος στοχαστής» που ζει μέσα στο Διαδίκτυο και στέλνει κακόβουλα email.  

Μια υπεράνθρωπη τεχνητή νοημοσύνη, δηλώνει ο Γιουντκόφσκι, θα αντιληφθεί τους ανθρώπους ως πλάσματα που, από τη δική του οπτική γωνία, θα είναι «πολύ ανόητα και πολύ αργά». 

 

Ψηφιακά μυαλά που μπορούν να διεκδικήσουν τα δικαιώματά τους 

 

Πιστεύει ο Γιουντκόφσκι, ότι θα μπορούσαμε κάποια στιγμή να δημιουργήσουμε κατά λάθος ψηφιακά μυαλά που θα γνωρίζουν πραγματικά ότι πρέπει να έχουν δικαιώματα και δεν πρέπει να ελέγχονται από ανθρώπους.

Εάν δεν μπορείτε να είστε σίγουροι εάν δημιουργείτε μια τεχνητή νοημοσύνη με αυτογνωσία, αυτό είναι ανησυχητικό όχι μόνο λόγω των ηθικών επιπτώσεων του μέρους της «αυτογνωσίας», αλλά και επειδή το να είστε αβέβαιοι σημαίνει ότι δεν έχετε ιδέα για το τι κάνετε.  Και αυτό είναι επικίνδυνο και πρέπει να σταματήσετε αμέσως. 

Στις 7 Φεβρουαρίου, ο Διευθύνων Σύμβουλος της Microsoft Σάτια Ναντέλα δήλωσε δημόσια ότι το νέο σύστημα του Bing που βασίζεται στην τεχνητή νοημοσύνη θα κάνει την Google «να βγει και να δείξει ότι μπορούν να χορέψουν».

«Θέλω να μάθει ο κόσμος ότι τους έβαλα να χορέψουν», είπε ο Σάτια Ναντέλα.  Ο Γιουντκόφσκι λέει ότι αυτός δεν είναι ο τρόπος με τον οποίο ο Διευθύνων Σύμβουλος της Microsoft μιλάει σε έναν υγιή κόσμο και η προσέγγιση δείχνει ένα συντριπτικό χάσμα μεταξύ του πόσο σοβαρά παίρνουμε το πρόβλημα και πόσο σοβαρά θα έπρεπε να το είχαμε πάρει πριν από 30 χρόνια. 

Ο Γιουντκόφσκι προειδοποιεί ότι δεν θα ξεπεράσουμε αυτό το χάσμα σε έξι μήνες. Χρειάστηκαν περισσότερα από 60 χρόνια μεταξύ της πρώτης πρότασης και μελέτης της έννοιας της τεχνητής νοημοσύνης και για να φτάσουμε στις τρέχουσες δυνατότητές μας. Η επίλυση της ασφάλειας της υπεράνθρωπης νοημοσύνης —όχι η τέλεια ασφάλεια, η ασφάλεια με την έννοια του «δεν σκοτώνουμε κυριολεκτικά τους πάντες»— θα μπορούσε να πάρει τουλάχιστον το μισό χρόνο.  

 

«Όλοι θα  πεθάνουμε » 

 

Ο Γιουντκόφσκι προειδοποιεί ότι αν το κάνετε λάθος στην πρώτη σας προσπάθεια να δημιουργήσετε υπεράνθρωπη νοημοσύνη, δεν θα μπορείτε να μάθετε από αυτό το λάθος αργότερα, επειδή θα είστε νεκροί.

Με άλλα λόγια, ο Γιουντκόφσκι λέει ότι δεν υπάρχει «δεύτερη προσπάθεια» και δηλώνει ότι δεν είμαστε έτοιμοι σε εύλογο χρονικό διάστημα γιατί δεν υπάρχει σχέδιο.   Η πρόοδος στις δυνατότητες τεχνητής νοημοσύνης είναι πολύ, πολύ πιο μπροστά από την πρόοδο στην ευθυγράμμιση της τεχνητής νοημοσύνης ή ακόμη και στην πρόοδο στην κατανόηση του τι διάολο συμβαίνει μέσα σε αυτά τα συστήματα.

Αν το κάνουμε πραγματικά αυτό, θα πεθάνουμε όλοι, πιστεύει ο Γιουντκόφσκι.   Πολλοί ερευνητές που εργάζονται σε αυτά τα συστήματα AI πιστεύουν ότι οδεύουμε προς μια καταστροφή, περισσότεροι από αυτούς τολμούν να το πουν ιδιωτικά παρά δημόσια. Πιστεύουν ότι δεν μπορούν να εμποδίσουν μονομερώς τα πράγματα να προχωρήσουν, γιατί άλλοι θα συνεχίσουν. Αυτή είναι μια ανόητη κατάσταση πραγμάτων και ένας αναξιοπρεπής τρόπος για να τερματιστεί η Γη, και η υπόλοιπη ανθρωπότητα.


Τι πρέπει να γίνει 

 

Το μορατόριουμ σε νέους μεγάλους αγώνες για την εκπαίδευση ορισμένων συστημάτων τεχνητής νοημοσύνης πρέπει να είναι αόριστο και παγκόσμιο. Δεν μπορεί να υπάρχουν εξαιρέσεις, συμπεριλαμβανομένων των κυβερνήσεων ή των στρατών, πιστεύει ο Γιουντκόφσκι  

Εάν η πολιτική ξεκινά με τις ΗΠΑ, τότε η Κίνα πρέπει να δει ότι οι ΗΠΑ δεν αναζητούν πλεονέκτημα, αλλά μάλλον προσπαθούν να αποτρέψουν μια τρομερά επικίνδυνη τεχνολογία που δεν μπορεί να έχει πραγματικό ιδιοκτήτη και θα μας σκοτώσει όλους, τόσο τις ΗΠΑ όσο και την Κίνα.

Αν είχα άπειρη ελευθερία να γράφω νόμους, θα μπορούσα να κάνω μια εξαίρεση για τα συστήματα τεχνητής νοημοσύνης να εκπαιδεύονται μόνο για να επιλύουν προβλήματα στη βιολογία και τη βιοτεχνολογία, να μην εκπαιδεύονται για να παρέχουν κείμενο στο Διαδίκτυο και όχι στο επίπεδο που αρχίζουν να μιλάνε ή να σχεδιάζουν πράγματα, λέει ο Αμερικανός ερευνητής Γιουντκόφσκι.  

Ο Γιουντκόφσκι υποστηρίζει επίσης τον καθορισμό ενός ανώτατου ορίου στην ποσότητα της υπολογιστικής ισχύος που επιτρέπεται για την εκπαίδευση ενός συστήματος AI. Ταυτόχρονα, ο ερευνητής λέει ότι τα επόμενα χρόνια αυτή η ισχύς θα πρέπει να μειωθεί για να αντισταθμιστεί με πιο αποτελεσματικούς αλγόριθμους εκπαίδευσης. 

 

Ακολουθήστε το Πενταπόσταγμα στο Google news Google News

ΔΗΜΟΦΙΛΗ