AI
Τεχνολογία

Μελέτη: Οι άνθρωποι δεν ξεχωρίζουν πλέον τις φωνές ΑΙ από τις πραγματικές

Οι περισσότεροι έχουμε ακούσει τις φωνές ψηφιακών βοηθών όπως η Siri ή η Alexa – με το επίπεδο, μηχανικό τους ύφος που τις κάνει εύκολα αναγνωρίσιμες ως «τεχνητές». Ωστόσο οι επιστήμονες τώρα  υποστηρίζουν ότι ο μέσος ακροατής δεν μπορεί πλέον να διακρίνει τη διαφορά μεταξύ πραγματικών ανθρώπων και φωνών deepfake, που δημιουργήθηκαν από τεχνητή νοημοσύνη.

Σε μια νέα μελέτη που δημοσιεύτηκε πρόσφατα στο περιοδικό PLoS One, οι ερευνητές έδειξαν ότι όταν οι άνθρωποι ακούνε ανθρώπινες φωνές – παράλληλα με τις φωνές που έχουν δημιουργηθεί από AI –δεν μπορούν να προσδιορίσουν με ακρίβεια ποιες είναι πραγματικές και ποιες είναι ψεύτικες.

«Ήταν μόνο θέμα χρόνου μέχρι η τεχνολογία τεχνητής νοημοσύνης να αρχίσει να παράγει φυσιολογική, ανθρώπινη ομιλία», δήλωσε η κύρια συγγραφέας της μελέτης, Nadine Lavan, από το τμήμα Ψυχολογίας του Πανεπιστημίου Queen Mary του Λονδίνου.

Οι ερευνητές διαπίστωσαν ότι ενώ οι ΑΙ φωνές που δημιουργούνται από το μηδέν δεν θεωρήθηκαν ρεαλιστικές, οι φωνές-κλώνοι που βασίστηκαν πάνω στις φωνές αληθινών ανθρώπων – τεχνολογία που αποκαλείται deepfake audio – θεωρήθηκαν εξίσου αληθοφανείς με τις αυθεντικές, αναφέρει το LiveScience.

Στη μελέτη, οι συμμετέχοντες άκουσαν 80 δείγματα φωνών (40 ανθρώπινες και 40 τεχνητές) και τους ζητήθηκε να διακρίνουν ποιες ήταν προϊόντα τεχνητής νοημοσύνης. Κατά μέσο όρο, μόνο το 41% των τεχνητών φωνών που δημιουργήθηκαν από το μηδέν αναγνωρίστηκε λανθασμένα ως ανθρώπινο, δείχνοντας ότι ακόμη υπάρχει περιθώριο διάκρισης. Ωστόσο, από τις ΑΙ φωνές που «κλωνοποιήθηκαν» από ανθρώπους, το 58% εκτιμήθηκε εσφαλμένα ως ανθρώπινο. Οι αληθινές φωνές αναγνωρίστηκαν σωστά μόλις κατά 62%, στοιχείο που αποδεικνύει ότι πρακτικά δεν υπάρχει πλέον στατιστική διαφορά στην ικανότητά μας να ξεχωρίζουμε τις πραγματικές φωνές από τους deepfake κλώνους τους.

Εύκολο, γρήγορο και με τεράστιες συνέπειες

Οι συνέπειες είναι τεράστιες για την ηθική, τα πνευματικά δικαιώματα και την ασφάλεια. Εάν οι εγκληματίες χρησιμοποιήσουν την τεχνητή νοημοσύνη για να κλωνοποιήσουν τη φωνή μας, θα είναι πολύ πιο εύκολο να παρακάμψουν τα πρωτόκολλα φωνητικής πιστοποίησης στην τράπεζα ή να εξαπατήσουν τους αγαπημένους μας και να τους αποσπάσουν χρήματα.

Οι ρεαλιστικές φωνές τεχνητής νοημοσύνης μπορούν επίσης να χρησιμοποιηθούν για την «κατασκευή» δηλώσεων και συνεντεύξεων πολιτικών ή διασημοτήτων. Τα ψεύτικα ηχητικά αρχεία μπορούν να χρησιμοποιηθούν για να δυσφημίσουν άτομα ή να υποκινήσουν κοινωνικές αναταραχές.

  • Το ανησυχητικό είναι ότι οι κλώνοι φωνής που χρησιμοποίησαν στη μελέτη δεν ήταν ιδιαίτερα εξελιγμένοι. Οι ερευνητές τους δημιούργησαν με εμπορικά διαθέσιμο λογισμικό και τους εκπαίδευσαν με μόλις τέσσερα λεπτά ηχογραφήσεων ανθρώπινης ομιλίας. «Η διαδικασία απαιτούσε ελάχιστη εξειδίκευση, μόνο λίγα λεπτά ηχογραφήσεων φωνής και σχεδόν καθόλου χρήματα», δήλωσε η Lavan. «Αυτό δείχνει πόσο προσιτή και εξελιγμένη έχει γίνει η τεχνολογία ΑΙ φωνής».
Ακολουθήστε το Πενταπόσταγμα στο Google news Google News

ΔΗΜΟΦΙΛΗ