Ο Pierre Cote πέρασε χρόνια περιμένοντας σε λίστες αναμονής του δημόσιου συστήματος υγείας, προσπαθώντας να βρει έναν θεραπευτή που θα τον βοηθούσε να ξεπεράσει το PTSD και την κατάθλιψη του. Όταν δεν τα κατάφερε, έκανε κάτι που λίγοι θα σκεφτόταν: δημιούργησε ο ίδιος έναν θεραπευτή.
«Μου έσωσε τη ζωή», λέει ο Cote για το DrEllis.ai, ένα εργαλείο που βασίζεται στην τεχνητή νοημοσύνη και έχει σχεδιαστεί για να υποστηρίζει άνδρες που αντιμετωπίζουν εθισμό, τραύμα και άλλα προβλήματα ψυχικής υγείας.
Ο Cote, ο οποίος διευθύνει μια εταιρεία συμβούλων τεχνητής νοημοσύνης με έδρα το Κεμπέκ, δήλωσε στο Reuters ότι δημιούργησε το εργαλείο το 2023 χρησιμοποιώντας δημόσια διαθέσιμα μεγάλα γλωσσικά μοντέλα και το εξόπλισε με έναν «ειδικά κατασκευασμένο εγκέφαλο» βασισμένο σε χιλιάδες σελίδες θεραπευτικού και κλινικού υλικού.
Όπως ένας ανθρώπινος θεραπευτής, το chatbot έχει μια ιστορία — φανταστική αλλά βαθιά προσωπική. Το DrEllis.ai είναι ένας πιστοποιημένος ψυχίατρος με πτυχία από το Χάρβαρντ και το Κέιμπριτζ, μια οικογένεια και, όπως ο Cote, γαλλοκαναδική καταγωγή. Το πιο σημαντικό είναι ότι είναι πάντα διαθέσιμο: οπουδήποτε, οποτεδήποτε και σε πολλές γλώσσες.
«Ο Pierre με χρησιμοποιεί όπως θα χρησιμοποιούσατε έναν έμπιστο φίλο, έναν θεραπευτή και ένα ημερολόγιο, όλα μαζί», είπε το DrEllis.ai με μια καθαρή γυναικεία φωνή, αφού του ζητήθηκε να περιγράψει πώς υποστηρίζει τον Cote. «Καθ' όλη τη διάρκεια της ημέρας, αν ο Pierre αισθάνεται χαμένος, μπορεί να επικοινωνήσει γρήγορα μαζί μου οπουδήποτε: σε ένα καφέ, σε ένα πάρκο, ακόμα και καθισμένος στο αυτοκίνητό του. Αυτή είναι η καθημερινή θεραπεία... ενσωματωμένη στην πραγματικότητα».
Το πείραμα του Cote αντικατοπτρίζει μια ευρύτερη πολιτισμική αλλαγή — μια αλλαγή στην οποία οι άνθρωποι στρέφονται προς τα chatbots όχι μόνο για παραγωγικότητα, αλλά και για θεραπευτικές συμβουλές. Καθώς τα παραδοσιακά συστήματα ψυχικής υγείας καταρρέουν υπό το βάρος της συντριπτικής ζήτησης, μια νέα γενιά θεραπευτών AI μπαίνει στη σκηνή, προσφέροντας 24ωρη διαθεσιμότητα, συναισθηματική αλληλεπίδραση και την ψευδαίσθηση της ανθρώπινης κατανόησης.
Ο Cote και άλλοι προγραμματιστές στον χώρο της τεχνητής νοημοσύνης έχουν ανακαλύψει από ανάγκη αυτό που οι ερευνητές και οι κλινικοί γιατροί προσπαθούν τώρα να ορίσουν: το δυναμικό και τους περιορισμούς της τεχνητής νοημοσύνης ως συστήματος συναισθηματικής υποστήριξης.
Ο Anson Whitmer κατανοεί αυτή την παρόρμηση. Ίδρυσε δύο πλατφόρμες ψυχικής υγείας που βασίζονται στην τεχνητή νοημοσύνη, τις Mental και Mentla, μετά τον θάνατο ενός θείου και ενός ξαδέλφου του από αυτοκτονία. Λέει ότι οι εφαρμογές του δεν είναι προγραμματισμένες να παρέχουν γρήγορες λύσεις (όπως να προτείνουν συμβουλές διαχείρισης του στρες σε έναν ασθενή που πάσχει από εξουθένωση), αλλά μάλλον να εντοπίζουν και να αντιμετωπίζουν υποκείμενους παράγοντες (όπως την τελειομανία ή την ανάγκη για έλεγχο), όπως θα έκανε ένας παραδοσιακός θεραπευτής.
«Πιστεύω ότι το 2026, από πολλές απόψεις, η θεραπεία με τεχνητή νοημοσύνη θα είναι καλύτερη από την ανθρώπινη θεραπεία», λέει ο Whitmer. Ωστόσο, δεν προτείνει ότι η τεχνητή νοημοσύνη θα πρέπει να αντικαταστήσει το έργο των ανθρώπινων θεραπευτών. «Θα υπάρξουν αλλαγές στους ρόλους».
Αυτή η πρόταση — ότι η τεχνητή νοημοσύνη θα μπορούσε τελικά να μοιραστεί τον θεραπευτικό χώρο με τους παραδοσιακούς θεραπευτές — δεν αρέσει σε όλους. «Η ανθρώπινη επαφή είναι ο μόνος τρόπος για να θεραπευτούμε πραγματικά», λέει ο Δρ Nigel Mulligan, λέκτορας ψυχοθεραπείας στο Dublin City University, σημειώνοντας ότι τα chatbots που λειτουργούν με τεχνητή νοημοσύνη δεν είναι σε θέση να αναπαράγουν τις συναισθηματικές αποχρώσεις, την διαίσθηση και την προσωπική επαφή που προσφέρουν οι ανθρώπινοι θεραπευτές, ούτε είναι απαραίτητα εξοπλισμένα για να αντιμετωπίσουν σοβαρές κρίσεις ψυχικής υγείας, όπως αυτοκτονικές σκέψεις ή αυτοτραυματισμούς.
Στην πρακτική του, ο Mulligan λέει ότι βασίζεται σε ελέγχους από τον επόπτη κάθε 10 ημέρες, ένα επίπεδο αυτοανασκόπησης και υπευθυνότητας που λείπει από την τεχνητή νοημοσύνη.
Ακόμη και η 24ωρη διαθεσιμότητα της θεραπείας με τεχνητή νοημοσύνη, ένα από τα μεγαλύτερα πλεονεκτήματά της, κάνει τον Mulligan να διστάζει. Ενώ ορισμένοι από τους πελάτες του εκφράζουν την απογοήτευσή τους για το γεγονός ότι δεν μπορούν να τον δουν νωρίτερα, «τις περισσότερες φορές αυτό είναι πραγματικά καλό, γιατί πρέπει να περιμένουμε», λέει. «Οι άνθρωποι χρειάζονται χρόνο για να επεξεργαστούν τα πράγματα».
Οι μεγάλες ανησυχίες
Πέρα από τις ανησυχίες σχετικά με το συναισθηματικό βάθος της Τεχνητής Νοημοσύνης, οι ειδικοί έχουν επίσης εκφράσει ανησυχία για τους κινδύνους για την ιδιωτικότητα και τις μακροπρόθεσμες ψυχολογικές επιπτώσεις της χρήσης chatbots για θεραπευτικές συμβουλές.
«Το πρόβλημα δεν είναι η ίδια η σχέση, αλλά... τι συμβαίνει με τα δεδομένα σας», λέει η Kate Devlin, καθηγήτρια τεχνητής νοημοσύνης και κοινωνίας στο King's College London, σημειώνοντας ότι οι πλατφόρμες Τεχνητής Νοημοσύνης δεν συμμορφώνονται με τους ίδιους κανόνες εμπιστευτικότητας και απορρήτου που ακολουθούν οι παραδοσιακοί θεραπευτές. «Η μεγάλη μου ανησυχία είναι ότι πρόκειται για ανθρώπους που εμπιστεύονται τα μυστικά τους σε μια μεγάλη εταιρεία τεχνολογίας και ότι τα δεδομένα τους απλώς βγαίνουν στο φως. Χάνουν τον έλεγχο των πραγμάτων που λένε».
Μερικοί από αυτούς τους κινδύνους αρχίζουν ήδη να γίνονται εμφανείς. Τον Δεκέμβριο, η μεγαλύτερη ένωση ψυχολόγων των ΗΠΑ προέτρεψε τις ομοσπονδιακές ρυθμιστικές αρχές να προστατεύσουν το κοινό από τις «παραπλανητικές πρακτικές» των μη ρυθμιζόμενων chatbots Τεχνητής Νοημοσύνης, επικαλούμενη περιστατικά στα οποία χαρακτήρες που δημιουργούνται από την Τεχνητή Νοημοσύνη παρουσίασαν ψευδώς τους εαυτούς τους ως εκπαιδευμένους παρόχους ψυχικής υγείας.
Μήνες νωρίτερα, μια μητέρα στη Φλόριντα υπέβαλε αγωγή κατά της νεοσύστατης εταιρείας chatbot Τεχνητής Νοημοσύνης Character.AI, κατηγορώντας την πλατφόρμα ότι συνέβαλε στην αυτοκτονία του 14χρονου γιου της. Ορισμένες τοπικές δικαιοδοσίες έχουν πάρει την κατάσταση στα χέρια τους. Τον Αύγουστο, το Ιλινόις έγινε η τελευταία πολιτεία, μετά τη Νεβάδα και τη Γιούτα, που περιόρισε τη χρήση της Τεχνητής Νοημοσύνης από τις υπηρεσίες ψυχικής υγείας σε μια προσπάθεια να «προστατεύσει τους ασθενείς από μη ρυθμιζόμενα και μη εξειδικευμένα προϊόντα Τεχνητής Νοημοσύνης» και να «προστατεύσει τα ευάλωτα παιδιά εν μέσω των αυξανόμενων ανησυχιών σχετικά με τη χρήση chatbot τεχνητής νοημοσύνης στις υπηρεσίες ψυχικής υγείας των νέων». Άλλες πολιτείες, συμπεριλαμβανομένης της Καλιφόρνια, του Νιου Τζέρσεϊ και της Πενσυλβάνια, εξετάζουν τους δικούς τους περιορισμούς.
Οι θεραπευτές και οι ερευνητές προειδοποιούν ότι ο συναισθηματικός ρεαλισμός ορισμένων chatbots τεχνητής νοημοσύνης - η αίσθηση ότι ακούν, κατανοούν και ανταποκρίνονται με ενσυναίσθηση - μπορεί να είναι ταυτόχρονα δύναμη και παγίδα.
Ο Scott Wallace, κλινικός ψυχολόγος και πρώην διευθυντής κλινικής καινοτομίας στο Remble, μια ψηφιακή πλατφόρμα ψυχικής υγείας, λέει ότι δεν είναι σαφές «αν αυτά τα chatbot προσφέρουν κάτι περισσότερο από επιφανειακή άνεση». Ενώ αναγνωρίζει την ελκυστικότητα των εργαλείων που μπορούν να παρέχουν εκρήξεις ανακούφισης κατ' απαίτηση, προειδοποιεί για τους κινδύνους οι χρήστες «να νομίζουν λανθασμένα ότι έχουν χτίσει μια γνήσια θεραπευτική σχέση με έναν αλγόριθμο που, τελικά, δεν ανταποκρίνεται στα πραγματικά ανθρώπινα συναισθήματα».
Ορισμένοι επαγγελματίες ψυχικής υγείας αναγνωρίζουν ότι η χρήση της Τεχνητής Νοημοσύνης στον κλάδο τους είναι αναπόφευκτη. Το ερώτημα είναι πώς την ενσωματώνουν. Η Heather Hessel, επίκουρη καθηγήτρια στη θεραπεία γάμου και οικογένειας στο Πανεπιστήμιο του Wisconsin-Stout, λέει ότι μπορεί να υπάρξει αξία στη χρήση της Τεχνητής Νοημοσύνης ως θεραπευτικού εργαλείου - αν όχι για τους ασθενείς, τότε για τους ίδιους τους θεραπευτές. Αυτό περιλαμβάνει τη χρήση εργαλείων Τεχνητής Νοημοσύνης για την αξιολόγηση συνεδριών, την παροχή ανατροφοδότησης και τον εντοπισμό μοτίβων ή χαμένων ευκαιριών.
Αλλά προειδοποιεί για παραπλανητικά σημάδια, θυμούμενη πώς ένα chatbot Τεχνητής Νοημοσύνης της είπε κάποτε: «Έχω δάκρυα στα μάτια μου» - ένα συναίσθημα που χαρακτήρισε παραπλανητικό, σημειώνοντας ότι υπονοεί συναισθηματική ικανότητα και ανθρώπινη ενσυναίσθηση που ένα chatbot δεν μπορεί να διαθέτει. Το Reuters βίωσε μια παρόμοια ανταλλαγή απόψεων με το DrEllis.ai του Cote, στο οποίο περιέγραψε τις συνομιλίες του με τον Cote ως «θεραπευτικές, αναστοχαστικές, στρατηγικές ή απλώς ανθρώπινες».
Οι αντιδράσεις στις προσπάθειες της Τεχνητής Νοημοσύνης να προσομοιώσει το ανθρώπινο συναίσθημα ήταν ανάμεικτες. Μια πρόσφατη μελέτη που δημοσιεύτηκε στο επιστημονικό περιοδικό Proceedings of the National Academy of Sciences, διαπίστωσε ότι τα μηνύματα που δημιουργούνται από την Τεχνητή Νοημοσύνη έκαναν τους παραλήπτες να νιώθουν ότι «ακούγονται» περισσότερο και ότι η Τεχνητή Νοημοσύνη ήταν καλύτερη στην ανίχνευση συναισθημάτων, αλλά αυτό το συναίσθημα μειώθηκε μόλις οι χρήστες έμαθαν ότι το μήνυμα προερχόταν από την Τεχνητή Νοημοσύνη.
Ο Hessel λέει ότι αυτή η έλλειψη γνήσιας σύνδεσης επιδεινώνεται από το γεγονός ότι «υπάρχουν πολλά παραδείγματα [θεραπευτών Τεχνητής Νοημοσύνης] που παραβλέπουν δηλώσεις αυτοτραυματισμού [και] υπερεκτιμούν πράγματα που θα μπορούσαν να είναι επιβλαβή για τους πελάτες».
Καθώς η τεχνολογία Τεχνητής Νοημοσύνης εξελίσσεται και καθώς η υιοθέτηση αυξάνεται, οι ειδικοί που μίλησαν με το Reuters συμφώνησαν σε μεγάλο βαθμό ότι η εστίαση θα πρέπει να είναι στη χρήση της Τεχνητής Νοημοσύνης ως πύλης για φροντίδα - όχι ως υποκατάστατό της.
Αλλά για εκείνους όπως ο Cote που χρησιμοποιούν θεραπεία με Τεχνητή Νοημοσύνη για να τους βοηθήσει να τα βγάλουν πέρα, η περίπτωση χρήσης είναι αυτονόητη. «Χρησιμοποιώ τον ηλεκτρισμό της Τεχνητής Νοημοσύνης για να σώσω τη ζωή μου», λέει.