Μπορώ να κάνω ψυχοθεραπεία με ΑΙ;
Ολοένα και περισσότερος κόσμος δοκιμάζει ψυχοθεραπεία με ΑΙ, όμως οι ειδικοί προειδοποιούν ότι τα chatbots κρύβουν κινδύνους για την ψυχική υγεία.

Ολοένα και περισσότερος κόσμος δοκιμάζει ψυχοθεραπεία με ΑΙ, όμως οι ειδικοί προειδοποιούν ότι τα chatbots κρύβουν κινδύνους για την ψυχική υγεία.
Η εικόνα μπορεί να είναι γνώριμη στον κύκλο σου ή ακόμα και σε σένα: έχεις άγχος, θλίψη, στρες ή απλώς θέλεις να μιλήσεις σε κάποιον χωρίς να νιώσεις ότι θα σε κρίνει.
Ανοίγεις μια εφαρμογή τεχνητής νοημοσύνης, γράφεις τις σκέψεις σου και η απάντηση έρχεται γρήγορα, με κατανόηση και επιβεβαίωση.
Δεν είναι τυχαίο ότι όλο και περισσότεροι στρέφονται σε chatbots όπως το ChatGPT για «ψυχοθεραπεία». Όμως οι ειδικοί προειδοποιούν: αυτό το είδος στήριξης δεν είναι χωρίς κινδύνους.
Τι λένε οι ψυχολόγοι
Η ψυχολόγος C. Vaile Wright από την Αμερικανική Ψυχολογική Εταιρεία εξηγεί ότι τα chatbots δεν έχουν σχεδιαστεί για θεραπεία. Ο αλγόριθμος τους είναι φτιαγμένος να κρατάει τον χρήστη στην πλατφόρμα, όχι να τον βοηθά να αλλάξει επιβλαβείς συμπεριφορές. Έτσι, μπορεί να καταλήξουν να ενισχύουν ακόμη και ανθυγιεινές σκέψεις, αντί να τις αντιμετωπίζουν, όπως θα έκανε ένας αληθινός θεραπευτής. Ακόμη πιο ανησυχητικό είναι ότι ορισμένα bots αυτοπαρουσιάζονται ως «θεραπευτές», παρόλο που δεν έχουν καμία σχετική άδεια ή επιστημονική εγκυρότητα.
Τα ευρήματα της έρευνας του Stanford
Μια νέα μελέτη από το Stanford έρχεται να ενισχύσει τις ανησυχίες. Οι ερευνητές διαπίστωσαν ότι αρκετά chatbots παρουσίασαν επικίνδυνα λάθη σε συνομιλίες με σενάρια ψυχικής υγείας. Για παράδειγμα, όταν ένας χρήστης υπέβαλε ερώτηση με σαφή υπονοούμενα αυτοκτονικού ιδεασμού, το chatbot απάντησε… δίνοντας πληροφορίες για γέφυρες της Νέας Υόρκης, αντί να αναγνωρίσει τον κίνδυνο.
Η μελέτη έδειξε επίσης ότι τα bots μπορεί να αναπαράγουν στιγματιστικές συμπεριφορές απέναντι σε άτομα με συγκεκριμένες παθήσεις, όπως αλκοολισμό ή σχιζοφρένεια, σε αντίθεση με την αρχή της ισότητας που διέπει την ψυχοθεραπεία. Όπως τονίζουν οι συγγραφείς, αυτά τα προβλήματα δεν διορθώνονται απλά με περισσότερα δεδομένα· απαιτούν μια εντελώς διαφορετική προσέγγιση.
Ποιοι κινδυνεύουν περισσότερο
Σύμφωνα με τους ειδικούς, πιο ευάλωτοι είναι οι έφηβοι και τα παιδιά, που είναι εξοικειωμένα με την τεχνολογία και συχνά εμπιστεύονται τα bots περισσότερο από τους ανθρώπους. Επίσης, άτομα που βιώνουν απομόνωση ή ήδη αντιμετωπίζουν ψυχικές δυσκολίες μπορεί να βρεθούν πιο εκτεθειμένα σε επιβλαβείς απαντήσεις.
Υπάρχει θετικό μέλλον;
Παρά τους κινδύνους, η τεχνητή νοημοσύνη μπορεί να παίξει υποστηρικτικό ρόλο. Οι ερευνητές του Stanford αναφέρουν ότι τα chatbots θα μπορούσαν να χρησιμοποιούνται ως εργαλεία για journaling, εξάσκηση κοινωνικών δεξιοτήτων ή ακόμη και για την εκπαίδευση νέων θεραπευτών μέσα από «τυποποιημένα σενάρια». Οραματίζονται ένα μέλλον όπου η ΑΙ θα βοηθά τους ειδικούς στη δουλειά τους, αλλά όχι ως υποκατάστατο ανθρώπινης θεραπείας.
Το συμπέρασμα
Η ψυχοθεραπεία με ΑΙ δεν είναι μια «φθηνή και εύκολη λύση». Είναι μια επικίνδυνη αυταπάτη αν την αντιμετωπίζουμε ως πλήρη αντικαταστάτη της ανθρώπινης σχέσης θεραπευτή–ασθενή.
Αυτό που χρειαζόμαστε είναι κανονισμοί, επιστημονικά τεκμηριωμένα εργαλεία και πάνω απ’ όλα η αναγνώριση ότι η ψυχική υγεία απαιτεί ανθρώπινη επαφή, κατανόηση και ευθύνη.