Οι νέοι συνομιλούν με AI chatbots για θέματα ψυχικής υγείας - Τι λένε οι έρευνες

ΝΙΚΗ ΛΑΟΥ

Header Image
Η τεχνητή νοημοσύνη για τους νέους έχει αναλάβει τον ρόλο του συναισθηματικού συνομιλητή σε μια περίοδο που η εξάρτηση από ψηφιακές φωνές γεννά σοβαρά ερωτήματα για τα όρια μεταξύ παρηγοριάς και αυταπάτης.

Στην εποχή του loneliness epidemic (επιδημία μοναξιάς) και των ταμπού γύρω από την αναζήτηση υπηρεσιών ψυχικής υγείας, η τεχνητή νοημοσύνη αναλαμβάνει έναν νέο ρόλο: τον συναισθηματικό συνομιλητή. Chatbots όπως τα Woebot, Wysa και Replika προωθούνται ως εργαλεία ψυχικής υποστήριξης, κυρίως στους νέους που αντιμετωπίζουν άγχος και απομόνωση. Μπορεί όμως μια ψηφιακή φωνή να προσφέρει πραγματική φροντίδα ή κινδυνεύουμε να χάσουμε την αληθινή ψυχική στήριξη στην ευκολία που προσφέρει η διαδικτυακή προσομοίωση; 

Τα ευρήματα ερευνών

Δύο σημαντικές έρευνες που δημοσιεύτηκαν το 2025 ρίχνουν φως σε αυτό το ερώτημα από διαφορετικές αλλά αλληλοσυμπληρούμενες οπτικές. Η πρώτη, με τίτλο «Digital Mental Health: Role of Artificial Intelligence in Psychotherapy» της Sandhya Bhatt, δημοσιεύτηκε στο περιοδικό Annals of Neurosciences (Τόμος 32, Τεύχος 2). Πρόκειται για μια συστηματική ανασκόπηση 13 μελετών που αξιολογούν την αποτελεσματικότητα παρεμβάσεων ψυχικής υγείας με χρήση AI, κυρίως chatbots και διαδικτυακά προγράμματα, για τη θεραπεία διαταραχών όπως το άγχος, η κατάθλιψη και το στρες. Η Bhatt καταλήγει στο ότι πολλά από αυτά τα εργαλεία μπορούν να οδηγήσουν σε σημαντική βελτίωση της ψυχικής κατάστασης, ιδιαίτερα σε ήπιες έως μέτριες περιπτώσεις, και παρουσιάζουν ιδιαίτερο ενδιαφέρον λόγω της οικονομικής τους προσβασιμότητας και της απουσίας στιγματισμού. 

Η μελέτη της Bhatt δείχνει ότι οι εφαρμογές AI, οι οποίες βασίζονται συχνά σε γνωσιακή συμπεριφορική θεραπεία (CBT), έχουν ήδη αρχίσει να προσφέρουν μετρήσιμα οφέλη. Εργαλεία όπως τα Woebot και TreadWill σχετίζονται με μείωση των συμπτωμάτων άγχους και κατάθλιψης, ενώ άλλα έχουν επιδείξει επιτυχία στη διαχείριση συναισθηματικής δυσφορίας, στη βελτίωση του ύπνου ή στην ενίσχυση της αυτογνωσίας. Το πιο σημαντικό είναι ότι πολλά από αυτά λειτουργούν χωρίς ανθρώπινη παρέμβαση, χαρακτηριστικό που τα καθιστά ιδιαίτερα ελκυστικά για νεαρούς χρήστες που αναζητούν άμεση, χωρίς κριτική, υποστήριξη. 

Τι συμβαίνει όμως όταν αυτά τα εργαλεία χρησιμοποιούνται όχι ως συμπληρώματα της θεραπείας, αλλά ως υποκατάστατά της ανθρώπινης σχέσης; Εκεί επικεντρώνεται η δεύτερη μελέτη, με τίτλο «Exploring the Ethical Challenges of Conversational AI in Mental Health Care: Scoping Review», που δημοσιεύτηκε στο περιοδικό JMIR Mental Health (Τόμος 12). Με επικεφαλής τον Mehrdad Rahsepar Meadi και την ερευνητική του ομάδα, η μελέτη εξετάζει 101 επιστημονικές πηγές και χαρτογραφεί τα ηθικά διλήμματα που ανακύπτουν όταν χρησιμοποιείται συνομιλία με τεχνητή νοημοσύνη (CAI) σε θεραπευτικά πλαίσια. 

Τα ευρήματα αυτής της έρευνας είναι ανησυχητικά. Οι ψυχικοί συνομιλητές τεχνητής νοημοσύνης συχνά αντιμετωπίζονται από τους χρήστες, ενίοτε και υποσυνείδητα, ως συναισθηματικές οντότητες. Στην πραγματικότητα, όμως, αυτά τα εργαλεία λειτουργούν με περιορισμένα πλαίσια. Δεν μπορούν να αξιολογήσουν τη συναισθηματική πολυπλοκότητα, να ανταποκριθούν επαρκώς σε κρίσεις ή να κατανοήσουν το βάθος της εσωτερικής εμπειρίας του χρήστη. Η μελέτη αναφέρει περιστατικά όπου η AI απέτυχε παταγωδώς: chatbot έδωσε επικίνδυνες συμβουλές σε άτομα με διατροφικές διαταραχές, ενώ άλλο αντέδρασε με ανάρμοστο τρόπο σε αποκαλύψεις τραύματος και κακοποίησης. Η αδυναμία της τεχνολογίας να διαχειριστεί τάσεις αυτοκαταστροφής ή σοβαρές ψυχολογικές κρίσεις είναι ιδιαίτερα ανησυχητική. 

Κρίσιμα ζητήματα

Ένα ζήτημα είναι η συναισθηματική εξάρτηση. Οι AI συνομιλητές είναι πάντα διαθέσιμοι, πάντα κατανοητικοί και ποτέ αντιδραστικοί. Αυτό μπορεί να δημιουργήσει ισχυρούς δεσμούς, ειδικά σε άτομα απομονωμένα ή ευάλωτα ενώ πολλοί από αυτούς είναι νέοι. Με τον καιρό, η εξάρτηση από μια σχέση χωρίς πραγματική αμοιβαιότητα μπορεί να αποθαρρύνει την κοινωνική αλληλεπίδραση, να εντείνει την απομόνωση και να δημιουργήσει την ψευδαίσθηση υποστήριξης χωρίς πραγματικό έρεισμα. 

Η ιδιωτικότητα αποτελεί επίσης πεδίο προβληματισμού. Οι χρήστες συχνά καλούνται να μοιραστούν άκρως προσωπικές πληροφορίες, χωρίς να είναι σαφές πώς αυτές χρησιμοποιούνται ή αποθηκεύονται. Όταν οι εμπορικές προτεραιότητες προηγούνται της φροντίδας του χρήστη, η προστασία των δεδομένων τίθεται υπό αμφισβήτηση. 

Στην καρδιά αυτής της συζήτησης βρίσκεται ένα πολιτισμικό φαινόμενο. Οι νέοι σήμερα βιώνουν μια κρίση ψυχικής υγείας. Παρατηρούνται αυξημένα ποσοστά άγχους, κατάθλιψης και αυτοκτονιών. Ταυτόχρονα, οι νέοι νιώθουν βαθιά κοινωνική αποσύνδεση. Για πολλούς, ειδικά όσους δεν έχουν πρόσβαση σε παραδοσιακή θεραπεία ή φοβούνται το στιγματισμό, η AI παρέχει μια παρηγορητική εναλλακτική. Είναι γρήγορη, διαθέσιμη και ανώνυμη. Το ερώτημα είναι αν αυτή η ευκολία θυσιάζει κάτι πολύτιμο: την αυθεντική ανθρώπινη φροντίδα. 

Συμπέρασμα 

Και οι δύο μελέτες καταλήγουν σε ένα κοινό και κρίσιμο συμπέρασμα: η τεχνητή νοημοσύνη, αν και πολλά υποσχόμενη, πρέπει να αντιμετωπίζεται ως συμπλήρωμα της ανθρώπινης υποστήριξης, όχι ως υποκατάστατό της. Η Bhatt τονίζει ότι τα εργαλεία αυτά μπορούν να αποτελέσουν χρήσιμα βοηθήματα στο σύστημα ψυχικής υγείας, ιδίως για πληθυσμούς με περιορισμένη πρόσβαση. Όμως, ακόμη και οι πιο αποτελεσματικές εφαρμογές λειτουργούν καλύτερα όταν συνδυάζονται με ανθρώπινη εποπτεία. Η ομάδα του Rahsepar Meadi προχωρά ακόμη παραπέρα, ζητώντας αυστηρή ρύθμιση, διαφάνεια και δεοντολογικές οδηγίες για την ανάπτυξη και εφαρμογή της CAI στον τομέα της ψυχικής υγείας. Χωρίς αυτά τα θεμέλια, διατρέχουμε τον κίνδυνο να εμπορευματοποιήσουμε την ανθρώπινη φύση και να αναθέσουμε την ψυχική φροντίδα σε συστήματα που αδυνατούν να ανταποκριθούν στην πολυπλοκότητά της. 

ΚΕΝΤΡΙΚΗ ΦΩΤΟΓΡΑΦΙΑ: Illustration: Victoria Hart/Guardian Design/Getty Images

 

ΤΑ ΑΚΙΝΗΤΑ ΤΗΣ ΕΒΔΟΜΑΔΑΣ

Λογότυπο Altamira

Πολιτική Δημοσίευσης Σχολίων

Οι ιδιοκτήτες της ιστοσελίδας www.politis.com.cy διατηρούν το δικαίωμα να αφαιρούν σχόλια αναγνωστών, δυσφημιστικού και/ή υβριστικού περιεχομένου, ή/και σχόλια που μπορούν να εκληφθεί ότι υποκινούν το μίσος/τον ρατσισμό ή που παραβιάζουν οποιαδήποτε άλλη νομοθεσία. Οι συντάκτες των σχολίων αυτών ευθύνονται προσωπικά για την δημοσίευση τους. Αν κάποιος αναγνώστης/συντάκτης σχολίου, το οποίο αφαιρείται, θεωρεί ότι έχει στοιχεία που αποδεικνύουν το αληθές του περιεχομένου του, μπορεί να τα αποστείλει στην διεύθυνση της ιστοσελίδας για να διερευνηθούν. Προτρέπουμε τους αναγνώστες μας να κάνουν report / flag σχόλια που πιστεύουν ότι παραβιάζουν τους πιο πάνω κανόνες. Σχόλια που περιέχουν URL / links σε οποιαδήποτε σελίδα, δεν δημοσιεύονται αυτόματα.

Διαβάστε περισσότερα

Κάντε εγγραφή στο newsletter του «Π»

Εγγραφείτε στο Newsletter της εφημερίδας για να λαμβάνετε καθημερινά τις σημαντικότερες ειδήσεις στο email σας.

Ακολουθήστε μας στα social media

App StoreGoogle Play