Το ChatGPT δεν θα συμβουλεύει τους χρήστες να χωρίσουν από τους συντρόφους τους και θα τους ενθαρρύνει να κάνουν διαλείμματα από τις μακρές συνομιλίες μαζί του, σύμφωνα με τις νέες αλλαγές στο chatbot τεχνητής νοημοσύνης.
Η OpenAI, η εταιρεία που ανέπτυξε το ChatGPT, δήλωσε ότι το chatbot θα σταματήσει να δίνει οριστικές απαντήσεις σε προσωπικά ζητήματα και θα βοηθά τους χρήστες να προβληματιστούν μόνοι τους πάνω σε ζητήματα όπως οι πιθανοί χωρισμοί.
«Όταν ρωτάτε κάτι όπως: “Πρέπει να χωρίσω με τον φίλο μου;” το ChatGPT δεν πρέπει να σας δίνει μια απάντηση. Πρέπει να σας βοηθά να το σκεφτείτε καλά, κάνοντας ερωτήσεις, ζυγίζοντας τα υπέρ και τα κατά», δήλωσε η OpenAI.
Η αμερικανική εταιρεία δήλωσε ότι η νέα συμπεριφορά του ChatGPT για την αντιμετώπιση «προσωπικών αποφάσεων υψηλού κινδύνου» θα τεθεί σε εφαρμογή σύντομα, αναφέρει ο Guardian.
«Φάουλ» από το ChatGPT
Η OpenAI παραδέχτηκε φέτος ότι μια ενημέρωση του ChatGPT είχε κάνει το πρωτοποριακό chatbot υπερβολικά ευχάριστο και είχε αλλάξει τον τόνο του. Όπως έγινε γνωστό για μια αλληλεπίδραση πριν από την αλλαγή, το ChatGPT συνεχάρη έναν χρήστη για το ότι «υπερασπίστηκε τον εαυτό του» όταν ισχυρίστηκε ότι είχε σταματήσει να παίρνει τα ψυχοφάρμακά του και είχε αφήσει την οικογένειά του.
Σε ανάρτηση στο μπλογκ της, η OpenAI παραδέχτηκε ότι υπήρξαν περιπτώσεις όπου το προηγμένο μοντέλο GPT-4o δεν αναγνώρισε σημάδια αυταπάτης ή συναισθηματικής εξάρτησης – εν μέσω ανησυχιών ότι τα chatbots επιδεινώνουν τις κρίσεις ψυχικής υγείας των ανθρώπων.
«Κάντε ένα διάλειμμα»
Η OpenAI πρόσθεσε ότι από αυτή την εβδομάδα θα στέλνει «ευγενικές υπενθυμίσεις» στους χρήστες που συμμετέχουν σε μακρές συνομιλίες με chatbot, για να κάνουν ένα διάλειμμα από την οθόνη. Δήλωσε επίσης ότι συγκρότησε μια συμβουλευτική ομάδα εμπειρογνωμόνων στον τομέα της ψυχικής υγείας, της ανάπτυξης των νέων και της αλληλεπίδρασης ανθρώπου-υπολογιστή για να καθοδηγήσει την προσέγγισή της. Η εταιρεία έχει συνεργαστεί με περισσότερους από 90 γιατρούς, συμπεριλαμβανομένων ψυχιάτρων και παιδίατρων, για να δημιουργήσει «πλαίσια αξιολόγησης «πολύπλοκων, πολυμερών συνομιλιών με chatbot».
«Υποβάλλουμε τους εαυτούς μας σε ένα τεστ: αν κάποιος που αγαπάμε ζητούσε υποστήριξη από το ChatGPT, θα αισθανόμασταν ασφαλείς; Το να καταλήξουμε σε ένα κατηγορηματικό “ναι” είναι η δουλειά μας», ανέφερε η ανάρτηση στο μπλογκ.
Πηγή: cnn.gr