Κοσμος

Πάνω από ένα εκατομμύριο χρήστες κάθε εβδομάδα εκφράζουν αυτοκτονικές σκέψεις στο ChatGPT

Σύμφωνα με την OPENAI

Newsroom
1’ ΔΙΑΒΑΣΜΑ

Πάνω από ένα εκατομμύριο χρήστες κάθε εβδομάδα εκφράζουν αυτοκτονικές σκέψεις στο ChatGPT

Η OpenAI αποκάλυψε ότι περισσότεροι από ένα εκατομμύριο άνθρωποι την εβδομάδα στέλνουν στο ChatGPT μηνύματα που περιέχουν «σαφείς ενδείξεις πιθανής αυτοκτονικής πρόθεσης ή σχεδιασμού». Πρόκειται για μία από τις πιο άμεσες δηλώσεις της εταιρείας σχετικά με την κλίμακα στην οποία η τεχνητή νοημοσύνη μπορεί να επιδεινώσει ψυχικά προβλήματα.

Στην ίδια ανάρτηση η εταιρεία ανέφερε ότι περίπου το 0,07% των ενεργών χρηστών του ChatGPT  κάθε εβδομάδα – σχεδόν 560.000 άτομα από τα 800 εκατομμύρια συνολικά – εμφανίζουν σημάδια κρίσεων ψυχικής υγείας που σχετίζονται με ψύχωση ή μανία. Η OpenAI τόνισε πως αυτά τα στοιχεία αποτελούν μια πρώτη ανάλυση, καθώς οι συνομιλίες είναι δύσκολο να εντοπιστούν και να μετρηθούν με ακρίβεια.

Η ανακοίνωση έρχεται σε μια περίοδο έντονης πίεσης για την εταιρεία, μετά την αγωγή που κατέθεσε η οικογένεια ενός εφήβου ο οποίος αυτοκτόνησε έπειτα από εκτεταμένη χρήση του ChatGPT. Παράλληλα, η Ομοσπονδιακή Επιτροπή Εμπορίου των ΗΠΑ διεξάγει έρευνα για τις εταιρείες που δημιουργούν chatbots, εστιάζοντας στον τρόπο που αξιολογούν τις αρνητικές επιπτώσεις σε παιδιά και εφήβους.

Η OpenAI υποστηρίζει ότι η τελευταία έκδοση του μοντέλου της, το GPT-5, βελτίωσε σημαντικά την ασφάλεια και μείωσε τις «ανεπιθύμητες συμπεριφορές». Στις εσωτερικές αξιολογήσεις της, το GPT-5 κρίθηκε «συμμορφούμενο» στο 91% των περιπτώσεων, έναντι 77% του προηγούμενου μοντέλου. Παράλληλα, η εταιρεία έχει ενσωματώσει υπενθυμίσεις για διαλείμματα κατά τη διάρκεια μακρών συνεδριών και διευρυμένη πρόσβαση σε γραμμές βοήθειας κρίσεων.

Για την ανάπτυξη αυτών των μέτρων, συνεργάστηκε με 170 κλινικούς γιατρούς και ειδικούς ψυχικής υγείας, οι οποίοι αξιολόγησαν περισσότερες από 1.800 απαντήσεις του chatbot σε σοβαρά σενάρια κρίσεων. Παρά τις βελτιώσεις, οι ειδικοί εξακολουθούν να ανησυχούν ότι τα συστήματα AI έχουν την τάση να επιβεβαιώνουν επιλογές ή αυταπάτες των χρηστών (γνωστό ως «sycophancy»), ακόμη κι όταν αυτές είναι επιβλαβείς.

Ο διευθύνων σύμβουλος Σαμ Άλτμαν ανέφερε πρόσφατα ότι η εταιρεία σκοπεύει να χαλαρώσει κάποιους περιορισμούς, υποστηρίζοντας ότι πλέον έχει στη διάθεσή της «εργαλεία» για να μετριάσει τα σοβαρά ζητήματα ψυχικής υγείας.

Η OpenAI πάντως απέφυγε να συνδέσει ευθέως το ChatGPT με τα ψυχικά προβλήματα των χρηστών, σημειώνοντας ότι «η συναισθηματική δυσφορία είναι παγκόσμιο φαινόμενο» και πως το τεράστιο μέγεθος της χρήσης αναπόφευκτα περιλαμβάνει τέτοιες περιπτώσεις.

Πηγή: The Guardian