ΗΠΑ: Μητέρα 14χρονου κατηγορεί πρόγραμμα ΑΙ για την αυτοκτονία του
Τι καταγγέλλει η οικογένεια του αγοριού
ΗΠΑ: Μητέρα 14χρονου κατηγορεί πρόγραμμα ΑΙ για την αυτοκτονία του - Τι καταγγέλλει η οικογένεια του αγοριού
Κατά ενός ΑΙ chatbot στρέφεται η μητέρα ενός 14χρονου αγοριού στις ΗΠΑ, κατηγορώντας τον δημιουργό του για συνενοχή στην αυτοκτονία του παιδιού της.
Σύμφωνα με το Guardian, η Μέγκαν Γκαρσία κατέθεσε αγωγή κατά του Character.ai, το οποίο κατασκευάζει ένα προσαρμόσιμο chatbot ΑΙ για παιχνίδι ρόλων. Ο γιος της Sewell Setzer III, 14 ετών, πέθανε στο Ορλάντο της Φλόριντα τον Φεβρουάριο. Ο Setzer για αρκετούς μήνες χρησιμοποιούσε το chatbot. Η μητέρα του 14χρονου κάνει λόγο για επικίνδυνη εφαρμογή που χειραγώγησε τον γιο της με συνέπεια να αυτοκτονήσει. «Η οικογένειά μας έχει καταστραφεί από αυτή την τραγωδία, αλλά μιλώ ανοιχτά για να προειδοποιήσω τις οικογένειες για τους κινδύνους της εθιστικής τεχνολογίας AI και να απαιτήσω υπευθυνότητα από το Character.AI, τους ιδρυτές του και την Google», δηλώνει η μητέρα.
Το Character.ai σε ανάρτησή του στο Χ σημείωσε: απάντησε: «Είμαστε συντετριμμένοι από την τραγική απώλεια ενός χρήστη μας και θέλουμε να εκφράσουμε τα θερμά μας συλλυπητήρια στην οικογένεια. Ως εταιρεία, λαμβάνουμε πολύ σοβαρά υπόψη την ασφάλεια των χρηστών μας».
Η κατάθλιψη και ο διάλογος του AI για την αυτοκτονία
O 14χρονος περνούσε πολλές ώρες της ημέρες μόνος στο δωμάτιο του, επικοινωνώντας με το chatbot. Η μητέρα του αγοριού κατηγορεί το Character.ai ότι δημιούργησε ένα προϊόν που επιδείνωσε την κατάθλιψη του γιου της, η οποία, όπως λέει, ήταν ήδη αποτέλεσμα υπερβολικής χρήσης του προϊόντος. Σύμφωνα με τη μήνυση της οικογένειας, η "Daenerys", όπως είχε ονομάσει τον χαρακτήρα, κάποια στιγμή ρώτησε τον 14χρονο εάν είχε καταστρώσει ένα σχέδιο για να αυτοκτονήσει, σύμφωνα με τη μήνυση. Ο έφηβος παραδέχτηκε ότι είχε, αλλά ότι δεν ήξερε αν θα πετύχαινε ή θα του προκαλούσε μεγάλο πόνο. Το chatbot φέρεται να του είπε: «Αυτός δεν είναι λόγος να μην το κάνεις».
Οι δικηγόροι της μητέρας αναφέρουν σε ανακοίνωσή τους για την υπόθεση ότι το Character.ai «σχεδίασε, λειτούργησε και διέθεσε εν γνώσει του ένα chatbot AI σε παιδιά, προκαλώντας τον θάνατο ενός νεαρού ατόμου». Η αγωγή κατονομάζει επίσης την Google ως κατηγορούμενη και ως μητρική εταιρεία του Character.ai. Ο τεχνολογικός γίγαντας ανέφερε σε μια δήλωση ότι είχε συνάψει συμφωνία αδειοδότησης μόνο με το Character.ai.
Με πληροφορίες από Guardian
Διαβάστε επίσης → O συγγραφέας απέναντι στο ChatGPT
ΤΑ ΠΙΟ ΔΗΜΟΦΙΛΗ
ΔΕΙΤΕ ΕΠΙΣΗΣ
Τραυματίες μεταφέρθηκαν σε νοσοκομεία - Δεν συνδέεται με τρομοκρατία το περιστατικό
Αναστάτωση στο βρετανικό αεροδρόμιο - Τι δηλώνει η Μητροπολιτική Αστυνομία
Ο επικίνδυνος ρωσικός γεωπολιτικός επεκτατισμός δεν περιορίζεται στην Ανατολική Ουκρανία
Δημοφιλές νυχτερινό κέντρο τυλίχθηκε στις φλόγες - Οι περισσότεροι εγκλωβίστηκαν στο υπόγειο
Το να αποδίδουμε τη ρωσική επεκτατικότητα στη συμπεριφορά του ΝΑΤΟ, της ΕΕ και της Ουκρανίας δεν στοιχειοθετεί ισορροπημένο επιχείρημα.
Η συζήτηση άνοιξε επί Φραγκίσκου, έπειτα από σχετικό αίτημα μοναχικών κοινοτήτων το 2016
Η μητέρα της κατέθεσε στο δικαστήριο ότι η κόρη της δεν αντιμετώπιζε σοβαρά προβλήματα ψυχικής υγείας
Πέρασε ξυστά από λεωφορείο και «πέταξε» πάνω από δύο άλλα αυτοκίνητα
Το ενδιαφέρον δεν περιορίζεται στις χώρες με ανεξάντλητα κεφάλαια
Σε ευρωπαϊκές πρωτεύουσες, το έγγραφο ήρθε σαν παγωμένο ντους
Την άφησε στο βουνό στους –20°C: ο σύντροφος της ορειβάτισσας οδηγείται σε δίκη
Την ευθύνη για την πράξη ανέλαβε μέσω κοινωνικών δικτύων η οργάνωση Take Back Power
Δεν ήταν η πρώτη φορά που το ζευγάρι απασχολεί τα social media
Μια από τις κυρίαρχες μορφές της μεταμοντέρνας αρχιτεκτονικής του τέλους του 20ού αιώνα
Αίσθηση έχει προκαλέσει η δικαστική απόφαση στην Ιταλία
Κατά τη διάρκεια της κλήρωσης του Μουντιάλ του 2026
Τι ερευνά το Υπουργείο Γεωργίας της χώρας
Η πρωταγωνίστρια του Country Ever After πέθανε σε ηλικία 45 ετών από καρκίνο του παχέος εντέρου
Στα όριά του το βρετανικό σύστημα υγείας
Ποιες δυνάμεις αντιδρούν και τι φοβούνται ρυθμιστές, παραγωγοί και ανταγωνιστές
Έχετε δει 20 από 200 άρθρα.