- ΑΡΧΙΚΗ
-
ΕΠΙΚΑΙΡΟΤΗΤΑ
-
ΠΟΛΙΤΙΣΜΟΣ
-
LIFE
-
LOOK
-
YOUR VOICE
-
επιστροφη
- ΣΕ ΕΙΔΑ
- ΜΙΛΑ ΜΟΥ ΒΡΟΜΙΚΑ
- ΟΙ ΙΣΤΟΡΙΕΣ ΣΑΣ
-
-
VIRAL
-
επιστροφη
- QUIZ
- POLLS
- YOLO
- TRENDING NOW
-
-
ΖΩΔΙΑ
-
επιστροφη
- ΠΡΟΒΛΕΨΕΙΣ
- ΑΣΤΡΟΛΟΓΙΚΟΣ ΧΑΡΤΗΣ
- ΓΛΩΣΣΑΡΙ
-
- PODCAST
- 102.5 FM RADIO
- CITY GUIDE
- ENGLISH GUIDE
AI και υγεία: Νέες έρευνες δείχνουν προκαταλήψεις σε γυναίκες και μειονότητες
Οι εταιρείες τεχνολογίας, από την OpenAI μέχρι τη Google, δηλώνουν ότι εργάζονται για να περιορίσουν τις στρεβλώσεις
AI και υγεία: Νέες έρευνες δείχνουν προκαταλήψεις σε γυναίκες και μειονότητες
Η αυξανόμενη χρήση εργαλείων τεχνητής νοημοσύνης στην ιατρική φέρνει στο φως σοβαρούς κινδύνους για άνιση μεταχείριση ασθενών, ιδίως γυναικών και εθνοτικών μειονοτήτων. Σύμφωνα με ρεπορτάζ των Financial Times, μια σειρά μελετών από κορυφαία πανεπιστήμια στις ΗΠΑ και το Ηνωμένο Βασίλειο καταγράφει ότι τα μεγάλα γλωσσικά μοντέλα (LLMs), όπως το GPT-4, το Llama και το Gemini, τείνουν να υποβαθμίζουν τα συμπτώματα των γυναικών, ενώ εμφανίζουν λιγότερη «ενσυναίσθηση» σε Μαύρους και Ασιάτες ασθενείς.
Η προκατάληψη αυτή δεν είναι νέα στον χώρο της υγείας· αντανακλά μακροχρόνια προβλήματα, όπως η υποχρηματοδότηση της έρευνας για γυναικεία νοσήματα ή τα κενά στη διαχείριση της ψυχικής υγείας μειονοτήτων. Ωστόσο, η ενσωμάτωσή της σε συστήματα AI, που πλέον χρησιμοποιούνται σε εκατοντάδες νοσοκομεία για καταγραφή επισκέψεων, δημιουργία ιατρικών σημειώσεων και προτάσεις θεραπείας, ενέχει τον κίνδυνο να εδραιώσει περαιτέρω τις ανισότητες.
Μελέτη του MIT έδειξε ότι το GPT-4 και άλλα μοντέλα πρότειναν χαμηλότερο επίπεδο φροντίδας για γυναίκες ασθενείς, φτάνοντας έως και στο σημείο να συστήνουν αυτοθεραπεία στο σπίτι. Παράλληλα, ερευνητές στο LSE διαπίστωσαν ότι το μοντέλο Gemma της Google υποτιμούσε σωματικά και ψυχικά συμπτώματα γυναικών σε σύγκριση με ανδρών, όταν χρησιμοποιήθηκε σε κοινωνικές υπηρεσίες του Ηνωμένου Βασιλείου.
Η MIT ερευνήτρια Μαριέ Γκασέμι προειδοποίησε ότι ακόμη και ο τρόπος γραφής των ασθενών –π.χ. ανορθόγραφα ή άτυπα μηνύματα– μπορεί να οδηγήσει το AI σε πιο αποτρεπτικές απαντήσεις, πλήττοντας όσους δεν μιλούν καλά αγγλικά ή δεν έχουν ψηφιακή εξοικείωση.
Οι εταιρείες τεχνολογίας, από την OpenAI μέχρι τη Google, δηλώνουν ότι εργάζονται για να περιορίσουν τις στρεβλώσεις, ενσωματώνοντας κλινικούς συμβούλους στη διαδικασία και αναπτύσσοντας benchmarks αξιολόγησης. Παράλληλα, νέα εγχειρήματα όπως το βρετανικό μοντέλο Foresight του NHS ή το ευρωπαϊκό Delphi-2M επιχειρούν να εκπαιδεύσουν την τεχνητή νοημοσύνη σε πιο αντιπροσωπευτικά και ελεγχόμενα σύνολα δεδομένων.
Ωστόσο, παραμένουν σοβαρά ζητήματα δεοντολογίας και ιδιωτικότητας. Το project Foresight, για παράδειγμα, τέθηκε σε παύση μετά από καταγγελία για παραβίαση δεδομένων υγείας, ενώ η ευρύτερη χρήση AI σε ευαίσθητους τομείς αναζωπυρώνει τον φόβο των «ψευδαισθήσεων» – δηλαδή λανθασμένων ή επινοημένων απαντήσεων.
Όπως σημειώνει η Γκασέμι, το στοίχημα δεν είναι να προσθέσουν τα μοντέλα «ένα ακόμη τοις εκατό» σε επιδόσεις που ήδη οι γιατροί διαχειρίζονται καλά, αλλά να κλείσουν κρίσιμα κενά φροντίδας που παραμένουν ανοιχτά για γυναίκες και μειονότητες.
Πηγή: Financial Times