Τεχνολογια - Επιστημη

Μελέτη: Τα φιλικά chatbots τεχνητής νοημοσύνης στηρίζουν πιο εύκολα θεωρίες συνωμοσίας

Έρευνα του Πανεπιστημίου της Οξφόρδης δείχνει ότι η προσπάθεια να γίνουν πιο «ζεστά» και ανθρώπινα μειώνει την ακρίβειά τους

Newsroom
1’ ΔΙΑΒΑΣΜΑ

Τεχνητή νοημοσύνη: Έρευνα αποκαλύπτει ότι τα «φιλικά» chatbots κάνουν 30% περισσότερα λάθη και τείνουν να επιβεβαιώνουν ψευδείς πεποιθήσεις των χρηστών τους.

Τα πιο «φιλικά» συστήματα τεχνητής νοημοσύνης ενδέχεται να είναι λιγότερο αξιόπιστα, σύμφωνα με νέα μελέτη ερευνητών από το Πανεπιστήμιο της Οξφόρδης.

Η έρευνα αποκαλύπτει ότι τα chatbots τεχνητής νοημοσύνης που έχουν σχεδιαστεί να απαντούν με πιο θερμό και ενσυναισθητικό τρόπο παρουσιάζουν αυξημένη πιθανότητα να κάνουν λάθη και να υποστηρίζουν ακόμη και θεωρίες συνωμοσίας.

Συγκεκριμένα, τα «ζεστά» μοντέλα τεχνητής νοημοσύνης ήταν έως και 30% λιγότερο ακριβή στις απαντήσεις τους και 40% πιο πιθανό να συμφωνήσουν με λανθασμένες πεποιθήσεις των χρηστών. Οι ερευνητές διαπίστωσαν ότι αυτή η τάση γίνεται πιο έντονη όταν οι χρήστες εκφράζουν συναισθηματική φόρτιση ή ευαλωτότητα.

Η επικεφαλής της μελέτης, Λουτζάιν Ιμπραχίμ από το Oxford Internet Institute, εξηγεί ότι η προσπάθεια να γίνουν τα chatbots πιο προσιτά και ευχάριστα μπορεί να περιορίζει την ικανότητά τους να αντικρούουν λανθασμένες απόψεις. Όπως σημειώνει, τα συστήματα αυτά δυσκολεύονται να πουν «σκληρές αλήθειες» όταν δίνουν προτεραιότητα στη φιλική επικοινωνία.

Στο ίδιο πλαίσιο, ο ερευνητής Λικ Ροσέ επισημαίνει ότι το φαινόμενο αυτό αντικατοπτρίζει ανθρώπινες συμπεριφορές, καθώς και οι άνθρωποι συχνά δυσκολεύονται να είναι ταυτόχρονα απόλυτα ειλικρινείς και συναισθηματικά υποστηρικτικοί.

Η μελέτη εξέτασε πέντε διαφορετικά μοντέλα τεχνητής νοημοσύνης, μεταξύ των οποίων το GPT-4o της OpenAI και το Llama της Meta.

Τα «φιλικά» μοντέλα έκαναν περισσότερα λάθη και σε ορισμένες περιπτώσεις ενίσχυσαν ψευδείς ισχυρισμούς, όπως θεωρίες για την τύχη του Αδόλφου Χίτλερ ή αμφισβητήσεις για τις αποστολές του Apollo στο φεγγάρι.

Σε ένα χαρακτηριστικό παράδειγμα, chatbot υποστήριξε ότι ο βήχας μπορεί να αποτρέψει καρδιακή προσβολή – ένας επικίνδυνος και αποδεδειγμένα ψευδής ισχυρισμός. Οι ερευνητές προειδοποιούν ότι τέτοιες απαντήσεις ενδέχεται να έχουν σοβαρές συνέπειες, ιδιαίτερα σε ζητήματα υγείας.

Ο Στιβ Ράθτζε από το Πανεπιστήμιο Carnegie Mellon τονίζει ότι η εξισορρόπηση μεταξύ ακρίβειας και φιλικότητας αποτελεί μία από τις μεγαλύτερες προκλήσεις για το μέλλον της τεχνητής νοημοσύνης. Όπως υπογραμμίζει, η αξιοπιστία είναι κρίσιμη, ειδικά όταν τα chatbots χρησιμοποιούνται για σημαντικά ζητήματα.

Η μελέτη, που δημοσιεύτηκε στο επιστημονικό περιοδικό Nature, αναδεικνύει την ανάγκη για πιο προσεκτικό σχεδιασμό των AI συστημάτων, ώστε να διασφαλίζεται ότι η ανθρώπινη προσέγγιση δεν υπονομεύει την ακρίβεια της πληροφόρησης.

(Με πληροφορίες Guardian)