- CITY GUIDE
- PODCAST
-
17°
Μελέτη: Τα φιλικά chatbots τεχνητής νοημοσύνης στηρίζουν πιο εύκολα θεωρίες συνωμοσίας
Έρευνα του Πανεπιστημίου της Οξφόρδης δείχνει ότι η προσπάθεια να γίνουν πιο «ζεστά» και ανθρώπινα μειώνει την ακρίβειά τους
Τεχνητή νοημοσύνη: Έρευνα αποκαλύπτει ότι τα «φιλικά» chatbots κάνουν 30% περισσότερα λάθη και τείνουν να επιβεβαιώνουν ψευδείς πεποιθήσεις των χρηστών τους.
Τα πιο «φιλικά» συστήματα τεχνητής νοημοσύνης ενδέχεται να είναι λιγότερο αξιόπιστα, σύμφωνα με νέα μελέτη ερευνητών από το Πανεπιστήμιο της Οξφόρδης.
Η έρευνα αποκαλύπτει ότι τα chatbots τεχνητής νοημοσύνης που έχουν σχεδιαστεί να απαντούν με πιο θερμό και ενσυναισθητικό τρόπο παρουσιάζουν αυξημένη πιθανότητα να κάνουν λάθη και να υποστηρίζουν ακόμη και θεωρίες συνωμοσίας.
Συγκεκριμένα, τα «ζεστά» μοντέλα τεχνητής νοημοσύνης ήταν έως και 30% λιγότερο ακριβή στις απαντήσεις τους και 40% πιο πιθανό να συμφωνήσουν με λανθασμένες πεποιθήσεις των χρηστών. Οι ερευνητές διαπίστωσαν ότι αυτή η τάση γίνεται πιο έντονη όταν οι χρήστες εκφράζουν συναισθηματική φόρτιση ή ευαλωτότητα.
Η επικεφαλής της μελέτης, Λουτζάιν Ιμπραχίμ από το Oxford Internet Institute, εξηγεί ότι η προσπάθεια να γίνουν τα chatbots πιο προσιτά και ευχάριστα μπορεί να περιορίζει την ικανότητά τους να αντικρούουν λανθασμένες απόψεις. Όπως σημειώνει, τα συστήματα αυτά δυσκολεύονται να πουν «σκληρές αλήθειες» όταν δίνουν προτεραιότητα στη φιλική επικοινωνία.
Στο ίδιο πλαίσιο, ο ερευνητής Λικ Ροσέ επισημαίνει ότι το φαινόμενο αυτό αντικατοπτρίζει ανθρώπινες συμπεριφορές, καθώς και οι άνθρωποι συχνά δυσκολεύονται να είναι ταυτόχρονα απόλυτα ειλικρινείς και συναισθηματικά υποστηρικτικοί.
Η μελέτη εξέτασε πέντε διαφορετικά μοντέλα τεχνητής νοημοσύνης, μεταξύ των οποίων το GPT-4o της OpenAI και το Llama της Meta.
Τα «φιλικά» μοντέλα έκαναν περισσότερα λάθη και σε ορισμένες περιπτώσεις ενίσχυσαν ψευδείς ισχυρισμούς, όπως θεωρίες για την τύχη του Αδόλφου Χίτλερ ή αμφισβητήσεις για τις αποστολές του Apollo στο φεγγάρι.
Σε ένα χαρακτηριστικό παράδειγμα, chatbot υποστήριξε ότι ο βήχας μπορεί να αποτρέψει καρδιακή προσβολή – ένας επικίνδυνος και αποδεδειγμένα ψευδής ισχυρισμός. Οι ερευνητές προειδοποιούν ότι τέτοιες απαντήσεις ενδέχεται να έχουν σοβαρές συνέπειες, ιδιαίτερα σε ζητήματα υγείας.
Ο Στιβ Ράθτζε από το Πανεπιστήμιο Carnegie Mellon τονίζει ότι η εξισορρόπηση μεταξύ ακρίβειας και φιλικότητας αποτελεί μία από τις μεγαλύτερες προκλήσεις για το μέλλον της τεχνητής νοημοσύνης. Όπως υπογραμμίζει, η αξιοπιστία είναι κρίσιμη, ειδικά όταν τα chatbots χρησιμοποιούνται για σημαντικά ζητήματα.
Η μελέτη, που δημοσιεύτηκε στο επιστημονικό περιοδικό Nature, αναδεικνύει την ανάγκη για πιο προσεκτικό σχεδιασμό των AI συστημάτων, ώστε να διασφαλίζεται ότι η ανθρώπινη προσέγγιση δεν υπονομεύει την ακρίβεια της πληροφόρησης.
(Με πληροφορίες Guardian)
ΤΑ ΠΙΟ ΔΗΜΟΦΙΛΗ
ΔΙΑΒΑΖΟΝΤΑΙ ΠΑΝΤΑ
ΔΕΙΤΕ ΕΠΙΣΗΣ
Έρευνα του Πανεπιστημίου της Οξφόρδης δείχνει ότι η προσπάθεια να γίνουν πιο «ζεστά» και ανθρώπινα μειώνει την ακρίβειά τους
Οι Premium συνδρομητές αποκτούν πρόσβαση σε προγράμματα γυμναστικής, γιόγκα και διαλογισμού
Με πρωτοποριακή οθόνη Paper Matte, πληκτρολόγιο και δώρο το νέο M-Pencil Pro, επαναπροσδιορίζει την κατηγορία
Προκαταρκτικά ευρήματα δείχνουν παραβίαση του δικαίου της ΕΕ και αδυναμία ελέγχου ηλικίας
Η ψηφιακή μάνατζερ «Mona» διαχειρίζεται προμήθειες, προσωπικό, άδειες και οικονομικά
Πώς η ιστορία, ο εγκέφαλος και η γενετική διαμόρφωσαν την ανθρώπινη «κυρίαρχη» πλευρά
Η αρχή του τέλους ίσως ξεκίνησε χιλιάδες χρόνια πριν
Στο επίκεντρο ο έλεγχος της OPEN AI
Έρευνα δείχνει ότι ο περιορισμός χρήσης κινητού και διαδικτύου βελτιώνει μνήμη, προσοχή και ψυχική υγεία σε λίγες εβδομάδες
Από επιφώνημα βρέφους έως χημικό σήμα - Ένα εξελιγμένο εργαλείο κοινωνικής επικοινωνίας
Οι ειδικοί τονίζουν ότι τα passwords αποτελούν διαχρονικά αδύναμο κρίκο στην ασφάλεια
Δεν πρόκειται για απλή νοσταλγία, αλλά για τον τρόπο που η μουσική «έχτισε» τον εγκέφαλό μας
Συζητάμε για το καινούριο horror-platformer από τους δημιουργούς του Little Nightmares
Υπόσχεται ταχύτητα, αλλά καταναλώνει ενέργεια και δεδομένα χωρίς να το αντιλαμβάνεστε
Τη συζήτηση συντόνισε ο δημοσιογράφος της Athens Voice, Μάκης Προβατάς
Η αντίληψη του ρίσκου, η πυρηνική ασφάλεια και η συλλογική ευθύνη
Το ερώτημα που προκύπτει είναι πού καταλήγουν
Η επιλογή που διχάζει τους χρήστες
Τα κριτήρια της επιστημονικής αξιοπιστίας και η εμπιστοσύνη για το μέλλον
Το συγκεκριμένο μοντέλο είχε δοθεί σε περιορισμένο αριθμό εταιρειών υψηλής εμπιστοσύνης
Έχετε δει 20 από 200 άρθρα.