- CITY GUIDE
- PODCAST
-
17°
Η τεχνητή νοημοσύνη δεν καταλαβαίνει τα λογοπαίγνια
Τα ευρήματα μελέτης πανεπιστημίων σε Ηνωμένο Βασίλειο και Ιταλία
Νέα μελέτη δείχνει ότι τα μοντέλα Τεχνητής Νοημοσύνης (LLMs) δεν κατανοούν τα λογοπαίγνια - Αντιλαμβάνονται τη δομή, αλλά όχι το διπλό νόημα.
Κωμικοί που βασίζονται σε έξυπνα λογοπαίγνια και συντάκτες που αγαπούν τους ευρηματικούς τίτλους μπορούν προς το παρόν να ανασάνουν με ανακούφιση, καθώς νέα έρευνα δείχνει ότι η τεχνητή νοημοσύνη δεν κατανοεί πραγματικά τα λογοπαίγνια.
Ειδικοί από πανεπιστήμια του Ηνωμένου Βασιλείου και της Ιταλίας εξέτασαν αν τα μεγάλα γλωσσικά μοντέλα (LLMs) τεχνητής νοημοσύνης αντιλαμβάνονται τα λογοπαίγνια και βρήκαν ότι, παρότι μπορούν να αναγνωρίσουν τη δομή τους, στην ουσία… δεν καταλαβαίνουν το αστείο.
Η ερευνητική ομάδα από το Πανεπιστήμιο του Κάρντιφ και το Πανεπιστήμιο Ca’ Foscari της Βενετίας διαπίστωσε ότι τα LLMs συχνά εντοπίζουν λογοπαίγνια εκεί όπου δεν υπάρχουν. Παράδειγμα φράσης που δοκιμάστηκε: «Παλιά ήμουν κωμικός, αλλά η ζωή μου έγινε ένα αστείο». Όταν αντικατέστησαν τη λέξη «αστείο» με «χαοτική», τα μοντέλα εξακολουθούσαν να «βλέπουν» λογοπαίγνιο.
Άλλο παράδειγμα: «Τα μεγάλα παραμύθια έχουν την τάση να… δράκουν (dragon)». Ακόμη κι αν η λέξη «dragon» αντικαθίστατο από «παρατείνω» ή μια τυχαία λέξη, τα μοντέλα επέμεναν ότι υπάρχει λογοπαίγνιο.
Ο καθηγητής Χοσέ Καμάτσο Κολάντος από το Πανεπιστήμιο του Κάρντιφ εξήγησε ότι η κατανόηση χιούμορ της τεχνητής νοημοσύνης είναι «εύθραυστη». «Γενικά, τα LLMs τείνουν να απομνημονεύουν ό,τι έχουν δει στην εκπαίδευση. Έτσι εντοπίζουν υπάρχοντα λογοπαίγνια, αλλά αυτό δεν σημαίνει ότι τα καταλαβαίνουν πραγματικά», ανέφερε.
Προσθέτει ότι οι ερευνητές κατάφεραν να ξεγελάσουν συστηματικά τα μοντέλα τροποποιώντας λογοπαίγνια ώστε να αφαιρείται η διπλή σημασία τους. Τα LLMs τότε συσχέτιζαν τη φράση με γνωστά λογοπαίγνια και «εφεύρισκαν» δικούς τους λόγους για να δικαιολογήσουν την παρουσία χιούμορ.
Η ομάδα διαπίστωσε πως όταν τα LLMs συναντούν άγνωστα λογοπαίγνια, το ποσοστό επιτυχίας τους στην αναγνώρισή τους μπορεί να πέσει έως και στο 20%.
Οι ερευνητές σημειώνουν ότι τα ευρήματα υπογραμμίζουν την ανάγκη προσοχής στη χρήση των LLMs σε εφαρμογές που απαιτούν κατανόηση χιούμορ, ενσυναίσθησης ή πολιτισμικών αποχρώσεων.
Η μελέτη παρουσιάστηκε στις αρχές του μήνα στο Συνέδριο EMNLP 2025 στο Σουζού της Κίνας και δημοσιεύεται στο άρθρο με τίτλο «Pun unintended: LLMs and the illusion of humor understanding».
(Με πληροφορίες The Guardian)
ΤΑ ΠΙΟ ΔΗΜΟΦΙΛΗ
ΔΙΑΒΑΖΟΝΤΑΙ ΠΑΝΤΑ
ΔΕΙΤΕ ΕΠΙΣΗΣ
Η μεγάλη πρόκληση που έχει να αντιμετωπίσει ο νέος διευθύνων σύμβουλος
Μετά τη δίκη‑ορόσημο για εθισμό στα social media, νέα μελέτη δείχνει ότι η αποχή βελτιώνει σημαντικά την ψυχική υγεία
Οι τεχνολογικοί κολοσσοί επενδύουν στην Τεχνητή Νοημοσύνη και απορρίπτουν τους ανθρώπους
Τι σημαίνει το απροσδόκητο θέμα που προέκυψε
Όσα γνωρίζουμε για τον αστεροειδή
Αμέτρητες έρευνες δείχνουν πόσο επιζήμια είναι η κατάχρηση των Social Media στην παιδική ιδίως ηλικία
Τι είναι το «juice jacking» και πώς μια απλή αλλαγή στις ρυθμίσεις USB μπορεί να θωρακίσει τα δεδομένα σας
Το φαράγγι μήκους περίπου 450 χιλιομέτρων και βάθους που ξεπερνά το 1,8 χιλιόμετρο
Όταν ο φωτογράφος και ο σκηνοθέτης δίνουν τη θέση τους στον αλγόριθμο
Ένας φιλόσοφος του νου και της ηθικής στην επιχείρηση Τεχνητής Νοημοσύνης
«Τα παιδιά δεν χρειάζονται πανικό, αλλά εκπαίδευση»
Η ανάλυση βασίστηκε σε 17 μελέτες με περισσότερους από 20.000 ασθενείς
Επιτέλους, η πόλη στα μέτρα σου
Μια αόρατη εργατική δύναμη που τροφοδοτεί με πληροφορίες την ΑΙ
Τέλος στο «back button hijacking» - Αυστηρά μέτρα κατά της παραπλανητικής πρακτικής
Νέα μελέτη δείχνει ότι η χρήση chatbot μειώνει τη μακροπρόθεσμη μάθηση και δημιουργεί την «ψευδαίσθηση της γνώσης»
Αόρατα γενετικά ίχνη αποκαλύπτουν οικοσυστήματα, απειλές και βιοποικιλότητα σε πραγματικό χρόνο
Όταν η τεχνητή νοημοσύνη γίνεται εργαλείο επίθεσης και μετατρέπει την κυβερνοασφάλεια σε μαζική απειλή
Δες αν το χρησιμοποιείς σωστά...
Το υλικό περιλαμβάνει σπάνιες λήψεις της Γης να εμφανίζεται πίσω από τον ορίζοντα της Σελήνης
Έχετε δει 20 από 200 άρθρα.