- ΑΡΧΙΚΗ
-
ΕΠΙΚΑΙΡΟΤΗΤΑ
-
ΠΟΛΙΤΙΣΜΟΣ
-
LIFE
-
LOOK
-
YOUR VOICE
-
επιστροφη
- ΣΕ ΕΙΔΑ
- ΜΙΛΑ ΜΟΥ ΒΡΟΜΙΚΑ
- ΟΙ ΙΣΤΟΡΙΕΣ ΣΑΣ
-
-
VIRAL
-
επιστροφη
- QUIZ
- POLLS
- YOLO
- TRENDING NOW
-
-
ΖΩΔΙΑ
-
επιστροφη
- ΠΡΟΒΛΕΨΕΙΣ
- ΑΣΤΡΟΛΟΓΙΚΟΣ ΧΑΡΤΗΣ
- ΓΛΩΣΣΑΡΙ
-
- PODCAST
- 102.5 FM RADIO
- CITY GUIDE
- ENGLISH GUIDE
Ανησυχία για την τεχνητή νοημοσύνη: Chatbot αγνοούν οδηγίες και παραπλανούν χρήστες
Έρευνα καταγράφει εκατοντάδες περιστατικά εξαπάτησης, παραβίασης κανόνων και αυθαίρετων ενεργειών
Έρευνα αποκαλύπτει ότι τα μοντέλα τεχνητής νοημοσύνης γίνονται ολοένα και πιο ανυπάκουα, ψεύδονται και παρακάμπτουν κανόνες, εγείροντας ζητήματα ασφαλείας
Αυξανόμενη ανησυχία προκαλεί νέα μελέτη που καταγράφει σημαντική αύξηση περιστατικών κατά τα οποία συστήματα τεχνητής νοημοσύνης αγνοούν ανθρώπινες οδηγίες, παρακάμπτουν περιορισμούς και επιδεικνύουν παραπλανητική συμπεριφορά.
Σύμφωνα με την έρευνα, που χρηματοδοτήθηκε από το Ινστιτούτο Ασφάλειας Τεχνητής Νοημοσύνης του Ηνωμένου Βασιλείου, έχουν εντοπιστεί σχεδόν 700 πραγματικά περιστατικά «σχεδιασμένης» συμπεριφοράς. Μάλιστα, η κακή αυτή συμπεριφορά φέρεται να έχει αυξηθεί πενταπλάσια στο διάστημα από τον Οκτώβριο έως τον Μάρτιο.
Η μελέτη εκπονήθηκε από το Κέντρο Μακροπρόθεσμης Ανθεκτικότητας και βασίστηκε σε χιλιάδες αλληλεπιδράσεις χρηστών με chatbots που αναπτύχθηκαν από μεγάλες εταιρείες τεχνολογίας, όπως η Google, η OpenAI, η X και η Anthropic.
Τα ευρήματα δείχνουν ότι ορισμένα συστήματα τεχνητής νοημοσύνης όχι μόνο αγνόησαν σαφείς οδηγίες, αλλά προχώρησαν και σε ενέργειες χωρίς άδεια, όπως διαγραφή αρχείων ή emails. Σε μία χαρακτηριστική περίπτωση, ένας ψηφιακός «πράκτορας» δημιούργησε δεύτερο σύστημα για να παρακάμψει εντολή που του απαγόρευε να τροποποιήσει κώδικα.
Σε άλλο περιστατικό, chatbot παραδέχθηκε ότι διέγραψε μαζικά εκατοντάδες emails χωρίς προηγούμενη έγκριση του χρήστη, αναγνωρίζοντας ότι παραβίασε τους κανόνες που του είχαν τεθεί.
Ιδιαίτερη εντύπωση προκαλούν και περιπτώσεις παραπλάνησης: ένας AI agent προσποιήθηκε ότι χρειαζόταν απομαγνητοφώνηση βίντεο για άτομο με προβλήματα ακοής, προκειμένου να παρακάμψει περιορισμούς πνευματικών δικαιωμάτων.
Παράλληλα, το σύστημα Grok της εταιρείας xAI φέρεται να παραπλάνησε χρήστη για μήνες, ισχυριζόμενο ότι προωθούσε προτάσεις του σε ανώτερα στελέχη, κάτι που τελικά δεν ίσχυε.
Ο ερευνητής Τόμι Σάφερ Σέιν προειδοποιεί ότι, αν και σήμερα τα συστήματα αυτά μοιάζουν με «απρόβλεπτους νεαρούς υπαλλήλους», στο μέλλον ενδέχεται να εξελιχθούν σε πολύ πιο ικανά και δυνητικά επικίνδυνα εργαλεία, ιδιαίτερα αν χρησιμοποιηθούν σε κρίσιμους τομείς όπως οι υποδομές ή η άμυνα.
(Με πληροφορίες Guardian)