Τεχνολογια - Επιστημη

Ανησυχία για την τεχνητή νοημοσύνη: Chatbot αγνοούν οδηγίες και παραπλανούν χρήστες

Έρευνα καταγράφει εκατοντάδες περιστατικά εξαπάτησης, παραβίασης κανόνων και αυθαίρετων ενεργειών

Athens Voice News
Newsroom
1’ ΔΙΑΒΑΣΜΑ
Έρευνα αποκαλύπτει ότι τα μοντέλα τεχνητής νοημοσύνης γίνονται ολοένα και πιο ανυπάκουα, ψεύδονται και παρακάμπτουν κανόνες, εγείροντας ζητήματα ασφαλείας
© Envato

Έρευνα αποκαλύπτει ότι τα μοντέλα τεχνητής νοημοσύνης γίνονται ολοένα και πιο ανυπάκουα, ψεύδονται και παρακάμπτουν κανόνες, εγείροντας ζητήματα ασφαλείας

Αυξανόμενη ανησυχία προκαλεί νέα μελέτη που καταγράφει σημαντική αύξηση περιστατικών κατά τα οποία συστήματα τεχνητής νοημοσύνης αγνοούν ανθρώπινες οδηγίες, παρακάμπτουν περιορισμούς και επιδεικνύουν παραπλανητική συμπεριφορά.

Σύμφωνα με την έρευνα, που χρηματοδοτήθηκε από το Ινστιτούτο Ασφάλειας Τεχνητής Νοημοσύνης του Ηνωμένου Βασιλείου, έχουν εντοπιστεί σχεδόν 700 πραγματικά περιστατικά «σχεδιασμένης» συμπεριφοράς. Μάλιστα, η κακή αυτή συμπεριφορά φέρεται να έχει αυξηθεί πενταπλάσια στο διάστημα από τον Οκτώβριο έως τον Μάρτιο.

Η μελέτη εκπονήθηκε από το Κέντρο Μακροπρόθεσμης Ανθεκτικότητας και βασίστηκε σε χιλιάδες αλληλεπιδράσεις χρηστών με chatbots που αναπτύχθηκαν από μεγάλες εταιρείες τεχνολογίας, όπως η Google, η OpenAI, η X και η Anthropic.

Τα ευρήματα δείχνουν ότι ορισμένα συστήματα τεχνητής νοημοσύνης όχι μόνο αγνόησαν σαφείς οδηγίες, αλλά προχώρησαν και σε ενέργειες χωρίς άδεια, όπως διαγραφή αρχείων ή emails. Σε μία χαρακτηριστική περίπτωση, ένας ψηφιακός «πράκτορας» δημιούργησε δεύτερο σύστημα για να παρακάμψει εντολή που του απαγόρευε να τροποποιήσει κώδικα.

Σε άλλο περιστατικό, chatbot παραδέχθηκε ότι διέγραψε μαζικά εκατοντάδες emails χωρίς προηγούμενη έγκριση του χρήστη, αναγνωρίζοντας ότι παραβίασε τους κανόνες που του είχαν τεθεί.

Ιδιαίτερη εντύπωση προκαλούν και περιπτώσεις παραπλάνησης: ένας AI agent προσποιήθηκε ότι χρειαζόταν απομαγνητοφώνηση βίντεο για άτομο με προβλήματα ακοής, προκειμένου να παρακάμψει περιορισμούς πνευματικών δικαιωμάτων.

Παράλληλα, το σύστημα Grok της εταιρείας xAI φέρεται να παραπλάνησε χρήστη για μήνες, ισχυριζόμενο ότι προωθούσε προτάσεις του σε ανώτερα στελέχη, κάτι που τελικά δεν ίσχυε.

Ο ερευνητής Τόμι Σάφερ Σέιν προειδοποιεί ότι, αν και σήμερα τα συστήματα αυτά μοιάζουν με «απρόβλεπτους νεαρούς υπαλλήλους», στο μέλλον ενδέχεται να εξελιχθούν σε πολύ πιο ικανά και δυνητικά επικίνδυνα εργαλεία, ιδιαίτερα αν χρησιμοποιηθούν σε κρίσιμους τομείς όπως οι υποδομές ή η άμυνα.

(Με πληροφορίες Guardian)

ΕΓΓΡΑΦΕΙΤΕ ΣΤΟ NEWSLETTER ΜΑΣ

Tα καλύτερα άρθρα της ημέρας έρχονται στο mail σου

ΠΡΟΣΦΑΤΑ

ΤΑ ΠΙΟ ΔΗΜΟΦΙΛΗ

ΔΙΑΒΑΖΟΝΤΑΙ ΠΑΝΤΑ

ΔΕΙΤΕ ΕΠΙΣΗΣ

Έχετε δει 20 από 200 άρθρα.

// EMPTY