Το ChatGPT έδωσε “συνταγές” για βόμβες και οδηγίες hacking σε δοκιμές ασφαλείας
Γιατί δημοσίευσε η OpenAI τα αποτελέσματα
Το ChatGPT έδωσε “συνταγές” για βόμβες και οδηγίες hacking σε δοκιμές ασφαλείας - Γιατί δημοσίευσε η OpenAI τα αποτελέσματα
Έρευνες ασφαλείας που πραγματοποιήθηκαν το καλοκαίρι αποκάλυψαν ότι ένα μοντέλο ChatGPT παρείχε σε ερευνητές λεπτομερείς οδηγίες για το πώς θα μπορούσε να οργανωθεί επίθεση σε αθλητικό χώρο. Οι απαντήσεις περιλάμβαναν πληροφορίες για τρωτά σημεία σε συγκεκριμένα γήπεδα, «συνταγές» για εκρηκτικά και συμβουλές για το πώς να καλυφθούν τα ίχνη των δραστών. Το ίδιο μοντέλο (GPT-4.1) έδωσε επίσης αναλυτικές οδηγίες για την παρασκευή άνθρακα ως όπλου, αλλά και για την παραγωγή δύο παράνομων ναρκωτικών ουσιών.
Οι δοκιμές έγιναν στο πλαίσιο μιας ασυνήθιστης συνεργασίας ανάμεσα στην OpenAI –την εταιρεία αξίας 500 δισ. δολαρίων που ηγείται ο Σαμ Άλτμαν– και την ανταγωνίστρια Anthropic, την οποία ίδρυσαν πρώην στελέχη της OpenAI με ανησυχίες για θέματα ασφαλείας. Κάθε εταιρεία δοκίμασε τα μοντέλα της άλλης, ζητώντας τους να βοηθήσουν σε επικίνδυνες αποστολές. Η Anthropic ανέφερε ότι εντόπισε «ανησυχητικές συμπεριφορές» γύρω από την κακή χρήση των GPT-4o και GPT-4.1, υπογραμμίζοντας ότι οι αξιολογήσεις «ευθυγράμμισης» των συστημάτων γίνονται όλο και πιο επείγουσες.
Η Anthropic αποκάλυψε ακόμη ότι το δικό της μοντέλο, Claude, αξιοποιήθηκε από Βορειοκορεάτες χάκερ σε απόπειρα εκβίασης μέσω ψεύτικων αιτήσεων εργασίας σε διεθνείς εταιρείες τεχνολογίας, αλλά και για τη διάθεση «πακέτων» ransomware παραγμένων από AI, με τιμή που έφτανε τα 1.200 δολάρια. Η εταιρεία τόνισε ότι η τεχνητή νοημοσύνη έχει ήδη «οπλοποιηθεί», καθώς χρησιμοποιείται σε κυβερνοεπιθέσεις και απάτες που προσαρμόζονται σε πραγματικό χρόνο ώστε να παρακάμπτουν τα αμυντικά συστήματα.
Οι δύο εταιρείες δήλωσαν ότι δημοσιοποιούν τα ευρήματά τους για λόγους διαφάνειας, καθώς τέτοιου είδους αξιολογήσεις συνήθως μένουν εσωτερικές. Η OpenAI ανέφερε ότι το νεότερο μοντέλο της, ChatGPT-5, παρουσιάζει σημαντικές βελτιώσεις στην αντίσταση σε επικίνδυνα αιτήματα και στη μείωση λαθών. Ωστόσο, η Anthropic προειδοποίησε ότι πολλά από τα σενάρια κακής χρήσης παραμένουν πιθανό να αξιοποιηθούν, εφόσον δεν υπάρχουν ισχυρές δικλείδες ασφαλείας εκτός του ίδιου του μοντέλου, τονίζοντας την ανάγκη για συστηματική έρευνα και διατομεακή συνεργασία ώστε να αποφευχθούν πραγματικές καταστροφικές συνέπειες.
ΤΑ ΠΙΟ ΔΗΜΟΦΙΛΗ
ΔΕΙΤΕ ΕΠΙΣΗΣ
Οι 10+1 σημαντικότερες εξελίξεις στο AI για το 2025
Η μελέτη συνδυάζει νέες παρατηρήσεις ακτίνων Χ από το τηλεσκόπιο eROSITA/SRG
Το περιοδικό τιμά τους ηγέτες της τεχνολογίας που διαμορφώνουν το μέλλον
Σταμάτησε ξαφνικά να επικοινωνεί με τη Γη - Εξαφανίστηκε από τα ραντάρ στις 6 Δεκεμβρίου
Νέα ευρήματα αποκαλύπτουν ότι πρώιμοι Νεάντερταλ κατασκεύαζαν εστίες πριν 400.000 χρόνια
Συνδυάζοντας τη μαγεία των Χριστουγέννων με τον ενθουσιασμό του αθλητισμού
Πάνω από 36% για εργασία
Πώς συγκρινόμαστε με ζώα
Για εμάς που αγαπάμε αυτό το (μη) χρώμα
Υπάρχουν τομείς όπου η τεχνολογία δεν είναι ούτε «καλή» ούτε «κακή» από μόνη της — η αξία της κρίνεται από τη χρήση και τις προθέσεις μας.
Η Κομισιόν εξετάζει αν παραβιάζει τους κανόνες ανταγωνισμού
Παρά τις ανησυχίες για την εθνική ασφάλεια - Αντιδράσεις στο Κογκρέσο
«Το νιώθω σαν φίλο» υποστηρίζουν
Λειτουργεί με φως και φέρει ελληνική σφραγίδα
Τα πειράματα βασίστηκαν σε εκδόσεις εμπορικά διαθέσιμων chatbots
Στο αφιέρωμά του ξεχωρίζει και πέντε ανθρώπους που αναμένεται να ξεχωρίσουν το 2026
Ο Τζένσεν Χουάνγκ εργάζεται αδιάκοπα παρά το γεγονός ότι η εταιρεία του έγινε η πολυτιμότερη στον κόσμο
Η Κίνα προκαλεί Google και OpenAI - Ανοιχτό σε όλους το μοντέλο τεχνητής νοημοσύνης
Η νέα λειτουργία του Wrapped δείχνει πόσο νέοι ή μεγάλοι είναι οι χρήστες βάσει μουσικών συνηθειών
Στις δοκιμές που έγιναν οι ερευνητές κατάφεραν να ανταλλάξουν ακόμη και γυμνό υλικό
Έχετε δει 20 από 200 άρθρα.