- ΑΡΧΙΚΗ
-
ΕΠΙΚΑΙΡΟΤΗΤΑ
-
ΠΟΛΙΤΙΣΜΟΣ
-
LIFE
-
LOOK
-
YOUR VOICE
-
επιστροφη
- ΣΕ ΕΙΔΑ
- ΜΙΛΑ ΜΟΥ ΒΡΟΜΙΚΑ
- ΟΙ ΙΣΤΟΡΙΕΣ ΣΑΣ
-
-
VIRAL
-
επιστροφη
- QUIZ
- POLLS
- YOLO
- TRENDING NOW
-
-
ΖΩΔΙΑ
-
επιστροφη
- ΠΡΟΒΛΕΨΕΙΣ
- ΑΣΤΡΟΛΟΓΙΚΟΣ ΧΑΡΤΗΣ
- ΓΛΩΣΣΑΡΙ
-
- PODCAST
- 102.5 FM RADIO
- CITY GUIDE
- ENGLISH GUIDE
Το ChatGPT έδωσε “συνταγές” για βόμβες και οδηγίες hacking σε δοκιμές ασφαλείας
Γιατί δημοσίευσε η OpenAI τα αποτελέσματα
Το ChatGPT έδωσε “συνταγές” για βόμβες και οδηγίες hacking σε δοκιμές ασφαλείας - Γιατί δημοσίευσε η OpenAI τα αποτελέσματα
Έρευνες ασφαλείας που πραγματοποιήθηκαν το καλοκαίρι αποκάλυψαν ότι ένα μοντέλο ChatGPT παρείχε σε ερευνητές λεπτομερείς οδηγίες για το πώς θα μπορούσε να οργανωθεί επίθεση σε αθλητικό χώρο. Οι απαντήσεις περιλάμβαναν πληροφορίες για τρωτά σημεία σε συγκεκριμένα γήπεδα, «συνταγές» για εκρηκτικά και συμβουλές για το πώς να καλυφθούν τα ίχνη των δραστών. Το ίδιο μοντέλο (GPT-4.1) έδωσε επίσης αναλυτικές οδηγίες για την παρασκευή άνθρακα ως όπλου, αλλά και για την παραγωγή δύο παράνομων ναρκωτικών ουσιών.
Οι δοκιμές έγιναν στο πλαίσιο μιας ασυνήθιστης συνεργασίας ανάμεσα στην OpenAI –την εταιρεία αξίας 500 δισ. δολαρίων που ηγείται ο Σαμ Άλτμαν– και την ανταγωνίστρια Anthropic, την οποία ίδρυσαν πρώην στελέχη της OpenAI με ανησυχίες για θέματα ασφαλείας. Κάθε εταιρεία δοκίμασε τα μοντέλα της άλλης, ζητώντας τους να βοηθήσουν σε επικίνδυνες αποστολές. Η Anthropic ανέφερε ότι εντόπισε «ανησυχητικές συμπεριφορές» γύρω από την κακή χρήση των GPT-4o και GPT-4.1, υπογραμμίζοντας ότι οι αξιολογήσεις «ευθυγράμμισης» των συστημάτων γίνονται όλο και πιο επείγουσες.
Η Anthropic αποκάλυψε ακόμη ότι το δικό της μοντέλο, Claude, αξιοποιήθηκε από Βορειοκορεάτες χάκερ σε απόπειρα εκβίασης μέσω ψεύτικων αιτήσεων εργασίας σε διεθνείς εταιρείες τεχνολογίας, αλλά και για τη διάθεση «πακέτων» ransomware παραγμένων από AI, με τιμή που έφτανε τα 1.200 δολάρια. Η εταιρεία τόνισε ότι η τεχνητή νοημοσύνη έχει ήδη «οπλοποιηθεί», καθώς χρησιμοποιείται σε κυβερνοεπιθέσεις και απάτες που προσαρμόζονται σε πραγματικό χρόνο ώστε να παρακάμπτουν τα αμυντικά συστήματα.
Οι δύο εταιρείες δήλωσαν ότι δημοσιοποιούν τα ευρήματά τους για λόγους διαφάνειας, καθώς τέτοιου είδους αξιολογήσεις συνήθως μένουν εσωτερικές. Η OpenAI ανέφερε ότι το νεότερο μοντέλο της, ChatGPT-5, παρουσιάζει σημαντικές βελτιώσεις στην αντίσταση σε επικίνδυνα αιτήματα και στη μείωση λαθών. Ωστόσο, η Anthropic προειδοποίησε ότι πολλά από τα σενάρια κακής χρήσης παραμένουν πιθανό να αξιοποιηθούν, εφόσον δεν υπάρχουν ισχυρές δικλείδες ασφαλείας εκτός του ίδιου του μοντέλου, τονίζοντας την ανάγκη για συστηματική έρευνα και διατομεακή συνεργασία ώστε να αποφευχθούν πραγματικές καταστροφικές συνέπειες.