Τεχνολογια - Επιστημη

Μπλέτσας: Ο μεγαλύτερος κίνδυνος δεν είναι η τεχνητή νοημοσύνη, αλλά η ανθρώπινη βλακεία

Ο Μιχάλης Μπλέτσας εξηγεί τους κινδύνους της AI - Και γιατί η ανθρώπινη χρήση της είναι κρίσιμη

Newsroom
1’ ΔΙΑΒΑΣΜΑ

Ο Μιχάλης Μπλέτσας αναλύει τους κινδύνους του AI, το Mythos, την κυβερνοασφάλεια και τον καθοριστικό ρόλο των ανθρώπινων αποφάσεων

Η ραγδαία εξέλιξη της τεχνητής νοημοσύνης επαναφέρει στο προσκήνιο τις ανησυχίες γύρω από την κυβερνοασφάλεια, τόσο σε επίπεδο κρατών όσο και επιχειρήσεων. Στο πλαίσιο αυτό, ιδιαίτερη συζήτηση έχει προκαλέσει η δραστηριότητα της εταιρείας Anthropic και το μοντέλο τεχνητής νοημοσύνης Mythos.

Ο διοικητής της Εθνικής Αρχής Κυβερνοασφάλειας και ερευνητής στο MIT Media Lab, Μιχάλης Μπλέτσας, μιλώντας στο ΕΡΤNews, επιχείρησε να αποδομήσει την εικόνα επικινδυνότητας που συνοδεύει τα νέα αυτά μοντέλα, τονίζοντας ότι η πραγματική απειλή δεν βρίσκεται στην τεχνολογία, αλλά στον τρόπο χρήσης της.

Μπλέτσας για το Mythos και την κυβερνοασφάλεια: Περισσότερο μάρκετινγκ παρά επανάσταση

Αναφερόμενος στο μοντέλο Mythos της Anthropic, ο κ. Μπλέτσας εξήγησε ότι πρόκειται για ένα σύστημα παρόμοιο με το ChatGPT, το οποίο έχει ρυθμιστεί ώστε να εντοπίζει ευπάθειες σε λογισμικό.

Όπως σημείωσε, η προβολή του ως «επικίνδυνου» αποτελεί σε μεγάλο βαθμό επικοινωνιακή στρατηγική. Οι δοκιμές του πραγματοποιήθηκαν σε εφαρμογές ανοιχτού κώδικα, όπου πράγματι εντοπίστηκαν ευπάθειες, ωστόσο –όπως διευκρίνισε– οι περισσότερες από αυτές είχαν ήδη ανακαλυφθεί από άλλα μοντέλα.

«Δεν πρόκειται για κάποιο επαναστατικό μοντέλο», υπογράμμισε.

Για τον λόγο αυτό, το Mythos δεν διατίθεται ευρέως, αλλά περιορίζεται σε συγκεκριμένους δοκιμαστές, με στόχο τη χρήση του για την ενίσχυση της ασφάλειας, μέσω του εντοπισμού και της διόρθωσης αδυναμιών πριν αξιοποιηθούν κακόβουλα.

Παράλληλα, επεσήμανε ότι η τεχνητή νοημοσύνη ενισχύει σημαντικά τις δυνατότητες κυβερνοεπιθέσεων, κυρίως αυξάνοντας την ταχύτητα και την κλίμακά τους. Άτομα χωρίς προηγμένες τεχνικές δεξιότητες μπορούν πλέον να εκτελέσουν επιθέσεις πιο εύκολα, καθώς πολλά στάδια αυτοματοποιούνται.

Η Ανθρώπινη ευθύνη και ο πραγματικός κίνδυνος στη χρήση της τεχνητής νοημοσύνης

Ιδιαίτερη έμφαση έδωσε ο κ. Μπλέτσας στη χρήση της τεχνητής νοημοσύνης σε κρίσιμες αποφάσεις, όπως στρατιωτικές εφαρμογές ή συστήματα επιτήρησης.

Σχολιάζοντας το αίτημα της Anthropic προς το Υπουργείο Άμυνας των ΗΠΑ να μην επιτρέπεται σε συστήματα AI να λαμβάνουν αποφάσεις ζωής ή θανάτου, προειδοποίησε για τον αυξημένο κίνδυνο λαθών.

Όπως ανέφερε, όταν ένας χειριστής καλείται να αξιολογήσει μαζικά δεδομένα –π.χ. εκατοντάδες ή χιλιάδες στόχους αντί για λίγους– ο χρόνος κρίσης μειώνεται δραματικά, αυξάνοντας την πιθανότητα σφαλμάτων.

«Εκείνο που θα πρέπει να φοβόμαστε πολύ περισσότερο είναι η ανθρώπινη βλακεία, όχι η τεχνητή νοημοσύνη», σημείωσε χαρακτηριστικά, επισημαίνοντας ότι το πρόβλημα προκύπτει όταν ανατίθενται στην AI αποφάσεις που δεν είναι ακόμη σε θέση να λάβει αξιόπιστα.

Σε ό,τι αφορά την Ελλάδα, ο κ. Μπλέτσας τόνισε ότι η τεχνητή νοημοσύνη αρχίζει ήδη να αξιοποιείται στον τομέα της κυβερνοασφάλειας, κυρίως μέσω της λεγόμενης «σύντηξης πληροφοριών» (data fusion).

Πρόκειται για τη διαδικασία συνδυασμού μεγάλου όγκου δεδομένων από πολλαπλές πηγές, με στόχο την κατανόηση και την ταυτοποίηση γεγονότων. Δεδομένου ότι ο όγκος των πληροφοριών αυξάνεται διαρκώς, η ανθρώπινη ανάλυση δεν επαρκεί, καθιστώντας την AI κρίσιμο εργαλείο υποστήριξης.

Όπως κατέληξε, η τεχνητή νοημοσύνη μπορεί να αποτελέσει ισχυρό σύμμαχο, υπό την προϋπόθεση ότι χρησιμοποιείται με ορθολογισμό και επίγνωση των περιορισμών της.