Τεχνολογια - Επιστημη

Σοκαριστική αύξηση του υλικού κακοποίησης ανηλίκων μέσω τεχνητής νοημοσύνης το 2025

Έκθεση αποκαλύπτει ραγδαία άνοδο και πιο ακραίο περιεχόμενο - Οι αρχές προειδοποιούν για σοβαρούς κινδύνους

Newsroom
1’ ΔΙΑΒΑΣΜΑ

Εκτόξευση του υλικού κακοποίησης ανηλίκων που παράγεται από τεχνητή νοημοσύνη το 2025 - Οι ειδικοί κρούουν τον κώδωνα του κινδύνου για το dark web.

Η ποσότητα υλικού σεξουαλικής κακοποίησης ανηλίκων που δημιουργείται με τεχνητή νοημοσύνη και εντοπίζεται στο διαδίκτυο αυξήθηκε κατά 14% το 2025, σύμφωνα με τον οργανισμό Internet Watch Foundation (IWF).

Η οργάνωση εντόπισε 8.029 εικόνες και βίντεο ρεαλιστικού περιεχομένου κακοποίησης ανηλίκων (CSAM) που δημιουργήθηκαν με τεχνητή νοημοσύνη, σημειώνοντας αύξηση 14% σε σχέση με το προηγούμενο έτος. Ιδιαίτερα ανησυχητική είναι η εκρηκτική αύξηση των βίντεο, που ξεπέρασε τις 260 φορές.

Από τα 3.443 βίντεο, το 65% ταξινομήθηκε ως Κατηγορία Α, δηλαδή το πιο σοβαρό επίπεδο σύμφωνα με τη νομοθεσία του Ηνωμένου Βασιλείου. Το αντίστοιχο ποσοστό για μη AI‑παραγόμενο υλικό ήταν 43%, γεγονός που, σύμφωνα με τον οργανισμό, δείχνει ότι η τεχνολογία χρησιμοποιείται για τη δημιουργία ακόμη πιο επιβαρυντικού περιεχομένου.

Η διευθύνουσα σύμβουλος του IWF, Κέρι Σμιθ, δήλωσε: «Η τεχνολογική πρόοδος δεν μπορεί να γίνεται εις βάρος της ασφάλειας και της ευημερίας των παιδιών. Παρότι η τεχνητή νοημοσύνη έχει θετικές δυνατότητες, είναι τρομακτικό να βλέπουμε ότι μπορεί να χρησιμοποιηθεί με τρόπους που καταστρέφουν ζωές. Αυτό το υλικό είναι επικίνδυνο».

Αναλυτής του IWF ανέφερε ότι συνομιλίες δραστών στο dark web δείχνουν πως οι τεχνολογικές εξελίξεις αντιμετωπίζονται «με ενθουσιασμό» από όσους αναζητούν τέτοιο υλικό. Οι συζητήσεις επικεντρώνονται στη βελτίωση της ρεαλιστικότητας των συστημάτων AI, καθώς και στη δυνατότητά τους να προσθέτουν ήχο ή να αλλοιώνουν εικόνες πραγματικών παιδιών.

Ο IWF, που εδρεύει στο Ηνωμένο Βασίλειο και λειτουργεί διεθνή γραμμή αναφοράς, σημείωσε ότι οι δράστες συζητούν επίσης τη χρήση αυτόνομων “agentic” συστημάτων, τα οποία μπορούν να εκτελούν εργασίες χωρίς ανθρώπινη παρέμβαση.

Στο Ηνωμένο Βασίλειο, τεχνολογικές εταιρείες και οργανισμοί προστασίας παιδιών έχουν πλέον τη δυνατότητα να ελέγχουν εάν εργαλεία τεχνητής νοημοσύνης μπορούν να παράγουν τέτοιο υλικό, στο πλαίσιο μέτρων που στοχεύουν στην πρόληψη της κακοποίησης.

Η κυβέρνηση έχει δώσει άδεια σε επιλεγμένες εταιρείες και φορείς να εξετάζουν γενετικά μοντέλα τεχνητής νοημοσύνης – την τεχνολογία πίσω από συστήματα όπως τα chatbots και οι δημιουργοί εικόνων – ώστε να διασφαλίζεται ότι διαθέτουν επαρκείς μηχανισμούς ασφαλείας.

«Τα παιδιά, τα θύματα και οι επιζώντες δεν μπορούν να περιμένουν», τόνισε η Σμιθ. «Η νέα τεχνολογία πρέπει να πληροί τα υψηλότερα πρότυπα. Σε ορισμένες περιπτώσεις, διακυβεύονται ζωές».

Ο IWF σημείωσε ότι η αύξηση του υλικού που επαληθεύει ο οργανισμός είναι άμεσα συνδεδεμένη με τη βελτίωση και τη διάδοση των συστημάτων AI, με τα βίντεο να παρουσιάζουν τη μεγαλύτερη άνοδο.

Ο οργανισμός δημοσίευσε επίσης δημοσκόπηση που δείχνει ότι 8 στους 10 ενήλικες στο Ηνωμένο Βασίλειο ζητούν νομοθεσία που θα διασφαλίζει ότι τα συστήματα AI αναπτύσσονται με προτεραιότητα την ασφάλεια και με πρόβλεψη για μελλοντικούς κινδύνους. Πέρυσι, η κυβέρνηση ανακοίνωσε απαγόρευση κατοχής, δημιουργίας ή διανομής μοντέλων AI που έχουν σχεδιαστεί για παραγωγή υλικού σεξουαλικής κακοποίησης ανηλίκων.

(Mε πληροφορίες Guardian)