- CITY GUIDE
- PODCAST
-
15°
Προειδοποίηση 26 ειδικών: Η τεχνητή νοημοσύνη μπορεί πια να χρησιμοποιηθεί κακόβουλα από χάκερ, τρομοκράτες και κυβερνήσεις
Μέσα στα επόμενα 5-10 χρόνια προβλέπουν μεγάλη αύξηση του κυβερνο-εγκλήματος
Η τεχνητή νοημοσύνη έχει πια φθάσει σε ένα σημείο ανάπτυξης που είναι δυνατό να την εκμεταλλευθούν κακόβουλα και προς όφελός τους αυταρχικά κράτη, τρομοκράτες και χάκερ, προειδοποιούν σε μια νέα έκθεση-καμπανάκι κινδύνου 26 ειδικοί σε θέματα ασφάλειας νέων τεχνολογιών.
Η έκθεση προβλέπει μέσα στα επόμενα πέντε έως δέκα χρόνια, μεταξύ άλλων, την ταχεία αύξηση του κυβερνο-εγκλήματος με τη βοήθεια της τεχνητής νοημοσύνης, τη χειραγώγηση των αυτόνομων drones και των αυτόνομων οχημάτων (που μπορεί να μετατρέπονται σε πυραύλους και σε φονικά όπλα κατά αθώων), τη διείσδυση και την πρόκληση βλαβών σε ζωτικά δίκτυα υποδομών, καθώς και την ευρεία εξάπλωση της κατευθυνόμενης προπαγάνδας με ποικίλους στόχους (από τον επηρεασμό των εκλογών έως την ειδησεογραφική παραπληροφόρηση) μέσω π.χ. της χρήσης αυτόνομων προγραμμάτων λογισμικού (bots) στο διαδίκτυο και της δημιουργίας ψευδών βίντεο (fake videos).
Η έκθεση κάνει λόγο για «νέα ισχυρά εργαλεία χειραγώγησης της κοινής γνώμης σε αδιανόητη στο παρελθόν κλίμακα», σε συνδυασμό με άνευ προηγουμένου δυνατότητες παρακολούθησης των πολιτών και παραβίασης της ιδιωτικότητας και των προσωπικών δεδομένων τους.
Οι ειδικοί καλούν τις κυβερνήσεις και τις εταιρίες όλου του κόσμου να συνειδητοποιήσουν τον κίνδυνο που πλέον αποτελούν οι μυριάδες εφαρμογές της τεχνητής νοημοσύνης και να κάνουν κάτι γι' αυτό. Επισημαίνουν ότι η τεχνητή νοημοσύνη αποτελεί άλλη μια τυπική τεχνολογία-Ιανό με «διπλή χρήση», τόσο για καλό όσο και για κακό, εφόσον βρεθεί στα λάθος χέρια.
Η 100σέλιδη έκθεση, στην οποία συμμετείχαν ειδικοί από το Ινστιτούτο για το Μέλλον της Ανθρωπότητας του Πανεπιστημίου της Οξφόρδης, του Κέντρου για τη Μελέτη του Υπαρξιακού Κινδύνου του Πανεπιστημίου του Κέιμπριτζ, του Κέντρου για τη Νέα Αμερικανική Ασφάλεια, του Ιδρύματος Electronic Frontier και άλλων οργανισμών, προβλέπει αυτοματοποιημένες πλέον επιθέσεις από χάκερ (στον «αυτόματο πιλότο»), τη χρήση λογισμικού σύνθεσης φωνής για λόγους εξαπάτησης, την αποστολή απατηλών ηλεκτρονικών μηνυμάτων-παγίδων που θα περιέχουν φαινομενικά αξιόπιστες προσωπικές πληροφορίες αντλημένες από τα μέσα κοινωνικής δικτύωσης κ.α.
Οι ειδικοί προτείνουν νέους νόμους, στενότερη συνεργασία μεταξύ πολιτικών και τεχνοκρατών και μεγαλύτερη παρέμβαση της κοινωνίας των πολιτών στο ζήτημα. Δείτε εδώ την έκθεση.
ΤΑ ΠΙΟ ΔΗΜΟΦΙΛΗ
ΔΕΙΤΕ ΕΠΙΣΗΣ
Δημιουργείται ένας από τους μεγαλύτερους κόμβους τεχνητής νοημοσύνης σε Ασία-Ειρηνικό
«Έπεσαν» Canvas και Zoom
...και τα βρίσκουμε στα ρούχα μας ή ακόμα και μέσα στον κάδο και στα λοιπά τμήματα της συσκευής
Συνομιλία με έναν φιλόσοφο στην εποχή της Τεχνητής Νοημοσύνης
Ανάλυση γενετικού υλικού από πίσσα σημύδας στην Εσθονία φέρνει στο φως σκηνές της Λίθινης Εποχής
Mελέτες αρχαιολόγων στην Καταλονία - Xρησιμοποιούνταν για επικοινωνία και μουσική έκφραση πριν από 6.000 χρόνια
Νέα ενημέρωση Android καταργεί την ιδιωτικότητα στα εταιρικά κινητά
Η αποστολή Perseverance της NASA κατέγραψε ηλεκτρικές εκκενώσεις στην ατμόσφαιρα του πλανήτη
Έρευνα διαπιστώνει ότι το δωρεάν chatbot της OpenAI αποτυγχάνει να εντοπίσει επικίνδυνες συμπεριφορές
Δείτε τον σεισμικό χάρτη της χώρας
Ακόμη και έτσι όμως, οι γονείς ζουν με συνεχή αγωνία
Ανοιχτή επιστολή εκφράζει ανησυχίες για απώλεια θέσεων εργασίας και κλιματικές επιπτώσεις
Ακυκλοφόρητη σκηνή θα κάνει πρεμιέρα σε animation μικρού μήκους στο βιντεοπαιχνίδι
Η ιστορία που έχει συγκλονίσει τον κόσμο
Εικόνες υψηλής ανάλυσης από την Ανταρκτική και τη Γη του Πυρός, μόλις 50 ώρες μετά την εκτόξευση
Προσφορές που ενθουσιάζουν τους λάτρεις της τεχνολογίας και σώζουν το πορτοφόλι σου
Oι επιστήμονες κατάφεραν να χαρτογραφήσουν με ακρίβεια αυτές τις φάσεις
Στις 28 και 29 Νοεμβρίου 2025 στο Πανεπιστήμιο της Αθήνας
Τα ευρήματα μελέτης πανεπιστημίων σε Ηνωμένο Βασίλειο και Ιταλία
Έρευνα με σχεδόν 100.000 συμμετέχοντες διαπιστώνει μειωμένη προσοχή, άγχος και κακή ποιότητα ύπνου
Έχετε δει 20 από 200 άρθρα.