Είναι οι κλωνοποιημένες φωνές celebrities το νέο «όπλο» της τεχνητής νοημοσύνης;
Πώς μπορεί να χρησιμοποιηθεί η δυνατότητα αυτή από απατεώνες
Είναι οι κλωνοποιημένες φωνές celebrities το νέο «όπλο» της τεχνητής νοημοσύνης; - Πώς μπορούν να χρησιμοποιηθεί η δυνατότητα αυτή από απατεώνες
Η κλωνοποίηση φωνής από την τεχνητή νοημοσύνη είναι το νέο άγχος των διασήμων. Η Τζένιφερ Άνιστον, η Όπρα Γουίνφρεϊ και η Κάιλι Τζένερ είναι μερικές από τις celebrities, που έχουν κλωνοποιήσει τη φωνή τους διάφοροι επιτήδειοι.
Πρόσφατα, μάλιστα, ο Ντέιβιντ Ατένμπορο είπε πως είναι «βαθιά προβληματισμένο» όταν ανακάλυψε ότι η φωνή του κλωνοποιήθηκε μέσω τεχνητής νοημοσύνης και χρησιμοποιήθηκε για να μεταδώσει fake news στις ΗΠΑ.
Με την τεχνολογία να αναπτύσσεται και την κλωνοποίηση φωνής να εξελίσσεται σε μοντέλα ικανά να μιμηθούν τις πιο λεπτές παύσεις και αναπνοές της ανθρώπινης χροιάς, οι απανταχού celebrities καλούνται να προσέχουν ολοένα και περισσότερο μήπως χρησιμοποιηθεί η φωνή τους από απατεώνες.
Ο Ντομινίκ Λις, ειδικός στην τεχνητή νοημοσύνη στον κινηματογράφο και την τηλεόραση, δήλωσε στον Guardian τη Δευτέρα: «Οι νόμοι μας για την προστασία της ιδιωτικής ζωής και τα πνευματικά δικαιώματα δεν είναι ενημερωμένοι για το τι μπορεί να κάνει αυτή η νέα τεχνολογία, οπότε υπάρχουν πολύ λίγα πράγματα που μπορεί να κάνει κάποιος διάσημος».
«Η κυβέρνηση πρέπει οπωσδήποτε να εξετάσει [την κλωνοποίηση φωνής], επειδή είναι ένα ολοένα και μεγαλύτερη απειλή για όλους», δήλωσε ακολούθως και συμπλήρωσε:
«Χρειάζεται κυβερνητική ρύθμιση προκειμένου να αποτραπεί η κατάχρηση του ΑΙ ... δεν μπορούμε να επιτρέψουμε να είναι ελεύθερη η χρήση της τεχνητής νοημοσύνης γιατί μπορεί να φτάσει σε επίπεδα που δεν φανταζόμαστε».
Σύμφωνα με στοιχεία έρευνας που έκανε μία τράπεζα, οι απάτες που βασίστηκαν κλωνοποίησης φωνής μέσω AI αυξήθηκαν κατά 30% στο Ηνωμένο Βασίλειο τον τελευταίο χρόνο. Άλλη τράπεζα, διαπίστωσε ότι το 28% των ανθρώπων είχε γίνει στόχος εξαπάτισης κλωνοποίησης φωνής τεχνητής νοημοσύνης τουλάχιστον μία φορά τον τελευταίο χρόνο.
Η κλωνοποίηση φωνής φέρεται επίσης να χρησιμοποιείται από απατεώνες για να υποδυθούν παιδιά που καλούν τους γονείς τους για να τους πουν πως χρειάζονται επειγόντως χρήματα για κάποιο πρόβλημα που αντιμετωπίζουν.
Όταν μια νέα επιλογή επεξεργασίας φωνής που παρείχε το τελευταίο μοντέλο τεχνητής νοημοσύνης της OpenAI, το ChatGPT-4, παρουσίασε τόνους που ήταν πολύ κοντά σε εκείνους της Σκάρλετ Γιόχανσον, δήλωσε ότι σοκαρίστηκε και εξοργίστηκε καθώς η φωνή «ακουγόταν τόσο τρομακτικά παρόμοια με τη δική μου που οι πιο στενοί μου φίλοι και τα ειδησεογραφικά πρακτορεία δεν μπορούσαν να καταλάβουν τη διαφορά».
ΤΑ ΠΙΟ ΔΗΜΟΦΙΛΗ
ΔΕΙΤΕ ΕΠΙΣΗΣ
Το περιοδικό τιμά τους ηγέτες της τεχνολογίας που διαμορφώνουν το μέλλον
Σταμάτησε ξαφνικά να επικοινωνεί με τη Γη - Εξαφανίστηκε από τα ραντάρ στις 6 Δεκεμβρίου
Νέα ευρήματα αποκαλύπτουν ότι πρώιμοι Νεάντερταλ κατασκεύαζαν εστίες πριν 400.000 χρόνια
Συνδυάζοντας τη μαγεία των Χριστουγέννων με τον ενθουσιασμό του αθλητισμού
Πάνω από 36% για εργασία
Πώς συγκρινόμαστε με ζώα
Για εμάς που αγαπάμε αυτό το (μη) χρώμα
Υπάρχουν τομείς όπου η τεχνολογία δεν είναι ούτε «καλή» ούτε «κακή» από μόνη της — η αξία της κρίνεται από τη χρήση και τις προθέσεις μας.
Η Κομισιόν εξετάζει αν παραβιάζει τους κανόνες ανταγωνισμού
Παρά τις ανησυχίες για την εθνική ασφάλεια - Αντιδράσεις στο Κογκρέσο
«Το νιώθω σαν φίλο» υποστηρίζουν
Λειτουργεί με φως και φέρει ελληνική σφραγίδα
Τα πειράματα βασίστηκαν σε εκδόσεις εμπορικά διαθέσιμων chatbots
Στο αφιέρωμά του ξεχωρίζει και πέντε ανθρώπους που αναμένεται να ξεχωρίσουν το 2026
Ο Τζένσεν Χουάνγκ εργάζεται αδιάκοπα παρά το γεγονός ότι η εταιρεία του έγινε η πολυτιμότερη στον κόσμο
Η Κίνα προκαλεί Google και OpenAI - Ανοιχτό σε όλους το μοντέλο τεχνητής νοημοσύνης
Η νέα λειτουργία του Wrapped δείχνει πόσο νέοι ή μεγάλοι είναι οι χρήστες βάσει μουσικών συνηθειών
Στις δοκιμές που έγιναν οι ερευνητές κατάφεραν να ανταλλάξουν ακόμη και γυμνό υλικό
Kαθώς πλέον ανταγωνίζεται μια ανεξάντλητη ποσότητα περιεχομένου που παράγεται μαζικά, γρήγορα και σχεδόν δωρεάν
Τα βίντεο, καλοφτιαγμένα και πειστικά, παραπλανούν ανυποψίαστους χρήστες
Έχετε δει 20 από 200 άρθρα.