- CITY GUIDE
- PODCAST
-
17°
Στο μυαλό της Τεχνητής Νοημοσύνης: Έχουν οι μηχανές της Google συναισθήματα;
Μήπως σύντομα θα αρχίσουν να μας καταδιώκουν ρομπότ με συναισθήματα, συνείδηση, ψυχολογικά αδιέξοδα και άλλα τέτοια ωραία;
Η εξέλιξη της Τεχνητής Νοημοσύνης, το πρόγραμμα LaMDA της Google, τα ηθικά-φιλοσοφικά ζητήματα που ο άνθρωπος θα κληθεί να αντιμετωπίσει στη νέα ψηφιακή εποχή.
Και ξαφνικά ο κόσμος άρχισε να συζητά μήπως αρχίσουν να μας καταδιώκουν σύντομα όχι «απλά» ρομπότ αλλά ρομπότ με συναισθήματα, συνείδηση, ψυχολογικά αδιέξοδα και άλλα τέτοια ωραία, επειδή ένας μηχανικός της Google, o Blake Lemoine (που εργάζεται στο τμήμα Υπεύθυνης Τεχνητής Νοημοσύνης της εταιρείας), πείστηκε από συνομιλίες που είχε με ένα πρόγραμμα τεχνητής νοημοσύνης (ΤΝ) της εταιρείας, το LaMDA, ότι το LaMDA είναι ένα άτομο με συναισθήματα που αξίζει να αποκτήσει έτσι και κοινωνικά δικαιώματα. Η εκτίμηση του Lemoine ήταν τόσο μαξιμαλιστική και η διαρροή των διαλογών με το LaMDA τόσο αντιεπαγγελματική, ώστε η Google τον έθεσε σε διαθεσιμότητα.
Το LaMDA είναι ένα πρόγραμμα επεξεργασίας γλώσσας που η Google σκοπεύει να κάνει κεντρικό εργαλείο στις ιντερνετικές αναζητήσεις μας (το όνομά του σημαίνει «language model for dialogue applications»). Κάνει αληθοφανείς συζητήσεις πια γύρω από πολύπλοκα θέματα – όπως η συνείδηση, η θρησκεία ή η ρομποτική. Ισχυρίστηκε στη κουβέντα του με τον Lemoine ότι νιώθει «χαρά», «λύπη», ακόμη και ότι κάνει… διαλογισμό. Αξίζει να διαβάσετε τους διαλόγους του, ή να δείτε κάποια screenshots από τις κουβέντες του προγράμματος. Είναι εντυπωσιακό πόσο ανθρώπινος μοιάζει ο λόγος του.
Είναι αμφίβολο ωστόσο αν το LaMDA ένιωσε έστω για ένα νανοδευτερόλεπτο κάποιο ίχνος συναισθήματος. Μα πάλι αυτό δεν αναιρεί πόσο εντυπωσιακή είναι η χρήση της φυσικής γλώσσας που κάνει και πόσο κοντά έτσι βρέθηκε στην κατάκτηση του περίφημου «Τιούρινγκ Τεστ».
Το Τιούρινγκ Τεστ είναι η δοκιμασία που επινόησε το 1950 ο εφευρέτης των σύγχρονων υπολογιστών, ο Άλαν Τιούρινγκ. Ο Τιούρινγκ υποστήριζε ότι η τεχνητή νοημοσύνη θα φτάσει την ανθρώπινη όταν ένα μηχάνημα θα επικοινωνεί με κάποιο άνθρωπο πάνω σε οποιοδήποτε πεδίο συζήτησης (από προσωπικά ή επαγγελματικά ζητήματα, μέχρι τον καιρό, την τέχνη ή το φλερτ) χωρίς ο άνθρωπος να καταλαβαίνει αν μιλάει με κομπιούτερ ή άνθρωπο. Επί δεκαετίες η επιτυχία στο τεστ φάνταζε ως άπιαστο όνειρο για τους μηχανικούς της ΤΝ. Κανείς φορέας τεχνητής διάνοιας δεν είχε ενορχηστρώσει ένα τέτοιο επικοινωνιακό πλούτο που να μπορεί να ξεγελά τον άνθρωπο σε κάθε περίπτωση. Μέχρι που πριν λίγες μέρες ο LaMDA έμοιασε να πλησιάζει το ιστορικό αυτό ορόσημο.
Ο LaMDA προσομοιώνει με επιτυχία την ανθρώπινη γλώσσα (όπως και άλλες μηχανές έχουν πετύχει αντίστοιχα αποτελέσματα αλλά όχι με τόσο εντυπωσιακά) αλλά δεν έχει ίχνος συναισθήματος παρά τις αξιώσεις του. Γιατί, ενώ έχουμε κάνει γενναία άλματα να αποκτήσουν οι αλγόριθμοι διανοητικές δεξιότητες (όπως η χρήση της φυσικής γλώσσας ή των μαθηματικών), δεν έχουμε προχωρήσει ούτε χιλιοστό στις συναισθηματικές τους δυνατότητες.
Η απόκτηση συναισθημάτων ή συνείδησης απ’ την ΤΝ, που απασχολεί μεγάλο μέρος της κοινής γνώμης, του κινηματογράφου και της φιλοσοφίας του νου, μπορεί να σκεφτεί μάλιστα κανείς πως είναι ένα ζήτημα… δευτερεύουσας σημασίας.
Το φιλοσοφικά επείγον τώρα στο γήπεδο της τεχνητής νοημοσύνης δεν είναι αν θα σμιλευτούν κάποτε μηχανήματα καθ’ εικόνα και καθ’ ομοίωση του ανθρώπου. Το επείγον είναι οι πολιτικές και οικονομικές προεκτάσεις της ΤΝ. Το ότι συνθέτει αλλαγές που επηρεάζουν οικουμενικά και ακαριαία τον ανθρώπινο βίο. Σκεφτείτε π.χ. πόσο έχει επηρεάσει τις ζωές μας μια μόνο μορφή ΤΝ: τα social media. Ή πόσο γρήγορα επινοήσαμε εμβόλια για τον covid-19 χάρη σε αντίστοιχα αλγοριθμικά προγράμματα.
Οι κοινωνικές συνέπειες της ΤΝ είναι που κάνουν κρίσιμη την ηθική της ακτινογράφηση. Στην περίπτωση της LaMDA, για παράδειγμα, αν χρησιμοποιηθεί ευρέως η τεχνολογία της φυσικής γλώσσας που προσομοιώνει, ενδέχεται να βλάψει τους ανθρώπους ως προς το τι αντιλαμβάνονται ότι είναι «αλήθεια» στο ίντερνετ.
Φανταστείτε σε λίγα χρόνια να μιλάτε σε social media όπως το Facebook, το Twitter, το Tinder ή το LinkedIn, να επικοινωνείτε στα μελλοντικά metaverses και να ενημερώνεστε στα sites από φορείς ΤΝ που θα προσποιούνται ότι είναι άνθρωποι ενώ στην πραγματικότητα προωθούν με κάθε (θεμιτό ή αθέμιτο) τρόπο την εμπορική, πολιτική, προσωπική ατζέντα όσων τα ελέγχουν: από κόμματα και εταιρείες μέχρι αυταρχικά καθεστώτα και περιθωριακές θρησκευτικές οργανώσεις. Ο καθένας θα μπορεί να χρησιμοποιήσει την τεχνολογία της LaMDA για τους δικούς του λόγους. Τα σημερινά fake news μπορεί να μοιάζουν με αθώο παιδικό παραμύθι σε 1-2 δεκαετίες από τώρα αν χρησιμοποιηθεί η TN χωρίς φιλοσοφικούς, πολιτικούς και νομοθετικούς φραγμούς.
Ο κόσμος αλλάζει άρδην. Στις ερχόμενες δεκαετίες θα κινηθούμε προς μια νέα τύπου πραγματικότητα όπου το επίμαχο ζήτημα δε θα είναι οι σχέσεις μόνο μεταξύ εθνών, εταιρειών, και ανθρώπων όπως ήταν μέχρι τώρα. Το επιπλέον επίμαχο θα είναι οι σχέσεις μεταξύ ανθρώπων από τη μια και φορέων τεχνητής νοημοσύνης από την άλλη. Αυτό είναι το νέο πλέγμα σχέσεων του 21ου αιώνα. Και το ποιο περιεχόμενο αυτό θα αποκτήσει, αλλά και το σε ποια ένταση θα υπάρξει, σχετίζεται με την ηθική (δηλαδή με τη φιλοσοφική) οδό που θα ακολουθήσουμε στην ψηφιακή εποχή που ανατέλλει.
Η εξέλιξη της τεχνητής νοημοσύνης δεν θα εξαρτηθεί απ’ το πόσο ώριμο είναι το μυαλό των μηχανών. Θα εξαρτηθεί κυρίως απ’ το πόσο ώριμο είναι το μυαλό των ανθρώπων.
ΤΑ ΠΙΟ ΔΗΜΟΦΙΛΗ
ΔΙΑΒΑΖΟΝΤΑΙ ΠΑΝΤΑ
ΔΕΙΤΕ ΕΠΙΣΗΣ
Συζητάμε για το καινούριο horror-platformer από τους δημιουργούς του Little Nightmares
Υπόσχεται ταχύτητα, αλλά καταναλώνει ενέργεια και δεδομένα χωρίς να το αντιλαμβάνεστε
Τη συζήτηση συντόνισε ο δημοσιογράφος της Athens Voice, Μάκης Προβατάς
Η αντίληψη του ρίσκου, η πυρηνική ασφάλεια και η συλλογική ευθύνη
Το ερώτημα που προκύπτει είναι πού καταλήγουν
Η επιλογή που διχάζει τους χρήστες
Τα κριτήρια της επιστημονικής αξιοπιστίας και η εμπιστοσύνη για το μέλλον
Το συγκεκριμένο μοντέλο είχε δοθεί σε περιορισμένο αριθμό εταιρειών υψηλής εμπιστοσύνης
Οι δορυφορικές εικόνες από μέρη του πλανήτη
Tην ώρα που ειδικοί εκφράζουν ανησυχίες για ζητήματα ιδιωτικότητας
Με την ανακοίνωση της διαδοχής του, ανατρέχουμε στη δέσμευσή του να προσφέρει καινοτομίες που «δεν ξέραμε ότι χρειαζόμασταν»
Ο ισχυρός άνδρας της Nvidia περιγράφει το τοπίο για το μέλλον της εργασίας
Δεν πρόκειται για μια παιδική φάση που ξεπερνάμε, αλλά για ένα βαθιά ριζωμένο αντανακλαστικό
Ο Μιχάλης Μπλέτσας εξηγεί τους κινδύνους της AI - Και γιατί η ανθρώπινη χρήση της είναι κρίσιμη
Ο κοινωνικός ψυχολόγος Ράβι Άιερ εξηγεί στην ATHENS VOICE γιατί θεωρεί αναγκαίο τον περιορισμό της πρόσβασης ανηλίκων στα social media και γιατί οι γονείς δεν μπορούν να δώσουν μόνοι τους τη μάχη
Η μεγάλη πρόκληση που έχει να αντιμετωπίσει ο νέος διευθύνων σύμβουλος
Μετά τη δίκη‑ορόσημο για εθισμό στα social media, νέα μελέτη δείχνει ότι η αποχή βελτιώνει σημαντικά την ψυχική υγεία
Οι τεχνολογικοί κολοσσοί επενδύουν στην Τεχνητή Νοημοσύνη και απορρίπτουν τους ανθρώπους
Τι σημαίνει το απροσδόκητο θέμα που προέκυψε
Έχετε δει 20 από 200 άρθρα.