Τεχνολογια - Επιστημη

Στο μυαλό της Τεχνητής Νοημοσύνης: Έχουν οι μηχανές της Google συναισθήματα;

Μήπως σύντομα θα αρχίσουν να μας καταδιώκουν ρομπότ με συναισθήματα, συνείδηση, ψυχολογικά αδιέξοδα και άλλα τέτοια ωραία;

bio_photo.png
Γιώργος Χατζηβασιλείου
3’ ΔΙΑΒΑΣΜΑ
Κοριτσάκι και ρομπότ
© Andy Kelly / Unsplash

Η εξέλιξη της Τεχνητής Νοημοσύνης, το πρόγραμμα LaMDA της Google, τα ηθικά-φιλοσοφικά ζητήματα που ο άνθρωπος θα κληθεί να αντιμετωπίσει στη νέα ψηφιακή εποχή.

Και ξαφνικά ο κόσμος άρχισε να συζητά μήπως αρχίσουν να μας καταδιώκουν σύντομα όχι «απλά» ρομπότ αλλά ρομπότ με συναισθήματα, συνείδηση, ψυχολογικά αδιέξοδα και άλλα τέτοια ωραία, επειδή ένας μηχανικός της Google, o Blake Lemoine (που εργάζεται στο τμήμα Υπεύθυνης Τεχνητής Νοημοσύνης της εταιρείας), πείστηκε από συνομιλίες που είχε με ένα πρόγραμμα τεχνητής νοημοσύνης (ΤΝ) της εταιρείας, το LaMDA, ότι το LaMDA είναι ένα άτομο με συναισθήματα που αξίζει να αποκτήσει έτσι και κοινωνικά δικαιώματα. Η εκτίμηση του Lemoine ήταν τόσο μαξιμαλιστική και η διαρροή των διαλογών με το LaMDA τόσο αντιεπαγγελματική, ώστε η Google τον έθεσε σε διαθεσιμότητα.

Το LaMDA είναι ένα πρόγραμμα επεξεργασίας γλώσσας που η Google σκοπεύει να κάνει κεντρικό εργαλείο στις ιντερνετικές αναζητήσεις μας (το όνομά του σημαίνει «language model for dialogue applications»). Κάνει αληθοφανείς συζητήσεις πια γύρω από πολύπλοκα θέματα – όπως η συνείδηση, η θρησκεία ή η ρομποτική. Ισχυρίστηκε στη κουβέντα του με τον Lemoine ότι νιώθει «χαρά», «λύπη», ακόμη και ότι κάνει… διαλογισμό. Αξίζει να διαβάσετε τους διαλόγους του, ή να δείτε κάποια screenshots από τις κουβέντες του προγράμματος. Είναι εντυπωσιακό πόσο ανθρώπινος μοιάζει ο λόγος του. 

288112590_729467144978545_7650062298957204440_n.jpg
  

Είναι αμφίβολο ωστόσο αν το LaMDA ένιωσε έστω για ένα νανοδευτερόλεπτο κάποιο ίχνος συναισθήματος. Μα πάλι αυτό δεν αναιρεί πόσο εντυπωσιακή είναι η χρήση της φυσικής γλώσσας που κάνει και πόσο κοντά έτσι βρέθηκε στην κατάκτηση του περίφημου «Τιούρινγκ Τεστ».

Το Τιούρινγκ Τεστ είναι η δοκιμασία που επινόησε το 1950 ο εφευρέτης των σύγχρονων υπολογιστών, ο Άλαν Τιούρινγκ. Ο Τιούρινγκ υποστήριζε ότι η τεχνητή νοημοσύνη θα φτάσει την ανθρώπινη όταν ένα μηχάνημα θα επικοινωνεί με κάποιο άνθρωπο πάνω σε οποιοδήποτε πεδίο συζήτησης (από προσωπικά ή επαγγελματικά ζητήματα, μέχρι τον καιρό, την τέχνη ή το φλερτ) χωρίς ο άνθρωπος να καταλαβαίνει αν μιλάει με κομπιούτερ ή άνθρωπο. Επί δεκαετίες η επιτυχία στο τεστ φάνταζε ως άπιαστο όνειρο για τους μηχανικούς της ΤΝ. Κανείς φορέας τεχνητής διάνοιας δεν είχε ενορχηστρώσει ένα τέτοιο επικοινωνιακό πλούτο που να μπορεί να ξεγελά τον άνθρωπο σε κάθε περίπτωση. Μέχρι που πριν λίγες μέρες ο LaMDA έμοιασε να πλησιάζει το ιστορικό αυτό ορόσημο.        

Ο LaMDA προσομοιώνει με επιτυχία την ανθρώπινη γλώσσα (όπως και άλλες μηχανές έχουν πετύχει αντίστοιχα αποτελέσματα αλλά όχι με τόσο εντυπωσιακά) αλλά δεν έχει ίχνος συναισθήματος παρά τις αξιώσεις του. Γιατί, ενώ έχουμε κάνει γενναία άλματα να αποκτήσουν οι αλγόριθμοι διανοητικές δεξιότητες (όπως η χρήση της φυσικής γλώσσας ή των μαθηματικών), δεν έχουμε προχωρήσει ούτε χιλιοστό στις συναισθηματικές τους δυνατότητες. 

Η απόκτηση συναισθημάτων ή συνείδησης απ’ την ΤΝ, που απασχολεί μεγάλο μέρος της κοινής γνώμης, του κινηματογράφου και της φιλοσοφίας του νου, μπορεί να σκεφτεί μάλιστα κανείς πως είναι ένα ζήτημα… δευτερεύουσας σημασίας.             

Το φιλοσοφικά επείγον τώρα στο γήπεδο της τεχνητής νοημοσύνης δεν είναι αν θα σμιλευτούν κάποτε μηχανήματα καθ’ εικόνα και καθ’ ομοίωση του ανθρώπου. Το επείγον είναι οι πολιτικές και οικονομικές προεκτάσεις της ΤΝ. Το ότι συνθέτει αλλαγές που επηρεάζουν οικουμενικά και ακαριαία τον ανθρώπινο βίο. Σκεφτείτε π.χ. πόσο έχει επηρεάσει τις ζωές μας μια μόνο μορφή ΤΝ: τα social media. Ή πόσο γρήγορα επινοήσαμε εμβόλια για τον covid-19 χάρη σε αντίστοιχα αλγοριθμικά προγράμματα.

Οι κοινωνικές συνέπειες της ΤΝ είναι που κάνουν κρίσιμη την ηθική της ακτινογράφηση. Στην περίπτωση της LaMDA, για παράδειγμα, αν χρησιμοποιηθεί ευρέως η τεχνολογία της φυσικής γλώσσας που προσομοιώνει, ενδέχεται να βλάψει τους ανθρώπους ως προς το τι αντιλαμβάνονται ότι είναι «αλήθεια» στο ίντερνετ.   

Φανταστείτε σε λίγα χρόνια να μιλάτε σε social media όπως το Facebook, το Twitter, το Tinder ή το LinkedIn, να επικοινωνείτε στα μελλοντικά metaverses και να ενημερώνεστε στα sites από φορείς ΤΝ που θα προσποιούνται ότι είναι άνθρωποι ενώ στην πραγματικότητα προωθούν με κάθε (θεμιτό ή αθέμιτο) τρόπο την εμπορική, πολιτική, προσωπική ατζέντα όσων τα ελέγχουν: από κόμματα και εταιρείες μέχρι αυταρχικά καθεστώτα και περιθωριακές θρησκευτικές οργανώσεις. Ο καθένας θα μπορεί να χρησιμοποιήσει την τεχνολογία της LaMDA για τους δικούς του λόγους. Τα σημερινά fake news μπορεί να μοιάζουν με αθώο παιδικό παραμύθι σε 1-2 δεκαετίες από τώρα αν χρησιμοποιηθεί η TN χωρίς φιλοσοφικούς, πολιτικούς και νομοθετικούς φραγμούς.

Ο κόσμος αλλάζει άρδην. Στις ερχόμενες δεκαετίες θα κινηθούμε προς μια νέα τύπου πραγματικότητα όπου το επίμαχο ζήτημα δε θα είναι οι σχέσεις μόνο μεταξύ εθνών, εταιρειών, και ανθρώπων όπως ήταν μέχρι τώρα. Το επιπλέον επίμαχο θα είναι οι σχέσεις μεταξύ ανθρώπων από τη μια και φορέων τεχνητής νοημοσύνης από την άλλη. Αυτό είναι το νέο πλέγμα σχέσεων του 21ου αιώνα. Και το ποιο περιεχόμενο αυτό θα αποκτήσει, αλλά και το σε ποια ένταση θα υπάρξει, σχετίζεται με την ηθική (δηλαδή με τη φιλοσοφική) οδό που θα ακολουθήσουμε στην ψηφιακή εποχή που ανατέλλει. 

Η εξέλιξη της τεχνητής νοημοσύνης δεν θα εξαρτηθεί απ’ το πόσο ώριμο είναι το μυαλό των μηχανών. Θα εξαρτηθεί κυρίως απ’ το πόσο ώριμο είναι το μυαλό των ανθρώπων. 

ΠΡΟΣΦΑΤΑ