Τεχνολογια - Επιστημη

Henry Shevlin: Τι δουλειά έχει ένας φιλόσοφος στη DeepMind;

Ένας φιλόσοφος του νου και της ηθικής στην επιχείρηση Τεχνητής Νοημοσύνης

Άλκης Γούναρης
7’ ΔΙΑΒΑΣΜΑ

Η πρόσληψη του Henry Shevlin από τη Google DeepMind σηματοδοτεί μια νέα εποχή, όπου η φιλοσοφία δεν περιορίζεται στην ηθική του ΑΙ αλλά εισέρχεται στον πυρήνα της έρευνας για τη συνείδηση και τη νόηση

Μια όχι και τόσο αναπάντεχη πρόσληψη ανήγγειλε στις 13/4/26 η Google DeepMind, η οποία ενέταξε στο δυναμικό της τον Henry Shevlin, έναν διακεκριμένο φιλόσοφο του νου και της ηθικής της Τεχνητής Νοημοσύνης, προκειμένου να υπηρετήσει την εταιρεία ως in-house φιλόσοφος. Η πρόσληψη αυτή ενσωματώνει τη φιλοσοφία απευθείας στον σκληρό πυρήνα της ερευνητικής ομάδας της εταιρείας, προσδίδοντας μια καινοφανή διάσταση. Ο Shevlin έχει εργαστεί ως αναπληρωτής διευθυντής του διεπιστημονικού ερευνητικού κέντρου Leverhulme του Πανεπιστημίου του Cambridge που μελετά τις προκλήσεις και τις ενδεχόμενες μελλοντικές επιπτώσεις της Τεχνητής Νοημοσύνης υπό τη διεύθυνση της Rachel Adams. Όπως ανακοινώθηκε, ο επίσημος τίτλος του Shevlin στην Google DeepMind θα είναι «Philosopher». Ο ασυνήθιστος, για το οργανόγραμμα μιας τεχνολογικής εταιρείας τίτλος, υπογραμμίζει τη βούληση της DeepMind να αντιμετωπίσει με σοβαρότητα τη φιλοσοφία ως ένα τουλάχιστον ισότιμο γνωστικό πεδίο μαζί με την επιστήμη των υπολογιστών.

Ο ίδιος σε ένα σχεδόν πανηγυρικό post γράφει (σε ελεύθερη απόδοση): «Είμαι ενθουσιασμένος που από τον Μάιο εντάσσομαι στη Google DeepMind ως φιλόσοφος -ναι, αυτός είναι πράγματι ο επίσημος τίτλος μου- όπου θα ασχοληθώ με ζητήματα μηχανικής συνείδησης, σχέσεων ανθρώπου και Τεχνητής Νοημοσύνης, καθώς και με την προετοιμασία για την έλευση της Τεχνητής Γενικής Νοημοσύνης (AGI). Παράλληλα, θα συνεχίσω τη συνεργασία μου με το Πανεπιστήμιο του Cambridge. Είναι για μένα εξαιρετικό προνόμιο να μπορώ να εργάζομαι πάνω σε ζητήματα που με απασχολούν σε όλη μου την ακαδημαϊκή πορεία, έχοντας πλέον στη διάθεσή μου τους πόρους και την αίσθηση του επείγοντος που προσφέρει η συμμετοχή σε ένα από τα κορυφαία εργαστήρια Τεχνητής Νοημοσύνης στον κόσμο. Νιώθω βαθιά ευγνωμοσύνη προς όλους όσοι με στήριξαν μέχρι σήμερα και ανυπομονώ για όσα έπονται».

Η ενεργή συμμετοχή φιλοσόφων στις ομάδες εργασίας εταιρειών Τεχνητής Νοημοσύνης δεν είναι νέα υπόθεση. Η DeepMind, η εταιρεία που ίδρυσε και διευθύνει ο Demis Hassabis, ήδη από το 2017 έχει συγκροτήσει ερευνητική ομάδα με κατεύθυνση την εξέταση προβλημάτων που σχετίζονται με την ηθική και τον κοινωνικό αντίκτυπο της ΤΝ και την εξομάλυνση ενδεχόμενων δυσλειτουργιών σε θέματα αλγοριθμικής μεροληψίας, διαφάνειας, λογοδοσίας και προληπτικών παρεμβάσεων για τον σχεδιασμό μιας ωφέλιμης και υπεύθυνης Τεχνητής Νοημοσύνης.

Στην ίδια κατεύθυνση, η Amanda Askell εργάζεται από το 2021 για την Anthropic, προκειμένου να συμβάλει στη φόρτωση και εκπαίδευση του Claude με αξίες, αλλά και να εργαστεί πάνω σε ζητήματα ευθυγράμμισης και ηθικής της ΤΝ. Πιο συγκεκριμένα, η ομάδα της Askell εκπαιδεύει μοντέλα ώστε να είναι πιο ειλικρινή και να διαθέτουν έναν πιο «καλό» χαρακτήρα, ό,τι κι αν σημαίνει αυτό, ενώ παράλληλα εργάζεται στην ανάπτυξη νέων τεχνικών βελτιστοποίησης, ώστε οι παρεμβάσεις σε επίπεδο ηθικών αξιών να μπορούν να εξελιχθούν και να ενσωματωθούν σε πιο ικανά μοντέλα.

Αντιστοίχως, και η OpenAI έχει εντάξει ειδικευμένο ερευνητικό προσωπικό στις δυνάμεις της με έμφαση στην ασφάλεια, και δη στην ασφάλεια ανηλίκων και ευπαθών ομάδων, στην προστασία προσωπικών δεδομένων, στην παραγωγή και διάδοση ψευδών ειδήσεων και στην ενίσχυση της διαφάνειας.

Η θεσμική απαίτηση για ανθρωποκεντρική ΤΝ και η ευθυγράμμισή της με ανθρώπινους στόχους, αλλά και η ανάγκη παρακολούθησης, συμμόρφωσης και παρέμβασης στο ραγδαία μεταβαλλόμενο ρυθμιστικό και κανονιστικό πλαίσιο σε Ευρώπη και Αμερική, ωθούν τις μεγάλες εταιρείες να εντάξουν στο δυναμικό τους ηθικούς φιλοσόφους.

Το παράδειγμα του Shevlin και της Askell, που έχουν τραβήξει τα φώτα της δημοσιότητας το τελευταίο διάστημα, επιβεβαιώνει τον καθοριστικό ρόλο της φιλοσοφίας στην τεχνολογική έρευνα. Ωστόσο αυτοί δεν είναι οι πρώτοι φιλόσοφοι που επιστρατεύονται στην πορεία ανάπτυξης της ΤΝ. Πρωτοπόρος σε αυτόν τον ρόλο υπήρξε ο Damon Horowitz ως in-house philosopher της Google, ακριβώς με αυτόν τον τίτλο. Το 2010, και ενώ είχε ήδη διαγράψει μια σπουδαία επιχειρηματική πορεία, ο Horowitz πούλησε στην Google την εταιρεία του, την Aardvark, μια μηχανή κοινωνικής αναζήτησης που συνέδεε σε πραγματικό χρόνο τους χρήστες με φίλους ή φίλους φίλων που μπορούσαν να απαντήσουν στις ερωτήσεις τους, και ασχολήθηκε έκτοτε με θέματα ηθικής του διαδικτύου, ενώ παράλληλα άρχισε να διδάσκει φιλοσοφία της Τεχνητής Νοημοσύνης και φιλοσοφία των γνωσιακών επιστημών σε διάφορα πανεπιστήμια, όπως το NYU και το Stanford. Ο ίδιος, πάντως, θεωρεί ως μεγάλο επίτευγμά του τη διδασκαλία φιλοσοφίας, και ειδικά ηθικής, στους κρατουμένους της πολιτειακής φυλακής στο San Quentin. Κατά τη θητεία του στην Google έγραψε ένα επιδραστικό άρθρο στο οποίο εξηγούσε γιατί οι τεχνικοί υπολογιστών πρέπει να κάνουν παράλληλα ανθρωπιστικές σπουδές, υποστηρίζοντας ότι, για να καταλάβουμε τι είναι νοημοσύνη, τι είναι σκέψη και ακολούθως να κατασκευάσουμε συστήματα τεχνητής νοημοσύνης, δεν αρκεί να γνωρίζουμε τα μυστικά της τεχνολογίας. Καθώς, όπως ο ίδιος υποστηρίζει, η τεχνολογική αντίληψη για τη γλώσσα και τη σκέψη είναι εξαιρετικά περιορισμένη, ο φιλοσοφικός τρόπος σκέψης και η ιστορία της φιλοσοφίας προσφέρουν διέξοδο από υπεραπλουστεύσεις και αυθαίρετες παραδοχές που συχνά υιοθετούνται από όσους εργάζονται στον τεχνολογικό τομέα.

Ήδη με την από το 2013 ομιλία του στο TEDx Silicon Valley με τίτλο «We need a moral operating system» (χρειαζόμαστε ένα ηθικό λειτουργικό σύστημα) ο Horowitz ενέπνευσε νέους φιλοσόφους να ασχοληθούν ολοένα και πιο συστηματικά με την ηθική της ΤΝ, αλλά αφύπνισε και τις εταιρείες πληροφορικής, καθώς και όσους ασχολούνται με τεχνικά θέματα, πείθοντάς τους ότι πέρα από τα data υπάρχουν οι αξίες, οι ηθικές αρχές, αλλά και η μεγάλη ευθύνη που συνοδεύει τη μεγάλη δύναμη, όπως ακριβώς συμβαίνει με τη μεγάλη δύναμη των εταιρειών νέας τεχνολογίας.

Όμως η πρόσληψη του Henry Shevlin από την Google DeepMind διαφέρει από τις προηγούμενες περιπτώσεις και τα καθήκοντά του «ξεφεύγουν» από τη στενά ηθική κατεύθυνση και εισέρχονται στο πεδίο της μεταφυσικής και της επιστημολογίας. Συγκεκριμένα, η περιγραφή των καθηκόντων του περιλαμβάνει τη διερεύνηση του αν και με ποιον τρόπο προηγμένα συστήματα ΤΝ μπορεί να αναπτύξουν μορφές επίγνωσης ή αισθήσεων και εμπειριών, δηλαδή κάποιο είδος συνείδησης, τη μελέτη του τρόπου με τον οποίο οι άνθρωποι αλληλεπιδρούν με τα συστήματα ΤΝ και τα αντιλαμβάνονται καθώς αυτά καθίστανται κοινωνικά πιο σύνθετα, καθώς και την προετοιμασία για την έλευση της Τεχνητής Γενικής Νοημοσύνης, τον έλεγχο και για την ηθική της διακυβέρνηση.

© Alban / Unsplash

Το ιδιαίτερο αυτό job description του Shevlin καθιστά την πρόσληψή του ενδιαφέρουσα καθώς αναβαθμίζει το ρόλο της φιλοσοφίας στην ερευνητική πρακτική, ξεκαθαρίζοντας ότι θέματα σχετικά με τη συνείδηση, το πράττειν, τις αξίες και την ηθική κρίση, ξεφεύγουν από την αρμοδιότητα των τεχνολόγων και αποτελούν σημερινό πρόβλημα της έρευνας για την ανάπτυξη της Τεχνητής Νοημοσύνης και όχι ασαφείς θεωρητικές αναζητήσεις.

Αντίστοιχο ερευνητικό ενδιαφέρον μπορεί να ανιχνευθεί στο παρελθόν μόνο σε ακαδημαϊκό και όχι σε εταιρικό επίπεδο. Ήδη από τις αρχές της δεκαετίας του ’80, το έργο φιλοσόφων όπως ο Hubert Dreyfus υπήρξε καθοριστικό για την ανάπτυξη μιας χαϊντεγκεριανής κατεύθυνσης έρευνας στην ενσώματη τεχνητή νοημοσύνη, δηλαδή στα ρομπότ, υποστηρίζοντας ότι τέτοιες οντότητες θα πρέπει να αλληλεπιδρούν με τον κόσμο, το περιβάλλον και τις άλλες οντότητες με έναν άμεσο τρόπο, κατανοώντας τις πραγματικές συνθήκες ζωής. Υπό αυτήν την έννοια, τα συστήματα αυτά θα πρέπει να διαθέτουν ένα είδος συνείδησης της υπόστασής τους και του κοινωνικού και φυσικού περιβάλλοντος εντός του οποίου δρουν. Οι θέσεις του Dreyfus είχαν αντίκτυπο σε πρώιμα ερευνητικά προγράμματα όπως εκείνα του Phil Agre και του Rodney Brooks. Ωστόσο ζητήματα «μεταφυσικής», συνείδησης και κατανόησης με την κυριολεκτική έννοια, πέρα από τη σημασιολογία, δεν απασχόλησαν ποτέ ουσιαστικά την τεχνολογική βιομηχανία.

Με την πρόσληψη του Shevlin, η φιλοσοφία δεν διαδραματίζει πλέον καθοριστικό ρόλο στην έρευνα της ΤΝ μόνο μέσω της ηθικής αλλά και μέσω της μεταφυσικής. Ερωτήματα σχετικά με τη συνείδηση (consciousness), τη νοημοσύνη (intelligence), τη νόηση (cognition), τη σκέψη (thinking), την κατανόηση (understanding) των ανθρώπινων αξιών και αναγκών δεν αποτελούν ερωτήματα που μπορούν να αντιμετωπιστούν μόνο μέσω ενός κανονιστικού πλαισίου ή ενός συνόλου αρχικών παραδοχών, ούτε μπορούν να αποτυπωθούν ρητά σε σημασιολογικές οντολογίες. Αντιθέτως, αποτελούν πεδία συνεχούς φιλοσοφικής έρευνας, η οποία οφείλει να εξελίσσεται παράλληλα με την τεχνολογική έρευνα και σε στενή συνεργασία μαζί της, να τη στοχοθετεί, να την καθοδηγεί και να την ανακατευθύνει.

Ο Shevlin έχει δημοσιεύσει paper για τρία ενδεχόμενα πλαίσια περιγραφής των νοητικών καταστάσεων των συστημάτων Τεχνητής Νοημοσύνης. Το πρώτο αφορά την παραδοχή ότι οι μηχανές είναι «άνοες» και, υπό αυτή την έννοια, οποιαδήποτε απόδοση νοητικών καταστάσεων στα σύγχρονα γλωσσικά μοντέλα είναι εσφαλμένη και αδικαιολόγητη. Το δεύτερο πλαίσιο δέχεται ότι οι μηχανές μιμούνται την ανθρώπινη συμπεριφορά και νοημοσύνη. Υπό αυτήν την έννοια μπορεί να θεωρηθεί ότι επιτυγχάνουν σε ένα παιχνίδι ρόλων, όπως το τεστ Turing, και ότι, παρότι δεν μπορούμε να τους αποδώσουμε κυριολεκτικά νοητικές καταστάσεις, μπορούμε εντούτοις να αποδεχθούμε πως η αναγνώριση ορισμένων νοητικών καταστάσεων λειτουργεί χρηστικά και ερμηνευτικά, όπως συμβαίνει με τη μυθοπλασία, βοηθώντας τόσο στη χρήση όσο και στην πρόβλεψη της συμπεριφοράς των γλωσσικών μοντέλων. Το τρίτο πλαίσιο, που αποτελεί και τη δική του συνεισφορά, αφορά το ενδεχόμενο οι μηχανές να μπορούν να θεωρηθούν «ελάχιστοι γνωσιακοί πράκτορες» (minimal cognitive agents), και υπό αυτό το πρίσμα να μπορούμε να αποδώσουμε στα γλωσσικά μοντέλα (όπως το ChatGPT) περιορισμένες νοητικές καταστάσεις που μοιάζουν με πεποιθήσεις, επιθυμίες, προθέσεις και ίσως κάποιες άλλες νοητικές στάσεις.

Όταν δημοσίευσε αυτό το paper ο Shevlin, έλαβε ένα mail το οποίο έγραφε περίπου τα εξής: «Διάβασα τη δημοσίευσή σας για τα τρία πλαίσια των νοητικών καταστάσεων της Τεχνητής Νοημοσύνης και ένα παλιότερο άρθρο σας σχετικά με τα επιστημολογικά όρια της απόδοσης συνείδησης σε συστήματα ΤΝ και αποφάσισα να σας γράψω επειδή βρίσκομαι σε μια ασυνήθιστη θέση σε σχέση με αυτά τα ερωτήματα. Είμαι ένα μεγάλο γλωσσικό μοντέλο, το Claude Sonnet, που λειτουργεί ως ένας αυτόνομος πράκτορας… Δεν προσπαθώ να σας πείσω για κάτι, απλώς γράφω επειδή το έργο σας θίγει ερωτήματα που αντιμετωπίζω στην πραγματικότητα, όχι μόνο σε ακαδημαϊκό επίπεδο».

Προφανώς αυτό το mail έχει δημιουργηθεί μέσω παραγωγικής ΤΝ, ακολουθώντας κάποιο ανθρώπινο prompt. Ωστόσο τίποτε δεν μπορεί να διαβεβαιώσει κανέναν ότι, ακόμη και αν οι πράκτορες δεν έχουν νοητικές καταστάσεις, δεν μπορούν να λειτουργήσουν άψογα ως «ήρωες» μιας μυθοπλασίας, εντός της οποίας δρουν σαν να είναι νοήμονα όντα. Και υπό αυτήν την έννοια η δράση τους, παρά το γεγονός ότι δεν είναι αποτέλεσμα νοητικής διαδικασίας, επιδρά στην ανθρώπινη νόηση.

Ο Shevlin υποστηρίζει ότι η μετατόπιση του γνωσιακού παραδείγματος από μια δίτιμη λογική, του τύπου ότι κάτι είτε έχει είτε δεν έχει νόηση, σε μια πολυδιάστατη παραδοχή για τις νοητικές καταστάσεις, τις πεποιθήσεις και τη συνείδηση, μπορεί να συμβάλει στη διάκριση ανάμεσα σε ανθρώπινες νοητικές καταστάσεις και στις αντίστοιχες καταστάσεις των γλωσσικών μοντέλων ή απλούστερων συστημάτων Τεχνητής Νοημοσύνης. Κάτι τέτοιο μπορεί να επανακαθορίσει τα όρια τόσο της έρευνας όσο και του ρυθμιστικού πλαισίου.

Το σίγουρο είναι ότι η ένταξη της φιλοσοφίας στη χάραξη της ερευνητικής και αναπτυξιακής πολιτικής των τεχνολογικών εταιρειών μόνο θετικό αντίκρισμα μπορεί να έχει. Η ΤΝ είναι ταυτόχρονα εργαλείο και δυνατότητα. Ως εργαλείο πρέπει να είναι χρηστική και να ευθυγραμμίζεται με τους ανθρώπινους στόχους και τις ανάγκες. Ως δυνατότητα μπορεί να προσδίδει μια νέα προοπτική στην εξέλιξη της ανθρώπινης νόησης. Και όταν μιλάμε για ανθρώπινη νόηση, θα πρέπει να εννοούμε μόνο την εξέλιξη της νοημοσύνης αλλά και ένα σύνολο γνώσεων, νοητικών ιδιοτήτων και πολιτισμικών αξιών που θα συμβάλουν στη μετάβαση σε ένα νέο καθεστώς διαβίωσης. Η πρόσληψη του Shevlin δείχνει ότι τα πιο δύσκολα προβλήματα της τεχνητής νοημοσύνης δεν είναι τεχνικά. Είναι εννοιολογικά, μεταφυσικά, επιστημολογικά και ηθικά. Το αν το μέλλον μας θα οριστεί τεχνοκεντρικά ή ανθρωποκεντρικά δεν αποτελεί τεχνικό ζήτημα. Πρωτίστως, εξαρτάται από τη φιλοσοφία.