Τεχνολογια - Επιστημη

Κριτική σκέψη και Τεχνητή Νοημοσύνη

Υπάρχουν τομείς όπου η τεχνολογία δεν είναι ούτε «καλή» ούτε «κακή» από μόνη της — η αξία της κρίνεται από τη χρήση και τις προθέσεις μας.

Αντώνης Παπακώστας
6’ ΔΙΑΒΑΣΜΑ

Πώς η κριτική σκέψη μάς προστατεύει από λανθασμένες, επικίνδυνες ή ακατάλληλες εφαρμογές της τεχνολογίας και μας βοηθά να αξιοποιήσουμε την Τεχνητή Νοημοσύνη

Η τεχνητή νοημοσύνη δεν είναι μια ανεξέλεγκτη φυσική δύναμη. Είναι ανθρώπινο τεχνούργημα, άρα υπόκειται σε αρχικές επιλογές σχεδιασμού και μετέπειτα ρυθμίσεις. Δεν ισχύει το επιχείρημα ότι «η τεχνολογία έχει καλά αλλά και κακά που πρέπει να αποδεχθούμε». Αντίθετα, οι κοινωνίες έχουν τη δυνατότητα και την ευθύνη να καθορίζουν ποιες χρήσεις προωθούν το δημόσιο συμφέρον και ποιες πρέπει να περιορίζονται έτσι ώστε να μεγιστοποιούνται τα καλά και να ελαχιστοποιούνται τα κακά. Όπως λέει ο γνωστός καθηγητής της Μαθηματικής Λογικής Γεώργιος Μητακίδης, οι κρίσιμες αποφάσεις για το μέλλον της τεχνητής νοημοσύνης δεν πρέπει να αφήνονται αποκλειστικά σε λίγες μεγάλες εταιρείες. Η πολυπλοκότητα της τεχνολογίας δεν σημαίνει ότι οι πολίτες και οι θεσμοί δεν μπορούν να συμμετέχουν στη διαμόρφωση κανόνων, όπως συμβαίνει σε πολλά άλλα τεχνολογικά και ηθικά ζητήματα (π.χ. κλωνοποίηση).

Στον δημόσιο λόγο ο όρος χρησιμοποιείται συχνά με υπερβολή ή για λόγους μάρκετινγκ, ως «λέξη-ομπρέλα» που περιγράφει σχεδόν κάθε ψηφιακή διαδικασία. Αυτό δημιουργεί σύγχυση και εμποδίζει μια ουσιαστική συζήτηση για το τι σημαίνει πραγματικά η πρόοδος της τεχνητής νοημοσύνης. Η αιχμή της τεχνολογικής εξέλιξης σήμερα είναι η παραγωγική τεχνητή νοημοσύνη (Generative AI). Αυτή είναι που αλλάζει ταχύτατα τη σχέση μας με την πληροφορία, τη γνώση και την παραγωγή περιεχομένου χωρίς όμως να αποτελεί ούτε το άλφα ούτε το ωμέγα στην εξέλιξη των ψηφιακών τεχνολογιών.

Ο Daniel Kahneman περιγράφει δύο τρόπους ανθρώπινης σκέψης:

  1. Ταχεία σκέψη: βασισμένη σε μοτίβα, στατιστικές συσχετίσεις και ασυνείδητες διαδικασίες. Είναι γρήγορη αλλά όχι εξηγήσιμη.
  2. Αργή σκέψη: λογική, αναλυτική και εξηγήσιμη, βασισμένη σε παραδοχές και κανόνες.

Η παραγωγική τεχνητή νοημοσύνη λειτουργεί με τρόπο παρόμοιο με την ταχεία σκέψη — μέσω πιθανοτήτων και στατιστικών προτύπων. Η παλαιότερη, «συμβολική» τεχνητή νοημοσύνη μοιάζει περισσότερο με την αργή σκέψη — εξηγήσιμη αλλά περιορισμένη. Ένα μεγάλο ζητούμενο για τον κλάδο σήμερα είναι να συνδυάσει τις δύο προσεγγίσεις σε ενιαίο σύστημα. Όμως, παρά την εντυπωσιακή πρόοδο, η τεχνολογία βρίσκεται ακόμη σε πρώιμο στάδιο: τα σημαντικότερα εμπόδια είναι η ανάγκη για τεράστιους όγκους δεδομένων με σκοπό την εκπαίδευση των συστημάτων και ο κορεσμός της πληροφορίας· καθώς πολλά μοντέλα εκπαιδεύονται πλέον πάνω σε δεδομένα που παράγονται από άλλα μοντέλα, μειώνεται η ποικιλία και η ποιότητα του υλικού. Παραλλήλως, αυξάνεται συνεχώς η ποσότητα της ενέργειας που απαιτείται για τα σύγχρονα κέντρα δεδομένων.

Μόνο στις ΗΠΑ υπολογίζεται ότι τα data centers καταναλώνουν περίπου το 10% της συνολικής ενέργειας της χώρας. Καθώς οι εταιρείες επιδιώκουν όλο και μεγαλύτερα μοντέλα, η ενεργειακή ζήτηση και η ανάγκη επενδύσεων αυξάνεται ταχύτερα από την ζήτηση της αγοράς για προϊόντα τεχνητής νοημοσύνης. Πολλοί θεωρούν ότι αυτή η τάση θα οδηγήσει αργά ή γρήγορα σε «σκάσιμο της φούσκας» – όχι κατάρρευση εταιρειών όπως στο dot-com του 2000, αλλά μια απότομη αναδιάταξη της αγοράς που ενδεχομένως να δημιουργήσει χώρο για νέα και ίσως καλύτερη αρχή.

Η ΤΝ, όπως κάθε τεχνολογία, μπορεί να αναπτυχθεί και να αξιοποιηθεί για καλό ή κακό σκοπό. Ανάμεσα στις θετικές της εφαρμογές είναι η επιτάχυνση επιστημονικής έρευνας: η ΤΝ επιταχύνει την αποτελεσματική σε όλους τους επιστημονικούς κλάδους, π.χ. στην έρευνα επιστημών υγείας και φαρμάκων. Το AlphaFold προσφέρει πρωτοφανή ακρίβεια στην πρόβλεψη της δομής πρωτεϊνών και ανοίγει νέους δρόμους για την κατανόηση του ανθρώπινου οργανισμού. Ακόμη και αυτές οι εφαρμογές όμως δεν είναι απόλυτα «καλές»: η ίδια τεχνολογία θα μπορούσε να χρησιμοποιηθεί για έρευνα βιολογικών απειλών. Ανάμεσα στις αρνητικές εφαρμογές είναι η παραπληροφόρηση «με στεροειδή»: με ελάχιστο κόστος μπορεί κανείς να παράγει ψεύτικες ειδήσεις, εικόνες, βίντεο και deepfakes. Όσο για τη βιομετρική επιτήρηση και βαθμολόγηση πολιτών: Η ΕΕ επιχειρεί να τις απαγορεύσει, ενώ σε χώρες όπως η Κίνα χρησιμοποιούνται εκτεταμένα.

Υπάρχουν τομείς όπου η τεχνολογία δεν είναι ούτε «καλή» ούτε «κακή» από μόνη της — η αξία της κρίνεται από τη χρήση και τις προθέσεις μας. Εκεί η κριτική σκέψη είναι καθοριστική. Η κριτική σκέψη, που συνδέεται άμεσα με την ικανότητα διάκρισης — την αρχική έννοια τόσο της λέξης «κρίση» όσο και της λατινικής ρίζας του intelligence— μας επιτρέπει να προστατευθούμε από την παραπληροφόρηση αναγνωρίζοντας τι είναι αλήθεια και τι ψέμα, να κάνουμε συνειδητές επιλογές στην καθημερινότητα, να αξιοποιούμε σωστά την τεχνολογία, να συμμετέχουμε υπεύθυνα στις δημοκρατικές διαδικασίες. Έτσι κι αλλιώς, οι εφαρμογές της ΤΝ επηρεάζουν τον τρόπο επικοινωνίας, την οικογενειακή ζωή, τις κοινωνικές σχέσεις με ποικίλες παρενέργειες —απορρόφηση στις οθόνες, deepfakes που προκαλούν σοβαρή βλάβη σε νέους ανθρώπους (π.χ. ψεύτικα πορνογραφικά βίντεο) — αλλά και ενδείξεις ότι όλο και περισσότεροι νέοι δείχνουν σήμερα ολοένα αυξανόμενη ικανότητα να αναγνωρίζουν κινδύνους και να αντιδρούν. Όπως έχει επιβληθεί διαφάνεια στα συστατικά των «τροφών του σώματος», απαιτείται διαφάνεια και στις «τροφές της ψυχής» όπως στην τεχνητή δημιουργία μουσικής, εικόνων ή περιεχομένου. Το παράδειγμα του Velvet Sundown, ενός επιτυχημένου μουσικού project που αποδείχθηκε προϊόν ΤΝ, δείχνει την ανάγκη σήμανσης· όχι απαγόρευσης, αλλά ενημέρωσης.

Η εμφάνιση των πρώτων προηγμένων μοντέλων (π.χ. ChatGPT-3.5) οδήγησε σε ραγδαία μείωση προσλήψεων juniors (νέων μηχανικών λογισμικού) στις ΗΠΑ, καθώς οι εταιρείες χρησιμοποιούν την ΤΝ για παραγωγή κώδικα, κάτι που έκαναν παλιότερα οι juniors. Στον αντίποδα, αυξήθηκαν οι αμοιβές και η ζήτηση για seniors, οι οποίοι κάνουν ανάλυση απαιτήσεων, σχεδιασμό συστημάτων, έλεγχο ποιότητας. Αυτό δημιουργεί δύο προβλήματα: οι seniors δαπανούν πολύ χρόνο ελέγχοντας την παραγωγή της ΤΝ, οπότε τα κέρδη παραγωγικότητας είναι αμφίβολα· εξάλλου, πώς μπορείς να έχεις καινούργιους seniors χωρίς πρώτα να έχεις juniors που εκπαιδεύονται και αναπτύσσουν κριτική σκέψη μέσα από την πράξη; Αν σταματήσει η «εκπαίδευση μέσω εργασίας», τα πανεπιστήμια θα πρέπει να αναλάβουν μεγαλύτερο ρόλο στην καλλιέργεια κριτικής σκέψης — ένας ιδιαίτερα φιλόδοξος στόχος. Η κριτική σκέψη είναι απαραίτητη παντού: στη βιομηχανία, στην υγεία, στη δικαιοσύνη, στην εκπαίδευση, στη δημόσια διοίκηση, στις δημοκρατικές διαδικασίες. Απαιτείται συνδυασμός ατομικής ευθύνης, εταιρικής ευθύνης και νομοθεσίας, ακριβώς όπως συμβαίνει με τον Κώδικα Οδικής Κυκλοφορίας.

Γύρω από τους κανονισμούς που ρυθμίζουν τη χρήση της ΤΝ εκτυλίσσεται μάχη. Οι κανονισμοί της ΕΕ δέχονται ισχυρή πίεση από μεγάλες τεχνολογικές εταιρείες και από την αμερικανική κυβέρνηση, που υποστηρίζουν ότι οι κανόνες «πνίγουν την καινοτομία». Ωστόσο, όπως λέει ο Γιώργος Μητακίδης, από τις βιομηχανίες φαρμάκων, αυτοκινήτων κ.α. αλλά την ίδια τη βιομηχανία ψηφιακών υπηρεσιών και προϊόντων, τα δεδομένα δείχνουν το αντίθετο: η Καλιφόρνια –η πιο καινοτόμα περιοχή των ΗΠΑ – έχει πιο αυστηρούς κανόνες από την ΕΕ. Η Κίνα, επίσης πρωτοπόρος στην ΤΝ, λειτουργεί με ακόμη σκληρότερη ρύθμιση (που δημιουργήθηκε για διαφορετικούς λόγους). Οι κανόνες δεν εμποδίζουν την καινοτομία — την προσανατολίζουν και την συνδιαμορφώνουν.

Ταυτοχρόνως, σε ορισμένες χώρες γίνεται προσπάθεια ανάπτυξης της κριτικής σκέψης παράλληλα με την τεχνολογία. Καθώς οι κοινωνίες του αύριο κάθονται στα θρανία του σήμερα, η καλλιέργεια της κριτικής σκέψης ξεκινά από τη σχολική τάξη. Η Φινλανδία αποτελεί χαρακτηριστικό παράδειγμα: ξεκινά την καλλιέργεια κριτικής σκέψης από τα 5 έτη και τη συνεχίζει σε όλες τις βαθμίδες εκπαίδευσης. Τα αποτελέσματα είναι μετρήσιμα, με τις σκανδιναβικές χώρες να βρίσκονται στην κορυφή της κατάταξης στην αποτελεσματική ανίχνευση παραπληροφόρησης: το Digital Enlightenment παρέχει πλατφόρμα συγκέντρωσης καλών πρακτικών από Φινλανδία, Εσθονία, Ιρλανδία, Αυστρία, με στόχο τη διάδοση εφαρμόσιμων μοντέλων. Στην Ελλάδα οι προσπάθειες είναι ακόμα εμβρυϊκές, π.χ. το πρόγραμμα «Καλλιεργώντας Κριτικούς Αναγνώστες».

Σε πείραμα του MIT, τρεις ομάδες φοιτητών κλήθηκαν να γράψουν ένα δοκίμιο για τη ζωή και τις φιλοδοξίες τους: η πρώτη χρησιμοποίησε ΤΝ (ChatGPT), η δεύτερη μηχανή αναζήτησης (Google) και η τρίτη μόνο το «μυαλό». Στην προφορική συζήτηση που ακολούθησε, οι φοιτητές που χρησιμοποίησαν ChatGPT συχνά δεν θυμούνταν ακριβώς τι έγραψαν ούτε μπορούσαν να το αιτιολογήσουν.Λίγο καλύτερα τα πήγε η ομάδα “Google” και πολύ καλύτερα η ομάδα «μυαλό». Εξάλλου, οι φοιτητές που χρησιμοποίησαν ChatGPT παρήγαγαν κείμενα τόσο παρόμοια μεταξύ τους, ώστε οι αξιολογητές νόμιζαν ότι αντέγραψαν ο ένας τον άλλον — παρότι εργάζονταν σε διαφορετικούς χώρους. Αυτό δείχνει ότι η χρήση μεγάλων γλωσσικών μοντέλων οδηγεί σε ομογενοποίηση της έκφρασης και της σκέψης, καθώς εφαρμόζουν την ίδια γλωσσική λογική και τα ίδια μοτίβα που εξαρτώνται από τα δεδομένα πάνω στα οποία εκπαιδεύτηκε το ChatGPT. Ένα ακόμη εύρημα ήταν οι διαφορές στο περιεχόμενο: όσοι χρησιμοποίησαν ChatGPT έδωσαν σχεδόν αποκλειστικά έμφαση στην καριέρα ως κεντρικό στόχο ζωής (περίπου 90%), ενώ όσοι έγραψαν χωρίς ΤΝ συμπεριέλαβαν αξίες όπως κοινωνική προσφορά και συμμετοχή στα κοινά. Το ανησυχητικό δεν είναι η έμφαση στην καριέρα, αλλά ότι οι αξιακές προτεραιότητες φαίνεται να επιβάλλονται από το μοντέλο λόγω του τρόπου που έχει εκπαιδευτεί. Αυτό θέτει το ερώτημα: πόσα τέτοια «κρυφά μοτίβα» μεταφέρουν αυτά τα εργαλεία;

Στο Wharton, μία από τις κορυφαίες σχολές Βusiness παγκοσμίως, έγινε πείραμα με 1.000 μαθητές λυκείου: οι μισοί χρησιμοποίησαν ChatGPT-4 για να λύσουν βασικά μαθηματικά, ενώ οι άλλοι μισοί δούλεψαν μόνο με το μυαλό τους. Με τη χρήση ChatGPT, οι μαθητές είχαν 30% καλύτερες επιδόσεις· χωρίς ChatGPT οι ίδιοι μαθητές που είχαν χρησιμοποιήσει ΤΝ απέδωσαν 20% χειρότερα από την ομάδα που δεν την είχε χρησιμοποιήσει καθόλου. Το συμπέρασμα είναι ότι η ΤΝ λειτουργεί σαν δεκανίκι: χρήσιμο, αλλά επικίνδυνο αν το στερηθείς χωρίς να έχεις αναπτύξει δικές σου δεξιότητες —αν σου αφαιρέσουν ξαφνικά το δεκανίκι, καταλαβαίνεις ότι κουτσαίνεις. Μια άλλη παρομοίωση σχετική με τη χρήση ΤΝ είναι σαν να πηγαίνεις στο γυμναστήριο αλλά να αφήνει ένα ρομπότ να σηκώνει τα βάρη και να κάνει τις ασκήσεις. Η υπερβολική χρήση ΤΝ στην εκπαίδευση μπορεί να οδηγήσει σε αδύναμο ανθρώπινο μυαλό.

Σε πολλά σχολεία της Ευρώπης τα εργαλεία ΤΝ έχουν ήδη ενσωματωθεί στην εργασία τόσο των μαθητών, όσο και των δασκάλων. Έτσι, συχνά οι μαθητές γράφουν δοκίμια με GPT και καθηγητές τα διορθώνουν επίσης με GPT. Όμως αυτό σημαίνει ότι εν τέλει τα παιδιά δυσκολεύονται να διαβάσουν, να κατανοήσουν, να συντάξουν περίληψη, να συζητήσουν ό,τι διάβασαν, να κατανοήσουν μαθηματικές έννοιες, να λύσουν προβλήματα. Αν και η ΤΝ μπορεί να προσομοιώσει αυτά τα βήματα δεν πρέπει να χρησιμοποιείται για να τα κάνει στη θέση του μαθητή.

Αφήσαμε τα κοινωνικά δίκτυα να κυριαρχήσουν και τώρα προσπαθούμε να περιορίσουμε τις αρνητικές τους συνέπειες: δεν πρέπει να επαναλάβουμε το ίδιο λάθος με την ΤΝ. Πρέπει να αποφασίσουμε έγκαιρα ποια χρήση είναι παιδαγωγικά σωστή. Στα σύγχρονα αυταρχικά καθεστώτα η πληροφόρηση δεν απαγορεύεται, αλλά, όπως δηλώνει ο Steve Bannon, ο χώρος της προπαγάνδας πλημμυρίζει με “shit’’ — δεν χρειάζεται οι πολίτες να πιστέψουν την προπαγάνδα· αρκεί να πάψουν να πιστεύουν ότι υπάρχει αλήθεια. Αυτό έχει τεράστιες επιπτώσεις για τη δημοκρατία.

Αλλά, παρά τις απειλές, η ΤΝ μπορεί να ενισχύσει τον δημοκρατικό διάλογο. Το σύστημα Polis στην Ταϊβάν είναι ένα παράδειγμα επιτυχούς εφαρμογής: οι πολίτες εκφράζουν απόψεις για δημόσια ζητήματα, η ΤΝ ομαδοποιεί τις θέσεις, αναδεικνύονται οι κοινές τάσεις σαν «αστέρια» στον ουρανό, οι ισχυρές συμφωνίες λάμπουν έντονα, οι ήπιες λιγότερο —κι όλα τούτα επιτρέπουν στην κοινωνία να «ακούει» τον εαυτό της. Τα αντιπαραδείγματα ίσως είναι περισσότερα: οι AI companions δεν είναι κατάλληλοι για να μας συμβουλεύουν πώς να ψηφίσουμε και προπάντων δεν είναι κατάλληλοι για να αντικαταστήσουν τις ανθρώπινες σχέσεις