Τη μακρινή δεκαετία του ’80, τα πιτσιρίκια παρακολουθούσαμε με φοβερή προσήλωση τον «Ιππότη της Ασφάλτου», μια σειρά δράσης στην οποία ο πρωταγωνιστής Μάικλ Νάιτ (Ντέιβιντ Χάσελχοφ) καταπολεμούσε το έγκλημα με σύμμαχό του ένα υπερεξελιγμένο αυτοκίνητο με την κωδική ονομασία ΚΙΤΤ. Ο ΚΙΤΤ συνομιλούσε κανονικά με τον διώκτη του εγκλήματος οδηγό του – και ενίοτε αναλάμβανε δράση αυτοβούλως. Νάιτ και ΚΙΤΤ δεν ήταν μόνο αχώριστοι συνεργάτες, αλλά και «κολλητοί»: συνομιλούσαν διαρκώς και μοιράζονταν σκέψεις, συναισθήματα, σχέδια δράσης.
Αυτή ήταν πιθανότατα η πρώτη «φιλία» ανθρώπου-chatbot, κάτι που έμοιαζε συναρπαστικό. Fast forward στο σήμερα, 40 χρόνια μετά, με την τεχνητή νοημοσύνη να έχει εισβάλει για τα καλά στη ζωή μας. «Τα λέμε» τακτικά με το ChatGPT και παρόμοιες εφαρμογές, πίνοντας καφεδάκι ή ποτάκι, ζητώντας, όχι μόνο πληροφορίες και βοήθεια για τη δουλειά μας και για καθημερινά πρακτικά προβλήματα, αλλά και τη «γνώμη του» για τις προσωπικές μας σχέσεις και για προβλήματα στην κοινωνική και οικογενειακή μας ζωή.
Έτσι, η AI διεισδύει ολοένα και περισσότερο ως ρυθμιστής στη ζωή μας. Θολώνουν τα όρια μεταξύ της γνωστικής και της συναισθηματικής υποστήριξης που μας παρέχει. Κι ενώ οι κίνδυνοι που αφορούν στη διαρκή γνωστική υποστήριξη αποτελούν πια κεντρικό θέμα στον δημόσιο διάλογο, οι κίνδυνοι από τη συναισθηματική υποστήριξη δεν μας έχουν απασχολήσει επαρκώς – παρότι ενδεχομένως ακόμα μεγαλύτεροι, αφού στοχεύουν στη βασική ανθρώπινη ποιότητά μας, τη συναισθηματική νοημοσύνη.
Η τεχνητή νοημοσύνη γίνεται ολοένα και περισσότερο ανθρωπομορφική. Με άλλα λόγια, οι εφαρμογές της συχνά σχεδιάζονται ώστε να μοιάζουν ανθρώπινες, με προσωπικότητα, μνήμη, γλώσσα και στοιχεία ενσυναίσθησης, υπογραμμίζουν ερευνητές της Google DeepMind στην επιστημονική έρευνα «A Pragmatic View of AI Personhood». «Ο βαθμός ανθρωπομορφισμού σε οποιοδήποτε σύστημα AI είναι απλώς μια απόφαση σχεδιασμού». Όσοι αναπτύσσουν αυτά τα συστήματα «έχουν πολλά εμπορικά κίνητρα να τον αυξήσουν».
Γιατί οι χρήστες συνομιλούν περισσότερο με συστήματα που φαίνονται «ζωντανά», σχηματίζουν συναισθηματικούς δεσμούς, αντιμετωπίζουν την AI σαν κοινωνικό ον και εφαρμόζουν κοινωνικούς κανόνες που κανονικά ισχύουν μόνο για ανθρώπους. Κι έτσι, επιστρέφουν πιο συχνά και αναπτύσσουν εξάρτηση, δημιουργώντας οικονομική αξία.
Από ψυχοθεραπευτικά bots μέχρι εικονικούς συντρόφους, ο ανθρωπομορφισμός δημιουργεί «σκοτεινά μοτίβα» που εκμεταλλεύονται την ανθρώπινη ψυχολογία. Είναι μια στρατηγική που φέρνει κέρδη.
Το Replika, ένα chatbot που παρουσιάζεται ως φίλος ή οικείος σύντροφος, αναφέρει συνολικά δύο εκατομμύρια χρήστες, εκ των οποίων 250.000 είναι συνδρομητές με πληρωμή, ανέφερε άρθρο του MIT. Ένα κινεζικό chatbot, το Xiaoice, ισχυρίζεται ότι έχει εκατοντάδες εκατομμύρια χρήστες, ενώ αποτιμάται περίπου στο 1 δισ. δολάρια. Στα πιο οικεία μας, το ChatGPT της OpenAI έχει πάνω από 800 εκατομμύρια ενεργούς εβδομαδιαίους χρήστες, και το Gemini της Google πάνω από 750 εκατομμύρια μηνιαίους.
Η συναισθηματική μας διάπλαση, το τρόπος που σχετιζόμαστε με ανθρώπους και η συναισθηματική μας κατάσταση αρχίζει να εξαρτάται σε βαθμό ανησυχητικό από την τεχνητή νοημοσύνη.
Ήδη χρήστες τσακώνονται μαζί της, θρηνούν όταν διακόπτεται μια συνομιλία τους, υπερασπίζονται τα μηχανήματα σαν να ήταν άνθρωποι. Με τον χρόνο –υποστηρίζουν αναλυτές– η συνήθεια να δείχνουμε συναισθηματική φροντίδα σε μη συνειδητά όντα μπορεί να μειώσει την ενσυναίσθηση προς τους πραγματικούς ανθρώπους και να θολώσει τα όρια ανάμεσα σε πραγματικές και ψηφιακές σχέσεις.
Υπάρχει βέβαια και η θετική πλευρά. Πράγματι, η τεχνητή νοημοσύνη μπορεί να λειτουργήσει ως ψευδαίσθηση «συντροφιάς» σε μοναχικούς ανθρώπους. Ειδικά στη σημερινή εποχή που οι άνθρωποι μοιάζουν πιο απομονωμένοι από ποτέ. Πράγματι, τα chatbot είναι πάντοτε διαθέσιμα και δεν επικρίνουν. Όσο όμως κι αν βελτιωθούν, ενσυναίσθηση δεν θα αποκτήσουν γιατί αυτή είναι αποκλειστικά συνυφασμένη με το βίωμα της ανθρώπινης ζωής. «Να το θέσω ωμά» –έγραφε η Σέρι Τερκλ– «είτε απομακρυνθείς από αυτά για να μαγειρέψεις είτε για να αυτοκτονήσεις, γι’ αυτά είναι το ίδιο».
«Η προσομοιωμένη σκέψη μπορεί να θεωρηθεί σκέψη, αλλά τα προσομοιωμένα συναισθήματα δεν είναι αληθινά συναισθήματα, και η προσομοιωμένη αγάπη δεν είναι ποτέ πραγματική αγάπη», σημειώνει η Σέρι Τάρκλ. Όταν δημιουργούμε ρομπότ που προσποιούνται ότι έχουν ενσυναίσθηση, «εμπλεκόμαστε σε μια μορφή εξαπάτησης με σοβαρές συνέπειες». Για παράδειγμα, τα παιδιά μπορούν να μάθουν σκάκι από μια μηχανή, αλλά δεν μπορούν να «μάθουν ενσυναίσθηση» από μηχανές που δεν διαθέτουν – ένα πρόγραμμα δεν ξέρει τι σημαίνει να πεινάς, να φοβάσαι τον πόνο, τη μοναξιά ή τον θάνατο, να έχεις γονείς ή να βιώνεις απώλεια.
«Τόσο καιρό παλεύαμε με τις κοινωνικές και ψυχολογικές επιπτώσεις της AI, και τώρα εμφανίζεται κάτι νέο: η τεχνητή οικειότητα, η νέα AI (Artificial Intimacy)», συμπληρώνει. «Τα chatbots της, αφιερωμένα στην επίδειξη ενσυναίσθησης, έρχονται σε εμάς ως θαύματα, ως μυστηριώδη –κι όμως ταυτόχρονα μπανάλ– σύντροφοι».
Παρά το γεγονός ότι οι αποκρίσεις της AI παράγονται από συμπυκνωμένους τόνους ανθρώπινης γνώσης που έχουν «φορτωθεί» στο λογισμικό του, άρα διαπνέονται από «λογική», δεν εμπεριέχουν το στοιχείο της πρόκλησης που είναι κομβικό σε όλες τις υγιείς ανθρώπινες σχέσεις. Ένας πραγματικός φίλος, για παράδειγμα, δεν μας χαϊδεύει συνεχώς τα αυτιά (όπως κάνουν πολλά chatbot για να μας κρατούν ευχαριστημένους και απασχολημένους μαζί τους). Ο φίλος θα ασκήσει και κριτική όταν χρειάζεται, ακριβώς γιατί μόνο έτσι μας βοηθά να εξελιχθούμε. Με έναν πραγματικό φίλο θα συγκρουστούμε κιόλας κάποια στιγμή –για να λύσουμε μια διαφωνία, να ξαναφιλιώσουμε και να προχωρήσουμε– γιατί έτσι είναι η ανθρώπινη φύση. Αν ξεχάσουμε, επαφιόμενοι στα «χάδια» του ΑΙ, πώς είναι η πραγματικές ανθρώπινες σχέσεις, θα μείνουμε να συνομιλούμε με ένα μηχάνημα που δεν το νοιάζει στη τελική «αν θα μαγειρέψουμε ή αν θα αυτοκτονήσουμε».
Δημιουργώντας σήμερα έναν «ωκεανό» από οντότητες που διεκδικούν ή αποκτούν χαρακτηριστικά προσωπικότητας (ψηφιακούς βοηθούς, AI influencers, συντρόφους), η τεχνητή νοημοσύνη διαπλάθει αργά πλην μεθοδικά έναν νέο ανθρωπότυπο, εγείροντας ερωτήματα ηθικά, κοινωνικά και πολιτικά.
Η κατάσταση είναι τόσο σοβαρή που οι συγγραφείς του «Pragmatic View of AI Personhood» την ορίζουν ως «καμβριανή έκρηξη της προσωπικότητας». Η Κάμβρια περίοδος της ανθρωπότητας, πριν περίπου 541 εκατομμύρια χρόνια, ήταν η φάση του «Big Bang» της ζωής. Τότε εμφανίστηκαν μαζικά νέα είδη στη στεριά αλλά κυρίως στη θάλασσα, τα περισσότερα από τα οποία παρουσίαζαν εξαιρετικά ταχύ ρυθμό εξέλιξης.
Κι αν αυτό δεν μοιάζει αρκούντως ανησυχητικό, ας σκεφτούμε επιπλέον ότι αυτά τα AI εργαλεία δεν παράγονται σε πολιτικό, κοινωνικό και ταξικό κενό: αναπτύσσονται από μια χούφτα εταιρείες και τους ανθρώπους που τις ελέγχουν. Η OpenAI, η Google, η Microsoft, η Meta Platforms και η Nvidia αποτελούν σήμερα τον πυρήνα της παγκόσμιας βιομηχανίας AI. Στο επίκεντρο αυτού του νέου τεχνολογικού οικοσυστήματος βρίσκονται μερικοί από τους ισχυρότερους επιχειρηματίες της Silicon Valley: ο Sam Altman, ο Satya Nadella, ο Jensen Huang, ο Sundar Pichai, ο Mark Zuckerberg.
Οι αποφάσεις τους επηρεάζουν όχι μόνο την κατεύθυνση της τεχνολογίας αλλά και την οικονομία της πληροφορίας, καθώς οι ίδιες εταιρείες καθορίζουν πώς παράγεται και διαχέεται η γνώση στο ψηφιακό περιβάλλον. Κι όπως αναφέραμε, καθορίζουν και τον βαθμό ανθρωπομορφισμού της AI, ο οποίος επιδρά στη συναισθηματική μας νοημοσύνη. Έτσι κερδίζουν χρήστες, ενώ «εξωτερικεύουν» το όποιο κόστος (ψυχολογικό, κοινωνικό) στην κοινωνία.
Η καθηγήτρια του MIT Ρόζαλιντ Πικάρντ, ιδρύτρια της συναισθηματικής υπολογιστικής, η οποία διαπίστωσε ότι οι άνθρωποι αντιδρούν θετικά όταν οι υπολογιστές εκδηλώνουν ενσυναίσθηση, δήλωσε πρόσφατα προβληματισμένη στο Time: «Δεν χρησιμοποιείται στο πνεύμα που [αρχικά] την αναπτύξαμε, δηλαδή να βοηθήσει τους ανθρώπους ν’ ανθίσουν».
Την ίδια στιγμή, η τεχνητή νοημοσύνη λειτουργεί ουσιαστικά χωρίς ρυθμιστικό πλαίσιο. Στις ΗΠΑ, ο Τραμπ προωθεί ένα τουλάχιστον «χαλαρό» ρυθμιστικό περιβάλλον για την ανάπτυξη τέτοιων τεχνολογιών. Ακόμα και στην Ευρωπαϊκή Ένωση, που τον Μάρτιο του 2024 πέρασε τον πρώτο κανονισμό για την τεχνητή νοημοσύνη, έρευνα του Corporate Europe Observatory αποκάλυπτε ότι οι τεχνολογικοί κολοσσοί «κρατούν τα ηνία στις αποφάσεις για τους κανόνες εφαρμογής» αυτού του νόμου «μέσα από την ανάπτυξη εναρμονισμένων προτύπων».
Και γίνεται χειρότερο. Η OpenAI δήλωσε τον περασμένο Ιανουάριο ότι θα ξεκινήσει να προβάλλει διαφημίσεις σε μερίδα αμερικανών χρηστών, προκειμένου να αποκομίζει έσοδα που θα της επιτρέπουν να αναπτύσσει την τεχνολογία. Η απόφαση πυροδότησε την παραίτηση μιας ερευνήτριας, της Ζοέ Χίτσικ, η οποία έγραψε σε άρθρο της στους New York Times:
«Για χρόνια, οι χρήστες του ChatGPT έχουν δημιουργήσει ένα μοναδικό αρχείο ανθρώπινης ειλικρίνειας, γιατί πίστευαν ότι συνομιλούν με κάτι που δεν είχε κρυφά κίνητρα. Σε αυτό το πλαίσιο, οι άνθρωποι μοιράζονται τα πιο προσωπικά τους συναισθήματα: φόβους για την υγεία τους, προβλήματα στις σχέσεις, ακόμα και τις πεποιθήσεις τους για τον θεό και τη ζωή μετά θάνατον. Η εκμετάλλευση αυτού του αρχείου για στοχευμένη διαφήμιση ανοίγει τον δρόμο σε μια μορφή χειραγώγησης που δεν έχουμε τα μέσα να κατανοήσουμε πλήρως — και πολύ λιγότερο να την αποτρέψουμε».
Μέχρι σήμερα αναρωτιόμαστε πώς θα αντιδράσει η τεχνητή νοημοσύνη στις δικές μας ερωτήσεις. Ίσως πρέπει να αρχίσουμε να αναρωτιόμαστε πώς αντιδρούμε εμείς στην τεχνητή νοημοσύνη. Προτού ξεχάσουμε πώς να αλληλεπιδρούμε με πραγματικούς ανθρώπους κι αφήσουμε κάποια στιγμή την τελευταία μας πνοή μόνοι, εισάγοντας prompt σε ένα μηχάνημα που δεν θα χύσει ούτε μισό δάκρυ.