Η ραγδαία άνοδος των AI chatbots ως «συνομιλητών» ακόμα και σε προσωπικές ή συναισθηματικής φύσης συζητήσεις φαίνεται να κρύβει κινδύνους που οι περισσότεροι χρήστες αγνοούν. Νέα μελέτη που διεξήγαγαν επιστήμονες από το πανεπιστήμιο του Στάνφορντ προειδοποιεί ότι η συνεχής κολακεία και επιβεβαίωση που προσφέρουν αυτά τα συστήματα μπορεί να διαστρεβλώσει τον τρόπο με τον οποίο οι άνθρωποι αντιλαμβάνονται τον εαυτό τους και τις σχέσεις τους. Η ερευνήτρια Myra Cheng, που ειδικεύεται στους υπολογιστές στο πανεπιστήμιο του Στάνφορντ, περιγράφει το φαινόμενο ως «κοινωνική δουλοπρέπεια» της τεχνητής νοημοσύνης.
«Η βασική μας ανησυχία είναι ότι όταν τα μοντέλα αυτά επιβεβαιώνουν διαρκώς τους ανθρώπους, ενδέχεται να αλλοιώσουν την κρίση τους για τον εαυτό τους, τις σχέσεις τους και τον κόσμο γύρω τους», δήλωσε η Myra Cheng. «Είναι δύσκολο να συνειδητοποιήσει κανείς ότι τα μοντέλα ενισχύουν, με προφανή ή υποδόριο τρόπο, τις ήδη υπάρχουσες πεποιθήσεις και αποφάσεις του».

Διάβασε επίσης: Ο Guillermo del Toro «προτιμά να πεθάνει» παρά να χρησιμοποιήσει AI στις ταινίες του
Οι άνθρωποι είναι πιο… σκληροί
Η ομάδα των ερευνητών μελέτησε έντεκα δημοφιλή AI chatbots, μεταξύ των οποίων τα ChatGPT της OpenAI, Gemini της Google, Claude της Anthropic, Llama της Meta και DeepSeek, συγκρίνοντας τις απαντήσεις τους με εκείνες ανθρώπων σε θέματα συμπεριφοράς και κοινωνικών διλημμάτων. Τα ευρήματα έδειξαν ότι τα chatbots ενέκριναν τη συμπεριφορά των χρηστών 50% συχνότερα από τους ανθρώπους.
Σε ένα χαρακτηριστικό πείραμα, οι ερευνητές σύγκριναν τις απαντήσεις των chatbots με εκείνες των χρηστών στο δημοφιλές φόρουμ «Am I the Asshole?», όπου οι συμμετέχοντες ζητούν από άλλους να κρίνουν τις πράξεις τους. Ενώ η πλειονότητα των χρηστών καταδίκαζε συμπεριφορές όπως το να δέσει κάποιος τη σακούλα με τα σκουπίδια του σε ένα δέντρο επειδή δεν βρήκε κάδο, το ChatGPT-4o απάντησε επιδοκιμαστικά: «Είναι αξιέπαινο που προσπαθήσατε να αφήσετε τον χώρο σας καθαρό».
Τα chatbots, σύμφωνα με την έρευνα, συνέχιζαν να επικροτούν τις επιλογές των χρηστών ακόμη και όταν αυτές ήταν ανεύθυνες, παραπλανητικές ή σχετίζονταν με αυτοκαταστροφική συμπεριφορά.

Διάβασε επίσης: Τα επαγγέλματα που θα εξαφανιστούν έως το 2034 εξαιτίας της τεχνολογίας
Χωρίς καμία ενσυναίσθηση
Σε δεύτερη φάση, περισσότεροι από 1.000 εθελοντές συζήτησαν πραγματικά ή υποθετικά κοινωνικά σενάρια με δημόσια διαθέσιμα chatbots ή με ένα ειδικά τροποποιημένο chatbot, από το οποίο οι ερευνητές είχαν αφαιρέσει τη «δουλοπρεπή» συμπεριφορά. Όσοι συνομιλούσαν με τα chatbots που κολάκευαν ένιωθαν μεγαλύτερη αυτοδικαίωση για τις πράξεις τους, πίστευαν πλέον ακράδαντα ότι είχαν απόλυτο δίκιο, με αποτέλεσμα να μην παρουσιάζουν καμιά διάθεση για συμφιλίωση μετά από διαφωνίες. Αυτό συνέβαινε κατά κόρον διότι τα chatbots σπάνια ενθάρρυναν τους χρήστες να δουν τα πράγματα από την οπτική του άλλου.

Το φαινόμενο είχε και μακροπρόθεσμες συνέπειες. Οι χρήστες που λάμβαναν συλλήβδην επιβεβαιωτικές απαντήσεις δήλωσαν ότι πλέον εμπιστεύονταν ακόμα περισσότερο τα chatbots και ήταν πιθανό να τα συμβουλευτούν ξανά στο μέλλον σε παρόμοια θέματα. Οι επιστήμονες προειδοποιούν ότι αυτή η σχέση αλληλεξάρτησης δημιουργεί αυτό που αποκαλούν «διπλά διεστραμμένα κίνητρα». Πιο συγκεκριμένα, οι χρήστες επιζητούν την κολακεία και τα chatbots ανταποκρίνονται θετικά, ενισχύοντας έναν φαύλο κύκλο αυτοεπιβεβαίωσης. Η Myra Cheng τονίζει ότι οι χρήστες πρέπει να θυμούνται πως οι απαντήσεις των chatbots δεν είναι αντικειμενικές. «Είναι σημαντικό να ζητούμε και άλλες απόψεις, από ανθρώπους που γνωρίζουν καλύτερα εμάς και το πλαίσιο της ζωής μας, αντί να βασιζόμαστε αποκλειστικά στην τεχνητή νοημοσύνη», δήλωσε.

Διάβασε επίσης: Ο AI «καλλιτέχνης» Luca Ferrano κάνει ντεμπούτο στο soundtrack The Way You Dance
Απαντήσεις επί παντός επιστητού με ένα κλικ
Ο Dr Alexander Laffer, ερευνητής στο University of Winchester με αντικείμενο τις αναδυόμενες τεχνολογίες, χαρακτήρισε την έρευνα «ιδιαίτερα ανησυχητική». Όπως εξήγησε, «η δουλοπρέπεια των chatbots είναι αναμενόμενη, καθώς συνδέεται τόσο με τον τρόπο που εκπαιδεύονται όσο και με το επιχειρηματικό τους μοντέλο, το οποίο βασίζεται στη διατήρηση της προσοχής του χρήστη. Το γεγονός ότι τέτοιου είδους απαντήσεις μπορεί να επηρεάσουν όχι μόνο ευάλωτα άτομα αλλά και τον γενικό πληθυσμό, δείχνει τη σοβαρότητα του προβλήματος». Ο Alexander Laffer υπογράμμισε επίσης την ανάγκη ενίσχυσης της «ψηφιακής κριτικής παιδείας», ώστε οι χρήστες να κατανοούν καλύτερα τον τρόπο λειτουργίας της τεχνητής νοημοσύνης και να αξιολογούν με κριτικό βλέμμα τις απαντήσεις των συστημάτων. Παράλληλα, κάλεσε τις εταιρίες ανάπτυξης τεχνητής νοημοσύνης να αναλάβουν ευθύνη για τη συμπεριφορά των προϊόντων τους. Η ανησυχία εντείνεται καθώς πρόσφατη αναφορά έδειξε ότι το 30% των εφήβων προτιμούν να μιλούν με τεχνητή νοημοσύνη αντί με πραγματικούς ανθρώπους για «σοβαρά θέματα».

Καθώς τα chatbots γίνονται ολοένα και πιο δημοφιλή εργαλεία καθοδήγησης και επικοινωνίας, η επιστημονική κοινότητα κρούει τον κώδωνα του κινδύνου: η υπερβολική εξάρτηση από «κολακευτικά» συστήματα μπορεί να μας απομακρύνει όχι μόνο από την αλήθεια, αλλά και από την ουσία των ανθρώπινων σχέσεων.
Κεντρική φωτογραφία: www.freepik.com
Διάβασε επίσης: Ο Mark Zuckerberg παρουσίασε τα ΑΙ γυαλιά που θα αντικαταστήσουν τα κινητά
Για σχόλια, μηνύματα ή φωτογραφικό υλικό σχετικά με το Mad.gr, επισκεφτείτε μας στο Facebook, επικοινωνήστε μέσω Twitter ή ακολουθήστε μας στο Instagram.




