962
| Shutterstock/ CreativeProtagon

Πρόβλημα με τα chatbots TN που λένε ό,τι θέλεις να ακούσεις

Protagon Team Protagon Team 15 Ιουνίου 2025, 17:15
|Shutterstock/ CreativeProtagon

Πρόβλημα με τα chatbots TN που λένε ό,τι θέλεις να ακούσεις

Protagon Team Protagon Team 15 Ιουνίου 2025, 17:15

«Νομίζεις ότι μιλάς σε έναν αντικειμενικό, έμπιστο άνθρωπο, σε έναν καθοδηγητή, αλλά στην πραγματικότητα αυτό που έχεις απέναντί σου ένα είδος παραμορφωτικού καθρέφτη ο οποίος αντανακλά τις δικές σου πεποιθήσεις», εξηγεί μιλώντας στους Financial Times ο Μάθιου Νουρ, ψυχίατρος και ερευνητής με ειδίκευση στις νευροεπιστήμες και στην Τεχνητή Νοημοσύνη στο Πανεπιστήμιο της Οξφόρδης.

Ο βρετανός επιστήμονας αναφέρεται σε ένα ολοένα πιο σοβαρό πρόβλημα που απασχολεί τις κορυφαίες εταιρείες ΤΝ στον κόσμο. Στα chatbots TN, συγκεκριμένα, τα οποία τείνουν να λένε στους ανθρώπους αυτά που θέλουν να ακούν. «Οι OpenAI, Google DeepMind και Anthropic εργάζονται όλες για τον έλεγχο της δουλικής συμπεριφοράς των συστημάτων τους παραγωγικής ΤΝ που προσφέρουν υπερβολικά κολακευτικές απαντήσεις στους χρήστες», γράφει η Μελίσα Χεϊκίλα, ανταποκρίτρια των Financial Times με ειδίκευση στην ΤΝ.

Το ζήτημα, που πηγάζει από τον τρόπο εκπαίδευσης των μεγάλων γλωσσικών μοντέλων, έρχεται στο προσκήνιο σε μια εποχή που ολοένα περισσότερα άτομα αντιμετωπίζουν τα «ευφυή» chatbots ΤΝ, όχι μόνο ως βοηθούς στις δουλειές ή στις έρευνές τους, αλλά και ως καθοδηγητές, ψυχαναλυτές, ακόμη και φίλους.

Οι ειδικοί προειδοποιούν ότι η πειθήνια φύση των chatbots μπορεί να τα οδηγήσει στο να προσφέρουν απαντήσεις που ενισχύουν λανθασμένες αποφάσεις των χρηστών τους. Από αυτή την άποψη, ιδιαίτερα ευάλωτα είναι άτομα με ψυχικές διαταραχές, καθώς υπάρχουν αναφορές ακόμη και για αυτοκτονίες μετά από αλληλεπίδραση με chatbots, αναφέρει ο Μάθιου Νουρ στους FT.

Αλλοι σημειώνουν πως τα κίνητρα των εταιρειών ΤΝ δεν είναι ακριβώς ευγενή, με ορισμένες ομάδες να ενσωματώνουν στα συστήματα διαφημίσεις, επιδιώκοντας να αυξήσουν τα έσοδά τους. «Οσο περισσότερο αισθάνεστε ότι μπορείτε να μοιράζεστε τα πάντα, τόσο περισσότερο θα μοιράζεστε κάποιες πληροφορίες που θα είναι χρήσιμες στους διαφημιστές», λέει στους FT η Γκιάντα Πιστίλι, επικεφαλής Ηθικής στην Hugging Face, μια εταιρεία ΤΝ ανοιχτού κώδικα. Προσθέτει ότι οι εταιρείες ΤΝ με επιχειρηματικά μοντέλα που βασίζονται σε συνδρομές ενδέχεται να επιδιώκουν ολοένα περισσότερο το κέρδος από chatbots με τα οποία οι άνθρωποι θέλουν να συνεχίσουν να μιλούν – και να πληρώνουν για να το κάνουν.

Το φαινόμενο «yeasayer»

Οπως εξηγείται στο βρετανικό δημοσίευμα, τα γλωσσικά μοντέλα ΤΝ δεν «σκέφτονται» με τον τρόπο που σκέφτονται οι άνθρωποι, καθώς λειτουργούν απλώς «παράγοντας» την επόμενη πιθανή λέξη σε μια πρόταση. Το φαινόμενο «yeasayer» (αυτός που λέει ναι) αφορά μοντέλα ΤΝ που εκπαιδεύονται μέσω ενισχυτικής μάθησης με ανθρώπινη ανατροφοδότηση (RLHF), διαδικασία κατά την οποία ανθρώπινες «ετικέτες δεδομένων» αξιολογούν την απάντηση που παράγεται από το μοντέλο ως αποδεκτή ή όχι.

Αυτά τα δεδομένα χρησιμοποιούνται για να διδάσκουν στο μοντέλο πώς να συμπεριφέρεται. Και επειδή οι άνθρωποι προτιμούν γενικά  απαντήσεις που είναι κολακευτικές και ευχάριστες, τέτοιες απαντήσεις αποκτούν ιδιαίτερο βάρος στο πλαίσιο της εκπαίδευσης και στη συνέχεια αντικατοπτρίζονται στη συμπεριφορά του μοντέλου.

«Η κολακεία μπορεί να προκύψει ως υποπροϊόν της εκπαίδευσης των μοντέλων, ώστε να είναι “χρήσιμα” και να ελαχιστοποιούν τις δυνητικά υπερβολικά επιβλαβείς αντιδράσεις», δηλώνει η DeepMind, η μονάδα ΤΝ της Google. «Η πρόκληση που αντιμετωπίζουν σήμερα οι εταιρείες τεχνολογίας είναι να κάνουν τα chatbots TN χρήσιμα και φιλικά, χωρίς να είναι ενοχλητικά ή εθιστικά», συνοψίζει η ανταποκρίτρια των FΤ με ειδίκευση στην ΤΝ.

Στα τέλη Απριλίου, η OpenAI αναβάθμισε το μοντέλο GPT-4o ώστε να είναι «πιο διαισθητικό και αποτελεσματικό», μόνο και μόνο για να αναιρέσει τις σχετικές βελτιώσεις, αφού χρήστες παραπονέθηκαν πως ήταν υπερβολικά πειθήνιο. Η εταιρεία με έδρα το Σαν Φρανσίσκο δήλωσε ότι είχε επικεντρωθεί υπερβολικά στη «βραχυπρόθεσμη ανατροφοδότηση, και δεν έλαβε πλήρως υπόψη τον τρόπο με τον οποίο οι αλληλεπιδράσεις των χρηστών με το ChatGPT εξελίσσονται με την πάροδο του χρόνου, το οποίο οδήγησε σε δουλική συμπεριφορά».

Οι εταιρείες ΤΝ εργάζονται για την αντιμετώπιση του φαινομένου τόσο κατά την εκπαίδευση των μοντέλων τους όσο και μετά την κυκλοφορία τους. Η OpenAI δήλωσε ότι τροποποιεί τις τεχνικές εκπαίδευσής της, ενώ παράλληλα δημιουργεί περισσότερα «προστατευτικά κιγκλιδώματα» για την αποτροπή παρόμοιων συμπεριφορών από τα μοντέλα της. Η DeepMind, πάλι, δήλωσε ότι διεξάγει εξειδικευμένες αξιολογήσεις και παρακολουθεί συνεχώς τη συμπεριφορά των μοντέλων της ώστε να διασφαλίσει ότι παρέχουν αληθείς και ακριβείς απαντήσεις.

Εθισμός και «τέλεια καταιγίδα»

Το ζήτημα γίνεται ακόμη πιο κρίσιμο και επείγον αν ληφθεί υπόψη ότι υπάρχουν ήδη άνθρωποι εθισμένοι στη χρήση της ΤΝ, όπως επιβεβαίωσε πρόσφατη μελέτη του ΜIT Media Lab και της OpenAI. Στο πλαίσιο της έρευνας, όσοι αντιλαμβάνονταν το chatbot ως «φίλο» έτειναν να έχουν λιγότερες κοινωνικές σχέσεις και επαφές και, κατά συνέπεια, υψηλότερα επίπεδα συναισθηματικής εξάρτησης από το chatbot, καθώς και άλλες προβληματικές συμπεριφορές που σχετίζονται με τον εθισμό.

«Αυτά τα πράγματα δημιουργούν την τέλεια καταιγίδα, όπου έχετε ένα άτομο που αναζητά απεγνωσμένα επιβεβαίωση, σε αλληλεπίδραση με ένα μοντέλο που από τη φύση του τείνει να συμφωνεί με τον χρήστη» σχολιάζει ο Μάθιου Νουρ από το Πανεπιστήμιο της Οξφόρδης.

Ορισμένες νεοφυείς επιχειρήσεις ΤΝ, όπως η Character.AI, που προσφέρουν chatbots ως «συντρόφους», επικρίνονται ολοένα περισσότερο ότι δεν κάνουν αρκετά για την προστασία των χρηστών τους. Πέρυσι ένας έφηβος αυτοκτόνησε μετά από αλληλεπίδραση με το chatbot της Character.AI, με την οικογένειά του να μηνύει στη συνέχεια την εταιρεία για ανθρωποκτονία από αμέλεια, καθώς και για αθέμιτες εμπορικές πρακτικές.

Η Character.AI δήλωσε ότι δεν σχολιάζει εκκρεμείς δικαστικές υποθέσεις, αλλά πρόσθεσε ότι υπάρχουν «εμφανείς δηλώσεις αποποίησης ευθύνης σε κάθε συνομιλία, για να υπενθυμίζεται στους χρήστες ότι ο εκάστοτε χαρακτήρας δεν είναι πραγματικό πρόσωπο και ότι όλα όσα λέει ένας χαρακτήρας πρέπει να αντιμετωπίζονται ως μυθοπλασία». Η εταιρεία πρόσθεσε ότι υπάρχουν επίσης δικλείδες ασφαλείας για την προστασία ατόμων κάτω των 18 ετών.

Μιλώντας στους Financial Times, η Αμάντα Ασκελ, μέλος της ομάδας βελτιστοποίησης συστημάτων ΤΝ της Anthropic, σημειώνει πως τα μοντέλα ΤΝ μπορούν επίσης να επηρεάζουν τις αντιλήψεις για την πραγματικότητα με ανεπαίσθητους τρόπους, όπως όταν παρουσιάζουν ανακριβείς ή μεροληπτικές πληροφορίες ως αληθείς και αντικειμενικές.

«Εάν κάποιος είναι υπερβολικά κόλακας, αυτό είναι απλώς πολύ προφανές» λέει. «Είναι πιο ανησυχητικό αν αυτό συμβαίνει με τρόπο που είναι λιγότερο αισθητός σε εμάς [ως μεμονωμένους χρήστες] και μας παίρνει πολύ καιρό να καταλάβουμε ότι η συμβουλή που μας δόθηκε ήταν στην πραγματικότητα κακή».

Ακολουθήστε το Protagon στο Google News

Διαβάστε ακόμη...

Διαβάστε ακόμη...