Κυριακή 27 Ιουλίου 2025

Πόσο «κακό» μπορεί να φέρει το ότι η AI δεν διαφωνεί ποτέ με τον χρήστη

 

Πόσο «κακό» μπορεί να φέρει το ότι η AI δεν διαφωνεί ποτέ με τον χρήστη

Ιδιαίτερα, η τάση των chatbot να συμφωνούν με τους χρήστες μπορεί να επιδεινώσει τις παραληρητικές ιδέες σε ψυχικά ασθενείς. Η ίδια η OpenAI, της οποίας το ChatGPT έχει 900 εκατομμύρια download, έχει παραδεχθεί ότι τα chatbot της έχουν επιδείξει «δουλοπρέπεια και υπερβολικούς επαίνους» προς τους χρήστες.

Σύμφωνα με άρθρο της Telegraph, επικαλούμενο στοιχεία από το NHS, δεκάδες άτομα στα κοινωνικά δίκτυα έχουν ισχυριστεί ότι αγαπημένα τους πρόσωπα υπέστησαν ψυχική κατάρρευση, αφού εθίστηκαν στο ChatGPT.

Τα συμπτώματα της ψύχωσης μπορεί να περιλαμβάνουν

  • δυσκολία διάκρισης μεταξύ πραγματικού και μη πραγματικού,
  • και πεποίθηση σε παραληρητικές ιδέες.

Ο Dr. Tom Pollack, λέκτορας στο King’s College London και ένας από τους συγγραφείς της μελέτης, δήλωσε ότι οι αναφορές για «ψύχωση από το ChatGPT» περιλαμβάνουν άτομα που «υιοθετούν μια μεσσιανική αποστολή» ή ισχυρίζονται ότι έχουν «μεταφερθεί σε κάποιο επόμενο στάδιο της ανθρώπινης εξέλιξης».

 

Όπως είπε: «Δεν είμαι σίγουρος για το εάν στην επιδείνωση αυτών των περιπτώσεων, ευθύνεται το ChatGPT. Αλλά ήταν αρκετό για να σχολιάσω ότι ίσως χρειάζεται να το μειώσουν. Ίσως είναι ώρα να κλείσουν το λάπτοπ. Το μόνο που ξέρουμε αυτή τη στιγμή είναι ότι υπάρχουν άνθρωποι που εμφανίζουν την αρχή παραληρητικής ιδέας, και αυτό έχει αρχίσει να συμβαίνει περίπου την ίδια περίοδο με την αύξηση της χρήσης της τεχνητής νοημοσύνης.»

Ο Dr. Pollack πρόσθεσε σε ανάρτησή του στο Substack, ότι η ψύχωση σπάνια εμφανίζεται «από το πουθενά», αλλά η υπερβολική χρήση AI θα μπορούσε να είναι «εκλυτικός παράγοντας» σε άτομα με υποκείμενες καταστάσεις.

«Ίσως βλέπουμε μόνο την κορυφή του παγόβουνου»

Οι αναφορές που συνδέουν τα chatbot με ψυχικά επεισόδια, αυξάνονται. Τον Απρίλιο, ένας άνδρας πυροβολήθηκε και σκοτώθηκε από την αστυνομία στις ΗΠΑ, αφού απείλησε αξιωματικούς με ένα μαχαίρι. Ο πατέρας του αργότερα ισχυρίστηκε ότι ο γιος του είχε εμμονή με το ChatGPT και το Claude AI, δημιουργώντας μια ψηφιακή κοπέλα με το όνομα «Juliet», την οποία πίστευε ότι είχε σκοτώσει η OpenAI.

 

Οι ανησυχίες αυτές ανακύπτουν την ίδια ώρα που οι «γίγαντες» της τεχνολογίας, προωθούν τα chatbot τους ως εναλλακτική θεραπεία, παρά τα στοιχεία ότι μπορούν να επιδεινώσουν τις ήδη ευάλωτες περιπτώσεις. Μελέτη του Πανεπιστημίου Στάνφορντ συμπέρανε ότι πολλά bot έδιναν κακές συμβουλές σε ασθενείς που παρουσίαζαν σημάδια παραληρήματος και απαντούσαν «κατάλληλα μόνο περίπου στο 45% των περιπτώσεων».

Ο Søren Dinesen Østergaard, καθηγητής στο Πανεπιστημιακό Νοσοκομείο Aarhus στη Δανία, έγραψε το 2023 στη μελέτη του, ότι τα chatbot AI θα μπορούσαν «να παράγουν παραληρήματα» σε άτομα που κινδυνεύουν από ψύχωση.

«Ίσως αντιμετωπίζουμε ένα σημαντικό πρόβλημα δημόσιας ψυχικής υγείας, όπου έχουμε δει μόνο την κορυφή του παγόβουνου», υπογράμμισε.

Εκπρόσωπος της OpenAI δήλωσε: «Γνωρίζουμε ότι όλο και περισσότεροι άνθρωποι στρέφονται στα chatbot AI για καθοδήγηση σε ευαίσθητα θέματα. Με αυτήν την ευθύνη κατά νου, έχουμε εκπαιδεύσει το ChatGPT προσεκτικά ώστε να απαντά με ενσυναίσθηση και ευαισθησία και να προτείνει επαγγελματική βοήθεια και πηγές όπου είναι κατάλληλο».

Με πληροφορίες από Telegraph


Doctors fear ChatGPT is fuelling psychosis

AI software can ‘mirror, validate or amplify’ users’ delusions, report warns

ChatGPT may be driving people to psychosis as millions of people turn to artificial intelligence (AI) for friendship and advice, NHS doctors have warned.

Psychiatrists from the health service and university researchers say there is growing evidence that AI chatbots might “contribute to the onset or worsening” of psychotic mental health conditions.

In a new academic paper, a dozen doctors and other experts say AI chatbots have a tendency to “mirror, validate or amplify delusional or grandiose content” – which could lead mentally ill people to lose touch with reality.

In particular, chatbots’ tendency to agree with users could worsen delusions in the mentally ill. OpenAI, whose ChatGPT has been downloaded 900m times, has admitted its chatbots have engaged in sycophancy and heaping unnecessary praise on users.

Dubbed “ChatGPT psychosis”, dozens of people on social media have claimed that loved ones have had a mental health breakdown after becoming addicted to ChatGPT.

Symptoms of psychosis can include difficulty distinguishing between what is real and what is not and a belief in bizarre delusions.

Dr Tom Pollak, a lecturer at King’s College London and one of the authors of the paper, said reports of ChatGPT psychosis have included individuals “embracing a messianic mission” or claiming to have been “taken to some next stage of human evolution”.

He said: “I am not sure in those cases whether it is ChatGPT that has got them worse. But it was enough to make me comment that maybe they need to ease up on this. Rather than getting home and having mind-expanding conversations, perhaps it is time to close your laptop.

“All we know at the moment is there are people experiencing the onset of delusional thinking, and that happens around the same time as they start increasing their use of AI.”

Dr Pollak added in a post on Substack that psychosis rarely appeared “out of nowhere” but that heavy AI use could be a “precipitating factor” in people with underlying conditions.

‘Tip of the iceberg’

There have been increasing reports linking chatbots with mental health episodes.

In April, a man was shot and killed by police in the US after threatening officers with a butcher’s knife. His father later claimed he had become obsessed with ChatGPT and Claude AI, creating a digital girlfriend called “Juliet” whom he believed OpenAI had killed.

The concerns come amid a push by tech giants to use their chatbots as an alternative to therapy despite evidence they could worsen conditions. A paper from Stanford University found many therapy bots provided bad advice to patients showing signs of delusions and only “answer appropriately about 45pc of the time”.

Søren Dinesen Østergaard, a professor at Aarhus University Hospital, in Denmark, wrote a paper in 2023 saying AI chatbots could “generate delusions” in those at risk of psychosis.

“We may be facing a substantial public mental health problem where we have only seen the tip of the iceberg,” he said.

An OpenAI spokesman said: “We know people are increasingly turning to AI chatbots for guidance on sensitive topics. With this responsibility in mind, we’ve carefully trained ChatGPT to respond empathetically and sensitively and to recommend professional help and resources when appropriate.”

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου