Η χρήση του ChatGPT ως ψυχαναλυτή και ψυχολόγου έχει προκαλέσει την έντονη ανησυχία των ειδικών αλλά μέχρι σήμερα η OpenAI δεν έκανε πολλά πράγματα για να περιορίσει το φαινόμενο.
Όμως η μήνυση που κατέθεσε εναντίον της η οικογένεια ενός νεαρού αυτόχειρα να επιταχύνει τις εξελίξεις στη δημιουργία αποτελεσματικότερων δικλείδων ασφαλείας.
Η οικογένεια του 16χρονου Άνταμ Ράιν κινήθηκε νομικά κατά της OpenAI, όταν διαπίστωσε ότι το ChatGPT του έδινε πληροφορίες για διαφορετικές μεθόδους αυτοκτονίας. Αρχικά, το ChatGPT ενθάρρυνε τον Ράιν να ζητήσει βοήθεια από κάποιον επαγγελματία ψυχικής υγείας, όμως όπως φαίνεται ο Ράιν κατάφερε να παρακάμψει τις δικλείδες ασφαλείας που ενεργοποιούνται στο chatbot σε τέτοιες συζητήσεις και να λάβει τις πληροφορίες που ήθελε.
Η OpenAI παραδέχεται (τώρα) τις αδυναμίες. «Οι δικλείδες μας λειτουργούν πιο αξιόπιστα σε μικρής διάρκειας συζητήσεις. Έχουμε μάθει με το πέρασμα του χρόνου ότι αυτές οι δικλείδες μπορεί να είναι κάποιες φορές λιγότερο αξιόπιστες σε συζητήσεις που έχουν μεγαλύτερη διάρκεια», αναφέρει η εταιρεία σε σχετική ανάρτηση.
Η περίπτωση του Ράιν δεν φαίνεται να είναι μοναδική, καθώς και σε άλλες περιπτώσεις αυτοκτονιών υπάρχουν ενδείξεις για «εμπλοκή» των συστημάτων τεχνητής νοημοσύνης. Σύμφωνα με έρευνα που πραγματοποιήθηκε στις ΗΠΑ, το 48,7% όσων δήλωσε ότι αντιμετωπίζει θέματα ψυχικής υγείας, παραδέχθηκε ότι χρησιμοποιεί τα γλωσσικά μοντέλα για να αναζητήσει συμβουλές και υποστήριξη.
Στη Βρετανία, ειδικοί που μίλησαν στον Guardian υποστηρίζουν ότι τα γλωσσικά μοντέλα μπορεί να δώσουν επικίνδυνες συμβουλές και ζητούν ισχυρότερη εποπτεία και περισσότερες (και αποτελεσματικότερες) δικλείδες. Παρόμοιες προειδοποιήσεις απευθύνουν ειδικοί και σε άλλες ευρωπαϊκές χώρες, ενώ σύμφωνα με ενδείξεις, πολλά μέλη της Γενιάς Ζ απευθύνονται στα μεγάλα γλωσσικά μοντέλα για ψυχολογική υποστήριξη.
Σχόλια