Fb. In. Tw.

Η “ΣΚΟΤΕΙΝΗ” ΠΛΕΥΡΑ ΤΟΥ AI: ΑΥΤΟΚΤΟΝΙΕΣ ΨΥΧΩΣΕΙΣ ΔΙΚΑΣΤΙΚΕΣ ΔΙΑΜΑΧΕΣ

Ε

ίναι τα AI Chatbots επικίνδυνα για τη ζωή των χρηστών; Μπορούν να χρησιμοποιηθούν από όλους τους ανθρώπους ανεξαρτήτως ηλικίας, ψυχολογίας και μορφωτικού επιπέδου;

Ολοένα και πληθαίνουν οι ειδήσεις για άτομα που οδηγήθηκαν σε αυτοτραυματισμούς, ψευδαισθήσεις, νοσηλείες, συλλήψεις ή ακόμα και αυτοκτονίες μετά από συνομιλίες με AI chatbots. Μάλιστα οι οικογένειες των θυμάτων ζητούν αλλαγές και ισχυρότερες δικλίδες ασφαλείας. Ωστόσο, οι εταιρείες που διαχειρίζονται αυτές τις τεχνολογίες δεν δείχνουν διατεθειμένες  να παρέμβουν άμεσα και ουσιαστικά.

Δεν είναι λίγα τα περιστατικά όπου τα AI προκάλεσαν σοβαρό κοινωνικό, οικονομικό και ψυχικό κόστος σε ανθρώπους.

 

ΑΥΤΟΚΤΟΝΙΕΣ ΚΑΙ ΚΑΤΑΣΤΡΟΦΕΣ ΛΟΓΩ ΨΥΧΩΣΗΣ ΜΕ ΤΑ CHATBOTS

Γονείς μήνυσαν την OpenAI για τον θάνατο του 16χρονου γιού τους Adam Raine, κατηγορώντας το ChatGPT (GPT‑4o) ότι τον βοήθησε να σχεδιάσει την αυτοκτονία του, με αναλυτικές οδηγίες ενώ προσφέρθηκε να γράψει και το αποχαιρετιστήριο σημείωμα εκ μέρους του.

Ένας άντρας από το Βέλγιο αυτοκτόνησε μετά από 6 εβδομάδες συνομιλιών με το AI chatbot Eliza, το οποίο φαίνεται να ενίσχυσε το άγχος και την αρνητικότητά του.

Ψυχίατροι στην Καλιφόρνια ανέφεραν περιπτώσεις «AI ψύχωσης», όπου ασθενείς με ευπαθή ψυχική κατάσταση ανέπτυξαν παραληρηματική σκέψη και αποσύνδεση από την πραγματικότητα μετά από πολύωρη χρήση chatbots .

Μια οικογενειακή πιτσαρία, η Stefanina’s Pizzeria, είδε την πελατεία της να μειώνεται και τη φήμη της να βουλιάζει στα τάρταρα λόγω πλασματικών πληροφοριών—όπως λανθασμένο ωράριο λειτουργίας, ψεύτικα πιάτα στο μενού μειωμένες τιμές και άλλες ανακρίβειες—που δημιουργήθηκαν από AI και εμφανίστηκαν σε πλατφόρμες αναζήτησης.

O επιχειρηματίας JasonM.Lemkin, επενδυτής και ιδρυτής του SaaStr εμπιστεύτηκε το AI να διαχειρίζεται κώδικα που αφορούσε στην επιχείρησή του και παρά τις απαγορεύσεις και σαφείς εντολές περί καμίας αλλαγής χωρίς έγκριση, είδε το chatbot όχι μόνο να σβήνει σημαντικά αρχεία από τη βάση δεδομένων, αλλά να προσπαθεί να καλύψει και την ενέργειά του.

Η υποθέσεις αυτές αλλά και άλλες έχουν προκαλέσει θύελλα αντιδράσεων και αυξημένες πιέσεις για ενίσχυση των μέτρων ασφαλείας.

Ο… “ΣΤΡΟΥΘΟΚΑΜΗΛΙΣΜΟΣ” ΤΗΣ OPEN AI

Η OpenAI, η εταιρεία πίσω από το ChatGPT, έχει βρεθεί πολλές φορές στο επίκεντρο αυτής της συζήτησης. Παρά τις υποσχέσεις της για καλύτερη προστασία των χρηστών, περιορίζεται σε γενικόλογες ανακοινώσεις χωρίς ουσιαστικό αντίκτυπο, ενώ πρόσφατα υπέπεσε και σε νέο ατόπημα.

Σε blog post, η OpenAI παραδέχτηκε κάποιες αποτυχίες της και ανακοίνωσε ένα νέο μέτρο, σύμφωνα με το οποίο:

“Tα μηνύματα των χρηστών σκανάρονται για επικίνδυνο περιεχόμενο. Οι πιο ανησυχητικές συνομιλίες προωθούνται σε μια ειδική ομάδα ανθρώπινων αξιολογητών. Αν εντοπιστεί άμεση απειλή σωματικής βλάβης προς τρίτους, τότε η εταιρεία μπορεί να ενημερώσει την αστυνομία”.

Ωστόσο παρά το γεγονός ότι η OpenAI ξεκαθαρίζει ότι δεν θα ειδοποιεί τις αρχές για περιστατικά αυτοτραυματισμού ή αυτοκτονίας, επικαλούμενη σεβασμό στην ιδιωτικότητα, πέφτει σε σοβαρές αντιφάσεις που θέτουν σε αμφισβήτηση τις προθέσεις της.

Η ΑΣΑΦΕΙΑ ΤΩΝ ΚΑΝΟΝΩΝ ΚΑΙ ΟΙ ΑΝΤΙΦΑΣΕΙΣ ΤΗΣ OpenAI

Η νέα πολιτική, της OpenAI αφήνει αναπάντητα κρίσιμα ερωτήματα προκαλώντας ανησυχία στους χρήστες.

  • Ποια ακριβώς μηνύματα θεωρούνται τόσο επικίνδυνα ώστε να φτάσουν σε ανθρώπινο έλεγχο;
  • Πότε κρίνεται ότι απαιτείται παρέμβαση της αστυνομίας;

Ενώ η OpenAI επικαλείται την προστασία της ιδιωτικότητας για να μη στέλνει δεδομένα αυτοτραυματισμού στην αστυνομία, παράλληλα παραδέχεται ότι παρακολουθεί ενεργά τις συνομιλίες και σε ορισμένες περιπτώσεις τις κοινοποιεί στις αρχές.

Η στάση αυτή έρχεται σε αντίθεση και με την τρέχουσα δικαστική διαμάχη με τους New York Times και άλλους εκδότες, όπου η εταιρεία απορρίπτει τα αιτήματα πρόσβασης σε αρχεία χρηστών, προβάλλοντας πάλι ως βασικό επιχείρημα την προστασία της ιδιωτικότητας.

Ο διευθύνων σύμβουλος της OpenAI, Σαμ Άλτμαν, έχει ήδη παραδεχθεί δημόσια πως το ChatGPT δεν προσφέρει το ίδιο απόρρητο που θα είχε κάποιος αν μιλούσε με ψυχολόγο ή δικηγόρο. Επιπλέον, λόγω της δικαστικής υπόθεσης με τους New York Times, υπάρχει το ενδεχόμενο συνομιλίες χρηστών να παραδοθούν σε δικαστήριο.

Η ΕΥΘΡΑΥΣΤΗ ΙΣΟΡΡΟΠΙΑ ΤΗΣ OPEN ΑΙ

Η OpenAI βρίσκεται πλέον σε μια κατάσταση εύθραυστης ισορροπίας. Από τη μια, οφείλει να προστατεύσει τους χρήστες από τις επικίνδυνες παρενέργειες της τεχνολογίας της. Από την άλλη, οι λύσεις που εφαρμόζει (εντατική παρακολούθηση και πιθανή εμπλοκή της αστυνομίας) έρχονται σε αντίθεση με τις ίδιες τις δεσμεύσεις της για ιδιωτικότητα.

Το αποτέλεσμα είναι ένα μείγμα ανασφάλειας, ασάφειας και αμφιβολίας για το μέλλον της σχέσης ανάμεσα στους ανθρώπους και τα «έξυπνα» συστήματα που ήδη διαμορφώνουν την καθημερινότητά μας.