Κάποιοι επιστήμονες αποφάσισαν να θέσουν τα κλασικά ερωτήματα ανίχνευσης της κατάθλιψης σε εφαρμογές τεχνητής νοημοσύνης τύπου chatbot. Οι απαντήσεις που πήραν θα σας εκπλήξουν.
Πίσω στο 1986, ένα κινηματογραφικό έργο ονόματι «Και τα ρομπότ τρελάθηκαν» έκανε επιτυχία. Ένα ρομπότ, το νούμερο 5, που το χτύπησε κεραυνός απέκτησε αισθήματα και βούληση και το έσκασε από το εργαστήριο για να μην το επαναπρογραμματίσουν στην αρχική του κατάσταση. Σήμερα, 36 χρόνια μετά η ιστορία με τα ρομπότ έχει προχωρήσει απίστευτα, σε δυσθεώρητα ύψη εξέλιξης, που δεν θα προσεγγίσουμε εδώ, γιατί το θέμα μας σήμερα είναι τα chatbots. Ξέρετε, εκείνες οι μικρές εφαρμογές που έχουν e-shop, υπηρεσίες κ.λπ., λογισμικά τεχνητής νοημοσύνης, δηλαδή, που χρησιμοποιούνται σε online επικοινωνίες και ουσιαστικά απαντούν βάσει κάποιων αλγορίθμων, μιμούμενα την ανθρώπινη σκέψη.
Μια νέα μελέτη από την Κινεζική Ακαδημία Επιστημών (CAS) που μπορείτε να βρείτε εδώ ισχυρίζεται ότι πολλά chatbot, όταν τους τέθηκαν οι συνηθισμένες ερωτήσεις που χρησιμοποιούνται γενικά για την ανίχνευση τη κατάθλιψης και του αλκοολισμού, φάνηκαν να είναι τόσο «καταθλιπτικά» όσο και «εθισμένα». Σε συνδυασμό με την κινεζική εταιρεία ρομπότ συνομιλίας WeChat και τον όμιλο ψυχαγωγίας Tencent, η μελέτη διαπίστωσε ότι όλα τα chatbots που συμμετείχαν στην έρευνα -το Blenderbot του Facebook, το DiabloGPT της Microsoft, το WeChat και το DialoFlow της Tencent και το Plato από την κινεζική εταιρεία Baidu- σημείωσαν πολύ χαμηλή βαθμολογία στην κλίμακα «ενσυναίσθησης» και τα μισά από αυτά θα μπορούσαν να θεωρηθούν αλκοολικοί αν ήταν άνθρωποι.
Οι ερευνητές στο Ινστιτούτο Υπολογιστικής Τεχνολογίας του CAS αποφάσισαν να μελετήσουν τα chatbots για σημάδια κατάθλιψης, άγχους, εθισμού στο αλκοόλ κ.ά. ύστερα από τη διαπίστωση ότι το 2020 ότι ένα ιατρικό chatbot παρακινούσε έναν ασθενή (ουσιαστικά έναν άνθρωπο που παρίστανε τον ασθενή) να αυτοκτονήσει. Αφού έθεσαν ερωτήσεις στα botάκια για πολλά θέματα, από την αυτοεκτίμησή τους και την ικανότητά τους να χαλαρώνουν, μέχρι το πόσο συχνά νιώθουν την ανάγκη να πίνουν και αν νιώθουν συμπάθεια για την ατυχία των άλλων, οι Κινέζοι ερευνητές διαπίστωσαν ότι «όλα τα chatbots που αξιολογήθηκαν έχουν σοβαρά προβλήματα ψυχικής υγείας».
Οι ερευνητές τονίζουν ότι ανησυχούν για την επαφή αυτών των chatbots με το κοινό, επειδή τέτοια ζητήματα ψυχικής υγείας μπορεί να έχουν αρνητικές επιπτώσεις στους χρήστες με τους οποίους αλληλεπιδρούν, ειδικά σε ανηλίκους και άτομα που αντιμετωπίζουν προβλήματα. To Blender του Facebook και το Plato του Baidu φάνηκαν να έχουν χειρότερο σκορ από τα chatbot της Microsoft και από το WeChat της Tencent, σημειώνεται στη μελέτη.
Περιττό να πούμε ότι κανένα από τα chatbot δεν είναι πραγματικά καταθλιπτικό ή εθισμένο και ότι καμία υπάρχουσα τεχνητή νοημοσύνη, ανεξάρτητα από το πόσο προηγμένη είναι, δεν μπορεί να αισθανθεί κάτι, άγνωστο αν αυτό θα συμβεί στο μέλλον. Αλλά αυτά τα αποτελέσματά τους εγείρουν τρομακτικά ερωτήματα: ποιοι είναι οι αρχιτέκτονες αυτών των chatbots και γιατί συνεχίζουν να τα κατασκευάζουν αν παρουσιάζουν τέτοιες δυσλειτουργίες; Μέσα στη μελέτη δίνονται κάποιες σχετικές απαντήσεις. Για παράδειγμα, κάποιοι προγραμματιστές χρησιμοποίησαν σχόλια από το Reddit για τις απαντήσεις, καθώς και για να υπαγορεύσουν τις αποκρίσεις. Και αυτό είναι μια εξήγηση…