ΑΙ και γονείς: Πότε οι συμβουλές για τα παιδιά κρύβουν κινδύνους;
Δημοσιεύθηκε στις
Πότε μπορεί να βοηθήσει η τεχνητή νοημοσύνη τους γονείς, και πότε μπορεί να έχει «επικίνδυνες συνέπειες».
Όλο και περισσότεροι γονείς στρέφονται σήμερα σε εργαλεία τεχνητής νοημοσύνης, όπως τα chatbots, για συμβουλές γύρω από την ανατροφή των παιδιών τους. Ερωτήσεις του τύπου «Είναι αρκετά υψηλός ο πυρετός του παιδιού μου για να πάμε στον γιατρό;» ή «Πώς να διαχειριστώ τα ξεσπάσματα θυμού του νηπίου μου;» πληκτρολογούνται συχνά.
Ωστόσο, οι ειδικοί κρούουν τον κώδωνα του κινδύνου, ειδικά όταν πρόκειται για θέματα υγείας. Η ερευνήτρια Calissa Leslie-Miller τονίζει ότι οι απαντήσεις της τεχνητής νοημοσύνης πρέπει να ελέγχονται σχολαστικά, ιδιαίτερα σε κρίσιμα ζητήματα.
«Δεν σημαίνει ότι δεν μπορείς να απευθυνθείς στην τεχνητή νοημοσύνη», επισημαίνει. «Όμως, για αποφάσεις που έχουν μεγαλύτερη βαρύτητα, πρέπει πάντα να επιβεβαιώνεις τις πληροφορίες που σου δίνει».
Η Leslie-Miller είναι υποψήφια διδάκτορας στην κλινική παιδοψυχολογία στο Πανεπιστήμιο του Κάνσας και επικεφαλής έρευνας του 2024 με τίτλο «Η κρίσιμη ανάγκη για επιστημονική εποπτεία του ChatGPT: Προστασία της παιδικής υγειονομικής πληροφορίας».
Η μελέτη, στην οποία συμμετείχαν 116 γονείς, έδειξε ότι οι περισσότεροι δυσκολεύονταν να ξεχωρίσουν αν οι πληροφορίες για την υγεία των παιδιών τους προέρχονταν από επαγγελματίες υγείας ή από τεχνητή νοημοσύνη. Σε ορισμένες περιπτώσεις, μάλιστα, γονείς που δεν γνώριζαν ότι το περιεχόμενο ήταν παραγόμενο από AI δήλωσαν ότι τους φαινόταν πιο αξιόπιστο από εκείνο των ειδικών. «Τα αποτελέσματα ήταν πραγματικά τρομακτικά», σχολίασε η ερευνήτρια.
Σύμφωνα με την ίδια, η τεχνητή νοημοσύνη είναι πιο κατάλληλη για «χαμηλού ρίσκου» ερωτήσεις, όπως γενικές οδηγίες υγείας, ιδέες για παιδικά γεύματα, δραστηριότητες, playdates ή ερωτήματα που μπορεί ένας γονιός να θέσει στον παιδίατρο κατά τον ετήσιο έλεγχο.
Αντίθετα, σε περιπτώσεις υψηλού κινδύνου, όπως αποφάσεις για φαρμακευτική αγωγή ή συμπτώματα που απαιτούν άμεση αντιμετώπιση, η κρίση ενός επαγγελματία υγείας είναι απαραίτητη.
Ένα επιπλέον πρόβλημα είναι ότι τα εργαλεία τεχνητής νοημοσύνης μπορεί να κάνουν λάθη, τα λεγόμενα «hallucinations», δημιουργώντας ή αναπαράγοντας λανθασμένες πληροφορίες. Η ίδια η OpenAI, σε ερευνητική δημοσίευση τον Απρίλιο του 2025, αναγνώρισε ότι απαιτείται περαιτέρω έρευνα για την κατανόηση και την αντιμετώπιση αυτών των σφαλμάτων.
Σε επείγουσες καταστάσεις, οι γονείς συχνά νιώθουν την ανάγκη να δράσουν άμεσα και μπορεί να εμπιστευτούν άκριτα μια απάντηση που «ακούγεται σωστή». Όμως, όπως προειδοποιεί η μελέτη, αν αυτή η συμβουλή περιέχει λάθη, μπορεί να έχει επικίνδυνες συνέπειες για την υγεία του παιδιού.
Οι ειδικοί συστήνουν οι πληροφορίες που παρέχει η τεχνητή νοημοσύνη να διασταυρώνονται πάντα με γιατρό ή άλλο επαγγελματία υγείας, ειδικά σε κρίσιμες περιπτώσεις. Παράλληλα, οι γονείς μπορούν να ελέγχουν αν οι απαντήσεις των chatbots βασίζονται σε αξιόπιστες πηγές, όπως η Αμερικανική Ακαδημία Παιδιατρικής, το CDC, τα Εθνικά Ινστιτούτα Υγείας ή μεγάλα παιδιατρικά νοσοκομεία.
«Προς το παρόν, οτιδήποτε έχει σημασία πρέπει να ελέγχεται προσεκτικά και να βασίζεται σε έγκυρες πηγές», τονίζει η Leslie-Miller. Υπενθυμίζει επίσης ότι τα εργαλεία AI δεν ενημερώνονται σε πραγματικό χρόνο, κάτι που σημαίνει ότι οι συμβουλές τους μπορεί να είναι ξεπερασμένες, όπως επισημαίνουν και σχετικές οδηγίες της Ιατρικής Σχολής του Πανεπιστημίου Yale.
«Το σημαντικό είναι οι γονείς να είναι προσεκτικοί. Η τεχνητή νοημοσύνη μπορεί να αποτελέσει ένα χρήσιμο εργαλείο, αρκεί να χρησιμοποιείται με σύνεση», καταλήγει.
Πηγή: CNBC









