Gossip Rodos: Οι μεγαλύτεροι σε ηλικία άνθρωποι ήταν ανέκαθεν ευάλωτοι στην παραπληροφόρηση, ιδιαίτερα από επιτήδειους που εκμεταλλεύονται την απομόνωση και τη μικρότερη εξοικείωσή τους με τις νέες τεχνολογίες, σε σύγκριση με τους νεότερους συγγενείς τους.Ωστόσο, η τεχνητή νοημοσύνη (AI) κάνει την παραπληροφόρηση πιο εξελιγμένη και δυσκολότερη στον εντοπισμό. Από ρεαλιστικά deepfakes και βίντεο παραπληροφόρησης που δημιουργούνται με AI, έως απάτες με κλωνοποιημένες φωνές, πολλοί ηλικιωμένοι βρίσκονται πλέον εκτεθειμένοι σε νέους κινδύνους.Μια πρόσφατη έρευνα του Πανεπιστημίου του Μίσιγκαν έδειξε ότι το 92% των ατόμων άνω των 50 ετών θέλει να γνωρίζει αν το περιεχόμενο που βλέπει έχει δημιουργηθεί από άνθρωπο ή από AI, ενώ το 81% δηλώνει ότι επιθυμεί να μάθει περισσότερα για τους κινδύνους που σχετίζονται με την τεχνητή νοημοσύνη. Η θετική πλευρά είναι ότι οι ειδικοί συμφωνούν: οι παραδοσιακοί κανόνες ψηφιακής ασφάλειας εξακολουθούν να λειτουργούν αποτελεσματικά — ακόμη και στην εποχή της AI.Η ΑΙ μπορεί να προβλέψει από μια μαστογραφία τον κίνδυνο εμφάνισης καρκίνου στα επόμενα 5 χρόνιαΠώς στοχεύει η Τεχνητή Νοημοσύνη τους ηλικιωμένουςΟι κίνδυνοι που συνδέονται με την AI για τους ηλικιωμένους παίρνουν πολλές μορφές, ενώ εμφανίζονται νέες σχεδόν κάθε μέρα. Υπάρχουν βίντεο που δημιουργούνται από AI και διαδίδουν παραπληροφόρηση γύρω από ζητήματα υγείας ή πολιτικής, chatbots που «εκπαιδεύονται» να δημιουργούν ψευδή συναισθηματική οικειότητα με τους ηλικιωμένους, αλλά και πλήθος απατών που αξιοποιούν την τεχνητή νοημοσύνη — από κλωνοποίηση φωνής συγγενών μέχρι πλαστές ταυτότητες.Δεν είναι λίγες οι φορές που ακούμε καθημερινά για απάτες εις βάρος ηλικιωμένων. Επιτήδειοι τηλεφωνούν, προσποιούμενοι πως το παιδί ή το εγγόνι του θύματος έχει εμπλακεί σε τροχαίο ατύχημα, προκειμένου να αποσπάσουν χρήματα.Μέχρι πρόσφατα, τέτοιες απάτες βασίζονταν μόνο στη φωνή και την πειθώ των δραστών. Πλέον, όμως, η τεχνητή νοημοσύνη κάνει τα πράγματα ακόμη πιο επικίνδυνα: κάποιος μπορεί να εξαπατήσει έναν ηλικιωμένο χρησιμοποιώντας chatbot που μιμείται με ακρίβεια τη φωνή του παιδιού του, κάνοντας το ψεύτικο τηλεφώνημα να ακούγεται απολύτως αληθινό.Εξάρτηση των παιδιών από την τεχνητή νοημοσύνη: 7 προειδοποιητικά σημάδια για γονείςΑυτό ακριβώς συνέβη σε ένα χαρακτηριστικό περιστατικό στη Φλόριντα, που έκανε τον γύρο του κόσμου. Η Sharon Brightwell, μια ηλικιωμένη γυναίκα, δέχτηκε τηλεφώνημα από έναν αριθμό που έμοιαζε με της κόρης της και άκουσε τη φωνή της να κλαίει, λέγοντάς της ότι είχε εμπλακεί σε τροχαίο. Ήταν όμως τεχνητά δημιουργημένη φωνή μέσω AI. Οι απατεώνες κατάφεραν να της αποσπάσουν 15.000 δολάρια πριν εκείνη συνειδητοποιήσει τι είχε συμβεί.Σύμφωνα με την Ομοσπονδιακή Επιτροπή Επικοινωνιών των ΗΠΑ (FCC), αυτού του είδους οι απάτες είναι γνωστές ως «απάτες των παππούδων» (grandparent scams). Συνήθως το άτομο που τηλεφωνεί προσποιείται ότι είναι εγγόνι (ή παιδί, όπως στην περίπτωση της Brightwell) και ζητά χρήματα, ισχυριζόμενο ότι βρίσκεται σε νομική ή άλλη έκτακτη ανάγκη. Ένα από τα βασικά χαρακτηριστικά αυτών των απατών είναι η αίσθηση του κατεπείγοντος.Η τεχνητή νοημοσύνη έχει κάνει αυτές τις απάτες ακόμη πιο επικίνδυνες, μέσω της κλωνοποίησης φωνής. Τα περισσότερα εργαλεία AI χρειάζονται μόνο λίγα δευτερόλεπτα ηχητικού δείγματος για να αναπαράγουν τη φωνή κάποιου — δείγμα που μπορεί να προέρχεται από βίντεο στα κοινωνικά δίκτυα ή ακόμη και από μια απλή τηλεφωνική συνομιλία.8 στους 10 εφήβους χρησιμοποιούν το AI για το σχολείο – Πόσο πρέπει να το εμπιστεύονται όμως;Η Jessica Johnston, διευθύντρια του Center for Economic Well-Being στο National Council on Aging (NCOA), συμβουλεύει:«Ενθαρρύνουμε τον κόσμο να μην ενεργεί παρορμητικά. Σταματήστε, μιλήστε με κάποιον άλλον, ή καλέστε πίσω τον αριθμό που εσείς οι ίδιοι βρήκατε για να επαληθεύσετε την πληροφορία. Το σημαντικό είναι να μην προχωράτε σε άμεσες ενέργειες, αν δεν είστε απόλυτα σίγουροι με ποιον μιλάτε.»Βίντεο που δημιουργούνται με τεχνητή νοημοσύνη (AI) εμφανίζονται παντού, αλλά δεν είναι όλα επισημασμένα ως τέτοια. Ο κωμικός και πατέρας Alex Pearlman, μοιράστηκε πρόσφατα στο Instagram ότι κατά λάθος έβαλε να παίξει ένα βίντεο, φτιαγμένο με AI, για το μικρό παιδί του, το οποίο βρήκε στο YouTube Kids. Το βίντεο ακολουθούσε το στυλ ενός δημοφιλούς παιδικού βιβλίου που δείχνει διάφορα αντικείμενα και την προφορά τους και φαινόταν σχεδόν ίδιο με το βιβλίο — αλλά η φωνή που είχε δημιουργηθεί από AI πρόφερε τα αντικείμενα λανθασμένα.Αν και ο Pearlman δεν είναι παππούς, οι κίνδυνοι για τους παππούδες και τις γιαγιάδες που ενδέχεται να επιλέξουν παρόμοια βίντεο που έχουν δημιουργηθεί με AI είναι ακόμη μεγαλύτεροι, καθώς πολλοί ηλικιωμένοι δυσκολεύονται να αναγνωρίσουν το λεγόμενο «φαινόμενο της παράξενης κοιλάδας» (uncanny valley) στις απεικονίσεις που δημιουργεί η τεχνητή νοημοσύνη, σύμφωνα με πρόσφατη μελέτη του Πανεπιστημίου του Μίσιγκαν (2025) με τίτλο: Πώς οι ηλικιωμένοι χρησιμοποιούν και αντιλαμβάνονται την τεχνητή νοημοσύνη.Με την πάροδο του χρόνου, η κυκλοφορία αυτών των βίντεο μπορεί να οδηγήσει σε ένα τεράστιο πρόβλημα παραπληροφόρησης, όπου βρέφη και μικρά παιδιά διδάσκονται συστηματικά πράγματα που απλώς δεν είναι αληθινά.Πώς χρησιμοποιούν οι Έλληνες έφηβοι την AI και το YouTube; Τι δείχνει έρευναΩστόσο, τα παιδιά δεν είναι τα μόνα που κινδυνεύουν από τις συνέπειες των βίντεο που δημιουργούνται με AI και μεταδίδουν παραπληροφόρηση. Οι ηλικιωμένοι, που συχνά αναζητούν πληροφορίες για να μορφωθούν και να διατηρήσουν την ανεξαρτησία τους, μπορεί να εκτεθούν σε ανακριβείς ή παραπλανητικές ιατρικές πληροφορίες που έχουν παραχθεί από AI. «Υπάρχει ήδη πολλή παραπληροφόρηση — ειδικά στον ιατρικό τομέα», λέει η Johnston, . «Πολλές συσκευές προωθούνται σε ηλικιωμένους και στην πραγματικότητα είναι απάτες. Με κάποιον τρόπο, είναι σαν μια σύγχρονη εκδοχή του πλανόδιου πωλητή που πουλούσε «μαγικά φίλτρα». Η παραπληροφόρηση μπορεί να γίνει ακόμη πιο ισχυρή αν χρησιμοποιηθούν deepfakes – δηλαδή βίντεο ή εικόνες που δημιουργούνται με τεχνητή νοημοσύνη και μιμούνται πραγματικούς γιατρούς.Συμβουλές για την προστασία των παππούδων και των ηλικιωμένωνΤο να πέσει κανείς θύμα παραπληροφόρησης μπορεί να εντείνει την απομόνωση που ήδη κάνει τους ηλικιωμένους πιο ευάλωτους. Η Jessica Johnston εξηγεί:«Οι απατεώνες στοχεύουν κυρίως μεγαλύτερους ανθρώπους που είναι απομονωμένοι. Πρόκειται για μια ομάδα που ήδη βιώνει μοναξιά και κοινωνική απομόνωση. Όταν λοιπόν πέφτουν θύματα απάτης, νιώθουν ντροπή και εξαπάτηση, κάτι που συχνά τους αποτρέπει από το να μιλήσουν γι’ αυτό ή να το παραδεχτούν. Το αποτέλεσμα είναι να απομονώνονται ακόμη περισσότερο — κάτι που μπορεί να είναι πραγματικά επώδυνο για αυτήν την ηλικιακή ομάδα.»Ένας αποτελεσματικός τρόπος αντιμετώπισης είναι η δημιουργία ενός αξιόπιστου κοινωνικού κύκλου για τα ηλικιωμένα άτομα. Όταν οι μεγαλύτεροι σε ηλικία έχουν ανθρώπους με τους οποίους μπορούν να μιλήσουν — ακόμη κι αν είναι απλώς το ενήλικο παιδί τους — μειώνονται οι πιθανότητες να παρασυρθούν από ψευδείς πληροφορίες ή διαδικτυακές απάτες.«Ένα από τα πιο σημαντικά πράγματα που μπορείτε να κάνετε είναι να διατηρείτε στενές σχέσεις και να βεβαιώνεστε ότι οι άνθρωποι γύρω σας δεν αισθάνονται απομονωμένοι. Είναι ουσιαστικό να ξέρουν ότι μπορούν να σας εμπιστευτούν και να σας μιλήσουν ανοιχτά για τέτοια περιστατικά.»Η AI μπορεί να μειώσει έως 7% τον χρόνο απόκτησης παιδιού μέσω υποβοηθούμενης αναπαραγωγήςΤι γίνεται αν είναι ήδη αργά;Αν ο δικός σας άνθρωπος έχει ήδη παγιδευτεί σε έναν φαύλο κύκλο παραπληροφόρησης και δυσκολεύεστε να επικοινωνήσετε μαζί του, η Johnston, προτείνει να επικεντρωθείτε στα γεγονότα και σε όσα σας ενώνουν, αντί να επιμένετε στις διαφωνίες σχετικά με το τι είναι αληθινό ή ψευδές.Πρακτικά βήματα για πρόληψηΔημιουργήστε μια οικογενειακή λέξη-κωδικό ή φράση που γνωρίζουν μόνο οι δικοί σας. Αν ζητήσετε από έναν καλούντα να την πει, μπορείτε να καταλάβετε αν πρόκειται για πραγματικό συγγενή ή για φωνή που έχει δημιουργηθεί τεχνητά.Περιορίστε τις πληροφορίες που είναι δημόσιες στο διαδίκτυο. Κρατήστε τα προφίλ στα μέσα κοινωνικής δικτύωσης ιδιωτικά και αποφύγετε την ανάρτηση βίντεο ή ηχητικών αποσπασμάτων με τη φωνή σας. Να θυμάστε: ακόμη και λίγα δευτερόλεπτα μπορούν να χρησιμοποιηθούν για αντιγραφή φωνής.Μην αντιδράτε αμέσως. Αν λάβετε ένα μήνυμα ή τηλεφώνημα που ζητά άμεση ενέργεια, κάντε ένα μικρό διάλειμμα. Περιμένετε λίγα λεπτά πριν απαντήσετε, ώστε να μη λειτουργήσετε υπό πίεση ή πανικό.Μιλήστε ανοιχτά για τους κινδύνους. Η συζήτηση είναι το πρώτο βήμα πρόληψης. Όταν οι πληροφορίες κυκλοφορούν ανοιχτά μέσα στην οικογένεια, είναι πιο εύκολο να εντοπιστούν έγκαιρα οι απάτες.Τα βίντεο για παιδιά από AI κατακλύζουν το YouTube – Τι πρέπει να γνωρίζουν οι γονείςΗ σοφία της εμπειρίαςΕίναι εύκολο να βλέπουμε τους ηλικιωμένους ως ευάλωτους, όμως οι ειδικοί υπενθυμίζουν ότι η ηλικία φέρνει και σοφία. «Οι μεγαλύτεροι σε ηλικία διαθέτουν δεκαετίες εμπειρίας, διαίσθησης και παρατηρητικότητας. Αν τους δοθούν τα σωστά εργαλεία και η υποστήριξη, δεν θα συμβαδίζουν απλώς με την τεχνολογία αλλά θα γίνουν ηγέτες της», τονίζει.Η ίδια μιλά για την αξία της διαγενεακής μάθησης: «Οι νέοι μπορούν να γεφυρώσουν το τεχνολογικό χάσμα, ενώ οι μεγαλύτεροι μπορούν να προσφέρουν την κριτική σκέψη και τη διορατικότητα που τόσο έχουμε ανάγκη σε έναν κόσμο που αλλάζει με ιλιγγιώδη ρυθμό.»με πληροφορίες από το hparents.com
πηγή: mothersblog.gr





