Η Καίτη Γαρμπή στόχος απάτης με AI σε ψεύτικη διαφήμιση για τον διαβήτη
Ένα ψεύτικο βίντεο με τεχνητή νοημοσύνη χρησιμοποίησε την εικόνα και τη φωνή της Καίτης Γαρμπή για να προωθήσει δήθεν θεραπεία για τον διαβήτη, αποκαλύπτοντας τον κίνδυνο των deepfake απάτης.
Νέα απάτη με AI και ψεύτικο βίντεο με την Καίτη Γαρμπή
Η Καίτη Γαρμπή βρέθηκε στο επίκεντρο μιας νέας απάτης που στήθηκε με τη βοήθεια τεχνητής νοημοσύνης και είχε πολύ συγκεκριμένο δόλωμα. Κυκλοφόρησε ένα ψεύτικο βίντεο στο οποίο φαινόταν να μιλά σαν να προωθεί θεραπεία για τον διαβήτη. Το βίντεο δεν ήταν αληθινό. Δεν είχε δώσει καμία άδεια και δεν είχε καμία απολύτως σχέση με το προϊόν.
Το υλικό είχε φτιαχτεί με τρόπο που από τα πρώτα δευτερόλεπτα έμοιαζε πειστικό. Η εικόνα της, η φωνή της και ο τρόπος που παρουσιαζόταν το μήνυμα έκαναν τον θεατή να πιστεύει ότι μιλούσε η ίδια και μάλιστα σαν να αποκάλυπτε κάτι προσωπικό. Εκεί ακριβώς στηρίζεται η απάτη. Παίρνει ένα πρόσωπο που ο κόσμος αναγνωρίζει και το μετατρέπει σε μέσο πειθούς χωρίς τη συγκατάθεσή του.
Στην εκπομπή Super Κατερίνα έγινε ξεκάθαρο ότι δεν πρόκειται απλώς για ένα παραπλανητικό post. Η καμπάνια είχε στηθεί γύρω από ένα σοβαρό ζήτημα υγείας και αυτό βαραίνει ακόμη περισσότερο την υπόθεση. Δεν χρησιμοποιήθηκε μόνο το όνομα μιας γνωστής τραγουδίστριας. Χρησιμοποιήθηκε και ο φόβος ανθρώπων που ψάχνουν λύση για μια δύσκολη πάθηση.
Γιατί τα deepfake γίνονται τόσο επικίνδυνα
Η ίδια η Γαρμπή περιέγραψε την κατάσταση με μια εικόνα που λέει πολλά. Σκέφτηκε να κινηθεί νομικά, όμως αναρωτήθηκε ποιον ακριβώς μπορεί να βρει. Παρομοίασε όσους στήνουν τέτοιες απάτες με τη Λερναία Ύδρα. Κόβεις ένα κεφάλι και εμφανίζονται άλλα εννέα. Αυτό είναι και το πραγματικό πρόβλημα. Οι σελίδες εξαφανίζονται, οι λογαριασμοί αλλάζουν, το υλικό ανεβαίνει ξανά και η απάτη συνεχίζει να κυκλοφορεί.
Το πιο ανησυχητικό είναι ότι τέτοιου τύπου βίντεο δεν θυμίζουν πλέον τις παλιές πρόχειρες διαδικτυακές παγίδες. Τα λεγόμενα deepfake, δηλαδή βίντεο που κάνουν κάποιον να φαίνεται πως λέει πράγματα που δεν είπε ποτέ, έχουν γίνει τόσο πειστικά ώστε πολλοί δεν καταλαβαίνουν ότι πρόκειται για κατασκευή. Έτσι μια ψεύτικη διαφήμιση μπορεί πολύ εύκολα να φορέσει το πρόσωπο ενός γνωστού ανθρώπου και να μοιάζει απολύτως αληθινή.
Σε αυτή την περίπτωση η ζημιά είναι διπλή. Από τη μία εκτίθεται δημόσια ένας άνθρωπος χωρίς να το θέλει. Από την άλλη κατευθύνεται το κοινό προς μια δήθεν θαυματουργή λύση για θέμα υγείας. Εκεί η απάτη δεν είναι απλώς προσβλητική. Γίνεται επικίνδυνη.
Πώς η τεχνητή νοημοσύνη μετατρέπει την αξιοπιστία σε παγίδα
Η ιστορία της Καίτης Γαρμπή δείχνει πόσο εύκολα η τεχνητή νοημοσύνη μπορεί να μετατρέψει μια γνώριμη φωνή και ένα αναγνωρίσιμο πρόσωπο σε ψεύτικη απόδειξη αξιοπιστίας. Ο θεατής δεν βλέπει απλώς μια διαφήμιση. Νομίζει ότι μια γνωστή τραγουδίστρια μιλά απευθείας σε εκείνον και αυτό ακριβώς είναι το όπλο όσων στήνουν τέτοιες παγίδες.
Δείτε το video