Κυβερνοασφάλεια

Deepfakes: Η νέα ψηφιακή απάτη που μιμείται πρόσωπα και φωνές

deepfake23

Η τεχνολογία των deepfakes έχει περάσει πλέον από τα εργαστήρια τεχνητής νοημοσύνης στην καθημερινότητα της ψηφιακής απάτης. Εφαρμογές, που δημιουργούν ψεύτικα βίντεο και φωνητικά μηνύματα, είναι σήμερα εύκολα προσβάσιμες, ενώ οι απατεώνες έχουν τελειοποιήσει τις τεχνικές τους.

Με μόλις 3-5 δευτερόλεπτα ηχογράφησης και λίγες φωτογραφίες, η ΑΙ μπορεί να δημιουργήσει πειστικά ψεύτικα βίντεο και φωνές

Το αποτέλεσμα είναι μια νέα μορφή ψηφιακής απάτης, που μπορεί να ξεγελάσει ακόμη και έμπειρους χρήστες του διαδικτύου. Τα σύγχρονα τεχνητά νευρωνικά δίκτυα έχουν πλέον τη δυνατότητα να κλωνοποιούν μια ανθρώπινη φωνή, χρησιμοποιώντας μόλις τρία έως πέντε δευτερόλεπτα ηχητικού υλικού.

Παράλληλα, μπορούν να δημιουργούν εξαιρετικά πειστικά βίντεο βασισμένα σε ελάχιστες φωτογραφίες ενός προσώπου. Σε πολλές περιπτώσεις, τα ψεύτικα μηνύματα, που παράγονται με αυτές τις τεχνολογίες, είναι τόσο ρεαλιστικά, ώστε το 95% των ανθρώπων δεν μπορεί να τα διακρίνει από τα αυθεντικά.

Όπως εξηγεί η Kaspersky, οι απατεώνες βασίζονται, κυρίως, σε δημόσια διαθέσιμο υλικό για να δημιουργήσουν τα deepfakes. Συλλέγουν εικόνες και ήχους από διαδικτυακά σεμινάρια, βίντεο σε κοινωνικά δίκτυα, online παρουσιάσεις ή δημόσιες ομιλίες. Σε ορισμένες περιπτώσεις επικοινωνούν απευθείας με πιθανά θύματα και προσπαθούν να τα κρατήσουν όσο το δυνατόν περισσότερο στη γραμμή, προκειμένου να συλλέξουν επαρκές ηχητικό υλικό για την κλωνοποίηση της φωνής τους.

Ακόμη πιο πολύτιμο για τους απατεώνες είναι η παραβίαση ενός λογαριασμού, που χρησιμοποιείται συχνά για αποστολή φωνητικών ή βιντεομηνυμάτων. Με πρόσβαση σε τέτοια αρχεία μπορούν να δημιουργήσουν εξαιρετικά ρεαλιστικές απομιμήσεις της φωνής ή του προσώπου ενός ατόμου και να τις χρησιμοποιήσουν για να εξαπατήσουν συγγενείς, φίλους ή συνεργάτες του.

Τί προδίδει ένα deepfake

Παρά την εντυπωσιακή πρόοδο της τεχνητής νοημοσύνης, τα deepfakes εξακολουθούν να αφήνουν ορισμένα ίχνη, που μπορούν να αποκαλύψουν την απάτη. Ένα από τα πιο συνηθισμένα προβλήματα αφορά τον φωτισμό και τις σκιές. Τα συστήματα τεχνητής νοημοσύνης συχνά αποτυπώνουν λανθασμένα τη φυσική του φωτός, με αποτέλεσμα οι σκιές να μην συμβαδίζουν με την πηγή φωτισμού ή οι αντανακλάσεις στο δέρμα να φαίνονται αφύσικες.

Επίσης, οι γραμμές των μαλλιών ή τα περιγράμματα του προσώπου μπορεί να εμφανίζουν θόλωμα, τρεμόπαιγμα ή περίεργες μεταβολές χρώματος. Οι παραμορφώσεις αυτές οφείλονται σε σφάλματα του αλγορίθμου, που τοποθετεί το «κλωνοποιημένο» πρόσωπο πάνω στο αρχικό βίντεο.

Ιδιαίτερα χαρακτηριστικό είναι και το αφύσικο ανοιγοκλείσιμο των ματιών. Ένας άνθρωπος ανοιγοκλείνει τα μάτια του κατά μέσο όρο 10 έως 20 φορές το λεπτό. Σε πολλά deepfakes, η συχνότητα αυτή είναι είτε υπερβολικά μικρή, είτε υπερβολικά μεγάλη, ενώ συχνά το ένα μάτι δεν συγχρονίζεται σωστά με το άλλο. Παράλληλα, το βλέμμα μπορεί να μοιάζει «γυάλινο» ή άδειο.

Άλλο ένα στοιχείο, που προδίδει την τεχνητή κατασκευή, είναι τα προβλήματα συγχρονισμού μεταξύ φωνής και κινήσεων των χειλιών. Ακόμη και μια καθυστέρηση της τάξης των 100 χιλιοστών του δευτερολέπτου μπορεί να γίνει αντιληπτή από τον θεατή.

Τα σημάδια μιας συνθετικής φωνής

Παρά τη βελτίωση των συστημάτων τεχνητής ομιλίας, υπάρχουν ακόμη χαρακτηριστικά, που αποκαλύπτουν μια τεχνητή φωνή. Η ομιλία μπορεί να ακούγεται επίπεδη ή να έχει μια ελαφρώς ηλεκτρονική χροιά. Η πραγματική ανθρώπινη φωνή περιλαμβάνει μικρές μεταβολές στον τόνο και φυσικές ατέλειες, που συχνά απουσιάζουν από τις συνθετικές φωνές.

Επιπλέον, οι άνθρωποι κάνουν φυσικές παύσεις για να αναπνεύσουν ή μπορεί να ακουστούν μικρά βηξίματα ή ρουθουνίσματα ανάμεσα στις προτάσεις. Στα deepfakes, αυτές οι λεπτομέρειες είτε λείπουν, είτε εμφανίζονται σε αφύσικες στιγμές. Συχνά η ομιλία παρουσιάζει απότομες διακοπές, ενώ η έμφαση στις λέξεις δεν ταιριάζει με τον τρόπο που μιλά συνήθως το πραγματικό άτομο.

Συμπεριφορικές ενδείξεις απάτης

Η παρατήρηση της συμπεριφοράς κατά τη διάρκεια μιας βιντεοκλήσης μπορεί να αποτελέσει το πιο αποτελεσματικό μέσο εντοπισμού ενός deepfake. Για παράδειγμα, αν ζητήσετε από το άτομο να γυρίσει το κεφάλι του εντελώς στο πλάι, το σύστημα μπορεί να αποτύχει να αποδώσει σωστά την κίνηση και η εικόνα να παραμορφωθεί.

Αντίστοιχα, αυθόρμητες κινήσεις, όπως το να κουνήσει κάποιος το χέρι μπροστά από το πρόσωπό του ή να πιάσει κάποιο αντικείμενο, συχνά δημιουργούν σφάλματα στην εικόνα. Σε επαγγελματικές συζητήσεις, η απαίτηση κοινής χρήσης οθόνης ή η υποβολή ερωτήσεων, που μόνο το πραγματικό άτομο μπορεί να απαντήσει, μπορεί επίσης να αποκαλύψει έναν απατεώνα.

Πώς πρέπει να αντιδράσουν οι χρήστες

Αν υπάρχει η παραμικρή υποψία ότι μια συνομιλία βασίζεται σε deepfake, η πιο ασφαλής κίνηση είναι ο άμεσος τερματισμός της κλήσης και η επικοινωνία με το άτομο μέσω άλλου καναλιού, όπως τηλεφωνικά ή με μήνυμα σε διαφορετική εφαρμογή.

Ιδιαίτερη προσοχή χρειάζεται, όταν ο συνομιλητής ζητά επειγόντως χρήματα ή προσπαθεί να δημιουργήσει αίσθηση πανικού. Η πίεση χρόνου αποτελεί μια από τις πιο συνηθισμένες τακτικές των απατεώνων.

Η ενημέρωση φίλων ή συνεργατών σε περίπτωση πιθανής παραβίασης λογαριασμού αποτελεί επίσης κρίσιμο βήμα, καθώς μπορεί να αποτρέψει τη διάδοση της απάτης σε μεγαλύτερο δίκτυο επαφών.

Η εξάπλωση των deepfakes δείχνει ότι η ψηφιακή ασφάλεια δεν εξαρτάται, πλέον, μόνο από ισχυρούς κωδικούς ή ασφαλείς πλατφόρμες. Απαιτεί πλέον εγρήγορση, κριτική σκέψη και την ικανότητα να αναγνωρίζει κανείς τα μικρά σημάδια, που αποκαλύπτουν μια τεχνητά κατασκευασμένη πραγματικότητα.

ΔΕΙΤΕ ΑΚΟΜΑ

Περισσότερα