Ο αριθμός των Deepfake βίντεο αυξάνεται κατά 900 τοις εκατό κάθε χρόνο

Ο αριθμός των Deepfake βίντεο αυξάνεται ποσοστό κάθε χρόνο
Ο αριθμός των Deepfake βίντεο αυξάνεται κατά 900 τοις εκατό κάθε χρόνο

Σύμφωνα με το Παγκόσμιο Οικονομικό Φόρουμ (WEF), ο αριθμός των διαδικτυακών deepfake βίντεο αυξάνεται κατά 900% κάθε χρόνο. Αρκετές αξιοσημείωτες περιπτώσεις βαθιάς ψεύτικης απάτης έγιναν πρωτοσέλιδα των ειδήσεων, με αναφορές για παρενόχληση, εκδίκηση και απάτες κρυπτογράφησης. Οι ερευνητές της Kaspersky έριξαν φως στα τρία κορυφαία συστήματα απάτης που χρησιμοποιούν deepfakes που πρέπει να προσέχουν οι χρήστες.

Η χρήση τεχνητών νευρωνικών δικτύων, η βαθιά εκμάθηση και, κατά συνέπεια, οι τεχνικές παραπλάνησης βαθιάς ψεύδους επιτρέπουν στους χρήστες σε όλο τον κόσμο να αλλάζουν ψηφιακά τα πρόσωπα ή το σώμα τους, παράγοντας έτσι ρεαλιστικές εικόνες, βίντεο και ηχητικό υλικό όπου ο καθένας μπορεί να μοιάζει με κάποιον άλλο. Αυτά τα παραποιημένα βίντεο και εικόνες χρησιμοποιούνται συχνά για τη διάδοση παραπληροφόρησης και άλλους κακόβουλους σκοπούς.

οικονομική απάτη

Τα Deepfakes μπορούν να αποτελέσουν αντικείμενο τεχνικών κοινωνικής μηχανικής που χρησιμοποιούν εικόνες που δημιουργούνται από εγκληματίες για να υποδυθούν διασημότητες για να παρασύρουν τα θύματα στις παγίδες τους. Για παράδειγμα, ένα τεχνητά δημιουργημένο βίντεο του Έλον Μασκ που υπόσχεται υψηλές αποδόσεις από ένα αμφίβολο επενδυτικό σχήμα κρυπτονομισμάτων εξαπλώθηκε γρήγορα πέρυσι, με αποτέλεσμα οι χρήστες να χάσουν χρήματα. Οι απατεώνες χρησιμοποιούν εικόνες διασημοτήτων για να δημιουργήσουν ψεύτικα βίντεο όπως αυτό, συναρμολογώντας παλιά βίντεο και ξεκινώντας ζωντανές ροές σε πλατφόρμες μέσων κοινωνικής δικτύωσης, υποσχόμενοι να διπλασιάσουν τυχόν πληρωμές σε κρυπτονομίσματα που τους αποστέλλονται.

πορνογραφικό deepfake

Μια άλλη χρήση των deepfakes είναι η παραβίαση του απορρήτου ενός ατόμου. Τα Deepfake βίντεο μπορούν να δημιουργηθούν με την τοποθέτηση του προσώπου ενός ατόμου σε ένα πορνογραφικό βίντεο, προκαλώντας μεγάλη ζημιά και αγωνία. Σε μια περίπτωση, εμφανίστηκαν βαθιά ψεύτικα βίντεο στο Διαδίκτυο, στα οποία τα πρόσωπα ορισμένων διασημοτήτων ήταν τοποθετημένα πάνω σε σώματα πορνογραφικών ηθοποιών σε σαφείς σκηνές. Ως αποτέλεσμα, σε τέτοιες περιπτώσεις, θίγεται η φήμη των θυμάτων επιθέσεων και παραβιάζονται τα δικαιώματά τους.

Επιχειρηματικοί κίνδυνοι

Συχνά, τα deepfakes χρησιμοποιούνται για να στοχεύσουν επιχειρήσεις για εγκλήματα όπως εκβιασμός από στελέχη εταιρειών, εκβιασμός και βιομηχανική κατασκοπεία. Για παράδειγμα, χρησιμοποιώντας ένα deepfake φωνής, οι κυβερνοεγκληματίες κατάφεραν να εξαπατήσουν έναν διευθυντή τράπεζας στα ΗΑΕ και να κλέψουν 35 εκατομμύρια δολάρια. Στην εν λόγω περίπτωση, χρειάστηκε μόνο μια μικρή ηχογράφηση της φωνής του αφεντικού του για να καταγραφεί για να δημιουργηθεί ένα πειστικό deepfake. Σε άλλη περίπτωση, απατεώνες προσπάθησαν να εξαπατήσουν τη μεγαλύτερη πλατφόρμα κρυπτονομισμάτων Binance. Το στέλεχος της Binance είπε «Ευχαριστώ!» για μια συνάντηση του Zoom που δεν παρευρέθηκε ποτέ. Έμεινε έκπληκτος όταν άρχισε να λαμβάνει μηνύματα. Οι εισβολείς κατάφεραν να δημιουργήσουν ένα deepfake με δημόσιες εικόνες του μάνατζερ και να το εφαρμόσουν μιλώντας εκ μέρους του μάνατζερ σε μια διαδικτυακή συνάντηση.

Το FBI προειδοποιεί τους διευθυντές ανθρώπινου δυναμικού!

Γενικά, οι σκοποί των απατεώνων που χρησιμοποιούν deepfakes περιλαμβάνουν την παραπληροφόρηση και τη δημόσια χειραγώγηση, τον εκβιασμό και την κατασκοπεία. Τα στελέχη του ανθρώπινου δυναμικού βρίσκονται ήδη σε επιφυλακή για τη χρήση deepfakes από υποψήφιους που υποβάλλουν αίτηση για εργασία εξ αποστάσεως, σύμφωνα με προειδοποίηση του FBI. Στην περίπτωση του Binance, οι εισβολείς χρησιμοποίησαν εικόνες πραγματικών ανθρώπων από το Διαδίκτυο για να δημιουργήσουν deepfakes και πρόσθεσαν ακόμη και τις φωτογραφίες τους στα βιογραφικά. Εάν καταφέρουν να εξαπατήσουν τους διαχειριστές ανθρώπινου δυναμικού με αυτόν τον τρόπο και στη συνέχεια λάβουν μια προσφορά, μπορούν στη συνέχεια να κλέψουν δεδομένα εργοδότη.

Τα Deepfakes συνεχίζουν να είναι μια ακριβή μορφή απάτης που απαιτεί μεγάλο προϋπολογισμό και αυξάνεται σε αριθμό. Μια παλαιότερη μελέτη της Kaspersky αποκαλύπτει το κόστος των deepfakes στο darknet. Εάν ένας απλός χρήστης βρει λογισμικό στο Διαδίκτυο και προσπαθήσει να το παραποιήσει, το αποτέλεσμα θα είναι μη ρεαλιστικό και θα είναι προφανές δόλιο. Λίγοι πιστεύουν σε ένα βαθύ ψεύτικο χαμηλής ποιότητας. Μπορεί να παρατηρήσει αμέσως καθυστερήσεις στην έκφραση του προσώπου ή θολό σχήμα πηγουνιού.

Ως εκ τούτου, οι εγκληματίες του κυβερνοχώρου χρειάζονται μεγάλες ποσότητες δεδομένων για την προετοιμασία μιας επίθεσης. Όπως φωτογραφίες, βίντεο και φωνές του ατόμου που θέλουν να υποδυθούν. Διαφορετικές γωνίες, φωτεινότητα φωτός, εκφράσεις προσώπου, όλα παίζουν μεγάλο ρόλο στην τελική ποιότητα. Απαιτείται μια ενημερωμένη ισχύς και λογισμικό υπολογιστή για να είναι ρεαλιστικό το αποτέλεσμα. Όλα αυτά απαιτούν μεγάλο όγκο πόρων και μόνο ένας μικρός αριθμός κυβερνοεγκληματιών έχει πρόσβαση σε αυτόν τον πόρο. Επομένως, το deepfake εξακολουθεί να παραμένει μια εξαιρετικά σπάνια απειλή, παρά τους κινδύνους που μπορεί να παρουσιάσει, και μόνο ένας μικρός αριθμός αγοραστών μπορεί να το αντέξει οικονομικά. Ως αποτέλεσμα, η τιμή ενός λεπτού deepfake ξεκινά από 20 $.

«Μερικές φορές οι κίνδυνοι για τη φήμη μπορεί να έχουν πολύ σοβαρές συνέπειες»

Ο Dmitry Anikin, Senior Security Specialist της Kaspersky, λέει: «Μία από τις πιο σοβαρές απειλές που θέτει το Deepfake για τις επιχειρήσεις δεν είναι πάντα η κλοπή εταιρικών δεδομένων. Μερικές φορές οι κίνδυνοι για τη φήμη μπορεί να έχουν πολύ σοβαρές συνέπειες. Φανταστείτε ένα βίντεο που προβάλλεται με τον διευθυντή σας να κάνει πολωτικές παρατηρήσεις για (προφανώς) ευαίσθητα θέματα. Για την εταιρεία, αυτό θα μπορούσε να οδηγήσει σε ταχεία πτώση των τιμών των μετοχών. Ωστόσο, αν και οι κίνδυνοι μιας τέτοιας απειλής είναι εξαιρετικά υψηλοί, οι πιθανότητες να χακαριστείτε με αυτόν τον τρόπο είναι εξαιρετικά χαμηλές λόγω του κόστους δημιουργίας ενός deepfake και πολύ λίγοι εισβολείς μπορούν να δημιουργήσουν ένα deepfake υψηλής ποιότητας. Αυτό που μπορείτε να κάνετε για αυτό είναι να γνωρίζετε τα βασικά χαρακτηριστικά των deepfake βίντεο και να είστε δύσπιστοι για τα φωνητικά μηνύματα και τα βίντεο που σας έρχονται. Επίσης, βεβαιωθείτε ότι οι υπάλληλοί σας καταλαβαίνουν τι είναι το deepfake και πώς μπορούν να το εντοπίσουν. Για παράδειγμα, σημάδια όπως σπασμωδικές κινήσεις, αλλαγές στον τόνο του δέρματος, περίεργα βλεφαρίσματα ή μη αναβοσβήσιμο θα είναι ενδεικτικά».

Η συνεχής παρακολούθηση των πόρων του σκοτεινού δικτύου παρέχει πολύτιμες γνώσεις για τη βιομηχανία deepfake, επιτρέποντας στους ερευνητές να παρακολουθούν τις τελευταίες τάσεις και δραστηριότητες των παραγόντων απειλών σε αυτόν τον χώρο. Παρακολουθώντας το darknet, οι ερευνητές μπορούν να αποκαλύψουν νέα εργαλεία, υπηρεσίες και αγορές που χρησιμοποιούνται για τη δημιουργία και τη διανομή deepfakes. Αυτός ο τύπος παρακολούθησης είναι ένα κρίσιμο συστατικό της βαθιάς ψεύτικης έρευνας και μας βοηθά να βελτιώσουμε την κατανόησή μας για το εξελισσόμενο τοπίο απειλών. Η υπηρεσία Kaspersky Digital Footprint Intelligence περιλαμβάνει αυτόν τον τύπο παρακολούθησης για να βοηθήσει τους πελάτες της να παραμείνουν ένα βήμα μπροστά σε ό,τι αφορά απειλές που σχετίζονται με deepfake.