Μια οικονομική υπάλληλος πολυεθνικής εταιρείας στο Χονγκ Κονγκ συμμετέχει σε βιντεοκλήση με ανώτατα στελέχη της εταιρείας. Σκοπός της συζήτησης είναι η μεταφορά περίπου 25 εκατομμυρίων δολαρίων, που τα στελέχη της εταιρείας ζητούν από την υπάλληλο να εκτελέσει άμεσα. Οπως και κάνει. Τίποτα όμως από όσα είδε και άκουσε η υπάλληλος σε αυτή τη βιντεοκλήση δεν ήταν αληθινά. Είχε μόλις εξαπατηθεί μέσω μιας από τις πιο περίτεχνες απάτες με χρήση τεχνολογίας deepfake που έχει ποτέ καταγραφεί. Φαντάζει με σενάριο ταινίας επιστημονικής φαντασίας, αλλά όπως φαίνεται, είναι απλά η αρχή ενός νέου είδους, δυστοπικής, διαδικτυακής οικονομικής απάτης.
«Διάβαζαν από σενάριο»
Το εξόχως εντυπωσιακό στη συγκεκριμένη υπόθεση είναι πως η υπάλληλος ήταν εξαρχής υποψιασμένη πως κάτι δεν πήγαινε καλά. Αιτία ήταν ότι έλαβε ένα μήνυμα από τον οικονομικό διευθυντή της εταιρείας, όπου της έγραφε για την άμεση ανάγκη πραγματοποίησης μιας μυστικής συναλλαγής.
Οι αμφιβολίες της εξαιτίας του πρωτοφανούς αιτήματος παραμερίστηκαν, όταν στη βιντεοκλήση αντίκρισε τη φιγούρα του οικονομικού διευθυντή και πολλών άλλων στελεχών της εταιρείας. Ολοι έμοιαζαν και ακούγονταν ακριβώς όπως τους γνώριζε. Ακόμη και ο χώρος όπου βρίσκονταν τα υποτιθέμενα στελέχη ήταν αναγνωρίσιμος από την υπάλληλο. Ετσι, η υπάλληλος προχώρησε στη μεταφορά περίπου 25 εκατομμυρίων δολαρίων. Οταν ύστερα από μερικές ημέρες επικοινώνησε με τα κεντρικά γραφεία της εταιρείας, διαπιστώθηκε η απάτη.
Οι δράστες «κατέβασαν» βίντεο με τις εικόνες των στελεχών και του χώρου όπου πραγματοποιήθηκε η βιντεοδιάσκεψη και στη συνέχεια, μέσω εξελιγμένου προγράμματος τεχνητής νοημοσύνης, δημιούργησαν εικονικά και ηχητικά αντίγραφά τους.
Η αστυνομία του Χονγκ Κονγκ θεωρεί πως οι δράστες είχαν «κατεβάσει» εκ των προτέρων βίντεο με τις εικόνες των στελεχών και του χώρου όπου πραγματοποιήθηκε η βιντεοδιάσκεψη και στη συνέχεια, μέσω εξελιγμένου προγράμματος τεχνητής νοημοσύνης δημιούργησαν εικονικά και ηχητικά αντίγραφά τους.
Η αστυνομία σχολίασε επίσης ότι σε τουλάχιστον είκοσι περιπτώσεις, άγνωστοι έχουν χρησιμοποιήσει ψεύτικες ταυτότητες τεχνητής νοημοσύνης προκειμένου να ξεγελαστούν τα προγράμματα αναγνώρισης προσώπου των τραπεζών και να τους εγκριθούν δάνεια.
Παρ’ όλα αυτά, μέχρι το συγκεκριμένο περιστατικό, τα deepfakes είχαν χρησιμοποιηθεί αποκλειστικά σε βιντεοκλήσεις «ένας-προς-έναν». Σε αυτήν την περίπτωση όμως, σύμφωνα με την αστυνομία, «χρησιμοποίησαν τεχνολογία deepfake προκειμένου να μιμηθούν τη φωνή των στόχων τους διαβάζοντας από ένα σενάριο». Η αστυνομία ανακοίνωσε πως προχώρησε σε έξι συλλήψεις.
Τα περιστατικά
Δεν ήταν η μοναδική περίπτωση τέτοιας απάτης. Στις αρχές του 2020 ένας διευθυντής υποκαταστήματος ιαπωνικής εταιρείας και πάλι στο Χονγκ Κόνγκ δέχθηκε ένα τηλεφώνημα. Η φωνή που άκουσε ήταν του διευθύνοντος συμβούλου της μητρικής εταιρείας, στην πραγματικότητα όμως ήταν ένα deepfake. Αυτή η φωνή του υπαγόρευσε να εγκρίνει μεταφορές 35 εκατομμυρίων δολαρίων, εξαιτίας μιας δήθεν επικείμενης εξαγοράς. Μάλιστα, το θύμα έλαβε και μηνύματα ηλεκτρονικού ταχυδρομείου με σχετικές οδηγίες από τον διευθύνοντα σύμβουλο και έναν δικηγόρο. Καθώς όλα φαίνονταν νόμιμα, ο διευθυντής του υποκαταστήματος άρχισε να πραγματοποιεί τις μεταφορές χρημάτων.
Σε δύο περιπτώσεις άγνωστοι δράστες στο Χονγκ Κονγκ έχουν καταφέρει να προχωρήσουν σε απάτες συνολικής αξίας περίπου 60 εκατομμυρίων δολαρίων χρησιμοποιώντας τεχνολογίες deepfake.
Φωτογραφία αρχείου: Associated Press
Σύμφωνα με δικαστικό έγγραφο που αποκάλυψε το Forbes, τα Ηνωμένα Αραβικά Εμιράτα ερευνούσαν τη ληστεία καθώς πίστευαν πως αφορούσε οντότητες εντός της χώρας, στην οποία συμμετείχαν «τουλάχιστον 17 άτομα». Στη συνέχεια τα άτομα αυτά έστειλαν τα κλεμμένα χρήματα σε τραπεζικούς λογαριασμούς σε ολόκληρο τον κόσμο.
Δύο δράστες στην Κίνα αγόρασαν χιλιάδες εικόνες προσώπου στο σκοτεινό διαδίκτυο, τις οποίες στη συνέχεια χρησιμοποίησαν προκειμένου να δημιουργήσουν deepfake βίντεο των συγκεκριμένων ανθρώπων.
Σε άλλο περιστατικό που αποκαλύφθηκε το 2021, δύο δράστες στην Κίνα αγόρασαν χιλιάδες εικόνες προσώπου στο σκοτεινό διαδίκτυο, τις οποίες στη συνέχεια χρησιμοποίησαν προκειμένου να δημιουργήσουν deepfake βίντεο των συγκεκριμένων ανθρώπων. Στη συνέχεια ενορχήστρωσαν μια περίπλοκη απάτη, που τους επέτρεψε να να ξεγελάσουν την κυβερνητική τεχνολογία αναγνώρισης προσώπου της Κίνας και έτσι να κλέψουν 75 εκατομμύρια δολάρια μέσω πλαστών φορολογικών τιμολογίων που εξέδωσαν.
Στα μέσα του 2019 ένας διευθυντής υποκαταστήματος ενεργειακής εταιρείας στο Ηνωμένο Βασίλειο δέχθηκε ένα τηλεφώνημα από τον διευθυντή της μητρικής εταιρείας. Η φωνή που άκουγε όμως προερχόταν από ένα λογισμικό τεχνητής νοημοσύνης που χρησιμοποιεί την τεχνολογία «βαθιάς φωνής». Οι άγνωστοι δράστες ζήτησαν από τον διευθυντή να πραγματοποιήσει ένα επείγον έμβασμα 250 χιλιάδων δολαρίων που τελικά κατέληξαν στο Μεξικό και από εκεί σε άλλες τοποθεσίες.
Τον περασμένο Μάιο, η αστυνομία της πόλης Μπατάου στη Μογγολία ανακοίνωσε πως ένας άγνωστος δράστης χρησιμοποίησε τεχνολογία ανταλλαγής προσώπων με τεχνητή νοημοσύνη, προκειμένου να υποδυθεί τον φίλο ενός θύματος. Κατά τη διάρκεια μιας βιντεοκλήσης, το θύμα που θεωρούσε ότι συνομιλεί με τον φίλο του, του έστειλε έμβασμα 622 χιλιάδων δολαρίων. Οταν μετέπειτα το θύμα επικοινώνησε με τον πραγματικό φίλο του, διαπίστωσε τι είχε συμβεί.
3.000% αύξηση των προσπαθειών απάτης μέσω deepfakes
Η ραγδαία αύξηση αντίστοιχων περιστατικών αποδεικνύεται από πρόσφατη έρευνα της εταιρείας επαλήθευσης απάτης Onfido, που εντόπισε αύξηση κατά 3.000% των προσπαθειών απάτης μέσω deepfakes μεταξύ του 2022 και του 2023. Μπορεί να πρόκειται για ένα φαινόμενο που ακόμη βρίσκεται σε νηπιακό επίπεδο, εντούτοις, όπως επισημαίνεται σε σχετικό άρθρο των New York Times, η ταχύτητα της τεχνολογικής εξέλιξης, σε συνδυασμό με το μειωμένο κόστος των προγραμμάτων τεχνητής νοημοσύνης, καθώς και η ευρεία διαθεσιμότητα των ηχογραφήσεων των φωνών των ανθρώπων στο διαδίκτυο, «έχουν δημιουργήσει τις τέλειες συνθήκες για απάτες με φωνητική τεχνητή νοημοσύνη».
Βάσει της έρευνας της Onfido, οι εφαρμογές ανταλλαγής προσώπων είναι το πιο συνηθισμένο παράδειγμα εικονικών deepfake εξαπατήσεων. Στις πιο απλές εκδόσεις αυτών των εφαρμογών –πολλές διατίθενται δωρεάν–, ένα πρόσωπο μπορεί να επικολληθεί πάνω σε ένα άλλο. Πρόκειται για το λεγόμενο «cheapfake», δηλαδή «φτηνή απομίμηση». Αυτές οι φθηνές απομιμήσεις μπορεί να είναι σε αρκετές περιπτώσεις «χοντροκομμένες», εντούτοις σύμφωνα με την έρευνα «μόνο μια χρειάζεται να πετύχει». Το 2023 αυτά τα φθηνά λογισμικά χρησιμοποιήθηκαν στο 80,3% των σχετικών επιθέσεων που καταγράφηκαν.
Ενδεικτική του πόσο έχει εξελιχθεί η τεχνολογία στον συγκεκριμένο τομέα, ήταν η συνέντευξη που παραχώρησε στο NBC η Εϊμι Νοφζίγκερ, επικεφαλής δικτύου υποστήριξης θυμάτων απάτης για την οργάνωση AARP. Σχολίασε πως ακόμη και «αν το θύμα λέει: “Δεν νομίζω ότι είσαι εσύ, θέλω να μου διαβάσεις τους σημερινούς τίτλους των εφημερίδων” ή κάτι παρεμφερές, προκειμένου να προσπαθήσει να αποδείξει κάποια εγκυρότητα, οι απατεώνες μπορούν να προσαρμοστούν γρήγορα με την τεχνολογία τους».