Μετάβαση στο περιεχόμενο
25.6 C
Athens
Κυριακή, 15 Ιουνίου 2025

Στην επόμενη βιντεοδιάσκεψη μπορεί να μιλάς με deepfakes

Μια οικονομική υπάλληλος πολυεθνικής εταιρείας στο Χονγκ Κονγκ συμμετέχει σε βιντεοκλήση με ανώτατα στελέχη της εταιρείας. Σκοπός της συζήτησης είναι η μεταφορά περίπου 25 εκατομμυρίων δολαρίων, που τα στελέχη της εταιρείας ζητούν από την υπάλληλο να εκτελέσει άμεσα. Οπως και κάνει. Τίποτα όμως από όσα είδε και άκουσε η υπάλληλος σε αυτή τη βιντεοκλήση δεν ήταν αληθινά. Είχε μόλις εξαπατηθεί μέσω μιας από τις πιο περίτεχνες απάτες με χρήση τεχνολογίας deepfake που έχει ποτέ καταγραφεί. Φαντάζει με σενάριο ταινίας επιστημονικής φαντασίας, αλλά όπως φαίνεται, είναι απλά η αρχή ενός νέου είδους, δυστοπικής, διαδικτυακής οικονομικής απάτης.

«Διάβαζαν από σενάριο»

Το εξόχως εντυπωσιακό στη συγκεκριμένη υπόθεση είναι πως η υπάλληλος ήταν εξαρχής υποψιασμένη πως κάτι δεν πήγαινε καλά. Αιτία ήταν ότι έλαβε ένα μήνυμα από τον οικονομικό διευθυντή της εταιρείας, όπου της έγραφε για την άμεση ανάγκη πραγματοποίησης μιας μυστικής συναλλαγής.

Οι αμφιβολίες της εξαιτίας του πρωτοφανούς αιτήματος παραμερίστηκαν, όταν στη βιντεοκλήση αντίκρισε τη φιγούρα του οικονομικού διευθυντή και πολλών άλλων στελεχών της εταιρείας. Ολοι έμοιαζαν και ακούγονταν ακριβώς όπως τους γνώριζε. Ακόμη και ο χώρος όπου βρίσκονταν τα υποτιθέμενα στελέχη ήταν αναγνωρίσιμος από την υπάλληλο. Ετσι, η υπάλληλος προχώρησε στη μεταφορά περίπου 25 εκατομμυρίων δολαρίων. Οταν ύστερα από μερικές ημέρες επικοινώνησε με τα κεντρικά γραφεία της εταιρείας, διαπιστώθηκε η απάτη.

Οι δράστες «κατέβασαν» βίντεο με τις εικόνες των στελεχών και του χώρου όπου πραγματοποιήθηκε η βιντεοδιάσκεψη και στη συνέχεια, μέσω εξελιγμένου προγράμματος τεχνητής νοημοσύνης, δημιούργησαν εικονικά και ηχητικά αντίγραφά τους.

Η αστυνομία του Χονγκ Κονγκ θεωρεί πως οι δράστες είχαν «κατεβάσει» εκ των προτέρων βίντεο με τις εικόνες των στελεχών και του χώρου όπου πραγματοποιήθηκε η βιντεοδιάσκεψη και στη συνέχεια, μέσω εξελιγμένου προγράμματος τεχνητής νοημοσύνης δημιούργησαν εικονικά και ηχητικά αντίγραφά τους.

Η αστυνομία σχολίασε επίσης ότι σε τουλάχιστον είκοσι περιπτώσεις, άγνωστοι έχουν χρησιμοποιήσει ψεύτικες ταυτότητες τεχνητής νοημοσύνης προκειμένου να ξεγελαστούν τα προγράμματα αναγνώρισης προσώπου των τραπεζών και να τους εγκριθούν δάνεια.

Παρ’ όλα αυτά, μέχρι το συγκεκριμένο περιστατικό, τα deepfakes είχαν χρησιμοποιηθεί αποκλειστικά σε βιντεοκλήσεις «ένας-προς-έναν». Σε αυτήν την περίπτωση όμως, σύμφωνα με την αστυνομία, «χρησιμοποίησαν τεχνολογία deepfake προκειμένου να μιμηθούν τη φωνή των στόχων τους διαβάζοντας από ένα σενάριο». Η αστυνομία ανακοίνωσε πως προχώρησε σε έξι συλλήψεις.

Τα περιστατικά

Δεν ήταν η μοναδική περίπτωση τέτοιας απάτης. Στις αρχές του 2020 ένας διευθυντής υποκαταστήματος ιαπωνικής εταιρείας και πάλι στο Χονγκ Κόνγκ δέχθηκε ένα τηλεφώνημα. Η φωνή που άκουσε ήταν του διευθύνοντος συμβούλου της μητρικής εταιρείας, στην πραγματικότητα όμως ήταν ένα deepfake. Αυτή η φωνή του υπαγόρευσε να εγκρίνει μεταφορές 35 εκατομμυρίων δολαρίων, εξαιτίας μιας δήθεν επικείμενης εξαγοράς. Μάλιστα, το θύμα έλαβε και μηνύματα ηλεκτρονικού ταχυδρομείου με σχετικές οδηγίες από τον διευθύνοντα σύμβουλο και έναν δικηγόρο. Καθώς όλα φαίνονταν νόμιμα, ο διευθυντής του υποκαταστήματος άρχισε να πραγματοποιεί τις μεταφορές χρημάτων.

Στην επόμενη βιντεοδιάσκεψη μπορεί να μιλάς με deepfakes-1

Σε δύο περιπτώσεις άγνωστοι δράστες στο Χονγκ Κονγκ έχουν καταφέρει να προχωρήσουν σε απάτες συνολικής αξίας περίπου 60 εκατομμυρίων δολαρίων χρησιμοποιώντας τεχνολογίες deepfake.
Φωτογραφία αρχείου: Associated Press

Σύμφωνα με δικαστικό έγγραφο που αποκάλυψε το Forbes, τα Ηνωμένα Αραβικά Εμιράτα ερευνούσαν τη ληστεία καθώς πίστευαν πως αφορούσε οντότητες εντός της χώρας, στην οποία συμμετείχαν «τουλάχιστον 17 άτομα». Στη συνέχεια τα άτομα αυτά έστειλαν τα κλεμμένα χρήματα σε τραπεζικούς λογαριασμούς σε ολόκληρο τον κόσμο.

Δύο δράστες στην Κίνα αγόρασαν χιλιάδες εικόνες προσώπου στο σκοτεινό διαδίκτυο, τις οποίες στη συνέχεια χρησιμοποίησαν προκειμένου να δημιουργήσουν deepfake βίντεο των συγκεκριμένων ανθρώπων.

Σε άλλο περιστατικό που αποκαλύφθηκε το 2021, δύο δράστες στην Κίνα αγόρασαν χιλιάδες εικόνες προσώπου στο σκοτεινό διαδίκτυο, τις οποίες στη συνέχεια χρησιμοποίησαν προκειμένου να δημιουργήσουν deepfake βίντεο των συγκεκριμένων ανθρώπων. Στη συνέχεια ενορχήστρωσαν μια περίπλοκη απάτη, που τους επέτρεψε να να ξεγελάσουν την κυβερνητική τεχνολογία αναγνώρισης προσώπου της Κίνας και έτσι να κλέψουν 75 εκατομμύρια δολάρια μέσω πλαστών φορολογικών τιμολογίων που εξέδωσαν.

Στα μέσα του 2019 ένας διευθυντής υποκαταστήματος ενεργειακής εταιρείας στο Ηνωμένο Βασίλειο δέχθηκε ένα τηλεφώνημα από τον διευθυντή της μητρικής εταιρείας. Η φωνή που άκουγε όμως προερχόταν από ένα λογισμικό τεχνητής νοημοσύνης που χρησιμοποιεί την τεχνολογία «βαθιάς φωνής». Οι άγνωστοι δράστες ζήτησαν από τον διευθυντή να πραγματοποιήσει ένα επείγον έμβασμα 250 χιλιάδων δολαρίων που τελικά κατέληξαν στο Μεξικό και από εκεί σε άλλες τοποθεσίες.

Τον περασμένο Μάιο, η αστυνομία της πόλης Μπατάου στη Μογγολία ανακοίνωσε πως ένας άγνωστος δράστης χρησιμοποίησε τεχνολογία ανταλλαγής προσώπων με τεχνητή νοημοσύνη, προκειμένου να υποδυθεί τον φίλο ενός θύματος. Κατά τη διάρκεια μιας βιντεοκλήσης, το θύμα που θεωρούσε ότι συνομιλεί με τον φίλο του, του έστειλε έμβασμα 622 χιλιάδων δολαρίων. Οταν μετέπειτα το θύμα επικοινώνησε με τον πραγματικό φίλο του, διαπίστωσε τι είχε συμβεί.

3.000% αύξηση των προσπαθειών απάτης μέσω deepfakes
Η ραγδαία αύξηση αντίστοιχων περιστατικών αποδεικνύεται από πρόσφατη έρευνα της εταιρείας επαλήθευσης απάτης Onfido, που εντόπισε αύξηση κατά 3.000% των προσπαθειών απάτης μέσω deepfakes μεταξύ του 2022 και του 2023. Μπορεί να πρόκειται για ένα φαινόμενο που ακόμη βρίσκεται σε νηπιακό επίπεδο, εντούτοις, όπως επισημαίνεται σε σχετικό άρθρο των New York Times, η ταχύτητα της τεχνολογικής εξέλιξης, σε συνδυασμό με το μειωμένο κόστος των προγραμμάτων τεχνητής νοημοσύνης, καθώς και η ευρεία διαθεσιμότητα των ηχογραφήσεων των φωνών των ανθρώπων στο διαδίκτυο, «έχουν δημιουργήσει τις τέλειες συνθήκες για απάτες με φωνητική τεχνητή νοημοσύνη».

Βάσει της έρευνας της Onfido, οι εφαρμογές ανταλλαγής προσώπων είναι το πιο συνηθισμένο παράδειγμα εικονικών deepfake εξαπατήσεων. Στις πιο απλές εκδόσεις αυτών των εφαρμογών –πολλές διατίθενται δωρεάν–, ένα πρόσωπο μπορεί να επικολληθεί πάνω σε ένα άλλο. Πρόκειται για το λεγόμενο «cheapfake», δηλαδή «φτηνή απομίμηση». Αυτές οι φθηνές απομιμήσεις μπορεί να είναι σε αρκετές περιπτώσεις «χοντροκομμένες», εντούτοις σύμφωνα με την έρευνα «μόνο μια χρειάζεται να πετύχει». Το 2023 αυτά τα φθηνά λογισμικά χρησιμοποιήθηκαν στο 80,3% των σχετικών επιθέσεων που καταγράφηκαν.

Ενδεικτική του πόσο έχει εξελιχθεί η τεχνολογία στον συγκεκριμένο τομέα, ήταν η συνέντευξη που παραχώρησε στο NBC η Εϊμι Νοφζίγκερ, επικεφαλής δικτύου υποστήριξης θυμάτων απάτης για την οργάνωση AARP. Σχολίασε πως ακόμη και «αν το θύμα λέει: “Δεν νομίζω ότι είσαι εσύ, θέλω να μου διαβάσεις τους σημερινούς τίτλους των εφημερίδων” ή κάτι παρεμφερές, προκειμένου να προσπαθήσει να αποδείξει κάποια εγκυρότητα, οι απατεώνες μπορούν να προσαρμοστούν γρήγορα με την τεχνολογία τους».

ΠΗΓΗ

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

Leave a reply

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ

ΠΡΟΣΦΑΤΑ ΑΡΘΡΑ

Το “καλύτερο” SUP (Stand Up Paddle) ΤΕΡΑΣ 3,5 Μέτρων… που ΜΠΟΡΕΙΣ να έχεις “Λόγω ΤΙΜΗΣ”… Στα 129€ ΚΟΜΠΛΕ (Βίντεο)

Ένα πραγματικά ονειρικό για πολλούς και πολλές από εμάς SUP που παρακαλούσαμε να βρούμε σε μια τιμή που να είναι τόσο καλή που να...

Επείγουσα ανάκληση ενός εκατομμύριου powerbanks της Anker! – Τι πρέπει να κάνουν οι χρήστες

Η Anker προχώρησε σε μια τεράστια ανάκληση 1,16 εκατομμυρίων power bank PowerCore 10000 (μοντέλο A1263) στις ΗΠΑ λόγω κινδύνου υπερθέρμανσης. Οι αναφορές περιλαμβάνουν εγκαύματα...

Ειδοποιήσεις πριν γίνει σεισμός στο ρολόι σου από την Google για όλους – Η διαδικασία

Το σύστημα ειδοποιήσεων για σεισμούς της Google είχε κάνει το επίσημο ντεμπούτο του το 2020 και αντλεί δεδομένα από εκατομμύρια τηλέφωνα για να μας...

Το αναβαθμισμένο Siri μάλλον θα έρθει την άνοιξη του 2026

H Apple στοχεύει να λανσάρει τις καθυστερημένες εξατομικευμένες λειτουργίες Siri την άνοιξη του 2026, όπως αναφέρει ο Mark Gurman του Bloomberg. Ο Gurman ισχυρίζεται ότι...

vivo X Fold 5: Έρχεται με χαρακτηριστικά που δεν έχει κανένα άλλο foldable

Μία από τις πιο συναρπαστικές συσκευές που θα κυκλοφορήσουν το δεύτερο εξάμηνο του έτους είναι το vivo X Fold 5 της vivo, το foldable...

ΤΕΛΕΥΤΑΙΕΣ ΠΡΟΣΦΟΡΕΣ

Το “καλύτερο” SUP (Stand Up Paddle) ΤΕΡΑΣ 3,5 Μέτρων… που ΜΠΟΡΕΙΣ να έχεις “Λόγω ΤΙΜΗΣ”… Στα 129€ ΚΟΜΠΛΕ (Βίντεο)

Ένα πραγματικά ονειρικό για πολλούς και πολλές από εμάς SUP που παρακαλούσαμε να βρούμε σε μια τιμή που να είναι τόσο καλή που να...

Τα πιο “ΤΣΑΜΠΑ” 280Hz… Σε 27άρα Gaming Οθόνη… Στα 144€ Κομπλέ… KTC H27E22P… “Αθάνατη” και με πολλά…

Άλλη μια από της πολυδοκιμασμένες κι αθάνατες KTC έφτασε στα χέρια μου και για ακόμη μια φορά με άφησε έκπληκτο με τις δυνατότητες την...

Από ΕΛΛΑΔΑ… Το “ΤΙΜΙΟ” Headset Με Σύνδεση 2 ΣΥΣΚΕΥΩΝ, ANC, BT 5.3 και πολλά άλλα… στα 31€ ΚΟΜΠΛΕ & GIVEAWAY

Δεν μπορώ να τα χαρακτηρίσω αλλιώς εκτός ΑΠΟ ΤΙΜΙΑ... Με Σύνδεση 2 ΣΥΣΚΕΥΩΝ, ANC, BT 5.3 και πολλά άλλα... με ποιότητα κατασκευής και υλικών...

To “ΑΠΟΛΥΤΟ”…. ΝΟΜΙΜΟ Ηλεκτρικό Ποδήλατο; Η Χρυσή Τομή… Κάνει τα ΠΑΝΤΑ… Στα 707€ ΚΟΜΠΛΕ!!! PVY Z20 Pro EVO

Είναι Πανέμορφο, ποιοτικό, πανάλαφρο, πρακτικό, αναδιπλούμενο, "ΝΟΜΙΜΟ" και ΒΑΣΕΙ απόλυτης λογικής ίσως η χρυσή τομή κι όχι μόνο ότι "σοφότερο" μπορείς να επιλέξεις, αλλά...

Το “ΜΙΚΡΟΤΕΡΟ” Ραδιόφωνο Παγκόσμιας ΛΗΨΗΣ… ΠΑΓΚΟΣΜΙΩΣ!? Στα 28€ ΚΟΜΠΛΕ!!! SI4732 με 2 Κεραίες…

Στο εξωτερικό γίνεται χαμός με αυτό το μικρό θαυματάκι και μάλιστα έχει στηθεί και ομάδα αναβάθμισης λογισμικού στο Github. Είναι μια αγορά που έκανα χωρίς...