DEEPFAKES: Aπό την πορνογραφία, στην απειλή της εθνικής ασφάλειας
Της Σταυρίνας Δρακωνάκη

Η συνεχής εξέλιξη της τεχνολογίας συνδυαστικά με την εύρεση νέων τεχνολογικών μεθόδων, έχει οδηγήσει στην δημιουργία μιας πολύ σύγχρονης κατηγορίας fake news, που συνδυάζουν τον ήχο με την εικόνα. Πρόκειται για τα λεγόμενα deepfakes.

O όρος καθιερώθηκε το 2017, όταν ένας χρήστης του Reddit, με το ψευδώνυμο «deepfake», χρησιμοποίησε το πρόσωπο της ηθοποιού Gal Gadot, που υποδύθηκε την Wonder Woman, σε βίντεο πορνό και το ανάρτησε στην ιστοσελίδα.

Σύμφωνα με την Deeprace, τα deepfakes πορνογραφικού υλικού αντιπροσωπεύουν το 96% των συνολικών deepfakes του διαδικτύου.

Η Emma Watchon, η Natalie Portman, η Scarlett Johansson, η Natalie Dormer επανειλημμένως έχουν πέσει θύματα.

Ωστόσο, πλέον τα deepfakes πορνογραφικού υλικού δεν στοχεύουν μόνο ηθοποιούς, ξεπερνώντας τα όρια της ανθρώπινης αξιοπρέπειας και υπονομεύοντας την ηθική τους υπόσταση. Χρησιμοποιούνται και για πιο σκοτεινούς και περίπλοκους σκοπούς, κυρίως πολιτικούς και εθνικιστικούς, βλάπτοντας και δυσφημίζοντας δημόσια πρόσωπα.

Για παράδειγμα όταν η δημοσιογράφος Rana Ayyub αντιτάχθηκε κατά του Ινδικού Λαϊκού Κόμματος (BJP), προκειμένου να υπερασπιστεί το 8άχρονο κοριτσάκι που έπεσε θύμα βιασμού και δολοφονήθηκε το 2018 στην πόλη Kathua του Κασμίρ, διέρευσαν πλήθος βίντεο που την έδειχναν να πρωταγωνιστεί σε πορνό.

Όπως ανέφερε η ίδια: “ένιωσα ότι κακοποιούμαι. Δεν μπορείς να σκοτώσεις έναν άνθρωπο μόνο χρησιμοποιώντας ένα φονικό όπλο, αλλά μπορείς να τον σκοτώσεις και πνευματικά”. Μέσω του deepfake που δημοσιεύτηκε και διαδόθηκε με ταχύτατους ρυθμούς, όχι μόνο στιγματίστηκε η καριέρα της αλλά τραυματίστηκε και η ψυχική της υγεία.

Μέσω ερευνών που διεξήχθησαν το 2019 από την εταιρεία Deeprace, διαπιστώνεται ότι ο αριθμός των deepfakes συνολικά, σχεδόν διπλασιάστηκε σε σύγκριση με το 2018, με αύξηση 84%.

Αν και πολλοί προσπαθούν να διακρίνουν τα deepfakes πορνογραφικού περιεχομένου, από τα deepfakes με πολιτικούς σκοπούς, από το παράδειγμα της περίπτωσης της Rana Ayyub αλλά και άλλων πολιτικών, όπως του Yπουργού οικονομικών της Μαλαισίας Azmin Ali, που παρουσιάστηκε να πρωταγωνιστεί σε βίντεο πορνό ομοφυλοφιλικού περιεχομένου, γίνεται αντιληπτό ότι η διάκριση μεταξύ των δύο καθίσταται δύσκολη και η γραμμή που τα διακρίνει είναι πολύ λεπτή.

Όταν τον Απρίλιο του 2018, ο σκηνοθέτης Jordan Peele και η BuzzFeed στο πλαίσιο έρευνας του Πανεπιστημίου της Ουάσινγκτον δημοσίευσαν και κυκλοφόρησαν ένα deepfake του Προέδρου Ομπάμα, στο οποίο απήγγειλε προσβλητικούς χαρακτηρισμούς κατά του Ντόναλντ Τραμπ, κατέστη σαφές πώς αυτή η τεχνολογία μπορεί να αποτελέσει σοβαρή απειλή για την εθνική ασφάλεια, την σταθερότητα και την δημοκρατία ενός κράτους.

Για παράδειγμα, το 2018 ο πρόεδρος της Γκαμπόν, AliBongo, δεν είχε εμφανιστεί στο κοινό για αρκετό χρονικό διάστημα λόγω ασθένειας, γεγονός που δημιούργησε εικασίες για την ευημερία και την ικανότητά του να επιτελέσει τα καθήκοντά του και να υπηρετήσει ως πρόεδρος.

Για να καθησυχαστούν οι πολίτες, η κυβέρνηση δημοσίευσε ένα βίντεο το οποίο παρουσίαζε τον πρόεδρο να δίνει ευχές για την νέα χρονιά. Το βίντεο κίνησε τις υποψίες και τελικά αποδείχθηκε ότι ήταν deepfake.

Ωστόσο, δημιουργήθηκε πολιτική κρίση στη Γκαμπόν, αφού κλονίστηκε η αξιοπιστία του προέδρου.

Το deepfake αυτό οδήγησε τελικά σε απόπειρα στρατιωτικού πραξικοπήματος.

DEEPFAKES VS CHEEPFAKES

Σημαντική είναι η διάκριση ανάμεσα στα Deepfakes και τα λεγόμενα «Cheepfakes» ή «Dumbfakes», δηλαδή «φτηνά» ή χαζά deepfake. Τα Deepfakes εκ πρώτης όψεως, στην πλειονότητά τους μοιάζουν πολύ αληθοφανή και δύσκολα γίνεται διακριτό πως πρόκειται για ψευδή βίντεο .

Τα τελευταία χρόνια όμως, πολλές εφαρμογές που διατίθενται δωρεάν για χρήση στα κινητά τηλέφωνα έχουν οδηγήσει στη δημιουργία των «Cheepfakes», δηλαδή στη δημιουργία χαμηλής ποιότητας τροποποιημένων βίντεο, που απαιτούν δραματικά μειωμένες απαιτήσεις υπολογιστικής ισχύος, αλλά και τεχνογνωσίας από τους χρήστες.

Τέτοιες εφαρμογές είναι για παράδειγμα το Snapchat και το Tik Tok, όπου η παραποίηση του προσώπου ή η αντικατάσταση της φωνής είναι εύκολα εμφανείς και, γι’ αυτό, κατά κανόνα χρησιμοποιούνται για χιουμοριστικούς σκοπούς χωρίς να σκοπεύουν σε επιβλαβή αποτελέσματα.

Ένα παράδειγμα Cheepfake αποτέλεσε το βίντεο που κυκλοφόρησε το 2019, με στόχο την Πρόεδρο της αμερικανικής βουλής Nancy Pelosi. Το πρωτότυπο βίντεο της συνέντευξής της παραποιήθηκε, επιβραδύνοντας την ομιλία της με αποτέλεσμα η ίδια να φαίνεται μεθυσμένη. Το deepfake διαδόθηκε ταχύτατα στα social media, συγκεντρώνοντας πάνω από 2μιση εκατομμύρια προβολές μέσα σε μια εβδομάδα.

ΑΠΟΤΕΛΕΣΜΑΤΑ ΤΩΝ DEEPFAKES

Τα deepfakes ωστόσο, δεν έχουν ως αποτέλεσμα μόνο:

-την διάδοση fake news, αλλά έχουν και μια δεύτερη συνέπεια κυρίως από άποψη πολιτικής χρήσης:

-τη δήλωση κατά της αυθεντικότητας των μέσων μαζικής ενημέρωσης.

Είναι πλέον εύκολο για τον κάθε πολιτικό ή για την οποιαδήποτε διασημότητα, να δηλώσει δημοσίως ότι κάποιο βίντεο που κυκλοφόρησε απεικονίζοντας τον ίδιο να λέει ή να κάνει κάτι, είναι ψευδές ακόμα και εάν είναι αυθεντικό.

Μπορούν με αυτόν τον τρόπο να επηρεάσουν τις επιπτώσεις των αρνητικών τους ενεργειών και να εκτρέψουν ή να αποτρέψουν την προσοχή του κοινού μέσω αυτής της χειραγώγησης.

Είναι σαφές λοιπόν ότι με τον έναν ή τον άλλον τρόπο, η εμπιστοσύνη του κοινού στα μέσα μαζικής ενημέρωσης και πιο συγκεκριμένα στα σύγχρονα μέσα, κλονίζεται. Αυτό είναι αποτέλεσμα της αβεβαιότητας που δημιουργείται και λόγω της ανεξέλεγκτης διάδοσης των fake news και συγκεκριμένα των deepfakes.

Το προφανές αποτέλεσμα των deepfakes είναι ότι:

-μπορούν να εξαπατήσουν το κοινό.

Ωστόσο: 

-ακόμα και αν κάποιος δεν εξαπατηθεί, φτάνει στο σημείο να αμφιβάλλει για το τί είναι πραγματικά αληθινό. Το αίσθημα της καχυποψίας και της αμφιβολίας στο επίπεδο της πολιτικής και κοινωνικής εμπιστοσύνης, κατακλύζει την κοινή γνώμη.

Μάλιστα , πολλές φορές η συνεχής προσπάθεια που καταβάλλεται για τον διαχωρισμό μεταξύ αλήθειας και ψεύδους.

-οδηγεί το κοινό στην απάθεια απέναντι στην πραγματικότητα, με αποτέλεσμα να μην πιστεύει τίποτα από την πληροφόρηση που του παρέχεται, κατατάσσοντάς τα όλα, χωρίς κριτική σκέψη, στις ψευδεπίγραφες ειδήσεις.

ΤΕΧΝΟΛΟΓΙΑ

Tα deepfakes προκύπτουν από ένα συγκεκριμένο είδος «βαθιάς μηχανικής μάθησης» (deeplearning) στο οποίο ζεύγη αλγορίθμων τίθενται ο ένας εναντίον του άλλου σε «Γεννητικά Ανταγωνιστικά Δίκτυα» (Generative Adversarial Networks/ GAN). Τα GAN ως ένα είδος μηχανικής μάθησης (machine learning) εισήχθησαν το 2014 από τον Ian Goodfellow και άλλους ερευνητές στο πανεπιστήμιο του Μόντρεαλ.

Βασική ιδέα των GAN ​​είναι να εκπαιδεύσουν μαζί δύο δίκτυα. Σε ένα GAN, ένας αλγόριθμος, η «γεννήτρια» (generator), δημιουργεί περιεχόμενο που βασίζεται σε πηγαία δεδομένα (source data): για παράδειγμα, φτιάχνοντας τεχνητές εικόνες σκύλων από μια βάση δεδομένων πραγματικών εικόνων σκύλων), ενώ ένας δεύτερος αλγόριθμος ο «διακριτής» (discriminator), προσπαθεί να εντοπίσει το τεχνητό περιεχόμενο (να διαλέξει τις ψεύτικες εικόνες σκύλου).

Ο στόχος της γεννήτριας είναι, δηλαδή, με βάση την επεξεργασία των αρχικών, πραγματικών δεδομένων, να παράγει πλαστά ψηφιακά δεδομένα, που δε θα γίνουν αντιληπτά από το διακριτή. Ενώ ο στόχος του διακριτή είναι να εντοπίσει τις εικόνες που προέρχονται από τη γεννήτρια και όχι από τη βάση των πραγματικών δεδομένων, ως ψεύτικες.

Δεδομένου ότι κάθε αλγόριθμος συνεχώς «εκπαιδεύεται» εναντίον του άλλου, τέτοιοι συνδυασμοί μπορούν να οδηγήσουν σε ταχεία βελτίωση, επιτρέποντας στα GAN να παράγουν εξαιρετικά ρεαλιστικό αλλά ψεύτικο περιεχόμενο deepfakes.

Χωρίζονται στις εξής τρεις κατηγορίες:

-«face-swap video», όπου το πρόσωπο ενός ανθρώπου σε ένα βίντεο αντικαθίσταται από το πρόσωπο ενός άλλου. Σ’ αυτή την κατηγορία, ένας ηθοποιός, π.χ., μπορεί να φαίνεται να υποκαθίσταται από κάποιον άλλον ή και ένας καθημερινός άνθρωπος να φαίνεται να πρωταγωνιστεί σε μια χαρακτηριστική σκηνή από κινηματογραφική ταινία ή από συνέντευξη ενός διάσημου προσώπου.

-«lip-sync», όπου η πηγή του βίντεο τροποποιείται με τέτοιον τρόπο ώστε η περιοχή του στόματος και οι αντίστοιχες κινήσεις του κατά την ομιλία, να είναι σύμφωνες με ένα αυθαίρετο ηχητικό απόσπασμα που χρησιμοποιεί μια άλλη φωνή ή και δημιουργείται από συρραφή παλαιότερων δηλώσεων και ομιλιών του ίδιου του προσώπου.
Σ’ αυτήν την κατηγορία, ένας πολιτικός, π.χ. ή ένα διάσημο πρόσωπο, μπορεί να παρουσιάζεται με πολύ πειστικό τρόπο να λέει κάτι που ποτέ δεν έχει πει.

-«master-puppet video», όπου όλες οι κινήσεις του προσώπου ενός ανθρώπου σε ένα βίντεο (κινήσεις ματιών, κεφαλής, χειλιών, εκφράσεις) ελέγχονται από ένα άλλο άτομο που κάθεται πίσω από την κάμερα και χειρίζεται με όποιον τρόπο θέλει αυτά που κάνει και λέει η «μαριονέτα του».

ΤΕΛΕΥΤΑΙΑ VIDEOS - ΒΛΕΠΟΥΝ ΟΛΟΙ

JOBS

Χιλιάδες Θέσεις Εργασίας σε όλη την Ελλάδα

Υπηρεσίες ένδυσης και υπόδησης

Όλοι οι τύποι εργασίας

23-01-2024

Αθήνα

Πωλήσεις

Πλήρης Απασχόληση

06-03-2024

Αθήνα

⚽🏀 LIVE SCORES
19 Μαϊ. 2024
Παν
20:00
0 - 0
Ολυ
19 Μαϊ. 2024
Άρη
20:00
0 - 0
ΠΑΟ
24 Μαϊ. 2024
ΠΑΟ
19:00
-
ΦΕΝ
24 Μαϊ. 2024
Ρεάλ
22:00
-
ΟΣΦΠ

ΠΩΣ ΣΟΥ ΦΑΝΗΚΕ ΤΟ ΑΡΘΡΟ;