Deepfakes: Από τη «γένεση» στη δημιουργία επιβλαβούς περιεχομένου - Τα «κλειδιά» για την αναγνώρισή τους
Deepfakes: Το φαινόμενο που εξελίσσεται σε μάστιγα, η αυξανόμενη απειλή για τις γυναίκες και ο τρόπος που μπορούν να προστατευτούν τα θύματα. Ποια μέτρα έχουν τεθεί «επί τάπητος» σε ΕΕ και πλατφόρμες κοινωνικής δικτύωσης;

Η σούπερ σταρ της ποπ Τέιλορ Σουίφτ έγινε θύμα γυμνών deepfakes  — και οι Ευρωπαίοι αξιωματούχοι θέλουν να εμποδίσουν να συμβεί ξανά σε οποιονδήποτε άλλον/η.

Οι διαπραγματευτές της Ευρωπαϊκής Ένωσης κατέληξαν σε συμφωνία την Τρίτη για ένα νομοσχέδιο που θα ποινικοποιεί την κοινή χρήση τέτοιου περιεχομένου σε ολόκληρη την ΕΕ, όπως επίσης το revenge porn και την διαδικτυακή παρενόχληση, έως τα μέσα του 2027.

Οι γυναίκες αντιμετωπίζουν ολοένα και περισσότερα κακοποιητικά περιστατικά στα μέσα κοινωνικής δικτύωσης τα τελευταία χρόνια. Τα φθηνά εργαλεία παραγωγής τεχνητής νοημοσύνης έχουν επίσης διευκολύνει τη δημιουργία ψεύτικων φωτογραφιών και βίντεο γυμνών γυναικών. Η Τέιλορ Σουίφτ μπορεί να είναι το πιο γνωστό παράδειγμα τέτοιων deepfakes, αλλά δυστυχώς δεν είναι το μόνο.

 

Το ζήτημα χρήζει επείγουσας παρέμβασης αφού ψεύτικες γραφικές εικόνες της Σουίφτ που δημιουργήθηκαν από AI, εμφανίστηκαν περισσότερες από 45 εκατομμύρια φορές τον Ιανουάριο στην πλατφόρμα κοινωνικής δικτύωσης X (πρώην Twitter). Οι νομοθέτες των Ηνωμένων Πολιτειών απηύθυναν νέες εκκλήσεις για νομοθετική ρύθμιση και το περιστατικό προκάλεσε συναγερμό στον Λευκό Οίκο.

«Ο πιο πρόσφατος αηδιαστικός τρόπος ταπείνωσης των γυναικών είναι να κοινοποιούνται προσωπικές εικόνες που δημιουργούνται από AI σε λίγα λεπτά από οποιονδήποτε. Τέτοιες φωτογραφίες μπορούν να κάνουν τεράστιο κακό, όχι μόνο στους αστέρες της ποπ αλλά και σε κάθε γυναίκα που θα έπρεπε να αποδείξει στη δουλειά ή στο σπίτι ότι ήταν ψεύτικες», δήλωσε στο Politico η αντιπρόεδρος της Ευρωπαϊκής Επιτροπής, Βέρα Γιούροβα.

Τα θύματα των deepfakes στην Ευρώπη πρέπει επί του παρόντος να στηρίζονται σε ένα συνονθύλευμα νόμων όπως το νομοσχέδιο της ΕΕ για το απόρρητο, τον Γενικό Κανονισμό για την Προστασία Δεδομένων (GDPR) και τους εθνικούς νόμους για τη δυσφήμιση. Οι μεγάλες πλατφόρμες μέσων κοινωνικής δικτύωσης όπως το X και η Meta πρέπει να διευκολύνουν τους ανθρώπους και την αστυνομία να αναφέρουν δυνητικά παράνομο περιεχόμενο —και να το καταργήσουν γρήγορα όταν συμβαίνει — ως μέρος του εγχειριδίου ελέγχου περιεχομένου της ΕΕ, τον Νόμο για τις Ψηφιακές Υπηρεσίες (DSA). Πολλές πλατφόρμες μέσων κοινωνικής δικτύωσης προσπαθούν να αυτο-προφυλαχθούν. Το TikTok π.χ. έχει μπλοκάρει τη λέξη-κλειδί «γδύνω», έναν δημοφιλή όρο αναζήτησης που σχετίζεται με τις deepfakes, προειδοποιώντας όποιον αναζητά τη λέξη ότι μπορεί να σχετίζεται με συμπεριφορά ή περιεχόμενο που παραβιάζει τις οδηγίες του. Κάτι ανάλογο αναμένεται να ακολουθήσουν κι άλλοι.

Η Επιτροπή της ΕΕ πρότεινε έναν πρωτοποριακό νόμο το 2022, εν μέσω της ακμής του κινήματος #MeToo, που θα υποχρέωνε τις χώρες της να προβούν σε περαιτέρω μέτρα για την τιμωρία της διαδικτυακής κακοποίησης γυναικών. Οι κανόνες καθορίζουν τους ορισμούς των εγκλημάτων από τον καταναγκαστικό γάμο και τον ακρωτηριασμό των γυναικείων γεννητικών οργάνων έως την καταδίωξη στον κυβερνοχώρο. Συνιστούν επίσης ελάχιστες ποινές φυλάκισης, όπως τουλάχιστον ένα έτος φυλάκισης για κυβερνοβία.

«Η δέσμευσή μας να προστατεύσουμε την αξιοπρέπεια και τα δικαιώματα των γυναικών και των κοριτσιών στην Ευρώπη οδήγησε στην ποινικοποίηση διαφόρων μορφών κυβερνοβίας, όπως η μη συναινετική κοινοποίηση προσωπικών εικόνων, συμπεριλαμβανομένων των deepfakes, του cyberstalking, της παρενόχλησης στον κυβερνοχώρο, της μισογυνιστικής ρητορικής και του κυβερνοχώρου», δήλωσε η Ευρωπαία Επίτροπος για την Ισότητα, Helena Dalli.

Η τελική συμφωνία καθιστά επίσης ποινικό αδίκημα την αποστολή αυτόκλητων εικόνων με σεξουαλικό υλικό, όπως τα γεννητικά όργανα. Ωστόσο, ένα προσχέδιο πρότασης για την ποινικοποίηση του μη συναινετικού σεξ σε ολόκληρο το μπλοκ απορρίφθηκε λόγω της έντονης αντίθεσης από τις χώρες της ΕΕ.

Deepfakes: Τι είναι και πώς δημιουργούνται

Tα Deepfakes είναι συνθετικά μέσα που έχουν υποστεί ψηφιακή επεξεργασία για να αντικαταστήσουν πειστικά την ομοιότητα ενός ατόμου με αυτή ενός άλλου.

Τι είναι τα συνθετικά μέσα;

  •  Τα συνθετικά μέσα είναι ένας γενικός όρος που χρησιμοποιείται για να περιγράψει κείμενο, εικόνες, βίντεο ή φωνή που έχει δημιουργηθεί με χρήση τεχνητής νοημοσύνης (AI).
  • Όπως πολλά είδη τεχνολογίας, έτσι και τα συνθετικά μέσα μπορούν να χρησιμοποιηθούν για ωφέλιμους αλλά και επιβλαβείς σκοπούς.
  • Οι πιο ουσιαστικές απειλές από την κατάχρηση συνθετικών μέσων περιλαμβάνουν τεχνικές που απειλούν την επωνυμία ενός οργανισμού, την πλαστοπροσωπία προσώπων και τη χρήση δόλιας επικοινωνίας για να επιτρέψουν την πρόσβαση σε δίκτυα, επικοινωνίες και ευαίσθητες πληροφορίες ενός οργανισμού ή φυσικού προσώπου.

Αν και η πράξη της δημιουργίας ψεύτικου περιεχομένου δεν είναι νέα, τα deepfakes αξιοποιούν ισχυρές τεχνικές από τη μηχανική μάθηση μέχρι την τεχνητή νοημοσύνη για να χειριστούν ή να δημιουργήσουν οπτικό και ακουστικό περιεχόμενο που μπορεί εύκολα να εξαπατήσει.

Τα Deepfakes έχουν συγκεντρώσει ευρεία προσοχή για την πιθανή χρήση τους στη δημιουργία υλικού σεξουαλικής κακοποίησης παιδιών, πορνογραφικών βίντεο διασημοτήτων, πορνό εκδίκησης, ψεύτικες ειδήσεις, φάρσες, εκφοβισμό και οικονομική απάτη. Η εξάπλωση της παραπληροφόρησης και της ρητορικής μίσους μέσω deepfakes έχει τη δυνατότητα να υπονομεύσει τις βασικές λειτουργίες και τους κανόνες των δημοκρατικών συστημάτων παρεμβαίνοντας στην ικανότητα των ανθρώπων να συμμετέχουν σε αποφάσεις που τους επηρεάζουν, να καθορίζουν συλλογικές ατζέντες και να εκφράζουν πολιτική βούληση μέσω τεκμηριωμένης λήψης αποφάσεων. Αυτό έχει προκαλέσει απαντήσεις τόσο από τη βιομηχανία όσο και από τις κυβερνήσεις για τον εντοπισμό και τον περιορισμό της χρήσης τους

Από την παραδοσιακή ψυχαγωγία μέχρι το gaming, η τεχνολογία deepfake έχει εξελιχθεί ώστε να είναι ολοένα και πιο πειστική και διαθέσιμη στο κοινό.

Το photo manipulation αναπτύχθηκε τον 19ο αιώνα και σύντομα εφαρμόστηκε σε κινηματογραφικές ταινίες. Βελτιώθηκε σταθερά κατά τη διάρκεια του 20ου αιώνα και πιο γρήγορα με την έλευση του ψηφιακού βίντεο.

Η τεχνολογία deepfake έχει αναπτυχθεί από ερευνητές σε ακαδημαϊκά ιδρύματα ξεκινώντας από τη δεκαετία του 1990 και αργότερα από ερασιτέχνες σε διαδικτυακές κοινότητες. Πιο πρόσφατα οι μέθοδοι υιοθετήθηκαν από τη βιομηχανία.

Πώς φτιάχνονται;

Ερευνητές πανεπιστημίων και στούντιο ειδικών εφέ έχουν από καιρό ξεπεράσει τα όρια του τι είναι δυνατό με το deepfake σε εικόνες αλλά και βίντεο. Τα deepfakes δημιουργήθηκαν το 2017 όταν ένας χρήστης του Reddit με το ίδιο όνομα δημοσίευσε επεξεργασμένα πορνό κλιπ στον ιστότοπο. Στα βίντεο παρουσιάζονταν τα πρόσωπα διασημοτήτων όπως – Gal Gadot, Taylor Swift, Scarlett Johansson και άλλων – με τα σώματα από ηθοποιούς πορνό ταινιών.

Χρειάζονται μόνο μερικά βήματα για τη δημιουργία deepfake περιεχομένου. Αρχικά, εκτελείτε χιλιάδες λήψεις προσώπου των δύο ατόμων μέσω ενός αλγόριθμου AI που ονομάζεται κωδικοποιητής. Ο κωδικοποιητής βρίσκει και μαθαίνει ομοιότητες μεταξύ των δύο προσώπων και τις ανάγει στα κοινά χαρακτηριστικά τους, συμπιέζοντας τις εικόνες στη διαδικασία. Στη συνέχεια χρησιμοποιείται ένας δεύτερος αλγόριθμος AI που ονομάζεται αποκωδικοποιητής για να ανακτήσει τα πρόσωπα από τις συμπιεσμένες εικόνες. Επειδή τα πρόσωπα είναι διαφορετικά, χρησιμοποιείτε έναν αποκωδικοποιητή για να ανακτήσει το πρόσωπο του πρώτου ατόμου και έναν άλλο αποκωδικοποιητή για να ανακτήσει το πρόσωπο του δεύτερου ατόμου. Για να εκτελέσετε την εναλλαγή προσώπου, απλώς τροφοδοτείτε κωδικοποιημένες εικόνες στον «λάθος» αποκωδικοποιητή. Για παράδειγμα, μια συμπιεσμένη εικόνα του προσώπου του ατόμου Α τροφοδοτείται στον αποκωδικοποιητή που έχει εκπαιδευτεί στο άτομο Β. Στη συνέχεια, ο αποκωδικοποιητής αναδομεί το πρόσωπο του ατόμου Β με τις εκφράσεις και τον προσανατολισμό του προσώπου Α. Για ένα πειστικό βίντεο, αυτό πρέπει να γίνεται σε κάθε πλαίσιο.

Ένας άλλος τρόπος για να δημιουργηθούν deepfakes χρησιμοποιεί αυτό που λέγεται Generative Adversarial Network ή Gan. Ένα Gan αντιπαραθέτει δύο αλγόριθμους τεχνητής νοημοσύνης. Ο πρώτος αλγόριθμος, γνωστός ως γεννήτρια, τροφοδοτείται με τυχαίο θόρυβο και τον μετατρέπει σε εικόνα. Αυτή η συνθετική εικόνα προστίθεται στη συνέχεια σε μια ροή πραγματικών εικόνων – διασημοτήτων, ας πούμε – που τροφοδοτούνται στον δεύτερο αλγόριθμο, γνωστό ως ο διαχωριστής. Στην αρχή, οι συνθετικές εικόνες δεν θα μοιάζουν καθόλου με πρόσωπα. Αλλά αν κάποιος επαναλάβει τη διαδικασία αμέτρητες φορές, με ανατροφοδότηση για την απόδοση, και ο διαχωριστής και η γεννήτρια βελτιώνονται και οι δύο. Δεδομένων αρκετών κύκλων και σχολίων, η γεννήτρια θα αρχίσει να παράγει εντελώς ρεαλιστικά πρόσωπα εντελώς ανύπαρκτων διασημοτήτων.

Τι τεχνολογία χρειάζεται κάποιος;

Είναι δύσκολο να φτιαχτεί ένα καλό deepfake σε έναν τυπικό υπολογιστή. Τα περισσότερα δημιουργούνται σε επιτραπέζιους υπολογιστές υψηλής τεχνολογίας με ισχυρές κάρτες γραφικών ή ακόμα καλύτερα με υπολογιστική ισχύ στο cloud. Αυτό μειώνει τον χρόνο επεξεργασίας από ημέρες και εβδομάδες σε ώρες. Χρειάζεται, όμως, τεχνογνωσία, κυρίως για να φτιάξει κάποιος ολοκληρωμένα βίντεο για να μειώσει το τρέμουλο και άλλα οπτικά ελαττώματα. Γι’ αυτό, πολλά εργαλεία είναι πλέον διαθέσιμα για να βοηθήσουν τους ανθρώπους να κάνουν deepfakes. Πολλές εταιρείες θα τα φτιάξουν για εσάς και θα κάνουν όλη την επεξεργασία στο cloud. Υπάρχουν ακόμη και εφαρμογές για κινητά τηλέφωνα, που επιτρέπει στους χρήστες να προσθέτουν τα πρόσωπά τους σε μια λίστα χαρακτήρων τηλεόρασης και ταινιών στους οποίους έχει εκπαιδευτεί το σύστημα.

Πώς μπορείτε να εντοπίσετε ένα deepfake;

Αυτό γίνεται ολοένα και πιο δύσκολο όσο βελτιώνεται η τεχνολογία. Το 2018, Αμερικανοί ερευνητές ανακάλυψαν ότι η πλειονότητα των εικόνων δείχνει ανθρώπους με τα μάτια ανοιχτά, έτσι οι αλγόριθμοι δεν μαθαίνουν ποτέ πραγματικά για το ανοιγοκλείσιμό τους. Στην αρχή, φαινόταν σαν μια ασημένια σφαίρα για το πρόβλημα ανίχνευσης. Αλλά μόλις δημοσιεύθηκε η έρευνα, εμφανίστηκαν τα deepfakes με άνοιγμα και κλείσιμο των ματιών.

Αυτή είναι η φύση του παιχνιδιού: μόλις αποκαλυφθεί μια αδυναμία, διορθώνεται. Τα deepfakes κακής ποιότητας εντοπίζονται ευκολότερα. Ο συγχρονισμός των χειλιών μπορεί να είναι κακός ή ο τόνος του δέρματος ανομοιογενής. Μπορεί να τρεμοπαίζει γύρω από τις άκρες των μετατοπισμένων προσώπων. Και οι μικρές λεπτομέρειες, όπως τα μαλλιά, είναι ιδιαίτερα δύσκολο για τα deepfakes να αποδοθούν καλά. Τα κοσμήματα και τα δόντια με κακή απόδοση μπορούν επίσης να είναι ένα σημάδι, όπως και τα περίεργα εφέ φωτισμού, όπως ο ασυνεπής φωτισμός και οι αντανακλάσεις στην ίριδα.  Οι κυβερνήσεις, τα πανεπιστήμια και οι εταιρείες τεχνολογίας χρηματοδοτούν την έρευνα για τον εντοπισμό τους.

Πώς να αποφύγετε να πέσετε θύμα των deepfakes και τι να κάνετε σε περίπτωση που αυτό συμβεί

Για να αποφύγετε το να πέσετε θύματα deepfake περιεχομένου μπορείτε να κάνετε τα εξής:

  • Να είστε επιφυλακτικοί με το περιεχόμενο που βλέπετε στο διαδίκτυο. Αν κάτι φαίνεται πολύ καλό για να είναι αληθινό, πιθανότατα είναι.
  • Ελέγξτε τις πηγές των πληροφοριών. Μην εμπιστεύεστε ανεπιβεβαίωτες πληροφορίες που προέρχονται από άγνωστες ή αμφίβολες πηγές.
  • Δώστε προσοχή στις λεπτομέρειες. Τα deepfakes συχνά έχουν μικρά σφάλματα που μπορούν να σας βοηθήσουν να τα αναγνωρίσετε. Η έκφραση του προσώπου ή η φωνή μπορεί να μην είναι ρεαλιστική, ή το περιβάλλον μπορεί να μην ταιριάζει με το πλαίσιο της σκηνής.
  • Μην μοιράζεστε ευαίσθητες πληροφορίες στο διαδίκτυο. Όσο λιγότερες πληροφορίες είναι διαθέσιμες για εσάς, τόσο πιο δύσκολο θα είναι για τους κακόβουλους χρήστες να δημιουργήσουν ένα deepfake για εσάς.
  • Μην δημοσιεύετε φωτογραφίες ή βίντεο που δεν θέλετε να χρησιμοποιηθούν για κακόβουλους σκοπούς.
  • Ελέγξτε το ιστορικό των ατόμων που σας προσθέτουν στα κοινωνικά δίκτυα. Μην αποδεχτείτε αιτήματα φιλίας από άτομα που δεν γνωρίζετε καλά.
  • Μην απαντάτε σε μηνύματα από άγνωστους
  • Μην κάνετε κλικ σε συνδέσμους από άγνωστες πηγές.

Τι να κάνετε αν πιστεύετε ότι πέσατε θύματα deepfake περιεχομένου:

  • Ενημερώστε τις αρχές.
  • Καταγράψτε το περιεχόμενο και μοιραστείτε το με άλλους.
  • Εγγραφείτε σε μια υπηρεσία ανίχνευσης deepfake.

Η τεχνολογία των deepfakes εξελίσσεται συνεχώς, αλλά υπάρχουν βήματα που μπορείτε να ακολουθήσετε για να μειώσετε τον κίνδυνο να πέσετε θύμα.

Meta: Θα εντοπίζει εικόνες που δημιουργούνται από την Τεχνητή Νοημοσύνη;

Κατά τους επόμενους μήνες η Meta θα εντοπίζει κάθε εικόνα που θα δημιουργείται από την Τεχνητή Νοημοσύνη (AI) και θα αναρτάται στα κοινωνικά της δίκτυα. Το μέτρο λειτουργεί ήδη με το δικό της εργαλείο δημιουργίας εικόνων.

«Τους επόμενους μήνες θα τοποθετούμε σήμανση στις εικόνες που δημοσιεύουν οι χρήστες στο Facebook, το Instagram και το Threads όταν θα μπορούμε να ανιχνεύουμε ενδείξεις, σύμφωνες με τους κανόνες της βιομηχανίας, που σημαίνουν ότι έχουν δημιουργηθεί με την βοήθεια της Τεχνητής Νοημοσύνης», ανακοίνωσε ο Νικ Κλεγκ, υπεύθυνος Διεθνών Υποθέσεων της Meta.

Αν η Meta έχει ήδη θέσει σε εφαρμογή τις ετικέτες στις εικόνες που δημιουργούνται με το εργαλείο της Meta AI από την εφαρμογή του τον Δεκέμβριο, «θέλουμε να μπορούμε να το κάνουμε επίσης με περιεχόμενα που δημιουργούνται με τα εργαλεία άλλων εταιρειών», όπως οι Google, OpenAI, Microsoft, Adobe, Midjourney και Shutterstock, πρόσθεσε ο Νικ Κλεγκ.

«Δημιουργούμε αυτήν την ικανότητα ήδη από σήμερα και τους επόμενους μήνες θα αρχίσουμε να εφαρμόζουμε τις ετικέτες σε όλες τις γλώσσες στις οποίες λειτουργεί κάθε εφαρμογή».

Η καλιφορνέζικη OpenAI, δημιουργός του ChatGPT, ανακοίνωσε επίσης στα μέσα του Ιανουαρίου την λειτουργία εργαλείων για την καταπολέμηση της παραπληροφόρησης εκφράζοντας την πρόθεση να μην επιτρέψει την χρησιμοποίηση των τεχνολογικών αυτών εργαλείων, όπως το ChatGPT και το DALL-E 3, για πολιτικούς σκοπούς.

Διαβάστε ακόμη:

ΤΕΛΕΥΤΑΙΑ VIDEOS - ΒΛΕΠΟΥΝ ΟΛΟΙ

JOBS

Χιλιάδες Θέσεις Εργασίας σε όλη την Ελλάδα

Γραφικές Τέχνες

Πλήρης Απασχόληση

19-12-2023

Βούλα

Στελέχη Ξενοδοχειακών Μονάδων

Εποχιακή Εργασία

21-12-2023

Μυκονος

⚽🏀 LIVE SCORES
27 Απρ. 2024
Αστ
1'
0 - 0
ΟΦΗ
27 Απρ. 2024
Βόλ
1'
0 - 0
Παν
27 Απρ. 2024
ΠΤΡ
20:15
-
ΛΑΥ
27 Απρ. 2024
ΠΑΟΚ
20:15
-
ΜΑΡ

ΠΩΣ ΣΟΥ ΦΑΝΗΚΕ ΤΟ ΑΡΘΡΟ;