Άμυνα Διπλωματία

Τα deepfakes και ο νέος πόλεμος παραπληροφόρησης

Η επερχόμενη εποχή της μετα-αληθινής γεωπολιτικής

Robert Chesney και Danielle Citron*

Οι πρόοδοι στην ψηφιακή τεχνολογία θα μπορούσαν σύντομα να καταστήσουν αυτόν τον εφιάλτη πραγματικότητα. Χάρη στην άνοδο των «deepfakes» (των πολύ ρεαλιστικών και δύσκολα να ανιχνευθούν ψηφιακών χειραγωγήσεων ήχου ή βίντεο) καθίσταται ευκολότερο από ποτέ να απεικονίζεται κάποιος να λέει ή να κάνει κάτι που ποτέ δεν είπε ή ποτέ δεν έκανε.

Μια εικόνα μπορεί να αξίζει χίλιες λέξεις, αλλά δεν υπάρχει τίποτα που να πείθει τόσο όσο μια ηχητική ή οπτική εγγραφή ενός γεγονότος. Σε μια εποχή που οι οπαδοί των κομμάτων δύσκολα μπορούν να συμφωνήσουν στα γεγονότα, μια τέτοια πειστικότητα μπορεί να φανεί σαν να μπορούσε να φέρει μια ευπρόσδεκτη σαφήνεια. Οι βιντεογραφήσεις και οι ηχογραφήσεις επιτρέπουν στους ανθρώπους να γίνουν μάρτυρες ενός γεγονότος, γλιτώνοντάς τους από την ανάγκη να αποφασίσουν αν θα εμπιστεύονται την αναφορά κάποιου άλλου. Και χάρη στα smartphones, τα οποία καθιστούν εύκολη την αποτύπωση περιεχομένου ήχου και βίντεο, και στις πλατφόρμες κοινωνικών μέσων που επιτρέπουν την ανταλλαγή και κατανάλωση αυτού του περιεχομένου, οι άνθρωποι σήμερα μπορούν να βασίζονται στα ίδια τους τα μάτια και τα αυτιά σε πρωτοφανή βαθμό.

Εκεί υπάρχει ένας μεγάλος κίνδυνος. Φανταστείτε ένα βίντεο που απεικονίζει τον Ισραηλινό πρωθυπουργό σε ιδιωτική συνομιλία με έναν συνάδελφό του, φαινομενικά αποκαλύπτοντας ένα σχέδιο για την διεξαγωγή μιας σειράς πολιτικών δολοφονιών στην Τεχεράνη. Ή ένα ηχητικό κλιπ Ιρανών αξιωματούχων που σχεδιάζουν μια μυστική επιχείρηση για να σκοτώσουν ηγέτες των Σουνιτών σε μια συγκεκριμένη επαρχία του Ιράκ. Ή ένα βίντεο που δείχνει έναν Αμερικανό στρατηγό στο Αφγανιστάν να καίει ένα Κοράνι. Σε έναν κόσμο που έχει ήδη προετοιμαστεί για βία, τέτοιες καταγραφές θα έχουν ισχυρό δυναμικό για υποκίνηση [της βίας]. Τώρα φανταστείτε ότι αυτές οι ηχογραφήσεις θα μπορούσαν να είναι ψεύτικες μέσω της χρήσης εργαλείων που είναι διαθέσιμα σε οποιονδήποτε διαθέτει φορητό υπολογιστή και πρόσβαση στο Internet -και ότι τα προκύπτοντα ψεύδη είναι τόσο πειστικά ώστε είναι αδύνατο να ξεχωρίσουν από την πραγματικότητα.

Οι πρόοδοι στην ψηφιακή τεχνολογία [1] θα μπορούσαν σύντομα να καταστήσουν αυτόν τον εφιάλτη πραγματικότητα. Χάρη στην άνοδο των «deepfakes» -των πολύ ρεαλιστικών και δύσκολα να ανιχνευθούν ψηφιακών χειραγωγήσεων ήχου ή βίντεο- καθίσταται ευκολότερο από ποτέ να απεικονίζεται κάποιος να λέει ή να κάνει κάτι που ποτέ δεν είπε ή δεν έκανε. Ακόμα χειρότερα, τα μέσα για την δημιουργία των deepfakes είναι πιθανό να πολλαπλασιαστούν γρήγορα, παράγοντας έναν συνεχώς διευρυνόμενο κύκλο δρώντων ικανών να τα αναπτύσσουν για πολιτικούς σκοπούς [2]. Η παραπληροφόρηση είναι μια αρχαία τέχνη, φυσικά, και μια τέχνη με μια ανανεωμένη συνάφεια σήμερα. Όμως, καθώς αναπτύσσεται και εξαπλώνεται η τεχνολογία των deepfakes, οι τρέχοντες πόλεμοι παραπληροφόρησης μπορεί σύντομα να μοιάζουν με το ισοδύναμο προπαγάνδας της εποχής των σπαθιών και των ασπίδων.

Η ΑΥΓΗ ΤΩΝ DEEPFAKES

Τα deepfakes είναι το προϊόν των πρόσφατων προόδων σε μια μορφή τεχνητής νοημοσύνης, γνωστή ως «βαθιά μάθηση» (deep learning), στην οποία ομάδες αλγορίθμων που ονομάζονται «νευρωνικά δίκτυα» (neural networks) μαθαίνουν να συνάγουν κανόνες και να αναπαράγουν πρότυπα κοσκινίζοντας μέσα από μεγάλα σύνολα δεδομένων. (Για παράδειγμα, η Google χρησιμοποίησε αυτή την τεχνική για να αναπτύξει ισχυρούς αλγόριθμους ταξινόμησης εικόνων για τη μηχανή αναζήτησης που διαθέτει). Τα deepfakes προκύπτουν από ένα συγκεκριμένο είδος «βαθιάς μάθησης» στο οποίο ζεύγη αλγορίθμων τίθενται ο ένας εναντίον του άλλου σε «γενετικά αντιφατικά δίκτυα» (generative adversarial network ή GAN). Σε ένα GAN, ένας αλγόριθμος, η «γεννήτρια», δημιουργεί περιεχόμενο που βασίζεται σε πηγαία δεδομένα (source data: για παράδειγμα, φτιάχνοντας τεχνητές εικόνες γατών από μια βάση δεδομένων πραγματικών εικόνων γατών), ενώ ένας δεύτερος αλγόριθμος, ο «διακριτής» (discriminator), προσπαθεί να εντοπίσει το τεχνητό περιεχόμενο (τα διαλέξει τις ψεύτικες εικόνες γάτας). Δεδομένου ότι κάθε αλγόριθμος συνεχώς εκπαιδεύεται εναντίον του άλλου, τέτοιοι συνδυασμοί μπορούν να οδηγήσουν σε ταχεία βελτίωση, επιτρέποντας στα GAN να παράγουν εξαιρετικά ρεαλιστικό αλλά ψεύτικο περιεχόμενο ήχου και βίντεο.

Αυτή η τεχνολογία έχει την δυνατότητα να διαδίδεται ευρέως. Εμπορικές και ακόμη και δωρεάν υπηρεσίες deepfake έχουν ήδη παρουσιαστεί στην ανοικτή αγορά [3], και εκδοχές με ανησυχητικά λίγες διασφαλίσεις είναι πιθανό να εμφανιστούν στη μαύρη αγορά. Η εξάπλωση αυτών των υπηρεσιών θα μειώσει τα εμπόδια εισόδου, γεγονός που σημαίνει ότι σύντομα, ο μόνος πρακτικός περιορισμός της ικανότητας κάποιου να παράγει deepfakes θα είναι η πρόσβαση στο εκπαιδευτικό υλικό -δηλαδή, τα ηχητικά και τα βίντεο του προσώπου που θα μοντελοποιηθεί- που θα τροφοδοτήσει το GAN. Η ικανότητα δημιουργίας επαγγελματικού επιπέδου πλαστογραφιών θα είναι προσεγγίσιμη από σχεδόν όλους όσους έχουν επαρκές ενδιαφέρον και την γνώση του πού να πάνε για βοήθεια.

Τα deepfakes έχουν πολλές αξιόλογες εφαρμογές. Ο τροποποιημένος ήχος ή το βίντεο μιας ιστορικής προσωπικότητας, για παράδειγμα, θα μπορούσε να δημιουργηθεί με σκοπό την εκπαίδευση των παιδιών. Μια εταιρεία μέχρι που ισχυρίζεται ότι μπορεί να χρησιμοποιήσει την τεχνολογία για να αποκαταστήσει την ομιλία σε άτομα που έχουν χάσει την φωνή τους λόγω ασθενειών. Αλλά τα deepfakes μπορούν και πρόκειται να χρησιμοποιηθούν για σκοτεινότερους σκοπούς, επίσης. Οι χρήστες έχουν ήδη χρησιμοποιήσει τεχνολογία deepfake για να εισάγουν πρόσωπα ανθρώπων στην πορνογραφία χωρίς την συγκατάθεση ή την γνώση τους, και η αυξανόμενη ευκολία δημιουργίας ψεύτικου περιεχομένου ήχου και βίντεο θα δημιουργήσει άφθονες ευκαιρίες για εκβιασμούς, εκφοβισμούς και σαμποτάζ. Οι πιο τρομακτικές εφαρμογές της τεχνολογίας deepfake, ωστόσο, μπορεί να είναι στον τομέα της πολιτικής και των διεθνών υποθέσεων. Εκεί, τα deepfakes μπορούν να χρησιμοποιηθούν για να δημιουργήσουν ασυνήθιστα αποτελεσματικά ψέματα ικανά να ενθαρρύνουν την βία, να απαξιώνουν ηγέτες και θεσμούς, ή ακόμα και να επηρεάζουν εκλογές.

Τα deepfakes έχουν την δυνατότητα να είναι ιδιαίτερα καταστροφικά επειδή φτάνουν σε μια εποχή που είναι ήδη πιο δύσκολο να διαχωριστεί το γεγονός από τη μυθοπλασία [4]. Για μεγάλο μέρος του εικοστού αιώνα, τα περιοδικά, οι εφημερίδες και οι τηλεοπτικοί σταθμοί διαχειρίστηκαν την ροή των πληροφοριών προς το κοινό. Οι δημοσιογράφοι καθιέρωσαν αυστηρά επαγγελματικά πρότυπα για τον έλεγχο της ποιότητας των ειδήσεων και ο σχετικά μικρός αριθμός μέσων μαζικής ενημέρωσης σήμαινε ότι μόνο ένας περιορισμένος αριθμός ατόμων και οργανισμών θα μπορούσε να διανείμει ευρέως τις πληροφορίες. Ωστόσο, την τελευταία δεκαετία, όλο και περισσότεροι άνθρωποι έχουν αρχίσει να λαμβάνουν τις πληροφορίες τους από πλατφόρμες κοινωνικής δικτύωσης όπως το Facebook και το Twitter, οι οποίες εξαρτώνται από μια μεγάλη γκάμα χρηστών για την δημιουργία σχετικά αφιλτράριστου περιεχομένου. Οι χρήστες τείνουν να χειρίζονται τις εμπειρίες τους έτσι ώστε να έρχονται σε επαφή με απόψεις με τις οποίες συμφωνούν ήδη (μια τάση που ενισχύεται από τους αλγόριθμους των πλατφορμών), μετατρέποντας την τροφοδότηση των κοινωνικών μέσων τους σε αίθουσες αντήχησης [των δικών τους απόψεων]. Αυτές οι πλατφόρμες είναι επίσης επιρρεπείς στους αποκαλούμενους καταρράκτες πληροφοριών (information cascades), όπου οι άνθρωποι μοιράζουν πληροφορίες που έχουν μοιραστεί από άλλους χωρίς να κάνουν τον κόπο να ελέγξουν αν είναι αληθινές, κάνοντάς τις να φαίνονται πιο αξιόπιστες στην διαδικασία. Το τελικό αποτέλεσμα είναι ότι τα ψεύδη μπορούν να εξαπλωθούν γρηγορότερα από ποτέ.

Αυτή η δυναμική θα καταστήσει τα κοινωνικά μέσα γόνιμο έδαφος για την κυκλοφορία των deepfakes, με δυνητικά εκρηκτικές συνέπειες για την πολιτική. Η προσπάθεια της Ρωσίας να επηρεάσει τις προεδρικές εκλογές των ΗΠΑ το 2016 –διαδίδοντας διχαστικά και πολιτικά εμπρηστικά μηνύματα στο Facebook και τοTwitter- έδειξε ήδη πόσο εύκολα μπορεί να εισέλθει η παραπληροφόρηση στην ροή των μέσων κοινωνικής δικτύωσης. Τα deepfakes του αύριο θα είναι πιο ζωντανά και ρεαλιστικά και, ως εκ τούτου, πιο εύκολο να μοιραστούν από όσο οι ψεύτικες ειδήσεις του 2016. Και επειδή οι άνθρωποι είναι ιδιαίτερα επιρρεπείς στο να μοιράζονται αρνητικές και καινούργιες πληροφορίες, όσο πιο αισχρά θα είναι τα deepfakes, τόσο το καλύτερο.

ΕΚΔΗΜΟΚΡΑΤΙΖΟΝΤΑΣ ΤΗΝ ΑΠΑΤΗ

Η χρήση της απάτης, της πλαστογραφίας και άλλων μορφών παραπλάνησης για να επηρεαστεί η πολιτική δεν είναι κάτι νέο, φυσικά. Όταν το USS Maine εξερράγη στο λιμάνι της Αβάνας το 1898, οι αμερικανικές εφημερίδες ταμπλόιντ χρησιμοποίησαν παραπλανητικές εκθέσεις του περιστατικού για να υποκινήσουν το κοινό προς τον πόλεμο με την Ισπανία. Το αντισημιτικό φυλλάδιο «Τα Πρωτόκολλα των Πρεσβυτέρων της Σιών», τα οποία περιγράφουν μια φανταστική εβραϊκή συνωμοσία, κυκλοφόρησαν ευρέως κατά το πρώτο μισό του εικοστού αιώνα. Πιο πρόσφατα, οι τεχνολογίες όπως το Photoshop έχουν κάνει την παραποίηση των εικόνων τόσο εύκολη όσο και η χάλκευση κειμένου. Αυτό που κάνει τα deepfakes πρωτοφανή είναι ο συνδυασμός της ποιότητας, της εφαρμοσιμότητας σε πειστικές μορφές όπως ο ήχος και το βίντεο, και αντίστασή τους στο να ανιχνευθούν. Και καθώς η τεχνολογία των deepfakes εξαπλώνεται, ένας συνεχώς αυξανόμενος αριθμός δρώντων θα είναι σε θέση να χειριστεί πειστικά το περιεχόμενο του ήχου και του βίντεο με τέτοιο τρόπο που κάποτε περιοριζόταν στα στούντιο του Χόλιγουντ ή στις πιο καλά χρηματοδοτούμενες υπηρεσίες πληροφοριών.

Τα deepfakes θα είναι ιδιαίτερα χρήσιμα σε μη κρατικούς δρώντες, όπως οι αντάρτικες ομάδες και οι τρομοκρατικές οργανώσεις [5], οι οποίες ιστορικά δεν είχαν επαρκείς πόρους για να φτιάξουν και να διαδώσουν ψευδές αλλά αξιόπιστο περιεχόμενο ήχου ή βίντεο. Αυτές οι ομάδες θα είναι σε θέση να απεικονίσουν τους αντιπάλους τους -συμπεριλαμβανομένων κυβερνητικών αξιωματούχων- να ξεστομίζουν εμπρηστικές λέξεις ή να εμπλέκονται σε προκλητικές ενέργειες, με το συγκεκριμένο περιεχόμενο προσεκτικά επιλεγμένο για να μεγιστοποιήσει τις σοκαριστικές επιπτώσεις στο στοχευμένο κοινό τους. Μια θυγατρική του Ισλαμικού Κράτους (ή ISIS), για παράδειγμα, θα μπορούσε να δημιουργήσει ένα βίντεο που να απεικονίζει έναν στρατιώτη των ΗΠΑ να σκοτώνει αμάχους ή να συζητά ένα σχέδιο να βομβαρδίσει ένα τζαμί, βοηθώντας έτσι την στρατολόγηση σε τρομοκρατικές ομάδες. Τέτοιου είδους βίντεο θα είναι ιδιαίτερα δύσκολο να ξεσκεπαστούν σε περιπτώσεις όπου το κοινό-στόχος ήδη δυσπιστεί στο πρόσωπο που εμφανίζεται στο deepfake. Τα κράτη μπορούν και, χωρίς αμφιβολία, θα κάνουν παράλληλη χρήση των deepfakes για να υπονομεύσουν τους μη κρατικούς αντιπάλους τους.

08082019-2.gif

Ένα deepfake που συνδυάζει το πρόσωπο του Nicolas Cage με το κεφάλι του Tucker Carlson. Πανεπιστήμιο στο Albany, SUNY
———————————————————————-

Τα deepfakes θα οξύνουν επίσης τους πολέμους παραπληροφόρησης που διαταράσσουν όλο και περισσότερο την εγχώρια πολιτική στις Ηνωμένες Πολιτείες και αλλού. Το 2016, οι χρηματοδοτούμενες από το ρωσικό κράτος εκστρατείες παραπληροφόρησης ήταν ιδιαιτέρως επιτυχείς στην εμβάθυνση των υφιστάμενων κοινωνικών ρηγμάτων στις Ηνωμένες Πολιτείες. Για να αναφέρουμε μόνο ένα παράδειγμα, ψεύτικοι ρωσικοί λογαριασμοί στα μέσα κοινωνικής δικτύωσης ισχυριζόμενοι ότι συνδέονται με το κίνημα Black Lives Matter μοίραζαν εμπρηστικό περιεχόμενο που σχεδιάστηκε για να προκαλέσει φυλετικές εντάσεις. Την επόμενη φορά, αντί για tweets και αναρτήσεις στο Facebook, αυτή η παραπληροφόρηση θα μπορούσε να έρθει με τη μορφή ψεύτικου βίντεο ενός λευκού αστυνομικού που φωνάζει ρατσιστικές προσβολές ή ενός ακτιβιστή του Black Lives Matter που θα κάνει έκκληση για βία.

Ίσως η πιο οξεία απειλή που σχετίζεται με τα deepfakes είναι η πιθανότητα ότι μια καλά τοποθετημένη χρονικά πλαστογραφία θα μπορούσε να επηρεάσει εκλογές. Τον Μάιο του 2017, η Μόσχα επιχείρησε κάτι παρόμοιο. Την παραμονή των γαλλικών εκλογών, Ρώσοι χάκερ προσπάθησαν να υπονομεύσουν την προεκλογική εκστρατεία του Εμμανουέλ Μακρόν με το να δημοσιεύσουν ένα αρχείο κλεμμένων εγγράφων, πολλά από τα οποία ήταν παραποιημένα. Η προσπάθεια αυτή απέτυχε για διάφορους λόγους, συμπεριλαμβανομένου του σχετικά βαρετού χαρακτήρα των εγγράφων και των επιπτώσεων ενός γαλλικού νόμου για τα μέσα ενημέρωσης, που απαγορεύει την εκλογική κάλυψη στις 44 ώρες αμέσως πριν από μια ψηφοφορία. Αλλά στις περισσότερες χώρες, τις περισσότερες φορές, δεν υπάρχει σιγή στα μέσα μαζικής ενημέρωσης, και η φύση των deepfakes δείχνει ότι το ζημιογόνο περιεχόμενο μπορεί να είναι εγγυημένα αισχρό ή και χειρότερο. Ένα πειστικό βίντεο στο οποίο ο Macron φάνηκε να παραδέχεται διαφθορά, που κυκλοφόρησε στα social media μόνο 24 ώρες πριν από τις εκλογές, θα μπορούσε να εξαπλωθεί σαν πυρκαγιά και να αποδειχθεί αδύνατο να ξεσκεπαστεί εγκαίρως.

Τα deepfakes μπορεί επίσης να διαβρώσουν την δημοκρατία με άλλους, λιγότερο άμεσους τρόπους. Το πρόβλημα δεν είναι μόνο ότι τα deepfakes μπορούν να χρησιμοποιηθούν για να προκαλέσουν κοινωνικούς και ιδεολογικούς διχασμούς. Μπορούν να δημιουργήσουν ένα «μέρισμα ψεύδους»: Καθώς οι άνθρωποι συνειδητοποιούν ευρύτερα την ύπαρξη των deepfakes, τα δημόσια πρόσωπα που έχουν καταγραφεί σε πραγματικές καταγραφές κακόβουλης συμπεριφοράς θα το βρουν ευκολότερο να αμφισβητήσουν τα αποδεικτικά στοιχεία εναντίον τους. (Εάν τα deepfakes κυριαρχούσαν κατά τις προεδρικές εκλογές στις ΗΠΑ το 2016, φανταστείτε πόσο ευκολότερο θα ήταν για τον Donald Trump να αμφισβητήσει την αυθεντικότητα της διαβόητης ηχητικής καταγραφής στην οποία καυχιέται για το χούφτωμα γυναικών). Γενικότερα, καθώς το κοινό γίνεται ευαισθητοποιημένο στην απειλή των deepfakes, μπορεί να τείνει να εμπιστεύεται λιγότερο τις ειδήσεις γενικά [6]. Και οι δημοσιογράφοι, από την πλευρά τους, μπορεί να γίνουν πιο επιφυλακτικοί όσον αφορά το να επικαλούνται, πόσω μάλλον να δημοσιεύουν, ηχητικά ή βίντεο των ταχέα εξελισσόμενων γεγονότων, φοβούμενοι ότι τα αποδεικτικά στοιχεία θα αποδειχθούν παραποιημένα.

ΒΑΘΙΑ ΕΠΙΔΙΟΡΘΩΣΗ

Δεν υπάρχει μαγική λύση για την αντιμετώπιση των deepfakes. Υπάρχουν πολλές νομικές και τεχνολογικές προσεγγίσεις -μερικές ήδη υπάρχουσες, άλλες που ενδέχεται να προκύψουν- που μπορούν να συμβάλουν στην άμβλυνση της απειλής. Αλλά τίποτε δεν θα ξεπεράσει το πρόβλημα εντελώς. Αντί για πλήρεις λύσεις, η άνοδος των deepfakes απαιτεί ανθεκτικότητα.

Τρεις τεχνολογικές προσεγγίσεις αξίζουν ιδιαίτερη προσοχή. Η πρώτη αφορά στην εγκληματολογική τεχνολογία, ή την ανίχνευση των πλαστογραφιών με τεχνικά μέσα. Ακριβώς όπως οι ερευνητές βάζουν πολύ χρόνο και προσπάθεια για την δημιουργία αξιόπιστων απομιμήσεων, επίσης, αναπτύσσουν μεθόδους ενισχυμένης ανίχνευσης. Τον Ιούνιο του 2018, οι επιστήμονες υπολογιστών στο Dartmouth και το Πανεπιστήμιο του Albany, SUNY, ανακοίνωσαν [7] ότι είχαν δημιουργήσει ένα πρόγραμμα που ανιχνεύει τα deepfakes με το να αναζητά μη φυσιολογικές κινήσεις των βλεφάρων όταν το υποκείμενο ενός βίντεο ανοιγοκλείνει τα μάτια. Στην κούρσα εξοπλισμών των deepfakes, ωστόσο, αυτές οι πρόοδοι χρησιμεύουν μόνο για την ενημέρωση του επόμενου κύματος καινοτομίας. Στο μέλλον, το GAN θα τροφοδοτείται με εκπαιδευτικά βίντεο που θα περιλαμβάνουν παραδείγματα κανονικού ανοιγο-κλεισίματος των βλεφάρων. Ακόμη και αν προκύψουν εξαιρετικά ικανοί αλγόριθμοι ανίχνευσης, η ταχύτητα με την οποία μπορούν να κυκλοφορήσουν τα deepfakes εντός των μέσων κοινωνικής δικτύωσης θα καταστήσει το ξεσκέπασμά τους μια δύσκολη μάχη. Μέχρι την στιγμή που ο συναγερμός των εγκληματολόγων θα χτυπήσει, η ζημιά μπορεί να έχει γίνει ήδη.

Μια δεύτερη τεχνολογική λύση περιλαμβάνει την εξακρίβωση της ταυτότητας του περιεχομένου προτού καν εξαπλωθεί -μια προσέγγιση που μερικές φορές αναφέρεται ως λύση «ψηφιακής προέλευσης» (digital provenance). Εταιρείες όπως η Truepic αναπτύσσουν τρόπους ψηφιακής υδατογραφίας σε περιεχόμενο ήχου, φωτογραφιών και βίντεο κατά την στιγμή της δημιουργίας του, χρησιμοποιώντας μεταδεδομένα (metadata) που μπορούν να καταγραφούν αμετάβλητα σε έναν διανεμημένο κατάλογο ή blockchain. Με άλλα λόγια, κάποιος θα μπορούσε ουσιαστικά να σφραγίσει το περιεχόμενο με ένα αρχείο αυθεντικότητας που θα μπορούσε να χρησιμοποιηθεί αργότερα ως αναφορά για σύγκριση με ύποπτα [αρχεία] για παραποιήσεις.

Θεωρητικά, οι λύσεις ψηφιακής προέλευσης (digital provenance) είναι μια ιδανική λύση. Στην πράξη, αντιμετωπίζουν δύο μεγάλα εμπόδια. Πρώτα απ’ όλα, θα πρέπει να χρησιμοποιηθούν παντού στην τεράστια ποικιλία συσκευών που καταγράφουν περιεχόμενο, συμπεριλαμβανομένων των φορητών υπολογιστών και των smartphones. Δεύτερον, η χρήση τους θα πρέπει να γίνει προϋπόθεση για τη μεταφόρτωση περιεχομένου στις πιο δημοφιλείς ψηφιακές πλατφόρμες, όπως το Facebook, το Twitter και το YouTube. Καμιά από αυτές τις προϋποθέσεις δεν είναι πιθανόν να ικανοποιηθεί. Οι κατασκευαστές συσκευών, εν τη ελλείψει κάποιας νομικής ή κανονιστικής υποχρέωσης [8], δεν θα υιοθετήσουν μια ψηφιακή ταυτότητα μέχρι να μάθουν ότι είναι [οικονομικά] προσιτή, έχει ζήτηση, και ότι είναι απίθανο να επηρεάσει την απόδοση των προϊόντων τους. Και λίγες πλατφόρμες κοινωνικών μέσων θα θέλουν να εμποδίσουν τους χρήστες τους από το να ανεβάσουν περιεχόμενο χωρίς έλεγχο αυθεντικότητας, ειδικά όταν ο πρώτος που θα το κάνει θα διακινδυνεύσει να χάσει μερίδιο αγοράς από λιγότερο αυστηρούς ανταγωνιστές.
Μια τρίτη, περισσότερο κερδοσκοπική τεχνολογική προσέγγιση περιλαμβάνει αυτό που ονομάστηκε «υπηρεσίες επικυρωμένου άλλοθι» (authenticated alibi services), που σύντομα θα μπορούσε να αρχίσει να αναδύεται από τον ιδιωτικό τομέα. Θεωρήστε ότι τα deepfakes είναι ιδιαίτερα επικίνδυνα για άτομα υψηλού προφίλ, όπως πολιτικοί και διασημότητες, με πολύτιμη αλλά εύθραυστη φήμη. Για να προστατευθούν από τα deepfakes, ορισμένα από αυτά τα άτομα μπορούν να επιλέξουν να εμπλακούν σε ενισχυμένες μορφές «lifelogging» -την πρακτική της καταγραφής σχεδόν κάθε πτυχής της ζωής κάποιου- προκειμένου να αποδεικνύουν το πού ήταν και τι έλεγαν ή έκαναν σε οποιαδήποτε στιγμή. Οι εταιρείες ενδέχεται να αρχίσουν να προσφέρουν πακέτα υπηρεσιών άλλοθι, συμπεριλαμβανομένων φορητών συσκευών [στμ: wearables, που φοριούνται], ώστε να κάνουν το lifelogging βολικό, την αποθήκευση να αντιμετωπίσει τον τεράστιο όγκο των δεδομένων που θα προκύπτουν, και την πιστοποίηση αυτών των δεδομένων αξιόπιστη. Αυτά τα πακέτα θα μπορούσαν ακόμη να περιλαμβάνουν συνεργασίες με σημαντικές πλατφόρμες ειδήσεων και social media, οι οποίες θα επέτρεπαν την ταχεία επιβεβαίωση ή ξεσκέπασμα του περιεχομένου.

Μια τέτοια συνδεσιμότητα (logging) θα ήταν βαθιά επεμβατική και πολλοί άνθρωποι δεν θα ήθελαν να έχουν σχέση με κάτι τέτοιο. Όμως, εκτός από τα υψηλού προφίλ άτομα που θα επιλέξουν να υιοθετήσουν το lifelogging για να προστατεύσουν τον εαυτό τους, ορισμένοι εργοδότες θα μπορούσαν να αρχίσουν να επιμένουν σε αυτό για ορισμένες κατηγορίες εργαζομένων τους, όπως τα αστυνομικά τμήματα απαιτούν από όλο και περισσότερους αστυνομικούς να χρησιμοποιούν κάμερες σώματος. Ακόμα κι αν μόνο ένας σχετικά μικρός αριθμός ανθρώπων αναλάβει εντατικό lifelogging, θα παράγουν τεράστια αποθέματα δεδομένων, στα οποία εμείς οι υπόλοιποι θα βρεθούμε μπλεγμένοι ακούσια, δημιουργώντας ένα μαζικό δίκτυο επιτήρησης ομοτίμων (peer-to-peer) για την συνεχή καταγραφή των δραστηριοτήτων μας.

ΘΕΣΠΙΖΟΝΤΑΣ ΤΟΝ ΝΟΜΟ

Εάν αυτές οι τεχνολογικές επιδιορθώσεις έχουν περιορισμένα θετικά, τότε τι γίνεται με τα ένδικα μέσα; Ανάλογα με τις περιστάσεις, η δημιουργία ή η διάδοση ενός deepfake θα μπορούσε να συνιστά δυσφήμιση, απάτη ή υπεξαίρεση της ομοιότητας ενός ατόμου, μεταξύ άλλων αστικών και ποινικών παραβιάσεων. Θεωρητικά, κάποιος θα μπορούσε να κλείσει τυχόν κενά με την ποινικοποίηση (ή την επισύναψη αστικής ευθύνης) για συγκεκριμένες πράξεις -για παράδειγμα, η δημιουργία ενός deepfake για ένα πραγματικό πρόσωπο με σκοπό να εξαπατηθεί ένας θεατής ή ακροατής με την προσδοκία ότι αυτή η εξαπάτηση θα προκαλούσε συγκεκριμένο είδος βλάβης. Ωστόσο, θα ήταν δύσκολο αυτοί οι ισχυρισμοί ή οι κατηγορίες να επιμείνουν στην πράξη. Κατ’ αρχήν, θα είναι πολύ δύσκολο να αποδοθεί η δημιουργία ενός deepfake σε ένα συγκεκριμένο άτομο ή ομάδα. Και ακόμη και αν εντοπιστούν οι δράστες, μπορεί να είναι πέρα από το πεδίο δικαιοδοσίας ενός δικαστηρίου, όπως στην περίπτωση ξένων ατόμων ή κυβερνήσεων.

Μια άλλη νομική λύση θα μπορούσε να ενθαρρύνει τις πλατφόρμες των κοινωνικών μέσων να κάνουν περισσότερα για να εντοπίσουν και να απομακρύνουν τα deepfakes ή το πλασματικό περιεχόμενο γενικότερα. Σύμφωνα με το ισχύον αμερικανικό δίκαιο, οι εταιρείες που κατέχουν αυτές τις πλατφόρμες είναι σε μεγάλο βαθμό απρόσβλητες από την ευθύνη για το περιεχόμενο που φιλοξενούν, χάρη στο άρθρο 230 του νόμου περί ευελιξίας των επικοινωνιών (Communications Decency Act) του 1996. Το Κογκρέσο θα μπορούσε να τροποποιήσει αυτήν την ασυλία, ίσως τροποποιώντας το άρθρο 230 για να κάνει τις εταιρείες υπεύθυνες για τις επιβλαβείς και δόλιες πληροφορίες που διανέμονται μέσω των πλατφορμών τους, εκτός εάν έχουν καταβάλει εύλογες προσπάθειες για να τις εντοπίσουν και να τις καταργήσουν. Άλλες χώρες έχουν χρησιμοποιήσει μια παρόμοια προσέγγιση [9] για ένα διαφορετικό πρόβλημα: Το 2017, για παράδειγμα, η Γερμανία ψήφισε νόμο που επιβάλλει αυστηρά πρόστιμα σε εταιρείες social media που απέτυχαν να καταργήσουν ρατσιστικό ή απειλητικό περιεχόμενο εντός 24 ωρών από την αναφορά του.

Ωστόσο, αυτή η προσέγγιση θα είχε δικές της προκλήσεις. Πιο συγκεκριμένα, θα μπορούσε να οδηγήσει σε υπερβολική λογοκρισία. Οι εταιρείες που επιθυμούν να αποφύγουν τη νομική ευθύνη πιθανώς θα έκαναν το λάθος να αστυνομεύουν το περιεχόμενο πολύ επιθετικά, και οι ίδιοι οι χρήστες θα μπορούσαν να αρχίσουν να αυτο-λογοκρίνονται, προκειμένου να αποφύγουν το ρίσκο να κατασταλεί το περιεχόμενό τους. Δεν είναι καθόλου προφανές ότι τα θεωρητικά οφέλη από την βελτίωση της προστασίας από την απάτη θα δικαιολογούσαν αυτές τις επιβαρύνσεις στην ελεύθερη έκφραση. Ένα τέτοιο σύστημα θα διακινδύνευε επίσης τη μόνωση των υφιστάμενων πλατφορμών, οι οποίες διαθέτουν τους πόρους για την αστυνόμευση του περιεχομένου και για να πληρώνουν για νομικές μάχες, έναντι του ανταγωνισμού από μικρότερες επιχειρήσεις.

ΖΩΝΤΑΣ ΜΕ ΨΕΜΜΑΤΑ

Αλλά αν και τα deepfakes είναι επικίνδυνα, δεν θα είναι απαραίτητα καταστροφικά. Η ανίχνευση θα βελτιωθεί, οι εισαγγελείς και οι ενάγοντες θα κερδίζουν περιστασιακά νομικές νίκες κατά των δημιουργών βλαβερών ψευδών, και οι μεγάλες πλατφόρμες των μέσων κοινωνικής δικτύωσης σταδιακά θα γίνουν καλύτερες στην επισήμανση και την εξάλειψη του δόλιου περιεχομένου. Και οι λύσεις ψηφιακής προέλευσης θα μπορούσαν, αν υιοθετηθούν ευρέως, να παράσχουν μια πιο σταθερή λύση κάποια στιγμή στο μέλλον.
Εν τω μεταξύ, οι δημοκρατικές κοινωνίες θα πρέπει να μάθουν την ανθεκτικότητα. Από τη μια πλευρά, αυτό θα σημαίνει την αποδοχή ότι το περιεχόμενο του ήχου και του βίντεο δεν μπορεί να ληφθεί με την ονομαστική του αξία˙ από την άλλη, θα σημαίνει την καταπολέμηση της διολίσθησης σε έναν μετα-ρεαλιστικό κόσμο, στον οποίο οι πολίτες θα υποχωρούν στις προσωπικές τους φούσκες πληροφόρησης και θα θεωρούν ως γεγονός μόνο αυτό που κολακεύει τις δικές τους πεποιθήσεις. Εν ολίγοις, οι δημοκρατίες θα πρέπει να δεχτούν μια άβολη αλήθεια: Για να επιβιώσουν από την απειλή των deepfakes, θα πρέπει να μάθουν πώς να ζουν με τα ψέματα.

Copyright © 2019 by the Council on Foreign Relations, Inc.
All rights reserved.

Main Photo: Αληθινά ψέματα: Στιγμιότυπα ενός deepfake βίντεο του Μπαράκ Ομπάμα που δημιουργήθηκε από ερευνητές το 2017. UNIVERSITY OF WASHINGTON
——————————————————————-

Πηγή: http://foreignaffairs.gr

*Ο ROBERT CHESNEY κατέχει την έδρα James A. Baker III και είναι διευθυντής του Κέντρου Διεθνούς Ασφάλειας και Δικαίου Robert Strauss στο Πανεπιστήμιο του Τέξας στο Όστιν.
Η DANIELLE CITRON είναι καθηγήτρια Νομικής στην έδρα Morton και Sophia Macht στο Πανεπιστήμιο του Maryland και συνεργάτις στο Information Society Project του Πανεπιστημίου Yale.

Πληροφορίες για το συντάκτη

Gorga News

Προσθήκη σχολίου

Κάνετε κλικ για να εισάγετε το σχόλιο σας