• GUEST WRITER

Η Μόνα Λίζα δε χαμογελάει πια: Τα deepfake και οι κίνδυνοι που επιφυλάσσουν

του Νίκολα Βέλλιου


Πηγή εικόνας: www.protagon.gr

Αν και όχι ιδιαίτερα διαδεδομένο στην Ελλάδα, το φαινόμενο των deepfakes έχει συγκεντρώσει μεγάλο ενδιαφέρον παγκοσμίως, χαρακτηριζόμενο από πολλούς ως «η απάντηση του 21ου αιώνα στο photoshop». Με απλά λόγια, deepfake είναι ένα βίντεο στο οποίο κάποιος εμφανίζεται να λέει ή να κάνει κάτι που ποτέ δεν είπε ή έκανε. Δημιουργούνται με τη βοήθεια συστημάτων τεχνητής νοημοσύνης, τα οποία τροφοδοτούνται με κατά το δυνατόν μεγαλύτερο αριθμό φωτογραφιών και βίντεο του συγκεκριμένου προσώπου. Ας πάρουμε για παράδειγμα ένα βίντεο στο οποίο ο Πρωθυπουργός της Ελλάδας κάνει μια δήλωση: η τεχνολογία deepfake επιτρέπει τόσο την αντικατάσταση του προσώπου του Πρωθυπουργού με το πρόσωπο οποιουδήποτε άλλου ανθρώπου, όσο και τη διατήρηση μεν το αρχικού ομιλητή, αλλάζοντας όμως τις εκφράσεις και τις κινήσεις του στόματός του ώστε να φαίνεται ότι λέει κάτι διαφορετικό. Έτσι, στην πρώτη περίπτωση μπορεί να φαίνεται ότι κάνει τη δήλωση οποιοσδήποτε, ενώ στη δεύτερη περίπτωση ο Έλληνας Πρωθυπουργός μπορεί να εμφανίζεται να λέει οτιδήποτε επιλέξει ο δημιουργός του deepfake. Στην τελευταία αυτή περίπτωση μάλιστα, η φωνή που θα ακουστεί θα είναι η φωνή του Πρωθυπουργού, χάρη σε συστήματα (όπως αυτό της εταιρείας Lyrebird) που –με ένα μικρό μόνο δείγμα ομιλίας– μπορούν να αναπαράγουν οποιαδήποτε λέξη ή φράση με τη φωνή ενός συγκεκριμένου ατόμου.


Η τεχνολογία έχει καταστεί, σε διάστημα λίγων μηνών, πολύ πιο εύχρηστη και πιο προσβάσιμη στο ευρύ κοινό. Μέσα στους πρώτους 9 μήνες του 2019 ο αριθμός των deepfake που κυκλοφορούν στο διαδίκτυο διπλασιάστηκε, φτάνοντας περίπου τις 10.000 έως το Νοέμβριο. Στα πιο γνωστά από αυτά, «πρωταγωνιστούν» προσωπικότητες όπως ο Barrack Obama ή ο Mark Zuckerberg, ενώ σε άλλα «ζωντανεύουν» πίνακες όπως η Μόνα Λίζα. Ταυτόχρονα, και η ποιότητα των παραγόμενων deepfakes έχει αυξηθεί εντυπωσιακά.

Υποστηρίζεται μάλιστα ότι σύντομα η διάκριση από το κοινό μάτι μεταξύ επεξεργασμένων και μη βίντεο θα είναι σχεδόν αδύνατη.


Οι συνέπειες των deepfakes

Δεν μπορούμε να αγνοήσουμε τα οφέλη που υπόσχεται η εξέλιξη της τεχνολογίας των deepfake. Ο κινηματογράφος, λόγω της αυξημένης δυνατότητας σύνθεσης και χειρισμού εικόνας· η εκπαίδευση, λόγω δυνατοτήτων όπως η «ανάσταση» καλλιτεχνών ή ιστορικών προσώπων σε μουσεία· αλλά και η ιατρική, λόγω νέων δυνατοτήτων όπως η ανάπλαση της φωνής ανθρώπων που έχασαν την ικανότητα ομιλίας, είναι μερικοί μόνο από τους κλάδους που θα ωφεληθούν. Η ανησυχία ωστόσο που προκαλεί η ανάπτυξη της τεχνολογίας αυτής, στρέφει εκ των πραγμάτων την προσοχή στους κυριότερους κινδύνους που επιφυλάσσει.


Ειδικότερα, σε πρώτο χρόνο, τα deepfake πρόκειται να ενισχύσουν σημαντικά το διαδικτυακό bullying. Αντικαθιστώντας τους πρωταγωνιστές ενός βίντεο και τα λόγια τους, εμφανίζονται νέες δυνατότητες βαρύτερης προσβολής των δικαιωμάτων των πολιτών, ιδίως δε της αξιοπρέπειάς τους. Θύματα είναι προς το παρόν κυρίως γυναίκες ηθοποιοί, καθώς συντριπτική πλειονότητα των deepfake που κυκλοφορούν στο διαδίκτυο είναι βίντεο πορνογραφικού περιεχομένου, στα οποία εμφανίζονται τα πρόσωπα διασήμων χωρίς αυτές να έχουν δώσει την έγκρισή τους. Καθώς όμως η τεχνολογία θα γίνεται ολοένα πιο εύχρηστη και πιο διαδεδομένη, είναι βέβαιο ότι οποιοσδήποτε θα κινδυνεύει να πέσει θύμα της. Η δυσφήμηση προσώπων θα διευκολυνθεί επίσης σημαντικά, εφόσον θα αρκεί η δημιουργία ενός «ενοχοποιητικού» βίντεο και η διάδοσή του έστω και ανωνύμως. Καριέρες που χτίστηκαν μέσα σε διάστημα δεκαετιών θα μπορούν, πιο εύκολα από ποτέ, να διαλυθούν μέσα σε μία μονάχα μέρα.


Το ζήτημα της δυσφήμησης ενδέχεται μάλιστα να αποκτήσει ακόμα μεγαλύτερη σημασία στον χώρο της πολιτικής. Διότι τα deepfake δεν θα είναι απλώς μια νέα μορφή fake news. Ο συνδυασμός ήχου και εικόνας σε ένα βίντεο διεγείρει πολύ πιο έντονα συναισθήματα, διατηρεί περισσότερο την προσοχή του κοινού και δημιουργεί πολύ πιο ισχυρές εντυπώσεις. Στο πλαίσιο αυτό, γίνεται σαφές ότι απειλείται και η ίδια η δημοκρατία, δεδομένου ότι η κοινή γνώμη και, κατ’ επέκταση, η εκλογική διαδικασία, μπορούν σήμερα να χειραγωγηθούν εξαιρετικά εύκολα. Και πράγματι, στις Ηνωμένες Πολιτείες υπάρχει μεγάλη ανησυχία για τον ρόλο που θα παίξουν τα deepfakes στο αποτέλεσμα των εκλογών του Νοεμβρίου 2020.


Ταυτόχρονα, θα χρειαστεί να αντιμετωπίσουμε και το αντίστροφο σενάριο. Σε έναν κόσμο όπου ψεύτικα βίντεο φτιάχνονται τόσο εύκολα, εξίσου εύκολα αρνείται κανείς το περιεχόμενο των αυθεντικών. Για παράδειγμα, ο Υπουργός Οικονομικών της Μαλαισίας (όπου η ομοφυλοφιλία απαγορεύεται) απέφυγε να φυλακιστεί χαρακτηρίζοντας ως deepfake ένα βίντεο που αποδείκνυε ότι ήταν ομοφυλόφιλος, η δε αυθεντικότητα του βίντεο δεν μπόρεσε να επιβεβαιωθεί ποτέ. Σε άλλες περιπτώσεις όμως, και μόνο η ύπαρξη της τεχνολογίας των deepfake έχει δημιουργήσει αναταραχές. Όταν δηλαδή ο Πρόεδρος της Γκαμπόν, έχοντας απουσιάσει για ένα διάστημα από τα κοινά λόγω αρρώστιας, απευθύνθηκε στο λαό μέσω βίντεο, πολλοί υποπτεύθηκαν ότι αυτό ήταν ψεύτικο με σκοπό να καλυφθεί η μη καλυτέρευση της υγείας του. Η αβεβαιότητα οδήγησε σε αποτυχημένο πραξικόπημα.



Η αντιμετώπιση των deepfakes


Το ζητούμενο δεν είναι ασφαλώς η καθολική απαγόρευση των deepfake. Διότι δεν είναι η ίδια η τεχνολογία επικίνδυνη, αλλά ο τρόπος που δύναται να χρησιμοποιηθεί.

Για να μπορέσουμε όμως να αξιοποιήσουμε τις ωφέλιμες πτυχές της, θα πρέπει να βρεθούν οι κατάλληλοι μηχανισμοί που θα αμβλύνουν τις αρνητικές. Οι όποιες ρυθμίσεις του νόμου, δεδομένης της ταχύτατης ανάπτυξης της τεχνολογίας, θα είναι μάλλον απαρχαιωμένες ήδη από τη θέση τους σε λειτουργία. Περισσότερα υποσχόμενη λύση αποτελούν συστήματα που είναι ικανά να διακρίνουν μεταξύ επεξεργασμένων και μη βίντεο. Τα συστήματα αυτά δεν είναι όμως πάντοτε εξίσου αποτελεσματικά απέναντι σε καλύτερης ποιότητας deepfake. Επιπλέον, καθώς λειτουργούν ανιχνεύοντας συγκεκριμένες ατέλειες των επεξεργασμένων βίντεο, οι δημιουργοί των τελευταίων πολύ γρήγορα θα φροντίζουν να τις διορθώσουν. Έτσι, οι όποιες προσπάθειες καταπολέμησης του φαινομένου θα πρέπει να γίνονται πρωτίστως σε συνεργασία και με διαδικτυακές πλατφόρμες (π.χ. Facebook, Instagram, YouTube), με την ελπίδα ότι θα αποφευχθούν περιπτώσεις ανεξέλεγκτης εξάπλωσης ψεύτικων βίντεο. Πράγματι, τόσο το Facebook όσο και η Microsoft, έχουν πάρει πρωτοβουλίες για την ανίχνευση και τη διαγραφή deepfake από τις πλατφόρμες τους. Θα πρέπει πάντως να σημειωθεί ότι, η διαγραφή τους δεν μπορεί να είναι καθολική, αλλά θα πρέπει να γίνεται κατά τρόπο συμβατό με την ελευθερία του λόγου και της τέχνης που το Σύνταγμα κατοχυρώνει στους δημιουργούς των deepfake.


Πάντως, η ταχύτητα με την οποία ένα βίντεο διαδίδεται μέσω των social media είναι ικανή να καταστήσει τέτοιες λύσεις άνευ αντικειμένου. Διότι η εκ των υστέρων διαπίστωση ότι ένα βίντεο είναι ψεύτικο, δεν είναι δεδομένο ότι θα μπορέσει να αναιρέσει την άποψη που διαμόρφωσαν οι άνθρωποι βλέποντάς το. Όσο δηλαδή θεωρούμε ότι αυτό που βλέπουμε είναι αυτομάτως η αλήθεια, όσο δεν επιβεβαιώνουμε το περιεχόμενο και δεν ελέγχουμε τις πηγές των βίντεο που βλέπουμε, τα deepfake παραμένουν επικίνδυνα. Πέρα λοιπόν από τις όποιες τεχνολογικές και νομοθετικές επιλογές, καθοριστικότερη είναι η μεταβολή της στάσης των πολιτών απέναντι στα βίντεο εν γένει. Το αν μια τέτοια μεταβολή θα γίνει ομαλά ή ως αποτέλεσμα μιας προηγηθείσας κοινωνικοπολιτικής κρίσης, θα φανεί πολύ σύντομα.


2.png

follow us on Instagram @atheniantimes.gr

"Νέα άποψη σε Αθηναϊκούς καιρούς"
- ΟΙ ΙΣΤΟΣΕΛΙΔΕΣ ΜΑΣ -
Εικόνα1.png
LACREDI LOGO.png
- ΔΙΑΦΗΜΙΣΤΕΙΤΕ -
  • Black Facebook Icon
  • Instagram
Εικόνα1.png
Εικόνα1.png