Τα deepfakes είναι μία σύγχρονη μορφή ψηφιακής ταπείνωσης
Με λίγα κλικ μπορεί κανείς να φτιάξει πορνογραφικό υλικό για τον οποιονδήποτε. Τα deepfakes αποτελούν μία σύγχρονη μορφή ταπείνωσης και ξεσηκώνουν πλέον θύελλα αντιδράσεων.
Μία απλή φωτογραφία και μερικά κλικ είναι αρκετά πλέον για να γίνει ο καθένας πρωταγωνιστής σε μία ταινία δράσης ή να αλλάξει το χρώμα των μαλλιών του. Όμως εξίσου εύκολο είναι να τοποθετηθεί ένα οποιοδήποτε πρόσωπο σε βίντεο ερωτικού περιεχομένου ή γυμνές φωτογραφίες.
Αυτή η ψηφιακή δυνατότητα ονομάζεται deepfake και με αυτήν μπορεί κανείς να τροποποιήσει εικόνες, βίντεο και ηχητικά αρχεία. «Η ευκολία με την οποία μπορεί κάποιος να κάνει κάτι τέτοιο, αυξάνει τα περιστατικά κακοποίησης», λέει η Ζόζεφιν Μπάλον της HateAid, μιας οργάνωσης που υπερασπίζεται τα θύματα ψηφιακής βίας.
Σύμφωνα με μελέτη του 2019 από την εταιρεία ερευνών Sensity AI, το 96% των ψεύτικων βίντεο στο διαδίκτυο ήταν πορνογραφικού περιεχομένου. Προσφάτως, σε συνεργασία με την Ομοσπονδιακή Ένωση Συμβουλευτικών Κέντρων για Γυναίκες και την Οργάνωση Anna Nackt, η HateAid έστειλε ένα ψήφισμα με περισσότερες από 76.000 υπογραφές στο Υπουργείο Ψηφιακής Πολιτικής, με αίτημα την αποτελεσματικότερη προστασία από το deepfake porn.
Η HateAid απαιτεί την απαγόρευση χρήσης τεχνολογιών deepfake για τη δημιουργία πορνογραφικού υλικού και γυμνών φωτογραφιών. Επιπλέον, τα ψηφιακά καταστήματα εφαρμογών θα πρέπει να υποχρεωθούν να μην προβάλουν τέτοιες εφαρμογές. Όπως αναφέρει η Μπάλον, πολλές πλατφόρμες πορνό διαφημίζουν συχνά τέτοιες υπηρεσίες απευθείας στον ιστότοπό τους.
Πολλές διασημότητες επηρεάζονται
«Για όσους υφίστανται τέτοια αλλοίωση της εικόνας τους, η κατάσταση είναι σοβαρή», δήλωσε η εκτελεστική διευθύντρια της HateAid. Πολλά deepfakes παρουσιάζουν γνωστές γυναίκες, όπως influencers, ηθοποιούς και πολιτικούς.
Μεταξύ αυτών που επηρεάζονται είναι και η παρουσιάστρια και ηθοποιός Κόλιν Ούλμεν-Φερνάντες. «Και μόνο το γεγονός ότι κάποιος νομίζει ότι με είδε γυμνή, ενώ δεν ήταν αυτό το σώμα μου, μου προκαλεί ταραχή», δήλωσε η 42χρονη. Πέραν αυτού όμως, τα θύματα των deepfakes θα μπορούσαν να αντιμετωπίσουν κι άλλα προβλήματα στη ζωή τους, όπως για παράδειγμα στο εργασιακό τους περιβάλλον.
Αίτημα για αυστηρότερες ποινές
«Ποτέ δεν θα πίστευα ότι θα υπήρχε κάτι τέτοιο για μένα», σχολίασε η Youtuber Mrs.Bella, όταν ανακάλυψε ένα deepfake πορνό με πρωταγωνίστρια την ίδια. Τελικά κατάφερε να το αφαιρέσει από το διαδίκτυο και τώρα ζητάει την αυστηρότερη τιμωρία τέτοιων περιστατικών.
Η HateAid ζητά επίσης την αποτελεσματικότερη προστασία βάσει ποινικού δικαίου. «Η δημιουργία ενός τέτοιου deepfake δεν τιμωρείται καθόλου επί του παρόντος», δήλωσε η δικηγόρος Μπάλον. Μόνο η διάδοση του υλικού θα μπορούσε να τιμωρηθεί. Η περιστασιακή τιμωρία βάσει του γερμανικού ποινικού δικαίου είναι κάτι που προβληματίζει και τη Γερμανική Ένωση Γυναικών Δικηγόρων.
Σε επίπεδο Ε.Ε. βρίσκεται επίσης υπό διαπραγμάτευση μια Οδηγία για την καταπολέμηση της βίας κατά των γυναικών και της ενδοοικογενειακής βίας, η οποία ασχολείται και με τις ποινές για τεχνολογίες deepfakes.
Δεν διαφαίνεται απαγόρευση των deepfakes
Παρά το σχετικό αίτημα η γενική απαγόρευση των deepfakes δεν αναμένεται άμεσαΕικόνα: Marcus Brandt/dpa/picture alliance
Όσον αφορά την αίτηση για απαγόρευση των deepfakes, εκπρόσωπος του Υπουργείου Ψηφιακής Πολιτικής της Γερμανίας δήλωσε ότι δεν σχεδιάζεται κάτι τέτοιο. Ωστόσο, είπε ακόμη ότι το υπουργείο υποστηρίζει την έκκληση της HateAid προς τους διαχειριστές των ψηφιακών καταστημάτων να απαγορεύσουν στις εφαρμογές να διαφημίζουν τέτοιες τεχνολογίες για τη δημιουργία πορνογραφικού υλικού. Επιπλέον, η Πράξη περί Ψηφιακών Υπηρεσιών της Ε.Ε. υποχρεώνει πλέον τις μεγάλες πλατφόρμες – όπως το Facebook, τη Google και την Amazon – να αναλάβουν δράση κατά του παράνομου περιεχομένου, της παραπληροφόρησης, αλλά και των deepfakes.
Ο ειδικός στα ψηφιακά εγκλήματα Τόμας-Γκάμπριελ Ρίντιγκερ από την Αστυνομική Σχολή του Βρανδεμβούργου παρατηρεί πως οι τεχνολογίες deepfake αποκτούν όλο και μεγαλύτερη σημασία σε εγκληματολογικό πλαίσιο. Για τον ίδιο ένα πρώτο μέτρο προστασίας θα μπορούσε να είναι το εξής: «να επιτρέπεται η χρήση φωτογραφιών στα deepfakes, αλλά μονάχα του συγκεκριμένου ατόμου που χρησιμοποιεί το πρόγραμμα εκείνη τη στιγμή». Ο ειδικός τονίζει ακόμη πως καθοριστική είναι ιδίως η ψηφιακή εκπαίδευση.«Πρέπει να δείξουμε στους ανηλίκους πρωτίστως ότι κάθε βίντεο ή εικόνα στον ψηφιακό χώρο μπορεί να είναι πλαστή. Πρέπει να εκπαιδεύσουμε γενικώς τους ανθρώπους για τέτοια φαινόμενα. Υπάρχουν ακόμη πολλά που πρέπει να κάνουμε».
Βαλέρια Νίκελ, Γιώργος Πασσάς
Πηγή: dw.com