Live τώρα    
19°C Αθήνα
ΑΘΗΝΑ
Σποραδικές νεφώσεις
19 °C
17.1°C19.7°C
4 BF 59%
ΘΕΣΣΑΛΟΝΙΚΗ
Αυξημένες νεφώσεις
15 °C
13.6°C15.7°C
3 BF 64%
ΠΑΤΡΑ
Αυξημένες νεφώσεις
15 °C
13.3°C16.5°C
3 BF 78%
ΗΡΑΚΛΕΙΟ
Ελαφρές νεφώσεις
20 °C
19.3°C20.8°C
3 BF 65%
ΛΑΡΙΣΑ
Αυξημένες νεφώσεις
13 °C
12.9°C16.9°C
4 BF 82%
Από το fake στο deepfake
  • Μείωση μεγέθους γραμματοσειράς
  • Αύξηση μεγέθους γραμματοσειράς
Εκτύπωση

Από το fake στο deepfake

Ο Αβίβ Οβάντια είναι ένας νεαρός τεχνολόγος από το Σαν Φρανσίσκο. Έχει μάστερ στην επιστήμη των υπολογιστών απ' το ΜΙΤ, το φημισμένο Τεχνολογικό Ινστιτούτο της Μασαχουσέτης. Είναι απ' τους τύπους εκείνους που δεν "εξαργύρωσαν" το υψηλού προφίλ πτυχίο τους με καριέρα μεγαλοστελέχους σε κάποια φίρμα-κολοσσό του χώρου, αν και έχει πείρα από αυτές. Παράλληλα με τις σπουδές του, που ολοκλήρωσε το 2010, δούλεψε σε μερικές από τις μεγαλύτερες "βιομηχανίες" του ψηφιακού κόσμου - και όχι μόνον: Amazon, Google, Quora, Morgan Stanley. Σήμερα είναι επικεφαλής ερευνητής στο Κέντρο για την Υπευθυνότητα των Κοινωνικών Μέσων στη Σχολή Πληροφορικής του Πανεπιστημίου του Μίσιγκαν και σύμβουλος καινοτομίας στο Κέντρο Tow για την Ψηφιακή Δημοσιογραφία του Πανεπιστημίου Κολούμπια, ενός εκ των σημαντικότερων της πολιτείας της Νέας Υόρκης. Διευθύνει ερευνητικά πρότζεκτ που εστιάζουν στον τρόπο που το πληροφοριακό οικοσύστημα του παγκόσμιου ιστού μπορεί να έχει θετικό αντίκτυπο στην κοινωνία.

Ο Αβίβ συνειδητοποίησε ότι ένα θεμελιώδες σφάλμα διέπει τη λειτουργία του Ίντερνετ, τόσο μεγάλο και σοβαρό ώστε παράτησε τη δουλειά του και αποφάσισε να ασχοληθεί αποκλειστικά μ' αυτό. Η πρώτη ενέργειά του ήταν να ηχήσει συναγερμό στην τεχνο-κοινότητα. Λίγες εβδομάδες πριν απ' τις προεδρικές εκλογές του 2016 εξέθεσε δημόσια τις ανησυχίες του στους ομότιμούς τους στο Σαν Φρανσίσκο προειδοποιώντας τους για μια επικείμενη κρίση παραπληροφόρησης στην οποία μάλιστα έδωσε τον χαρακτηριστικό ορισμό "ινφο-αποκάλυψη" (Infocalypse).

Σύμφωνα με τον Οβάντια, ο παγκόσμιος ιστός και το πληροφοριακό οικοσύστημα που έχει αναπτυχθεί γύρω από αυτόν είναι βαριά ανθυγιεινά. Η κινητήρια δύναμη πίσω από τις μεγαλύτερες ψηφιακές πλατφόρμες σήμερα έχει ρυθμιστεί έτσι ώστε να ανταμείβει τις πληροφορίες που είναι συχνά παραπλανητικές και πολωτικές ή και τα δύο ταυτόχρονα. Πλατφόρμες όπως το Facebook, το Twitter και το Google δίνουν προτεραιότητα στην επισκεψιμότητα, το πλήθος των κοινοποιήσεων, τις διαφημίσεις και φυσικά το χρήμα, έναντι της ποιότητας των πληροφοριών. Όπως λέει ο νεαρός τεχνολόγος, όλη αυτή η κατάσταση δεν είναι τίποτε άλλο παρά το κρίσιμο κατώφλι για την εθιστική και τοξική παραπληροφόρηση.

"Ρομποτική" δημοσιογραφία

Ο Οβάντια διέκρινε αρκετά πιο νωρίς αυτό που πολλοί άλλοι, συμπεριλαμβανομένων νομοθετών, δημοσιογράφων και μεγαλοστελεχών του τεχνολογικού χώρου, άρχισαν να αντιλαμβάνονται με καθυστέρηση. Ο βελτιστοποιημένος με βάση τις πλατφόρμες και την αλγοριθμοποίηση ψηφιακός κόσμος μας είναι ευάλωτος στην προπαγάνδα, την παραπληροφόρηση, τη σκοτεινή στοχευμένη διαφήμιση, σε τέτοιο βαθμό που απειλείται με άμεση υπονόμευση ένας ακρογωνιαίος λίθος του ανθρώπινου λόγου: η αξιοπιστία των γεγονότων.

Ωστόσο, αυτό που ο Αμερικανός τεχνολόγος βλέπει να έρχεται είναι ακόμα πιο τρομακτικό. Σε μια έντονα ανησυχητική προβολή των επόμενων δύο δεκαετιών, ενυπάρχουν οι ψευδείς ειδήσεις με τις υποβοηθούμενες από την τεχνητή νοημοσύνη προπαγάνδα και πολιτικές εκστρατείες. "Την έχουμε βαμμένη και οι περισσότεροι από εμάς δεν μπορούμε καν να το φανταστούμε. Κι όσο πιο βαθιά κοιτάμε στο μέλλον, τόσο το πράγμα γίνεται χειρότερο", λέει ο Αβίβ. Ας σημειωθεί ότι υπάρχουν σήμερα πλατφόρμες μηχανικής ευφυΐας που είναι ικανές να παράγουν φυσική ομιλία, να θέτουν ερωτήματα σε πηγές πληροφοριών και βάσει δημοσιογραφικών κανόνων να παράγουν κείμενα που, όπως ισχυρίζονται οι προγραμματιστές τους, δεν διαφέρουν από εκείνα που γράφουν άνθρωποι.

Τα μηχανικά ρεπορτάζ μπορούν να παραχθούν σε μεγάλη κλίμακα, να είναι προσαρμόσιμα σε μέγεθος κειμένου, ύφος και στυλ γραψίματος αναλόγως του κοινού στο οποίο απευθύνονται. Προφανώς, η "ρομποτική" δημοσιογραφία του μέλλοντος θα είναι πιο παραγωγική. Το αν θα είναι και πιο αντικειμενική, πιο αμερόληπτη, πιο πλουραλιστική, πιο ουσιώδης, ή το πώς θα εξασφαλιστεί και ποιος θα ελέγχει την τήρηση της δεοντολογίας, είναι ερωτήματα που περιμένουν απάντηση. Όπως και μερικά ακόμη: Ποιος θα εγγυάται ότι οι αλγόριθμοι που διασφαλίζουν ένα εύρος πλουραλισμού και πολυφωνίας στην αναζήτηση των δημοσιογραφικών πηγών δεν θα είναι ευάλωτοι στο hacking; Πώς θα επηρεάζεται και θα διαμορφώνεται η κοινή γνώμη του μέλλοντος από μια πλημμυρίδα πληροφόρησης που θα παράγουν σωρηδόν στρατιές μηχανικών συντακτών;

Δυστοπικό μέλλον

Ο Οβάντια βλέπει ένα δυστοπικό μέλλον να έρχεται μαζί με τις "θαυμαστές" τεχνολογίες. Ένα μέλλον εύχρηστων και εν πολλοίς αόρατων εργαλείων για τη χειραγώγηση της ανθρώπινης αντίληψης και την παραποίηση της πραγματικότητας. Η ορολογία των νοσηρών συμπτωμάτων που θα χαρακτηρίζουν τις ζοφερές κοινωνίες του μέλλοντος έχει ήδη διατυπωθεί: "απάθεια στην πραγματικότητα", "αυτοματοποιημένο λέιζερ phishing", "ανθρώπινες μαριονέτες". Ειδικά το δεύτερο είναι κάτι που ψιθυρίζεται μεταξύ των ειδικών στην κυβερνοασφάλεια. Πρόκειται για μια τεχνολογία που χρησιμοποιεί την τεχνητή νοημοσύνη για να σαρώνει δεδομένα όπως αυτά που υπάρχουν στα προφίλ μας στους ιστότοπους κοινωνική δικτύωσης και να κατασκευάζει ψευδή αλλά εμφανώς πιστευτά κακόβουλα μηνύματα από ανθρώπους που γνωρίζουμε. Η τεχνική θα επιτρέψει σε κακόβουλες οντότητες να στοχοποιήσουν τον οποιοδήποτε δημιουργώντας μια πιστή απομίμηση της κακής του πλευράς απλώς και μόνο με την κατάλληλη "αξιοποίηση" δημοσίως διαθέσιμων δεδομένων.

Όπως αναφέρει στο BuzzFeed ο Αβίβ, η φημολογία και η ανησυχία για τις ρωσικές διαφημίσεις στο Facebook και για τα bots του Twitter, ωχριούν μπροστά στη μεγαλύτερη απειλή: τις τεχνολογίες που μπορούν να χρησιμοποιηθούν για να ενισχύσουν πολλαπλασιαστικά ή να διαστρεβλώσουν την πραγματικότητα και οι οποίες εξελίσσονται γρηγορότερα από την ικανότητά μας να τις κατανοήσουμε και να τις ελέγξουμε ή να τις μετριάσουμε. Το διακύβευμα είναι μεγάλο και οι πιθανές συνέπειες της χρήσης και της εφαρμογής τους θα είναι πιο καταστροφικές από τις ξένες παρεμβάσεις σε εκλογικές αναμετρήσεις, θα σημάνουν την υπονόμευση ή την ανατροπή των θεμελιωδών συμβάσεων που σχηματίζουν τον πυρήνα του πολιτισμού μας.

Και υπάρχουν πειστικές ενδείξεις ότι τα πράγματα θα γίνουν χειρότερα λόγω της διαρκώς αυξανόμενης υπολογιστικής ισχύος των μηχανών και των συνεχών εξελίξεων στην τεχνητή νοημοσύνη, καθώς και στο πολλά υποσχόμενο "παρακλάδι" της, τη μηχανική μάθηση, που μπορεί να θολώσει τις διαχωριστικές γραμμές μεταξύ γεγονότος και μυθοπλασίας. Ακόμα χειρότερα, αυτές οι τεχνολογίες μπορούν να μας οδηγήσουν σε ένα μέλλον που ο καθένας θα μπορούσε να κάνει κάτι να φαίνεται σαν να έχει συμβεί, ανεξάρτητα από το αν πραγματικά συνέβη ή όχι.

Fake ηγέτες σε επικίνδυνους ρόλους...

Ήδη στις σκοτεινές γωνιές του Διαδικτύου κάποιοι έχουν αρχίσει να χρησιμοποιούν αλγόριθμους μηχανικής μάθησης και λογισμικό ανοιχτού κώδικα για να δημιουργήσουν πορνογραφικά βίντεο στα οποία τα πρόσωπα των πραγματικών πρωταγωνιστών έχουν αντικατασταθεί απολύτως ρεαλιστικά από εκείνα διαφόρων διασημοτήτων ή άλλων γνωστών προσώπων. Σε ερευνητικά κέντρα όπως αυτό του πανεπιστημίου του Στάνφορντ, οι τεχνολόγοι έχουν δημιουργήσει προγράμματα που συνδυάζουν και αναμιγνύουν καταγεγραμμένα πλάνα βίντεο με τεχνικές ανίχνευσης προσώπου σε πραγματικό χρόνο ώστε να αλλοιώσουν συγκεκριμένες σκηνές σε μια ζωντανή μετάδοση. Ομοίως, επιστήμονες στο πανεπιστήμιο της Ουάσιγκτον έστησαν με επιτυχία ένα πρόγραμμα που μπορεί να μετατρέπει ηχητικά κλιπ ομιλίας σε ρεαλιστικά βίντεο όπου ένα άτομο εμφανίζεται πραγματικά σαν να μιλάει το ίδιο. Ως απόδειξη της ιδέας τους, οι δύο ομάδες αλλοίωσαν μια σειρά τηλεοπτικών μεταδόσεων εμφανίζοντας γνωστούς ηγέτες να κάνουν δηλώσεις που βεβαίως ποτέ δεν έκαναν!

Φανταστείτε, για παράδειγμα, μας προτρέπει ο Αβίβ, έναν αλγόριθμο μηχανικής μάθησης -ουσιαστικά ένα software ικανό να αναλύει τεράστιους όγκους δεδομένων για να διδάξει τον εαυτό του να εκτελεί μια συγκεκριμένη λειτουργία- που θα τροφοδοτείται με εκατοντάδες ώρες βίντεο του Ντόναλντ Τραμπ ή του Κιμ Γιονγκ-Ουν. Στο τέλος, θα μας δώσει ένα φαινομενικά "αυθεντικό" ηχητικό ή οπτικό κλιπ όπου κάποιος από τους δύο θα εμφανίζεται να κηρύσσει πυρηνικό ή βιολογικό πόλεμο εναντίον του άλλου. "Δεν χρειάζεται να είναι τέλειο", λέει ο Οβάντια, "φτάνει να είναι αρκετά καλό για να κάνει τη μια ή την άλλη πλευρά να πιστέψει ότι όντως κάτι συνέβη, κι αυτό με τη σειρά του να πυροδοτήσει μια σπασμωδική και απερίσκεπτη αντίδραση αντιποίνων".

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

ΓΝΩΜΕΣ

ΠΕΡΙΣΣΟΤΕΡΑ

EDITORIAL

ΑΝΑΛΥΣΗ

SOCIAL