Η τεχνητή νοημοσύνη αλλάζει ριζικά τον τρόπο που δημιουργείται και καταναλώνεται το οπτικοακουστικό περιεχόμενο. Ένα απλό scroll στα social media αρκεί για να πέσεις πάνω σε βίντεο που φαίνονται απόλυτα ρεαλιστικά – αλλά δεν είναι. Το ερώτημα είναι: μπορείς να τα αναγνωρίσεις;
Το πρώτο σημάδι που προδίδει ένα AI βίντεο
Σύμφωνα με το BBC, το πιο συχνό -και πλέον πιο χαρακτηριστικό- στοιχείο που «προδίδει» ένα βίντεο τεχνητής νοημοσύνης είναι η χαμηλή ποιότητα εικόνας. Εάν το βίντεο φαίνεται θολό, κοκκώδες ή ασυνήθιστα ασαφές, υπάρχει μεγάλη πιθανότητα να έχει δημιουργηθεί με τη βοήθεια AI.
«Είναι το πρώτο πράγμα που κοιτάμε», εξηγεί ο καθηγητής πληροφορικής του Πανεπιστημίου της Καλιφόρνια, Hany Farid, ειδικός στην ανίχνευση ψηφιακών αλλοιώσεων και ιδρυτής της εταιρείας GetReal Security.
Η χαμηλή ανάλυση βοηθά το AI να «κρύψει» τις μικρές ατέλειες – όπως αφύσικες κινήσεις, ασυνέπειες στο φως ή αντικείμενα που μοιάζουν να αλλάζουν σχήμα. Με λίγα λόγια, το βίντεο δείχνει πιο πειστικό, ακριβώς επειδή δεν βλέπεις τις λεπτομέρειες που θα το πρόδιδαν.
Όχι κάθε κακό βίντεο είναι ψεύτικο
Φυσικά, όχι όλα τα βίντεο χαμηλής ποιότητας είναι ψεύτικα. Ο καθηγητής Matthew Stamm, επικεφαλής του Εργαστηρίου Πολυμέσων στο Πανεπιστήμιο Drexel, τονίζει ότι η κακή ανάλυση δεν αποτελεί απόδειξη πλαστότητας. «Πολλά αυθεντικά βίντεο είναι τραβηγμένα με κινητά ή κάμερες ασφαλείας που απλώς δεν αποδίδουν καλά. Η ποιότητα δεν ισοδυναμεί με ψεύτικο».
Το πρόβλημα είναι ότι τα AI βίντεο χαμηλής ποιότητας είναι εκείνα που πιο εύκολα ξεγελούν – ειδικά όταν μοιάζουν με τυχαία κλιπ χρηστών ή κάμερες ασφαλείας.
Μικρές λεπτομέρειες που μαρτυρούν την απάτη
Ακόμα και τα πιο εξελιγμένα εργαλεία, όπως το Veo της Google ή το Sora της OpenAI, έχουν ατέλειες. Οι ειδικοί αναφέρουν συχνά:
- υπερβολικά λεία ή «πλαστικά» πρόσωπα,
- παράξενα μοτίβα στα μαλλιά ή στα ρούχα,
- αντικείμενα στο φόντο που κινούνται αφύσικα,
- φωτισμό που αλλάζει αδικαιολόγητα από καρέ σε καρέ.
Επίσης, τα AI βίντεο είναι συνήθως πολύ σύντομα – διάρκειας 6 έως 10 δευτερολέπτων – γιατί η δημιουργία τους είναι κοστοβόρα και όσο μεγαλώνει η διάρκεια, αυξάνονται τα λάθη.
Πώς μπορούν οι ειδικοί να τα εντοπίσουν
Αν και τα σημάδια είναι συχνά οπτικά, οι επιστήμονες χρησιμοποιούν πιο εξελιγμένα μέσα για να εντοπίσουν deepfakes. Όπως εξηγεί ο Stamm, κάθε επεξεργασμένο ή παραγόμενο βίντεο αφήνει πίσω του «ψηφιακά αποτυπώματα» – στατιστικά μοτίβα στα εικονοστοιχεία που δεν γίνονται αντιληπτά με γυμνό μάτι.
«Είναι σαν τα δακτυλικά αποτυπώματα σε μια σκηνή εγκλήματος», λέει χαρακτηριστικά. Αυτά τα μικροσκοπικά ίχνη μπορούν να αποκαλύψουν εάν ένα βίντεο είναι αυθεντικό ή έχει δημιουργηθεί τεχνητά.
Το νέο «μάθημα ψηφιακής παιδείας»
Ο ειδικός σε θέματα διαδικτυακής αξιοπιστίας Mike Caulfield προειδοποιεί ότι η λύση δεν βρίσκεται στο να εντοπίζουμε μεμονωμένα λάθη, αλλά στο να αλλάξουμε τρόπο σκέψης.«Πρέπει να μάθουμε να εμπιστευόμαστε την πηγή – όχι την εικόνα», σημειώνει.
Σύμφωνα με τον ίδιο, σύντομα τα βίντεο θα λειτουργούν όπως τα κείμενα: αυτό που θα μετράει περισσότερο δεν θα είναι τι δείχνουν, αλλά ποιος τα δημοσίευσε και πώς τεκμηριώνονται.
Το μέλλον της αυθεντικότητας
Η τεχνητή νοημοσύνη θα συνεχίσει να γίνεται όλο και πιο ρεαλιστική, καθιστώντας τα όρια ανάμεσα στο πραγματικό και το ψεύτικο πιο δυσδιάκριτα. Μέχρι τότε, το καλύτερο φίλτρο παραμένει η κριτική ματιά: να παρατηρούμε, να αμφισβητούμε και να αναζητούμε την πηγή πριν πιστέψουμε οτιδήποτε.