Εικόνες AI που δείχνουν ανθρώπους με πολύ μακρύ λαιμό κοινοποιούνται στο διαδίκτυο ως αληθινές

Οι γυναίκες της φυλής Καγιάν (ή Παντάουνγκ) στη Βιρμανία είναι γνωστές για τους μακρύτερους λαιμούς στον κόσμο, και ως εκ τούτου είναι εγγεγραμμένες στο Βιβλίο των Ρεκόρ Γκίνες. Viral δημοσιεύσεις στα κοινωνικά δίκτυα, που κυκλοφορούν από το 2024 και διαδίδονται μέχρι και σήμερα, υποστηρίζουν ψευδώς ότι φωτογραφίες που χρονολογούνται στον 19ο αιώνα δείχνουν ανθρώπους αυτής της φυλής με δυσανάλογα μεγάλους λαιμούς μερικές φορές μήκους αρκετών μέτρων. Όμως οι εικόνες αυτές έχουν δημιουργηθεί με τεχνητή νοημοσύνη, όπως αποδεικνύεται από αρκετές ασυνέπειες.

«Σοκαριστική αποκάλυψη συγκλονίζει τον κόσμο: αποκαλύπτεται το ανατριχιαστικό μυστικό της οικογένειας με τους μακρύτερους λαιμούς στον κόσμο», αναφέρει μια ανάρτηση στο Facebook από την 1 Φεβρουαρίου 2025, η οποία περιλαμβάνει ένα κολάζ τριών φωτογραφιών σε σέπια, οι οποίες δείχνουν ανθρώπους με λαιμό τουλάχιστον όσο ένα χέρι. 

«[...] αυτή η εξαιρετική ανακάλυψη ελπίζεται ότι θα οδηγήσει σε μια βαθύτερη κατανόηση και εκτίμηση του λαού των Καγιάν και της αξιοθαύμαστης πολιτιστικής τους κληρονομιάς», συνεχίζει ο χρήστης στην ανάρτηση. 

Ο ίδιος ισχυρισμός με την ίδια εικόνα κοινοποιήθηκε και από άλλους χρήστες στο Facebook (εδώ, εδώ και εδώ) και από ελληνικούς ιστότοπους (εδώ και εδώ). 

Παρόλο που αρκετοί χρήστες έγραφαν χιουμοριστικά σχόλια κάτω από τις αναρτήσεις, αρκετοί σχολίαζαν με τρόπο που φανερώνει ότι πίστευαν πως οι εικόνες ήταν αληθινές. «Που ζούμε ποτε αυτή η ανθρωπότητα θα αποκτήσει νοημοσύνη και δεν θα την σέρνουν από την μύτη αναχρονιστικοι άνθρωποι που ζουν στον μεσαιωνα» έγραψε ένας χρήστης. «Απίστευτο είναι ειναι αλήθεια όμως», σχολίασε ένας άλλος. 

Image
Στιγμιότυπο οθόνης της ψευδούς ανάρτησης με τις εικόνες τεχνητής νοημοσύνης στο Facebook. Λήψη εικόνας: 17/2/2025

Παρόμοιοι ισχυρισμοί μαζί με τις ίδιες ή παρόμοιες φωτογραφίες έχουν κοινοποιηθεί από το 2024 και σε άλλες γλώσσες, μεταξύ άλλων στα γαλλικά, τα αραβικά, τα αγγλικά, τα χίντι, τα ιαπωνικά, τα σουαχίλι και τα ταϊλανδέζικα

Ωστόσο, οι εικόνες έχουν δημιουργηθεί με τεχνητή νοημοσύνη και δεν έχουν καμία σχέση με οποιαδήποτε ανακάλυψη, ούτε με την ύπαρξη ενός αρχαίου λαού με αφύσικα μεγάλους λαιμούς.

Εικόνες από έναν λογαριασμό με περιεχόμενο δημιουργημένο από AI 

Οι τρεις πιο συχνές εικόνες που εμφανίζονται στα κοινωνικά δίκτυα δείχνουν ενήλικες με ασυνήθιστα μακρύ λαιμό να στέκονται δίπλα σε παιδιά.

Οι αντίστροφες αναζητήσεις εικόνων σε συνδυασμό με αναζητήσεις λέξεων-κλειδιών μάς οδήγησαν σε πολυάριθμες δημοσιεύσεις που σχετίζονται με αυτές τις τρεις viral εικόνες, η παλαιότερη από τις οποίες εντοπίζεται σε ένα βίντεο που δημοσιεύτηκε στο TikTok στις 23 Νοεμβρίου 2023 (σύνδεσμος αρχειοθετημένος εδώ). 

Παρακάτω μπορείτε να δείτε μια σύγκριση στιγμιότυπων οθόνης των εικόνων που εμφανίζονται σε μία από τις viral δημοσιεύσεις στο Facebook (αριστερά) και στο αρχικό βίντεο του TikTok (δεξιά).

Image
Σύγκριση στιγμιότυπων οθόνης των εικόνων που εμφανίζονται σε μία από τις viral δημοσιεύσεις στο Facebook (αριστερά) και στο αρχικό βίντεο του TikTok (δεξιά). Λήψη εικόνων: 17/2/2025
Image
Σύγκριση στιγμιότυπων οθόνης των εικόνων που εμφανίζονται σε μία από τις viral δημοσιεύσεις στο Facebook (αριστερά) και στο αρχικό βίντεο του TikTok (δεξιά). Λήψη εικόνων: 17/2/2025
Image
Σύγκριση στιγμιότυπων οθόνης των εικόνων που εμφανίζονται σε μία από τις viral δημοσιεύσεις στο Facebook (αριστερά) και στο αρχικό βίντεο του TikTok (δεξιά). Λήψη εικόνων: 17/2/2025

Η λεζάντα του βίντεο αναφέρει ότι οι ιστορικές αυτές εικόνες, οι οποίες λέγεται ότι διέρρευσαν πρόσφατα, χρονολογούνται από το 1860 και δείχνουν τους «3 υποψηφίους» σε έναν «διαγωνισμό για την εύρεση της οικογένειας με τον μακρύτερο λαιμό».

Αλλά προσέξτε! Ο λογαριασμός πίσω από το βίντεο ονομάζεται «FunnyAIpics» και το προφίλ του αναφέρει ότι δημιουργεί «παράξενη και αστεία τέχνη που παράγεται από τεχνητή νοημοσύνη» (αρχειοθετημένος σύνδεσμος εδώ).

Οι εικόνες αυτές δημιουργήθηκαν από την αρχή με τεχνητή νοημοσύνη για ψυχαγωγικούς σκοπούς, πριν υιοθετηθούν σοβαρά από άλλους λογαριασμούς.

Σαφή σημάδια δημιουργίας τεχνητής νοημοσύνης

Χωρίς να έχει ξανασυναντήσει το αρχικό βίντεο, ένας προσεκτικός χρήστης του διαδικτύου θα μπορούσε να είχε διαπιστώσει από μόνος του ότι αυτά τα πλάνα δημιουργήθηκαν από το μηδέν, επειδή οι εικόνες αυτές περιέχουν οπτικές ασυνέπειες που είναι χαρακτηριστικές στη δημιουργία τεχνητής νοημοσύνης, επισημαίνει ο Σου Χου, επικεφαλής του εργαστηρίου Μηχανικής Μάθησης και Εγκληματολογίας Μέσων Ενημέρωσης στο Πανεπιστήμιο Purdue των Ηνωμένων Πολιτειών. 

Τονίζει την παρουσία παραμορφωμένων προσώπων, την απουσία κόρης στο μάτι ενός άνδρα, τους παραμορφωμένους τοίχους της ξύλινης καλύβας και ένα κεφάλι που λείπει από το σώμα ενός ενήλικα. 

Σε παλαιότερα άρθρα (εδώ και εδώ) έχουμε εξηγήσει πώς μπορείτε να αναγνωρίζετε σημάδια εικόνων που έχουν δημιουργηθεί με τεχνητή νοημοσύνη. 

Image
Στιγμιότυπα οθόνης των εικόνων που δημοσιεύονται στις ψευδείς αναρτήσεις, με τις οπτικές ανακολουθίες να επισημαίνονται από το AFP με κίτρινο χρώμα. Λήψη εικόνας: 17/2/2025

Στην πραγματικότητα, υπάρχουν γυναίκες Παντάουνγκ στην πολιτεία Σαν (βορειοανατολική Βιρμανία) - γνωστές επίσης ως γυναίκες Καγιάν ή «γυναίκες με μακρύ λαιμό» - που χρησιμοποιούν αυτή την τεχνική για να επιμηκύνουν το λαιμό τους. 

Από το 2018, έχουν καταγραφεί από τον ιστότοπο των Παγκόσμιων Ρεκόρ Γκίνες (αρχειοθετημένος σύνδεσμος εδώ) ως οι γυναίκες με τους μακρύτερους ανθρώπινους λαιμούς που έχουν καταγραφεί ποτέ, φτάνοντας τα 19,7 εκατοστά σε μήκος χάρη σε τυλιγμένους ορειχάλκινους δακτυλίους. 

Στο παρελθόν το AFP έχει δημοσιεύσει ένα σχετικό ρεπορτάζ (αρχειοθετημένος σύνδεσμος εδώ). 

Image
Γυναίκα από την εθνότητα των Καγιάν στις 9 Σεπτεμβρίου 2015 στο χωριό PanPat, στην πολιτεία Kayah. (AFP / Ye Aung Thu)

«Αυτές οι εικόνες μπορούν εύκολα να οδηγήσουν στη διάδοση ψευδών πληροφοριών», προειδοποίησε ο ειδικός σε θέματα τεχνητής νοημοσύνης Σου Χου.

Το AFP έχει επαληθεύσει πολλές εικόνες που έχουν παραχθεί από τεχνητή νοημοσύνη, πολύ συχνά για σκοπούς χειραγώγησης, όπως εδώ, εδώ, εδώ και εδώ

Υπάρχει περιεχόμενο που θα θέλατε να ελέγξει το AFP;

Επικοινωνήστε μαζί μας