Τεχνολογία
Grok: Το chatbot τεχνητής νοημοσύνης του Μασκ σκορπά fake news για τον πόλεμο Ισραήλ – Ιράν

Μια νέα έκθεση από το Digital Forensic Research Lab (DFRLab) του Atlantic Council φέρνει στο φως σοβαρές αδυναμίες του chatbot τεχνητής νοημοσύνης Grok, το οποίο αναπτύχθηκε από την εταιρεία xAI του Iλον Μασκ και είναι ενσωματωμένο στην πλατφόρμα X (πρώην Twitter).
Σύμφωνα με το Euronews, ερευνητές ανέλυσαν πάνω από 130.000 δημοσιεύσεις του Grok που σχετίζονταν με τη 12ήμερη ένοπλη σύγκρουση μεταξύ Ισραήλ και Ιράν (13-24 Ιουνίου 2025) και διαπίστωσαν ότι το σύστημα παρήγαγε ανακριβείς, αντικρουόμενες και ενίοτε παραπλανητικές πληροφορίες.
Ανεπαρκής επαλήθευση και ενίσχυση παραπληροφόρησης
Σύμφωνα με την έκθεση, περίπου το ένα τρίτο των δημοσιεύσεων του Grok απαντούσε σε ερωτήματα χρηστών που προσπαθούσαν να επαληθεύσουν πληροφορίες ή φήμες που κυκλοφορούσαν στα μέσα κοινωνικής δικτύωσης, όπως ανεπιβεβαίωτα βίντεο και ισχυρισμούς. Ωστόσο, αντί να προσφέρει έγκυρη διάψευση ή επιβεβαίωση, το chatbot παρείχε ασαφείς, αντικρουόμενες ή εντελώς ψευδείς απαντήσεις.
Η μελέτη αναφέρει χαρακτηριστικά:
«Το Grok απέδειξε ότι δυσκολεύεται να επαληθεύσει ήδη επιβεβαιωμένα γεγονότα, να αναλύσει ψευδείς εικόνες και να αποφύγει την αναπαραγωγή αβάσιμων ισχυρισμών».
Αν και το Grok δεν έχει σχεδιαστεί ως εργαλείο δημοσιογραφικής επαλήθευσης, η ευρεία χρήση του από τους χρήστες της πλατφόρμας X για την κατανόηση σύνθετων γεωπολιτικών γεγονότων, του αποδίδει έναν ρόλο που δεν είναι έτοιμο να εκπληρώσει με υπευθυνότητα.
Fake βίντεο που «πέρασαν» ως αληθινά
Ένα από τα πιο ανησυχητικά ευρήματα αφορά τη διάδοση ψεύτικων βίντεο ως αυθεντικών αποσπασμάτων από τη σύγκρουση. Οι ερευνητές του DFRLab εντόπισαν περιπτώσεις όπου το Grok απέτυχε να αναγνωρίσει υλικό που είχε δημιουργηθεί με τεχνητή νοημοσύνη, χαρακτηρίζοντάς το λανθασμένα ως αληθινό.
Ένα παράδειγμα αφορά βίντεο που φαινόταν να δείχνει καταστροφή στο αεροδρόμιο Μπεν Γκουριόν στο Τελ Αβίβ μετά από ιρανική επίθεση. Το Grok αρχικά ανέφερε ότι πρόκειται για επίθεση των Χούτι, αργότερα ισχυρίστηκε ότι επρόκειτο για το αεροδρόμιο Μεχραμπάντ στην Τεχεράνη, χωρίς καμία συνέπεια στις απαντήσεις του.
Αντίστοιχα, το Grok θεωρούσε ως αυθεντικά άλλα τρία βίντεο που είχαν δημιουργηθεί με τεχνητά μέσα και παρουσίαζαν υποτιθέμενες επιθέσεις στο πυρηνικό εργοστάσιο του Αράκ, στο λιμάνι της Χάιφα και στο Ινστιτούτο Weizmann στο Ρεχόβοτ.
Ανακριβείς ισχυρισμοί και παραπλάνηση
Το chatbot συνέδεσε επίσης ένα βίντεο από φεστιβάλ στη Γαλλία με υποτιθέμενη μαζική έξοδο Ισραηλινών μέσω του περάσματος Τάμπα προς την Αίγυπτο, ενώ άλλο βίντεο από έκρηξη στη Μαλαισία παρουσιάστηκε ως χτύπημα ιρανικού πυραύλου στο Τελ Αβίβ.
Παράλληλα, κυκλοφόρησε ευρέως ένας ψευδής ισχυρισμός ότι η Κίνα είχε στείλει στρατιωτικά μεταγωγικά αεροσκάφη προς ενίσχυση του Ιράν. Ο ισχυρισμός βασιζόταν σε εσφαλμένη ερμηνεία δεδομένων πτήσεων από τον ιστότοπο Flightradar24 και αναπαράχθηκε από τόσο το Grok όσο και το Perplexity, άλλο ένα δημοφιλές chatbot.
Η οργάνωση NewsGuard, που καταγράφει περιπτώσεις παραπληροφόρησης, επιβεβαίωσε ότι τα δύο συστήματα τεχνητής νοημοσύνης συνέβαλαν στη διάδοση αυτής της φήμης.
Επικίνδυνος ρόλος των chatbot σε περιόδους κρίσης
Η έκθεση του DFRLab υπογραμμίζει έναν βασικό κίνδυνο: η εξάρτηση των πολιτών από chatbots ως μέσα ενημέρωσης — ιδιαίτερα σε περιόδους συγκρούσεων και παγκόσμιων κρίσεων — μπορεί να οδηγήσει σε διαστρέβλωση της πραγματικότητας.
«Καθώς αυτά τα προηγμένα γλωσσικά μοντέλα γίνονται μεσάζοντες μέσω των οποίων ερμηνεύονται οι πόλεμοι και οι συγκρούσεις, οι απαντήσεις, οι προκαταλήψεις και οι περιορισμοί τους μπορούν να επηρεάσουν την ίδια τη δημόσια αφήγηση», σημειώνει η έκθεση.
Η πλατφόρμα X δεν διαθέτει πρόγραμμα ανεξάρτητης επαλήθευσης γεγονότων, βασίζεται ωστόσο στις λεγόμενες «σημειώσεις της κοινότητας», δηλαδή παρεμβάσεις χρηστών που προσθέτουν πλαίσιο ή διορθώσεις σε παραπλανητικές αναρτήσεις — ένα μοντέλο που δείχνει να μην επαρκεί.
Πηγή: ot.gr
Ελάτε στην ομάδα μας στο viber για να ενημερώνεστε πρώτοι για τις σημαντικότερες ειδήσεις