
21 Απριλίου 2026
Οι ξένες εκστρατείες επιρροής δεν ξέρουν ακόμη πώς να χρησιμοποιούν την Τεχνητή Νοημοσύνη

Περίληψη άρθρου:
Η πρώτη έκθεση απειλών του OpenAI περιγράφει λεπτομερώς πώς φορείς από χώρες όπως η Ρωσία, η Κίνα, το Ιράν και το Ισραήλ χρησιμοποιούν την τεχνητή νοημοσύνη για επιχειρήσεις επιρροής στο εξωτερικό. Η έκθεση υπογραμμίζει ότι οι εν λόγω φορείς πειραματίζονται με την παραγωγική τεχνητή νοημοσύνη για να αυτοματοποιήσουν τις δραστηριότητές τους, αλλά αντιμετωπίζουν προκλήσεις όπως η παραγωγή συνεκτικής γλώσσας και η διατήρηση της γραμματικής. Το OpenAI εντόπισε και έκλεισε πέντε δίκτυα μεταξύ 2023 και 2024, μεταξύ των οποίων το Doppleganger της Ρωσίας και το Spamoflauge της Κίνας. Αυτά τα δίκτυα χρησιμοποιούσαν τεχνολογίες όπως το ChatGPT για τη δημιουργία περιεχομένου για ιστότοπους, μέσα κοινωνικής δικτύωσης και πλατφόρμες όπως το Telegram. Παρά τις προσπάθειες διάδοσης προπαγάνδας, το περιεχόμενο που δημιουργούσε η τεχνητή νοημοσύνη δεν πέρασε στην επικρατούσα τάση σε δημοφιλείς πλατφόρμες όπως το Facebook. Η έκθεση αναφέρει ότι ενώ οι εκστρατείες αυτές ήταν σχετικά αναποτελεσματικές μέχρι στιγμής, βρίσκονται σε πειραματικό στάδιο με προοπτική να εξελιχθούν με την πάροδο του χρόνου. Η Jessica Walton από το Ινστιτούτο CyberPeace προτείνει ότι οι εκστρατείες αυτές θα μπορούσαν να γίνουν πιο εξελιγμένες καθώς οι κακοποιοί συνεχίζουν να μαθαίνουν και να προσαρμόζονται στους αλγόριθμους των πλατφορμών κοινωνικής δικτύωσης. Κατά συνέπεια, οι ειδικοί αναμένουν ότι αυτές οι εκστρατείες επιρροής με βάση την τεχνητή νοημοσύνη μπορεί να βελτιώσουν την αποτελεσματικότητά τους στο μέλλον.
Κύρια σημεία του άρθρου:
- Το OpenAI δημοσίευσε την πρώτη του έκθεση για τις απειλές που περιγράφει λεπτομερώς τους κακούς παράγοντες στη Ρωσία, την Κίνα, το Ιράν και το Ισραήλ που χρησιμοποιούν την Τεχνητή Νοημοσύνη για προπαγάνδα
- Εντόπισε και έκλεισε πέντε δίκτυα μεταξύ 2023 και 2024
- Παράγοντες όπως το Doppleganger της Ρωσίας και το Spamoflauge της Κίνας πειραματίζονται με τη γενετική ΤΝ
- Η γεννητική ΤΝ δυσκολεύεται με τους ιδιωματισμούς, τη γραμματική και την παραγωγή αξιόπιστου περιεχομένου
- Ένα δίκτυο με την ονομασία «Bad Grammar» αποκάλυψε την πραγματική του ταυτότητα λόγω πρόχειρων λαθών
- Το ChatGPT χρησιμοποιήθηκε για την αυτοματοποίηση δημοσιεύσεων στο Telegram- μερικές φορές οδηγούσε σε λάθη που αποκάλυπταν την ταυτότητα του δικτύου
Αναλυτικά το άρθρο:
Το OpenAI δημοσίευσε την πρώτη του έκθεση, η οποία περιγράφει λεπτομερώς πώς οι κακοί παράγοντες στη Ρωσία, την Κίνα και αλλού χρησιμοποιούν την Τεχνητή Νοημοσύνη για τη διάδοση της προπαγάνδας.
Σήμερα, η OpenAI δημοσίευσε την πρώτη της έκθεση για τις απειλές, στην οποία περιγράφεται λεπτομερώς πώς παράγοντες από τη Ρωσία, το Ιράν, την Κίνα και το Ισραήλ έχουν προσπαθήσει να χρησιμοποιήσουν την τεχνολογία της για επιχειρήσεις επιρροής στο εξωτερικό σε όλο τον κόσμο. Η έκθεση κατονομάζει πέντε διαφορετικά δίκτυα που η OpenAI εντόπισε και έκλεισε μεταξύ 2023 και 2024. Στην έκθεση, η OpenAI αποκαλύπτει ότι καθιερωμένα δίκτυα, όπως το Doppleganger της Ρωσίας και το Spamoflauge της Κίνας, πειραματίζονται με τον τρόπο χρήσης της δημιουργικής τεχνητής νοημοσύνης για την αυτοματοποίηση των επιχειρήσεών τους. Επίσης, δεν είναι πολύ καλοί σε αυτό.
Και ενώ είναι μια μέτρια ανακούφιση το γεγονός ότι αυτοί οι φορείς δεν έχουν κατακτήσει τη γεννητική ΤΝ για να γίνουν ασταμάτητες δυνάμεις παραπληροφόρησης, είναι σαφές ότι πειραματίζονται, και αυτό από μόνο του θα πρέπει να μας ανησυχεί.
Η έκθεση του OpenAI αποκαλύπτει ότι οι εκστρατείες επιρροής προσκρούουν στα όρια της δημιουργικής τεχνητής νοημοσύνης, η οποία δεν παράγει αξιόπιστα καλά αντίγραφα ή κώδικα. Δυσκολεύεται με τους ιδιωματισμούς -οι οποίοι κάνουν τη γλώσσα να ακούγεται πιο αξιόπιστα ανθρώπινη και προσωπική- και επίσης μερικές φορές με τη βασική γραμματική (τόσο πολύ που το OpenAI ονόμασε ένα δίκτυο «Bad Grammar».) Το δίκτυο Bad Grammar ήταν τόσο πρόχειρο που κάποτε αποκάλυψε την πραγματική του ταυτότητα: «Ως γλωσσικό μοντέλο τεχνητής νοημοσύνης, είμαι εδώ για να βοηθήσω και να παράσχω το επιθυμητό σχόλιο», ανέφερε.
Ένα δίκτυο χρησιμοποίησε το ChatGPT για την αποσφαλμάτωση κώδικα που θα του επέτρεπε να αυτοματοποιήσει αναρτήσεις στο Telegram, μια εφαρμογή συνομιλίας που είναι εδώ και καιρό αγαπημένη των εξτρεμιστών και των δικτύων επιρροής. Αυτό μερικές φορές λειτουργούσε καλά, αλλά άλλες φορές οδηγούσε στο να δημοσιεύει ο ίδιος λογαριασμός με δύο διαφορετικούς χαρακτήρες, προδίδοντας το παιχνίδι.
Σε άλλες περιπτώσεις, το ChatGPT χρησιμοποιήθηκε για τη δημιουργία κώδικα και περιεχομένου για ιστότοπους και μέσα κοινωνικής δικτύωσης. Το Spamoflauge, για παράδειγμα, χρησιμοποίησε το ChatGPT για την αποσφαλμάτωση του κώδικα για τη δημιουργία ενός ιστότοπου WordPress που δημοσίευε ιστορίες που επιτίθονταν σε μέλη της κινεζικής διασποράς που ασκούσαν κριτική στην κυβέρνηση της χώρας.
Σύμφωνα με την έκθεση, το περιεχόμενο που δημιουργήθηκε με τεχνητή νοημοσύνη δεν κατάφερε να ξεφύγει από τα ίδια τα δίκτυα επιρροής και να περάσει στην επικρατούσα τάση, ακόμη και όταν κοινοποιήθηκε σε ευρέως χρησιμοποιούμενες πλατφόρμες όπως το X, το Facebook και το Instagram. Αυτό ίσχυε για τις εκστρατείες που διεξήγαγε μια ισραηλινή εταιρεία, η οποία φαινομενικά εργαζόταν επί πληρωμή και δημοσίευε περιεχόμενο που κυμαινόταν από αντι-Κατάρ έως αντι-BJP, το ινδουιστικό-εθνικιστικό κόμμα που ελέγχει σήμερα την ινδική κυβέρνηση.
Συνολικά, η έκθεση δίνει μια εικόνα αρκετών σχετικά αναποτελεσματικών εκστρατειών με χονδροειδή προπαγάνδα, διασκεδάζοντας φαινομενικά τους φόβους που είχαν πολλοί ειδικοί σχετικά με τη δυνατότητα που έχει αυτή η νέα τεχνολογία να διαδώσει παραπληροφόρηση και παραπληροφόρηση, ιδίως κατά τη διάρκεια ενός κρίσιμου εκλογικού έτους.
Αλλά οι εκστρατείες επιρροής στα μέσα κοινωνικής δικτύωσης συχνά καινοτομούν με την πάροδο του χρόνου για να αποφύγουν τον εντοπισμό, μαθαίνοντας τις πλατφόρμες και τα εργαλεία τους, μερικές φορές καλύτερα από τους ίδιους τους υπαλλήλους των πλατφορμών. Ενώ αυτές οι αρχικές εκστρατείες μπορεί να είναι μικρές ή αναποτελεσματικές, φαίνεται ότι βρίσκονται ακόμη σε πειραματικό στάδιο, λέει η Τζέσικα Γουόλτον, ερευνήτρια του CyberPeace Institute, η οποία έχει μελετήσει τη χρήση της δημιουργικής τεχνητής νοημοσύνης από το Doppleganger.
Κατά την έρευνά της, το δίκτυο χρησιμοποιούσε προφίλ στο Facebook που έμοιαζαν πραγματικά για να δημοσιεύει άρθρα, συχνά γύρω από διχαστικά πολιτικά θέματα. «Τα πραγματικά άρθρα γράφονται από τη γεννητική τεχνητή νοημοσύνη», λέει η ίδια. «Και κυρίως αυτό που προσπαθούν να κάνουν είναι να δουν τι θα πετάξει, τι θα πιάσουν και τι όχι οι αλγόριθμοι της Meta».
Με άλλα λόγια, περιμένετε να γίνουν μόνο καλύτεροι από εδώ και πέρα.
Πηγή: Foreign Influence Campaigns Don’t Know How to Use AI Yet Either






