Κυβερνοεπίθεση μέσω τεχνητής νοημοσύνης εντοπίστηκε, προκαλώντας ανησυχία για αντίστοιχα περιστατικά στο μέλλον
Η πρόσφατη ανακοίνωση της νεοφυούς εταιρείας τεχνητής νοημοσύνης Anthropic ότι εντόπισε την πρώτη παγκοσμίως εκστρατεία hacking με τη χρήση τεχνητής νοημοσύνης προκάλεσε πληθώρα αντιδράσεων από ειδικούς στον τομέα της κυβερνοασφάλειας.
Είναι όμως αυτό ένα επικίνδυνο σημείο καμπής, ή ένας φόβος χωρίς λογική;
Η κυβερνοεπίθεση μέσω της τεχνητής νοημοσύνης προκαλεί ανησυχία
Σε μια έκθεση που δημοσιεύθηκε την Παρασκευή, η Anthropic ανέφερε ότι ο βοηθός της, Claude Code, χειραγωγήθηκε για να πραγματοποιήσει το 80-90% μιας «μεγάλης κλίμακας» και «εξαιρετικά εξελιγμένης» κυβερνοεπίθεσης, με ανθρώπινη παρέμβαση να απαιτείται «μόνο σποραδικά».
Η Anthropic, δημιουργός του δημοφιλούς chatbot Claude, δήλωσε ότι η επίθεση είχε ως στόχο να διεισδύσει σε κυβερνητικές υπηρεσίες, χρηματοπιστωτικά ιδρύματα, εταιρείες τεχνολογίας και εταιρείες παραγωγής χημικών προϊόντων, αν και η επιχείρηση ήταν επιτυχής μόνο σε λίγες περιπτώσεις.
Η εταιρεία με έδρα το Σαν Φρανσίσκο, η οποία απέδωσε την επίθεση σε χάκερ που χρηματοδοτούνται από το κινεζικό κράτος, δεν διευκρίνισε πώς αποκάλυψε την επιχείρηση, ούτε προσδιόρισε τις «περίπου» 30 οντότητες που, όπως είπε, είχαν στοχοποιηθεί.
Ο Ρομάν Β. Γιαμπόλσκιι, εμπειρογνώμονας σε θέματα τεχνητής νοημοσύνης και κυβερνοασφάλειας στο Πανεπιστήμιο του Λούισβιλ, δήλωσε ότι δεν υπάρχει αμφιβολία ότι η υποβοηθούμενη από τεχνητή νοημοσύνη πειρατεία αποτελεί σοβαρή απειλή, αν και είναι δύσκολο να επαληθευτούν οι ακριβείς λεπτομέρειες της περιγραφής της Anthropic.
«Τα σύγχρονα μοντέλα μπορούν να γράφουν και να προσαρμόζουν κώδικα εκμετάλλευσης, να διαχειρίζονται τεράστιους όγκους κλεμμένων δεδομένων και να συντονίζουν εργαλεία γρηγορότερα και φθηνότερα από τις ανθρώπινες ομάδες», δήλωσε ο Γιαμπόλσκιι στο Al Jazeera.
Ο Γιαμπόλσκιι δήλωσε ότι αναμένει η τεχνητή νοημοσύνη να αυξήσει τόσο τη συχνότητα όσο και τη σοβαρότητα των επιθέσεων.
«Αυτό είναι πιθανό να πλήξει περισσότερο τις μεσαίες επιχειρήσεις και τις κυβερνητικές υπηρεσίες».
Ο Τζέιμι Σεβίλα, διευθυντής της Epoch AI, δήλωσε ότι δεν είδε πολλά νέα στοιχεία στην έκθεση της Anthropic, αλλά η εμπειρία του παρελθόντος έδειξε ότι οι επιθέσεις με τη βοήθεια τεχνητής νοημοσύνης είναι εφικτές και πιθανό να γίνουν όλο και πιο συχνές.
«Αυτό είναι πιθανό να πλήξει περισσότερο τις μεσαίες επιχειρήσεις και τις κυβερνητικές υπηρεσίες», δήλωσε ο Σεβίλα στο Al Jazeera.
«Ιστορικά, δεν ήταν αρκετά αξιόλογοι στόχοι για ειδικές εκστρατείες κυβερνοεπίθεσης και συχνά δεν επενδύονταν αρκετά στην κυβερνοασφάλεια, αλλά η τεχνητή νοημοσύνη τους καθιστά κερδοφόρους στόχους. Αναμένω ότι πολλές από αυτές τις οργανώσεις θα προσαρμοστούν προσλαμβάνοντας ειδικούς στην κυβερνοασφάλεια, ξεκινώντας προγράμματα ανταμοιβής για την ανακάλυψη τρωτών σημείων και χρησιμοποιώντας τεχνητή νοημοσύνη για την ανίχνευση και την επιδιόρθωση εσωτερικών αδυναμιών».
Περισσότερες και πιο επιτυχημένες κυβερνοεπιθέσεις;
Ενώ πολλοί αναλυτές έχουν εκφράσει την επιθυμία τους για περισσότερες πληροφορίες από την Anthropic, ορισμένοι έχουν απορρίψει τους ισχυρισμούς της.
Αφού ο γερουσιαστής των Ηνωμένων Πολιτειών Κρις Μέρφι προειδοποίησε ότι οι επιθέσεις με τη χρήση τεχνητής νοημοσύνης θα «μας καταστρέψουν» αν η ρύθμιση δεν γίνει προτεραιότητα, ο επικεφαλής επιστήμονας της Meta AI Γιάν ΛεΚάν κατηγόρησε τον νομοθέτη ότι «επηρεάζεται» από μια εταιρεία που επιδιώκει να βάλει «χέρι» στη ρύθμιση.
«Τρομάζουν όλους με αμφίβολες μελέτες, ώστε τα μοντέλα ανοιχτού κώδικα να ρυθμιστούν μέχρι να εξαφανιστούν», δήλωσε ο ΛεΚάν σε μια ανάρτηση στο X.
Ένας εκπρόσωπος της κινεζικής πρεσβείας στην Ουάσιγκτον δήλωσε ότι η Κίνα «με συνέπεια και αποφασιστικότητα» αντιτίθεται σε όλες τις μορφές κυβερνοεπιθέσεων.
«Ελπίζουμε ότι οι αρμόδιοι φορείς θα υιοθετήσουν μια επαγγελματική και υπεύθυνη στάση, βασίζοντας τον χαρακτηρισμό των κυβερνοεπιθέσεων σε επαρκή στοιχεία και όχι σε αβάσιμες εικασίες και κατηγορίες», δήλωσε ο Λιού Πενγκιού στο Al Jazeera.
Ο Τόμπι Μάρεϊ, εμπειρογνώμονας σε θέματα ασφάλειας υπολογιστών στο Πανεπιστήμιο της Μελβούρνης, δήλωσε ότι η Anthropic είχε επιχειρηματικά κίνητρα για να τονίσει τόσο τους κινδύνους τέτοιων επιθέσεων όσο και την ικανότητά της να τις αντιμετωπίσει.
«Κάποιοι αμφισβήτησαν τους ισχυρισμούς της Anthropic που υποδηλώνουν ότι οι επιτιθέμενοι κατάφεραν να κάνουν το Claude AI να εκτελέσει πολύπλοκες εργασίες με λιγότερη ανθρώπινη εποπτεία από ό,τι απαιτείται συνήθως», δήλωσε ο Μάρεϊ στο ειδησεογραφικό μέσο.
«Δυστυχώς, δεν μας παρέχουν αδιάσειστα στοιχεία για να πούμε με ακρίβεια ποιες εργασίες εκτελέστηκαν ή ποια εποπτεία ασκήθηκε. Επομένως, είναι δύσκολο να κρίνουμε με βεβαιότητα αυτές τις ισχυρισμούς».
Ωστόσο, ο Μάρεϊ δήλωσε ότι δεν βρήκε την έκθεση ιδιαίτερα εκπληκτική, λαμβάνοντας υπόψη πόσο αποτελεσματικοί είναι ορισμένοι βοηθοί τεχνητής νοημοσύνης σε εργασίες όπως η κωδικοποίηση.
«Πρέπει να αναμένουμε να δούμε περισσότερα hacking με τη βοήθεια της τεχνητής νοημοσύνης στο μέλλον, και αυτά τα hacking να γίνουν πιο επιτυχημένα».
«Δεν πιστεύω ότι το hacking με τη βοήθεια της τεχνητής νοημοσύνης θα αλλάξει τα είδη των κυβερνοεπιθέσεων που θα συμβούν», είπε.
«Ωστόσο, μπορεί να επιφέρει μια αλλαγή κλίμακας. Πρέπει να αναμένουμε να δούμε περισσότερα hacking με τη βοήθεια της τεχνητής νοημοσύνης στο μέλλον, και αυτά τα hacking να γίνουν πιο επιτυχημένα».
Οι αμυντικοί μηχανισμοί
Ενώ η τεχνητή νοημοσύνη αναμένεται να θέσει αυξανόμενους κινδύνους για την ασφάλεια στον κυβερνοχώρο, θα είναι επίσης καθοριστική για την ενίσχυση των αμυντικών μηχανισμών, σύμφωνα με τους αναλυτές.
Ο Φρεντ Χέιντινγκ, ερευνητής στο Πανεπιστήμιο του Χάρβαρντ που ειδικεύεται στην ασφάλεια υπολογιστών και την ασφάλεια τεχνητής νοημοσύνης, δήλωσε ότι πιστεύει ότι η τεχνητή νοημοσύνη θα προσφέρει «σημαντικό πλεονέκτημα» στους ειδικούς της κυβερνοασφάλειας μακροπρόθεσμα.
«Σήμερα, πολλές κυβερνοεπιχειρήσεις εμποδίζονται από την έλλειψη ανθρώπινου δυναμικού με εξειδίκευση στον κυβερνοχώρο. Η τεχνητή νοημοσύνη θα μας βοηθήσει να ξεπεράσουμε αυτό το εμπόδιο, επιτρέποντάς μας να δοκιμάζουμε όλα τα συστήματά μας σε μεγάλη κλίμακα», δήλωσε ο Χέιντινγκ στο Al Jazeera.
Ο Χέιντινγκ, ο οποίος χαρακτήρισε την περιγραφή της Anthropic ως γενικά αξιόπιστη αλλά «υπερβολική», δήλωσε ότι ο μεγάλος κίνδυνος είναι ότι οι χάκερ θα έχουν την ευκαιρία να δράσουν ανεξέλεγκτα, καθώς οι ειδικοί σε θέματα ασφάλειας αγωνίζονται να συμβαδίσουν με την εκμετάλλευση της ολοένα και πιο προηγμένης τεχνητής νοημοσύνης.
«Αν συμβεί αυτό, οι επιτιθέμενοι θα προκαλέσουν χάος στα συστήματά μας με το πάτημα ενός κουμπιού, πριν προλάβουν να αντιδράσουν οι άμυνές μας».
«Δυστυχώς, η αμυντική κοινότητα είναι πιθανό να είναι πολύ αργή στην εφαρμογή της νέας τεχνολογίας σε αυτοματοποιημένες λύσεις δοκιμών ασφάλειας και επιδιόρθωσης», είπε.
«Αν συμβεί αυτό, οι επιτιθέμενοι θα προκαλέσουν χάος στα συστήματά μας με το πάτημα ενός κουμπιού, πριν προλάβουν να αντιδράσουν οι άμυνές μας».


