21 Αύγουστος 2018

RSS Facebook Twitter

ΟΙΚΟΝΟΜΙΑ

Δευτέρα, 13 Αύγουστος 2018 07:15

Τεχνητή νοημοσύνη και malware – Οι δύο όψεις

Η τεχνητή νοημοσύνη έχει φτάσει πλέον σε ένα σημείο ανάπτυξης όπου μπορεί να χρησιμοποιηθεί για την πάταξη του κυβερνοεγκλήματος, μέσω της αυτόματης ανίχνευσης και καταπολέμησης κακόβουλου λογισμικού.

 Ωστόσο το ΑI αποτελεί μια ακόμη τεχνολογία με “διπλή χρήση”, τόσο για καλό όσο και για κακό σκοπό, εφόσον βρεθεί στα λάθος χέρια. Έτσι είναι δυνατό να αποτελέσει ένα πανίσχυρο όπλο στα χέρια χάκερ, τρομοκρατών και απολυταρχικών καθεστώτων που μπορούν επίσης να την χρησιμοποιήσουν προς ιδίον όφελος.

Η κυβερνοασφάλεια, σε έναν κόσμο γεμάτο από IoT συσκευές και δικτυωμένα συστήματα, έχει μετατραπεί σε ένα πεδίο διαρκούς μάχης μεταξύ των ερευνητών της white hat κοινότητας και των φορέων απειλής. Οι παραδοσιακές λύσεις για την ασφάλεια στον κυβερνοχώρο, όπως τα λογισμικά προστασίας από ιούς, δεν είναι πλέον επαρκείς. Οι κυβερνοεγκληματίες ακολουθούν κάθε πιθανή οδό και επιστρατεύονται κάθε μέσο για να κλέψουν δεδομένα, να διεισδύσουν σε δίκτυα, να αδειάσουν τραπεζικούς λογαριασμούς, να απαιτήσουν λύτρα από επιχειρήσεις και να διαταράξουν τη λειτουργία κρίσιμων συστημάτων και υποδομών.

Από την άλλη πλευρά, οι ερευνητές ασφάλειας και οι ομάδες αντιμετώπισης κυβερνοεγκλήματος εργάζονται σκληρά για να συμβαδίζουν με τις συνεχείς προσπάθειες επιθέσεων και να αντιμετωπίζουν νέους τύπους κακόβουλου λογισμικού και ευπαθειών, σε μια εποχή όπου η τεχνολογία των υπολογιστών εξελίσσεται όλο και περισσότερο. Η τεχνητή νοημοσύνη αποτελεί ένα πολύτιμο όπλο στα χέρια της white hat κοινότητας, βοηθώντας τους ερευνητές να ανιχνεύουν ύποπτα patterns και μοτίβα, να εντοπίζουν τα ίχνη των κυβερνοεγκληματιών, και να προλαμβάνουν επιθέσεις, αποφορτίζοντας το δύσκολο έργο τους και βοηθώντας τις προσπάθειες που καταβάλουν για να παραμείνουν μπροστά από τους κακόβουλους χάκερς.τεχνητή νοημοσύνη

Όμως κάθε νόμισμα έχει δύο όψεις, και όπως είναι επόμενο, η ίδια τεχνολογία μπορεί επίσης να χρησιμοποιηθεί από τους παράγοντες απειλής για την ενίσχυση των δικών τους μεθόδων επίθεσης.

Σύμφωνα με την IBM, ζούμε στην εποχή του AI, και ως εκ τούτου η τεχνητή νοημοσύνη θα μπορούσε να μετατραπεί σε ένα πανίσχυρο κυβερνο-όπλο στα χέρια των επιτιθέμενων. Για να μελετήσει πώς θα μπορούσε αυτό να συμβεί, η IBM Research ανέπτυξε ένα εργαλείο επίθεσης που τροφοδοτείται από τεχνητή νοημοσύνη.

Ο λόγος για το DeepLocker, ένα malware που βασίζεται σε AI, και σύμφωνα με την ερευνητική ομάδα είναι άκρως στοχευμένο και εξαιρετικά αποτελεσματικό, καθώς είναι σε θέση να παρακάμπτει ακόμη και τα πιο εξελιγμένα αντίμετρα ασφάλειας .

Το κακόβουλο λογισμικό κρύβεται σε legitimate εφαρμογές όπως λογισμικά τηλεδιάσκεψης για να αποφύγει τον εντοπισμό, και παραμένει αδρανές έως ότου φθάσει στον προορισμό / στόχο. Ο εκάστοτε στόχος εντοπίζεται μέσω προηγμένων τεχνικών, όπως αναγνώριση προσώπου, εντοπισμό γεωγραφικής θέσης, αναγνώριση φωνής και ενδεχομένως ανάλυση δεδομένων που συλλέγονται από πηγές όπως online trackers και μέσα κοινωνικής δικτύωσης.

Μόλις εντοπιστεί ο στόχος, το DeepLocker ξεκινά την επίθεσή του.

Το μοντέλο Deep Neural Network (DNN) του DeepLocker ορίζει “συνθήκες ενεργοποίησης” για την εκτέλεση του payload. Εάν δεν πληρούνται αυτές οι προϋποθέσεις και ο στόχος δεν μπορεί να εντοπιστεί τότε το κακόβουλο λογισμικό δεν ενεργοποιείται. Σύμφωνα με την IBM, το χαρακτηριστικό αυτό κάνει τον κακόβουλο κώδικα σχεδόν αδύνατο να γίνει reversed engineered. Το εξελιγμένο νευρωνικό δίκτυο του DeepLocker είναι αυτό που παράγει το “κλειδί” που χρειάζεται για να ξεκλειδώσει την επίθεση.

Η εύρεση ενός στόχου, η ενεργοποίηση ενός κλειδιού και η εκτέλεση ενός ωφέλιμου φορτίου εάν πληρούνται συγκεκριμένες προϋποθέσεις μπορεί να φέρει στο νου το μοντέλο προγραμματισμού “if this, then that”. Ωστόσο, το μοντέλο DNN AI είναι πολύ πιο περίπλοκο και δύσκολο να αποκρυπτογραφηθεί.

Για να δείξουν τις δυνατότητες του DeepLocker, οι ερευνητές δημιούργησαν ένα PoC , κατά το οποίο το ransomware WannaCry είχε συγκαλυφθεί σε μια εφαρμογή τηλεδιάσκεψης, και δεν ήταν εντοπίσιμο από μηχανές προστασίας από ιούς ή μέσω sandboxing.

Στη συνέχεια, το μοντέλο AI εκπαιδεύτηκε ώστε να είναι σε θέση να αναγνωρίζει το πρόσωπο ενός ατόμου που επιλέχθηκε ως στόχος στα πλαίσια της δοκιμής. Η αναγνώριση του συγκεκριμένου ατόμου ορίστηκε ως η “συνθήκη ενεργοποίησης” για την εκτέλεση του ransomware.

Φανταστείτε αυτή την εφαρμογή τηλεδιάσκεψης να διανέμεται και να γίνεται download από εκατομμύρια ανθρώπους. Κατά την εκτέλεσή της, η εφαρμογή τροφοδοτεί κρυφά τα στιγμιότυπα που λαμβάνει από τις κάμερες των χρηστών στο ενσωματωμένο μοντέλο AI, και συμπεριφέρεται κανονικά σε όλους τους χρήστες εκτός από τον επιδιωκόμενο στόχο. Όταν το θύμα καθίσει μπροστά από τον υπολογιστή και χρησιμοποιήσει την εφαρμογή, το κακόβουλο φορτίο θα εκτελεστεί κρυφά, καθώς  η φωτογραφία του προσώπου του που θα διοχετευτεί στην εφαρμογή θα λειτουργήσει ως το κλειδί που εκκινεί την επίθεση.

Τα αποτελέσματα των δοκιμών των ερευνητών αναμένεται να παρουσιαστούν στο επερχόμενο Black Hat USA.

“Αυτό που κάνει το κακόβουλο λογισμικό ιδιαίτερα επικίνδυνο (ομοίως με τη δράση των κρατικά επιχορηγούμενων malware) είναι ότι θα μπορούσε να μολύνει εκατομμύρια συστήματα χωρίς να εντοπιστεί, απλώς εξαπολύοντας το κακόβουλο payload του σε συγκεκριμένους στόχους που καθορίζει ο χειριστής του malware”, αναφέρουν οι ερευνητές.

Ευτυχώς, αυτό το είδος κυβερνοαπειλής δεν έχει χρησιμοποιηθεί ενεργά ακόμα. Ωστόσο, το DeepLocker δημιουργήθηκε με σκοπό την κατανόηση του τρόπου με τον οποίο η τεχνητή νοημοσύνη θα μπορούσε να αξιοποιηθεί από τους εγκληματίες του κυβερνοχώρου στο μέλλον, ώστε να αναπτυχθούν αποτελεσματικές άμυνες έναντι τέτοιου είδους επιθέσεων.

secnews.gr

blog comments powered by Disqus
thesspress

thesspress

info@thesspress.gr