Ανίχνευση επιθέσεων με αντίπαλη τεχνητή νοημοσύνη
Adversarial AI attack detection

Προβολή/ Άνοιγμα
Λέξεις κλειδιά
Adversarial AI attack detection ; FGSM ; PGD ; Deep learning detectors ; ANN CNN RNN detectors ; Unknown adversarial attacks ; Semi-supervised learning ; Lifelong learning ; Image-based adversarial attacksΠερίληψη
Στην παρούσα διπλωματική εργασία μελετάται η ανίχνευση adversarial επιθέσεων σε συστήματα βαθιάς μάθησης που χρησιμοποιούνται για ταξινόμηση εικόνων. Εξετάστηκαν δύο διαφορετικά σύνολα δεδομένων, το LISA Traffic Light Dataset (αναγνώριση φωτεινών σηματοδοτών) και το FruitNet: Indian Fruits Quality Dataset (αναγνώριση ποιότητας φρούτων), ώστε να αξιολογηθεί η απόδοση των μοντέλων τόσο εντός όσο και εκτός κατανομής. Αρχικά εκπαιδεύτηκαν ταξινομητές ANN, CNN και RNN και στη συνέχεια δημιουργήθηκαν adversarial επιθέσεις τύπου FGSM και PGD. Με βάση αυτά τα δεδομένα αναπτύχθηκαν ανιχνευτές adversarial εισόδων αντίστοιχων αρχιτεκτονικών, καθώς και ένας ημι-επιβλεπόμενος και ένας δια βίου ανιχνευτής τύπου CNN. Οι αξιολογήσεις πραγματοποιήθηκαν σε καθαρές και παραμορφωμένες εικόνες, καθώς και σε άγνωστες επιθέσεις. Τα αποτελέσματα έδειξαν ότι τα CNN μοντέλα είναι τα πιο σταθερά και ακριβή ως ταξινομητές και ως ανιχνευτές, διατηρώντας υψηλή απόδοση και στα δύο datasets. Ο ημι-επιβλεπόμενος ανιχνευτής βελτίωσε τη γενίκευση χωρίς πρόσθετη επισήμανση, ενώ ο ανιχνευτής δια βίου μάθησης πέτυχε σχεδόν πλήρη ανίχνευση σε άγνωστες επιθέσεις, με μικρή αύξηση ψευδών συναγερμών. Η συνέπεια των ευρημάτων στα δύο σύνολα δεδομένων δείχνει ότι τα adversarial μοτίβα εμφανίζουν κοινά χαρακτηριστικά ανεξάρτητα από το domain και ότι οι προτεινόμενοι ανιχνευτές μπορούν να λειτουργούν αξιόπιστα σε μεταβαλλόμενα περιβάλλοντα.


