Εμφάνιση απλής εγγραφής

dc.contributor.advisorXenakis, Christos
dc.contributor.advisorΞενάκης, Χρήστος
dc.contributor.authorKollarou, Athanasia
dc.contributor.authorΚολλάρου, Αθανασία
dc.date.accessioned2025-02-07T12:25:18Z
dc.date.available2025-02-07T12:25:18Z
dc.date.issued2025-02
dc.identifier.urihttps://dione.lib.unipi.gr/xmlui/handle/unipi/17435
dc.format.extent99el
dc.language.isoenel
dc.publisherΠανεπιστήμιο Πειραιώςel
dc.rightsΑναφορά Δημιουργού - Παρόμοια Διανομή 3.0 Ελλάδα*
dc.rights.urihttp://creativecommons.org/licenses/by-sa/3.0/gr/*
dc.titleA comparative analysis of adversarial techniques on AI modelsel
dc.typeMaster Thesisel
dc.contributor.departmentΣχολή Τεχνολογιών Πληροφορικής και Επικοινωνιών. Τμήμα Ψηφιακών Συστημάτωνel
dc.description.abstractENThe increasing adoption of Artificial Intelligence and Machine Learning in critical sectors underscores the need for robust systems resilient to adversarial threats. While deep learning architectures have revolutionized tasks like image recognition, their ability to maintain their functionality without being affected by adversarial techniques remains an open issue. This study aims to evaluate the impact of adversarial techniques, including Fast Gradient Sign Method, Projected Gradient Descent, DeepFool, and Carlini & Wagner, on five neural network models: Fully Connected Neural Network, LeNet, Simple CNN, MobileNetV2, and VGG11. Using the EvAIsion tool developed for this research, attacks were implemented and analysed using metrics such as accuracy, F1 score, and misclassification rate. The results showed varying levels of vulnerability across the tested models, with simpler models having slightly better performance than more complex ones in some cases. The findings suggest that the effectiveness of the adversarial techniques can vary depending on the model. This emphasises the importance of selecting the more appropriate attack techniques for the targeted architecture and also customising the different attack parameters to achieve the best results for each specific caseel
dc.contributor.masterΑσφάλεια Ψηφιακών Συστημάτωνel
dc.subject.keywordAdversarial Machine Learning (AML)el
dc.subject.keywordEvasion attacksel
dc.subject.keywordNeural networksel
dc.subject.keywordModel robustnessel
dc.subject.keywordEvaluation of AI model securityel
dc.date.defense2025-02-03


Αρχεία σε αυτό το τεκμήριο

Thumbnail

Αυτό το τεκμήριο εμφανίζεται στις ακόλουθες συλλογές

Εμφάνιση απλής εγγραφής

Αναφορά Δημιουργού - Παρόμοια Διανομή 3.0 Ελλάδα
Εκτός από όπου διευκρινίζεται διαφορετικά, το τεκμήριο διανέμεται με την ακόλουθη άδεια:
Αναφορά Δημιουργού - Παρόμοια Διανομή 3.0 Ελλάδα

Βιβλιοθήκη Πανεπιστημίου Πειραιώς
Επικοινωνήστε μαζί μας
Στείλτε μας τα σχόλιά σας
Created by ELiDOC
Η δημιουργία κι ο εμπλουτισμός του Ιδρυματικού Αποθετηρίου "Διώνη", έγιναν στο πλαίσιο του Έργου «Υπηρεσία Ιδρυματικού Αποθετηρίου και Ψηφιακής Βιβλιοθήκης» της πράξης «Ψηφιακές υπηρεσίες ανοιχτής πρόσβασης της βιβλιοθήκης του Πανεπιστημίου Πειραιώς»