dc.contributor.advisor | Xenakis, Christos | |
dc.contributor.advisor | Ξενάκης, Χρήστος | |
dc.contributor.author | Kalligeros, Panteleimon | |
dc.contributor.author | Καλλίγερος, Παντελεήμων | |
dc.date.accessioned | 2025-06-03T06:02:22Z | |
dc.date.available | 2025-06-03T06:02:22Z | |
dc.date.issued | 2025 | |
dc.identifier.uri | https://dione.lib.unipi.gr/xmlui/handle/unipi/17814 | |
dc.description.abstract | Καθώς τα συστήματα τεχνητής νοημοσύνης (ΤΝ) ενσωματώνονται όλο και πιο βαθιά σε βασικές εφαρμογές, η ευπάθεια τους σε επιθέσεις από επιτιθέμενους αναδεικνύεται σε σημαντικό ζήτημα ασφάλειας. Η παρούσα διπλωματική εργασία εμβαθύνει στη σφαίρα της εχθρικής ΤΝ προτείνοντας μια λεπτομερή ταξινόμηση των στρατηγικών επίθεσης και διεξάγοντας μια εμπειρική αξιολόγηση των επιπτώσεών τους στα μοντέλα μηχανικής μάθησης (ΜΜ) και βαθιάς μάθησης (ΒΜ). Η έρευνα κατηγοριοποιεί τις αντίπαλες επιθέσεις σε τέσσερις πρωταρχικούς τύπους - δηλητηρίαση, αποφυγή, συμπερασματολογία και εξαγωγή μοντέλων - προσφέροντας έτσι μια δομημένη προσέγγιση για την σαφέστερη κατανόηση των μεθόδων και των στόχων τους. Επιπλέον, εξετάζει πώς οι υπερπαράμετροι του μοντέλου, όπως ο ρυθμός μάθησης, η ισχύς της κανονικοποίησης και η αρχιτεκτονική του δικτύου, παίζουν ρόλο στην ευπάθεια σε αυτές τις επιθέσεις. Μέσω μιας σειράς προσεκτικά ελεγχόμενων πειραμάτων, η μελέτη καταδεικνύει τα διαφορετικά επίπεδα αποτελεσματικότητας των επιθέσεων με στρατηγικές όπως οι FGSM, PGD, DeepFool και KnockoffNets, αποκαλύπτοντας τη λεπτή ισορροπία που υπάρχει μεταξύ της επίτευξης βέλτιστης απόδοσης του μοντέλου και της διατήρησης της ανθεκτικότητας. Τα ευρήματα υπογραμμίζουν ότι ακόμη και μικρές προσαρμογές στις υπερπαραμέτρους μπορούν να επηρεάσουν σημαντικά τη στάση ασφαλείας ενός μοντέλου. Αυτή η εργασία προσθέτει στο διευρυνόμενο πεδίο της ανταγωνιστικής τεχνητής νοημοσύνης ενσωματώνοντας τη θεωρητική ανάλυση με τον πρακτικό πειραματισμό, παρέχοντας πρακτικές γνώσεις για την ανάπτυξη συστημάτων τεχνητής νοημοσύνης με αυξημένη ανθεκτικότητα και θέτοντας τα θεμέλια για τη μελλοντική αμυντική στρατηγική. | el |
dc.format.extent | 127 | el |
dc.language.iso | en | el |
dc.publisher | Πανεπιστήμιο Πειραιώς | el |
dc.rights | Αναφορά Δημιουργού-Μη Εμπορική Χρήση-Όχι Παράγωγα Έργα 3.0 Ελλάδα | * |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/3.0/gr/ | * |
dc.title | Generative adversarial AI | el |
dc.type | Master Thesis | el |
dc.contributor.department | Σχολή Τεχνολογιών Πληροφορικής και Επικοινωνιών. Τμήμα Ψηφιακών Συστημάτων | el |
dc.description.abstractEN | As artificial intelligence (AI) systems become more deeply integrated into essential applications, their susceptibility to adversarial attacks emerges as a substantial security issue. This thesis delves into the realm of adversarial AI by suggesting a thorough taxonomy of attack strategies and conducting an empirical assessment of their effects on machine learning (ML) and deep learning (DL) models. The research categorizes adversarial attacks into four primary types: poisoning, evasion, inference, and model extraction, thus offering a structured approach to understanding their methods and objectives more clearly. In addition, it examines how model hyperparameters, such as learning rate, regularization strength, and network architecture, play a role in the vulnerability to these attacks. Through a series of carefully controlled experiments, the study demonstrates the differing levels of attack effectiveness with strategies like FGSM, PGD, DeepFool, and KnockoffNets, revealing the delicate balance that exists between achieving optimal model performance and maintaining robustness. The findings emphasize that even slight adjustments in hyperparameters can substantially influence a model’s security stance. This research adds to the expanding field of adversarial AI by integrating theoretical analysis with practical experimentation, providing practical insights for the development of AI systems with enhanced resilience and setting the foundation for future defense strategies. | el |
dc.contributor.master | Ασφάλεια Ψηφιακών Συστημάτων | el |
dc.subject.keyword | Adversarial | el |
dc.subject.keyword | AI | el |
dc.subject.keyword | Artificial Intelligence | el |
dc.subject.keyword | Attacks | el |
dc.subject.keyword | Hyperparameters | el |
dc.subject.keyword | Taxonomy | el |
dc.date.defense | 2025 | |