Εμφάνιση απλής εγγραφής

dc.contributor.advisorΞενάκης, Χρήστος
dc.contributor.authorΑμίτση, Χριστίνα - Βασιλική
dc.date.accessioned2025-11-25T13:30:40Z
dc.date.available2025-11-25T13:30:40Z
dc.date.issued2025-09
dc.identifier.urihttps://dione.lib.unipi.gr/xmlui/handle/unipi/18581
dc.format.extent178el
dc.language.isoenel
dc.publisherΠανεπιστήμιο Πειραιώςel
dc.rightsΑναφορά Δημιουργού-Μη Εμπορική Χρήση-Όχι Παράγωγα Έργα 3.0 Ελλάδα*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/gr/*
dc.titleAI adversarial attacksel
dc.typeMaster Thesisel
dc.contributor.departmentΣχολή Τεχνολογιών Πληροφορικής και Επικοινωνιών. Τμήμα Ψηφιακών Συστημάτωνel
dc.description.abstractENMachine learning models, and in particular deep neural networks, are now widely deployed in applications that demand high levels of accuracy and reliability. However, over the past decade, researchers have shown that these systems are not inherently robust, as they are vulnerable to adversarial interventions that can manipulate their behavior in subtle but highly effective ways. This growing body of research, known as adversarial machine learning, has revealed a broad range of attack strategies that question both the trustworthiness and the security of modern AI. This thesis presents a comprehensive exploration of adversarial threats by examining forty distinct attack methods that cover the principal categories in the field: model extraction, data poisoning and backdoors, evasion through adversarial examples, and privacy or inference attacks. The study systematically evaluates the impact of these attacks on neural networks and goes beyond traditional accuracy measurements by employing richer indicators of performance, including precision, recall, F1-score, attack success rate, and confusion matrix analysis. The results highlight not only the diversity of adversarial techniques but also the common vulnerabilities they exploit. By presenting these attacks within a unified and reproducible framework, the thesis provides both a benchmark for future research and a practical resource for those seeking to understand the risks posed by adversarial machine learning. In doing so, it contributes to a more comprehensive view of the challenges involved in building secure and trustworthy AI systems.el
dc.contributor.masterΑσφάλεια Ψηφιακών Συστημάτωνel
dc.subject.keywordAdversarial attacksel
dc.subject.keywordAI modelsel
dc.subject.keywordMachine learningel
dc.subject.keywordDatasetsel
dc.subject.keywordExtraction attacksel
dc.subject.keywordPoisoning attacksel
dc.subject.keywordEvasion attacksel
dc.subject.keywordInference attacksel
dc.date.defense2025-10-06


Αρχεία σε αυτό το τεκμήριο

Thumbnail

Αυτό το τεκμήριο εμφανίζεται στις ακόλουθες συλλογές

Εμφάνιση απλής εγγραφής

Αναφορά Δημιουργού-Μη Εμπορική Χρήση-Όχι Παράγωγα Έργα 3.0 Ελλάδα
Εκτός από όπου διευκρινίζεται διαφορετικά, το τεκμήριο διανέμεται με την ακόλουθη άδεια:
Αναφορά Δημιουργού-Μη Εμπορική Χρήση-Όχι Παράγωγα Έργα 3.0 Ελλάδα

Βιβλιοθήκη Πανεπιστημίου Πειραιώς
Επικοινωνήστε μαζί μας
Στείλτε μας τα σχόλιά σας
Created by ELiDOC
Η δημιουργία κι ο εμπλουτισμός του Ιδρυματικού Αποθετηρίου "Διώνη", έγιναν στο πλαίσιο του Έργου «Υπηρεσία Ιδρυματικού Αποθετηρίου και Ψηφιακής Βιβλιοθήκης» της πράξης «Ψηφιακές υπηρεσίες ανοιχτής πρόσβασης της βιβλιοθήκης του Πανεπιστημίου Πειραιώς»