| dc.contributor.advisor | Xenakis, Christos | |
| dc.contributor.advisor | Ξενάκης, Χρήστος | |
| dc.contributor.author | Psychogyiou, Aikaterini | |
| dc.contributor.author | Ψυχογυιού, Αικατερίνη | |
| dc.date.accessioned | 2025-11-24T10:17:46Z | |
| dc.date.available | 2025-11-24T10:17:46Z | |
| dc.date.issued | 2025-05 | |
| dc.identifier.uri | https://dione.lib.unipi.gr/xmlui/handle/unipi/18512 | |
| dc.description.abstract | Η ταχεία ενσωμάτωση των τεχνολογιών τεχνητής νοημοσύνης (AI) σε διάφορους τομείς έχει μεταμορφώσει πολλές διαδικασίες της καθημερινότητας, προσφέροντας πρωτοφανείς εξελίξεις στην αποτελεσματικότητα κατά την ολοκλήρωση τους και τη λήψη αποφάσεων. Ωστόσο, αυτή η εξέλιξη έχει επίσης εισαγάγει σημαντικούς κινδύνους, συμπεριλαμβανομένων σοβαρών κινδύνων ασφαλείας και συμμόρφωσης καθώς και ηθικά διλήμματα που απειλούν την ακεραιότητά αυτών των καινούργιων συστημάτων.
Ο σκοπός αυτής της διπλωματικής είναι να εξελίξει το σχεδόν ανύπαρκτο τοπίο της διαχείρισης κινδύνου για τα συστήματα τεχνητής νοημοσύνης, με στόχο την ανάπτυξη ενός ολοκληρωμένου πλαισίου που αντιμετωπίζει τις μοναδικές προκλήσεις της αξιολόγησης και βελτίωσης τους. Η έρευνα ξεκινά με μια ενδελεχή βιβλιογραφική ανασκόπηση, εξετάζοντας τις υπάρχουσες θεωρίες και πλαίσια διαχείρισης κινδύνου, συμπεριλαμβανομένων των κατευθυντήριων γραμμών του ENISA και των προτύπων ISO, ενώ προσδιορίζονται επίσης κρίσιμες κατηγορίες κινδύνου που αφορούν αποκλειστικά τα συστήματα τεχνητής νοημοσύνης και αντίστοιχα μέτρα για την εξάλειψη τους. Η μελέτη στη συνέχεια προτείνει ένα νέο μοντέλο διαχείρισης κινδύνου προσαρμοσμένο ειδικά για τεχνολογίες τεχνητής νοημοσύνης, ενώνοντας κάτω από την ίδια ομπρέλα αρχές από την κυβερνοασφάλεια, τη διακυβέρνηση και τις ήδη υπάρχουσες δεοντολογικές κατευθυντήριες γραμμές. Τέλος, παρουσιάζεται η μελέτη μιας περίπτωσης ενός συστήματος ανίχνευσης απάτης που βασίζεται σε τεχνητή νοημοσύνη σε ένα χρηματοπιστωτικό
ίδρυμα, η οποία απεικονίζει την πρακτική εφαρμογή του προτεινόμενου πλαισίου. Αυτή η παρουσίαση επαληθεύει τη λειτουργική επιτυχία του μοντέλου με την επιτυχή ολοκλήρωση της διαδικασίας διαχείρισης κινδύνου, έχοντας υπολογίσει ρίσκα και πιθανά μέτρα που θα μπορούσαν να παρθούν για τoν μετριασμό ή ακόμα και την ολοκληρωτική εξάλειψή τους. Τα αποτελέσματα αποκαλύπτουν σημαντικές βελτιώσεις στην λειτουργική αποτελεσματικότητα του συστήματος, ενώ ταυτόχρονα αντιμετωπίζονται
προκλήσεις που σχετίζονται με το απόρρητο των δεδομένων και την κανονιστική συμμόρφωση. Τα ευρήματα αυτής της διατριβής συμβάλλουν στην αυξανόμενη γνώση σχετικά με τη διαχείριση κινδύνου τεχνητής νοημοσύνης, παρέχοντας μια δομημένη προσέγγιση που μπορούν να υιοθετήσουν οι οργανισμοί για τον αποτελεσματικό μετριασμό των κινδύνων. Δίνοντας έμφαση στη σημασία της συνεχούς παρακολούθησης και της προσαρμοστικότητας στις στρατηγικές, αυτή η έρευνα στοχεύει να προωθήσει μια ασφαλέστερη και πιο αξιόπιστη ανάπτυξη συστημάτων τεχνητής νοημοσύνης, διασφαλίζοντας την ανθεκτικότητά τους σε ένα περιβάλλον που επικεντρώνεται όλο και περισσότερο σε αυτή. | el |
| dc.format.extent | 63 | el |
| dc.language.iso | en | el |
| dc.publisher | Πανεπιστήμιο Πειραιώς | el |
| dc.title | Risk management for AI systems | el |
| dc.type | Master Thesis | el |
| dc.contributor.department | Σχολή Τεχνολογιών Πληροφορικής και Επικοινωνιών. Τμήμα Ψηφιακών Συστημάτων | el |
| dc.description.abstractEN | The rapid integration of artificial intelligence (AI) technologies across various sectors has transformed many aspects of everyday processes, offering unprecedented advancements in the efficiency of their execution and decision-making. However, this evolution has also introduced significant risks, including serious security and compliance threats, as well as ethical dilemmas that jeopardise
the integrity of these emerging systems. The aim of this dissertation is to advance the nearly non-existent landscape of risk management for AI systems by developing a comprehensive framework that addresses the unique challenges involved in assessing and improving AI technologies. The research begins with an in-depth literature review, examining existing risk management theories and frameworks, including ENISA guidelines and ISO standards, while also identifying critical risk categories that are specific to AI systems and their corresponding measures. The study then proposes a new risk management model tailored specifically to AI technologies, bringing together principles from cybersecurity, governance, and established ethical guidelines under a unified structure. Finally, the dissertation presents a case study of an AI-powered fraud detection system within
a financial institution, showcasing the practical application of the proposed framework. This case study verifies the functional success of the model through the successful completion of the risk management process, accounting for potential risks and the mitigation or even elimination measures that could be taken. The results reveal significant improvements in the system’s operational efficiency while also addressing challenges related to data privacy and regulatory compliance. The findings of this study contribute to the growing body of knowledge on AI risk management, offering a structured approach that organisations can adopt to mitigate associated risks effectively. By emphasising the importance of continuous monitoring and adaptive strategies, this research aims to promote the safer and more trustworthy development of AI systems, ensuring their resilience in an increasingly AI-driven environment. | el |
| dc.contributor.master | Ασφάλεια Ψηφιακών Συστημάτων | el |
| dc.subject.keyword | AI | el |
| dc.subject.keyword | Risk management | el |
| dc.subject.keyword | Cybersecurity risk management | el |
| dc.subject.keyword | AI/ML | el |
| dc.subject.keyword | Optimisation | el |
| dc.subject.keyword | Qualitative cybersecurity risk assessment | el |
| dc.date.defense | 2025-05-12 | |