dc.contributor.advisor | Papastefanatos, George | |
dc.contributor.advisor | Παπαστεφανάτος, Γεώργιος | |
dc.contributor.author | Ploumidi, Chrysa | |
dc.contributor.author | Πλουμίδη, Χρύσα | |
dc.date.accessioned | 2024-09-18T10:53:18Z | |
dc.date.available | 2024-09-18T10:53:18Z | |
dc.date.issued | 2024-07 | |
dc.identifier.uri | https://dione.lib.unipi.gr/xmlui/handle/unipi/16755 | |
dc.identifier.uri | http://dx.doi.org/10.26267/unipi_dione/4177 | |
dc.description.abstract | Η ραγδαία υιοθέτηση των μοντέλων Μηχανικής Μάθησης σε διάφορους τομείς, απαιτεί μια βαθύτερη κατανόηση των διαδικασιών λήψης αποφάσεων, για να διασφαλιστεί η διαφάνεια και να χτιστεί εμπιστοσύνη. Η έρευνά μας πραγματοποιήθηκε γύρω από τον τομέα της ερμηνευσιμότητας στη Μηχανική Μάθηση, εστιάζοντας σε τεχνικές οπτικοποίησης και πιο συγκεκριμένα τη νέα προσέγγιση των Αντεπιχειρημάτων (Counterfactuals). Τεχνικές οπτικοποίησης, όπως γραφήματα και διαδραστικά διαγράμματα, μετατρέπουν αλγορίθμους σε κατανοητές μορφές, επιτρέποντας στους χρήστες να κατανοήσουν τους παράγοντες που επηρεάζουν τις προβλέψεις ενός μοντέλου. Η γνώση των παραπάνω είναι κρίσιμη για εφαρμογές σε τομείς όπου οι αποφάσεις και τα αποτελέσματα τους επηρεάζουν άμεσα τις ανθρώπινες ζωές και τα κοινωνικά αποτελέσματα.
Αυτή η έρευνα παρουσιάζει ένα πλαίσιο για τη δημιουργία Αντεπιχειρημάτων για υπερπαραμέτρους. Χρησιμοποιώντας ένα proxy μοντέλο και τη βιβλιοθήκη dice-ml σε Python, η προτεινόμενη μεθοδολογία, ερευνά συστηματικά τα σενάρια αντεπιχειρημάτων, προσφέροντας πολύτιμες πληροφορίες για τους μηχανισμούς λήψης αποφάσεων των μοντέλων Μηχανικής Μάθησης. Με την οπτικοποίηση των διαφορών μεταξύ των πραγματικών υπερπαραμέτρων και των αντεπιχειρημάτων, οι χρήστες μπορούν να κατανοήσουν καλύτερα τη συμπεριφορά του μοντέλου και τους παράγοντες που επηρεάζουν τις προβλέψεις του.
Στην εργασία αυτή, παρουσιάζεται η εφαρμογή αυτού του πλαισίου χρησιμοποιώντας το σύνολο δεδομένων "Adult" από το UCI Machine Learning Repository. Η Διεπαφή Χρήστη (UI) που δημιουργήθηκε, επιτρέπει στους χρήστες να παράγουν Αντεπιχειρήματα και να επιλέγουν ποια να οπτικοποιήσουν. Τα ευρήματα δείχνουν την αποτελεσματικότητα των οπτικών εξηγήσεων στην ενίσχυση της ερμηνευσιμότητας και στη διευκόλυνση της λήψης αποφάσεων. Τα αποτελέσματα συμβάλλουν στον ευρύτερο τομέα της εξηγήσιμης Τεχνητής Νοημοσύνης (AI), παρέχοντας πρακτικά εργαλεία και μεθόδους για τη βελτίωση της διαφάνειας και της αξιοπιστίας στα συστήματα Μηχανικής μάθησης.
Συνολικά, στόχος της έρευνάς είναι η γεφύρωση του χάσματος μεταξύ πολύπλοκων αλγορίθμων Μηχανικής Μάθησης και της ανάγκης για κατανοητές και εφαρμόσιμες πληροφορίες, πραγματοποιώντας έτσι μια συνεισφορά στην ανάπτυξη πιο ερμηνεύσιμων και αξιόπιστων τεχνολογιών Τεχνητής Νοημοσύνης. | el |
dc.format.extent | 59 | el |
dc.language.iso | en | el |
dc.publisher | Πανεπιστήμιο Πειραιώς | el |
dc.rights | Αναφορά Δημιουργού-Μη Εμπορική Χρήση-Όχι Παράγωγα Έργα 3.0 Ελλάδα | * |
dc.rights | Αναφορά Δημιουργού-Μη Εμπορική Χρήση-Όχι Παράγωγα Έργα 3.0 Ελλάδα | * |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/3.0/gr/ | * |
dc.title | Interactive visualization of explanations for machine learning models | el |
dc.title.alternative | Διαδραστική οπτικοποίηση επεξηγήσεων για μοντέλα μηχανικής μάθησης | el |
dc.type | Master Thesis | el |
dc.contributor.department | Σχολή Τεχνολογιών Πληροφορικής και Επικοινωνιών. Τμήμα Πληροφορικής | el |
dc.description.abstractEN | The rapid adoption of Machine Learning (ML) models across various sectors necessitates a deeper understanding of their decision-making processes to ensure transparency and build trust. This thesis explores the domain of interpretability in ML, focusing on visualization techniques and the novel approach of Counterfactual Explanations. Visualization techniques, such as graphs and interactive diagrams, transform abstract algorithms into comprehensible formats, enabling users to understand the factors driving model predictions. This is critical for applications in fields where decisions and their outcomes directly influence human lives and societal outcomes.
This research introduces a system for generating Counterfactual Explanations for hyperparameters. Utilizing a proxy model and the dice-ml library in Python, the proposed methodology systematically explores Counterfactual scenarios, offering valuable insights into the decision-making mechanisms of ML models. By visualizing differences between factual and Counterfactual hyperparameters, users can better understand the model's behavior and the factors influencing its predictions.
The thesis demonstrates the application of this method using the "Adult" dataset from the UCI Machine Learning Repository. The User Interface (UI) created, allows users to produce Counterfactual Explanations and select which ones to visualize. The results underscore the effectiveness of visual explanations in enhancing interpretability and facilitating informed decision-making. The findings contribute to the broader field of explainable AI, providing practical tools and methods for improving transparency and accountability in ML systems.
Overall, this work aims to bridge the gap between complex Machine Learning algorithms and the need for understandable and actionable insights, making a significant contribution to the development of more interpretable and trustworthy AI technologies. | el |
dc.contributor.master | Κυβερνοασφάλεια και Επιστήμη Δεδομένων | el |
dc.subject.keyword | Machine learning | el |
dc.subject.keyword | Interpretability | el |
dc.subject.keyword | Interpretable machine learning | el |
dc.subject.keyword | Explainable AI | el |
dc.subject.keyword | Counterfactual explanations | el |
dc.subject.keyword | Visualization techniques | el |
dc.subject.keyword | Hyperparameter tuning | el |
dc.date.defense | 2024-07-16 | |