Εμφάνιση απλής εγγραφής

Interactive visualization of explanations for machine learning models

dc.contributor.advisorPapastefanatos, George
dc.contributor.advisorΠαπαστεφανάτος, Γεώργιος
dc.contributor.authorPloumidi, Chrysa
dc.contributor.authorΠλουμίδη, Χρύσα
dc.date.accessioned2024-09-18T10:53:18Z
dc.date.available2024-09-18T10:53:18Z
dc.date.issued2024-07
dc.identifier.urihttps://dione.lib.unipi.gr/xmlui/handle/unipi/16755
dc.identifier.urihttp://dx.doi.org/10.26267/unipi_dione/4177
dc.description.abstractΗ ραγδαία υιοθέτηση των μοντέλων Μηχανικής Μάθησης σε διάφορους τομείς, απαιτεί μια βαθύτερη κατανόηση των διαδικασιών λήψης αποφάσεων, για να διασφαλιστεί η διαφάνεια και να χτιστεί εμπιστοσύνη. Η έρευνά μας πραγματοποιήθηκε γύρω από τον τομέα της ερμηνευσιμότητας στη Μηχανική Μάθηση, εστιάζοντας σε τεχνικές οπτικοποίησης και πιο συγκεκριμένα τη νέα προσέγγιση των Αντεπιχειρημάτων (Counterfactuals). Τεχνικές οπτικοποίησης, όπως γραφήματα και διαδραστικά διαγράμματα, μετατρέπουν αλγορίθμους σε κατανοητές μορφές, επιτρέποντας στους χρήστες να κατανοήσουν τους παράγοντες που επηρεάζουν τις προβλέψεις ενός μοντέλου. Η γνώση των παραπάνω είναι κρίσιμη για εφαρμογές σε τομείς όπου οι αποφάσεις και τα αποτελέσματα τους επηρεάζουν άμεσα τις ανθρώπινες ζωές και τα κοινωνικά αποτελέσματα. Αυτή η έρευνα παρουσιάζει ένα πλαίσιο για τη δημιουργία Αντεπιχειρημάτων για υπερπαραμέτρους. Χρησιμοποιώντας ένα proxy μοντέλο και τη βιβλιοθήκη dice-ml σε Python, η προτεινόμενη μεθοδολογία, ερευνά συστηματικά τα σενάρια αντεπιχειρημάτων, προσφέροντας πολύτιμες πληροφορίες για τους μηχανισμούς λήψης αποφάσεων των μοντέλων Μηχανικής Μάθησης. Με την οπτικοποίηση των διαφορών μεταξύ των πραγματικών υπερπαραμέτρων και των αντεπιχειρημάτων, οι χρήστες μπορούν να κατανοήσουν καλύτερα τη συμπεριφορά του μοντέλου και τους παράγοντες που επηρεάζουν τις προβλέψεις του. Στην εργασία αυτή, παρουσιάζεται η εφαρμογή αυτού του πλαισίου χρησιμοποιώντας το σύνολο δεδομένων "Adult" από το UCI Machine Learning Repository. Η Διεπαφή Χρήστη (UI) που δημιουργήθηκε, επιτρέπει στους χρήστες να παράγουν Αντεπιχειρήματα και να επιλέγουν ποια να οπτικοποιήσουν. Τα ευρήματα δείχνουν την αποτελεσματικότητα των οπτικών εξηγήσεων στην ενίσχυση της ερμηνευσιμότητας και στη διευκόλυνση της λήψης αποφάσεων. Τα αποτελέσματα συμβάλλουν στον ευρύτερο τομέα της εξηγήσιμης Τεχνητής Νοημοσύνης (AI), παρέχοντας πρακτικά εργαλεία και μεθόδους για τη βελτίωση της διαφάνειας και της αξιοπιστίας στα συστήματα Μηχανικής μάθησης. Συνολικά, στόχος της έρευνάς είναι η γεφύρωση του χάσματος μεταξύ πολύπλοκων αλγορίθμων Μηχανικής Μάθησης και της ανάγκης για κατανοητές και εφαρμόσιμες πληροφορίες, πραγματοποιώντας έτσι μια συνεισφορά στην ανάπτυξη πιο ερμηνεύσιμων και αξιόπιστων τεχνολογιών Τεχνητής Νοημοσύνης.el
dc.format.extent59el
dc.language.isoenel
dc.publisherΠανεπιστήμιο Πειραιώςel
dc.rightsΑναφορά Δημιουργού-Μη Εμπορική Χρήση-Όχι Παράγωγα Έργα 3.0 Ελλάδα*
dc.rightsΑναφορά Δημιουργού-Μη Εμπορική Χρήση-Όχι Παράγωγα Έργα 3.0 Ελλάδα*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/gr/*
dc.titleInteractive visualization of explanations for machine learning modelsel
dc.title.alternativeΔιαδραστική οπτικοποίηση επεξηγήσεων για μοντέλα μηχανικής μάθησηςel
dc.typeMaster Thesisel
dc.contributor.departmentΣχολή Τεχνολογιών Πληροφορικής και Επικοινωνιών. Τμήμα Πληροφορικήςel
dc.description.abstractENThe rapid adoption of Machine Learning (ML) models across various sectors necessitates a deeper understanding of their decision-making processes to ensure transparency and build trust. This thesis explores the domain of interpretability in ML, focusing on visualization techniques and the novel approach of Counterfactual Explanations. Visualization techniques, such as graphs and interactive diagrams, transform abstract algorithms into comprehensible formats, enabling users to understand the factors driving model predictions. This is critical for applications in fields where decisions and their outcomes directly influence human lives and societal outcomes. This research introduces a system for generating Counterfactual Explanations for hyperparameters. Utilizing a proxy model and the dice-ml library in Python, the proposed methodology systematically explores Counterfactual scenarios, offering valuable insights into the decision-making mechanisms of ML models. By visualizing differences between factual and Counterfactual hyperparameters, users can better understand the model's behavior and the factors influencing its predictions. The thesis demonstrates the application of this method using the "Adult" dataset from the UCI Machine Learning Repository. The User Interface (UI) created, allows users to produce Counterfactual Explanations and select which ones to visualize. The results underscore the effectiveness of visual explanations in enhancing interpretability and facilitating informed decision-making. The findings contribute to the broader field of explainable AI, providing practical tools and methods for improving transparency and accountability in ML systems. Overall, this work aims to bridge the gap between complex Machine Learning algorithms and the need for understandable and actionable insights, making a significant contribution to the development of more interpretable and trustworthy AI technologies.el
dc.contributor.masterΚυβερνοασφάλεια και Επιστήμη Δεδομένωνel
dc.subject.keywordMachine learningel
dc.subject.keywordInterpretabilityel
dc.subject.keywordInterpretable machine learningel
dc.subject.keywordExplainable AIel
dc.subject.keywordCounterfactual explanationsel
dc.subject.keywordVisualization techniquesel
dc.subject.keywordHyperparameter tuningel
dc.date.defense2024-07-16


Αρχεία σε αυτό το τεκμήριο

Thumbnail

Αυτό το τεκμήριο εμφανίζεται στις ακόλουθες συλλογές

Εμφάνιση απλής εγγραφής

Αναφορά Δημιουργού-Μη Εμπορική Χρήση-Όχι Παράγωγα Έργα 3.0 Ελλάδα
Εκτός από όπου διευκρινίζεται διαφορετικά, το τεκμήριο διανέμεται με την ακόλουθη άδεια:
Αναφορά Δημιουργού-Μη Εμπορική Χρήση-Όχι Παράγωγα Έργα 3.0 Ελλάδα

Βιβλιοθήκη Πανεπιστημίου Πειραιώς
Επικοινωνήστε μαζί μας
Στείλτε μας τα σχόλιά σας
Created by ELiDOC
Η δημιουργία κι ο εμπλουτισμός του Ιδρυματικού Αποθετηρίου "Διώνη", έγιναν στο πλαίσιο του Έργου «Υπηρεσία Ιδρυματικού Αποθετηρίου και Ψηφιακής Βιβλιοθήκης» της πράξης «Ψηφιακές υπηρεσίες ανοιχτής πρόσβασης της βιβλιοθήκης του Πανεπιστημίου Πειραιώς»