Interactive visualization of explanations for machine learning models
Διαδραστική οπτικοποίηση επεξηγήσεων για μοντέλα μηχανικής μάθησης
Master Thesis
Συγγραφέας
Ploumidi, Chrysa
Πλουμίδη, Χρύσα
Ημερομηνία
2024-07Προβολή/ Άνοιγμα
Λέξεις κλειδιά
Machine learning ; Interpretability ; Interpretable machine learning ; Explainable AI ; Counterfactual explanations ; Visualization techniques ; Hyperparameter tuningΠερίληψη
Η ραγδαία υιοθέτηση των μοντέλων Μηχανικής Μάθησης σε διάφορους τομείς, απαιτεί μια βαθύτερη κατανόηση των διαδικασιών λήψης αποφάσεων, για να διασφαλιστεί η διαφάνεια και να χτιστεί εμπιστοσύνη. Η έρευνά μας πραγματοποιήθηκε γύρω από τον τομέα της ερμηνευσιμότητας στη Μηχανική Μάθηση, εστιάζοντας σε τεχνικές οπτικοποίησης και πιο συγκεκριμένα τη νέα προσέγγιση των Αντεπιχειρημάτων (Counterfactuals). Τεχνικές οπτικοποίησης, όπως γραφήματα και διαδραστικά διαγράμματα, μετατρέπουν αλγορίθμους σε κατανοητές μορφές, επιτρέποντας στους χρήστες να κατανοήσουν τους παράγοντες που επηρεάζουν τις προβλέψεις ενός μοντέλου. Η γνώση των παραπάνω είναι κρίσιμη για εφαρμογές σε τομείς όπου οι αποφάσεις και τα αποτελέσματα τους επηρεάζουν άμεσα τις ανθρώπινες ζωές και τα κοινωνικά αποτελέσματα.
Αυτή η έρευνα παρουσιάζει ένα πλαίσιο για τη δημιουργία Αντεπιχειρημάτων για υπερπαραμέτρους. Χρησιμοποιώντας ένα proxy μοντέλο και τη βιβλιοθήκη dice-ml σε Python, η προτεινόμενη μεθοδολογία, ερευνά συστηματικά τα σενάρια αντεπιχειρημάτων, προσφέροντας πολύτιμες πληροφορίες για τους μηχανισμούς λήψης αποφάσεων των μοντέλων Μηχανικής Μάθησης. Με την οπτικοποίηση των διαφορών μεταξύ των πραγματικών υπερπαραμέτρων και των αντεπιχειρημάτων, οι χρήστες μπορούν να κατανοήσουν καλύτερα τη συμπεριφορά του μοντέλου και τους παράγοντες που επηρεάζουν τις προβλέψεις του.
Στην εργασία αυτή, παρουσιάζεται η εφαρμογή αυτού του πλαισίου χρησιμοποιώντας το σύνολο δεδομένων "Adult" από το UCI Machine Learning Repository. Η Διεπαφή Χρήστη (UI) που δημιουργήθηκε, επιτρέπει στους χρήστες να παράγουν Αντεπιχειρήματα και να επιλέγουν ποια να οπτικοποιήσουν. Τα ευρήματα δείχνουν την αποτελεσματικότητα των οπτικών εξηγήσεων στην ενίσχυση της ερμηνευσιμότητας και στη διευκόλυνση της λήψης αποφάσεων. Τα αποτελέσματα συμβάλλουν στον ευρύτερο τομέα της εξηγήσιμης Τεχνητής Νοημοσύνης (AI), παρέχοντας πρακτικά εργαλεία και μεθόδους για τη βελτίωση της διαφάνειας και της αξιοπιστίας στα συστήματα Μηχανικής μάθησης.
Συνολικά, στόχος της έρευνάς είναι η γεφύρωση του χάσματος μεταξύ πολύπλοκων αλγορίθμων Μηχανικής Μάθησης και της ανάγκης για κατανοητές και εφαρμόσιμες πληροφορίες, πραγματοποιώντας έτσι μια συνεισφορά στην ανάπτυξη πιο ερμηνεύσιμων και αξιόπιστων τεχνολογιών Τεχνητής Νοημοσύνης.