| dc.contributor.advisor | Πελέκης, Νικόλαος | |
| dc.contributor.advisor | Pelekis, Nikolaos | |
| dc.contributor.author | Τζώρας, Χρήστος | |
| dc.contributor.author | Tzoras, Christos | |
| dc.date.accessioned | 2025-10-07T07:12:49Z | |
| dc.date.available | 2025-10-07T07:12:49Z | |
| dc.date.issued | 2025-09 | |
| dc.identifier.uri | https://dione.lib.unipi.gr/xmlui/handle/unipi/18182 | |
| dc.description.abstract | Η παρούσα διπλωματική εργασία παρουσιάζει την ανάπτυξη ενός καινοτόμου και επεξηγήσιμου συστήματος για την ανίχνευση ψευδών ειδήσεων, αξιοποιώντας τις δυνατότητες των Μεγάλων Γλωσσικών Μοντέλων (LLMs) σε ένα πολυπρακοτρικό αρχιτεκτονικό πλαίσιο. Το σύστημα αποτελείται από εξειδικευμένους πράκτορες, όπως ο Fact Checker, Confidence Scorer, Source Quality Evaluator, and a Supervisor Agent, που συνεργάζονται για την παραγωγή διαφανούς και τεκμηριωμένης τελικής απόφασης.
Σε αντίθεση με τα παραδοσιακά μοντέλα μηχανικής μάθησης, το προτεινόμενο σύστημα παρέχει ερμηνεύσιμες εξόδους, αιτιολόγηση αποφάσεων και παραπομπές σε εξωτερικές πηγές. Η απόδοση του αξιολογήθηκε χειροκίνητα σε 80 δηλώσεις ( 40 από το LIAR και 40 από το FakeNewsNet), τόσο σε μορφή τίτλου όσο και πλήρους κειμένου. Το σύστημα πέτυχε συνολική ακρίβεια 75%, με 76.6% ακρίβεια σε τίτλους ειδήσεων.
Πέρα από την ακρίβεια, η μεγαλύτερη συνεισφορά έγκειται στην ιχνηλασιμότητα και στην εξήγηση των αποφάσεων σε επίπεδο πηγής, μετρικής και νοηματικής συνάφειας. Η εργασία καταλήγει με προτάσεις για μελλοντική έρευνα, όπως η επέκταση σε περισσότερα σύνολο δεδομένων, η υιοθέτηση μαθηματικών κανόνων στη λογική των πρακτόρων, και η αξιολόγηση άλλων τύπων LLMs. | el |
| dc.format.extent | 96 | el |
| dc.language.iso | en | el |
| dc.publisher | Πανεπιστήμιο Πειραιώς | el |
| dc.rights | Αναφορά Δημιουργού-Όχι Παράγωγα Έργα 3.0 Ελλάδα | * |
| dc.rights | Αναφορά Δημιουργού-Μη Εμπορική Χρήση-Όχι Παράγωγα Έργα 3.0 Ελλάδα | * |
| dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/3.0/gr/ | * |
| dc.title | Ανίχνευση ψευδών ειδήσεων στα μέσα κοινωνικής δικτύωσης | el |
| dc.title.alternative | Fake news detection on social media | el |
| dc.type | Master Thesis | el |
| dc.contributor.department | Σχολή Χρηματοοικονομικής και Στατιστικής. Τμήμα Στατιστικής και Ασφαλιστικής Επιστήμης | el |
| dc.description.abstractEN | This thesis explores the development of a novel, explainable system for fake news detection, leveraging the capabilities of large language models (LLMs) within a modular multi-agent architecture. The system integrates several specialized agents, such as a Fact Checker, Confidence Scorer, Source Quality Evaluator, and a Supervisor Agent, each contributing interpretable insights to the final verdict. Unlike traditional black-box models, this approach emphasizes transparency and human-aligned reasoning, enabling users to trace back the rationale behind each classification.
To assess performance, the system was manually tested on 80 news claims (40 from the LIAR dataset and 40 from FakeNewsNet), using both titles and full-texts. The system achieved an overall accuracy of 75%, with 76.6% accuracy on title-based entries. Beyond accuracy, the system offers structured outputs, evidence citations, confidence scores, and semantic justifications – marking a major improvement in interpretability over existing models like BERT, LSTM, and hybrid deep learning frameworks.
The results indicate that LLM-based agents, when orchestrated through interpretable rule-based coordination, can offer competitive performance with unprecedented explainability. This thesis concludes by proposing directions for future work, including testing across more datasets, automating agent decision logic with mathematical functions, an exploring other LLM families. | el |
| dc.contributor.master | Εφαρμοσμένη Στατιστική | el |
| dc.subject.keyword | Fake news detection | el |
| dc.subject.keyword | Explainable AI (XAI) | el |
| dc.subject.keyword | Large Language Models (LLMs) | el |
| dc.subject.keyword | Multi-agent systems | el |
| dc.subject.keyword | Interpretable machine learning | el |
| dc.subject.keyword | Fact-checking | el |
| dc.subject.keyword | Source quality evaluation | el |
| dc.subject.keyword | Confidence scoring | el |
| dc.subject.keyword | Rule-based coordination | el |
| dc.subject.keyword | Transparency | el |
| dc.subject.keyword | AI | el |
| dc.subject.keyword | LIAR dataset | el |
| dc.subject.keyword | FakeNewsNet dataset | el |
| dc.date.defense | 2025-09-29 | |