dc.contributor.advisor | Βενέτης, Ιωάννης | |
dc.contributor.author | Κριπαράκος, Παναγιώτης | |
dc.date.accessioned | 2025-06-19T10:26:18Z | |
dc.date.available | 2025-06-19T10:26:18Z | |
dc.date.issued | 2025-06 | |
dc.identifier.uri | https://dione.lib.unipi.gr/xmlui/handle/unipi/17867 | |
dc.description.abstract | Η παρούσα πτυχιακή εργασία ερευνά διάφορες πρακτικές παράλληλης εκτέλεσης για την εκπαίδευση Συνελικτικών Νευρωνικών Δικτύων. Η μελέτη επικεντρώνεται στον πειραματισμό με δύο μοντέλα, το AlexNet για εργασίες ταξινόμησης εικόνων, και το DCGAN για την παραγωγή συνθετικών εικόνων. Στόχος απωτέλεσε τόσο η υλοποίηση των βασικών μοντέλων, όσο και υλοποιήσεις παραλληλισμού δεδομένων και παραλληλισμού μοντέλου. Ως σύνολο δεδομένων χρησιμοποιήθηκε το CIFAR-10 και πλαίσιο υλοποίησης αποτέλεσε το TensorFlow. Τα αποτελέσματα υπογραμμίζουν το σημαντικό όφελος στην εξοικονόμηση χρόνου από την εφαρμογή παραλληλισμού, αναλύοντας παράλληλα την επίδρασή του στην ακρίβεια κατηγοριοποίησης και την αξιοπιστία των παραγόμενων αποτελεσμάτων. Ενδεικτικά, η εκπαίδευση του AlexNet με παραλληλισμό δεδομένων σε 2 επιμέρους μέρη οδήγησε σε μείωση του χρόνου εκπαίδευσης κατά 46%, με 5.7% μείωση στην ακρίβεια κατηγοριοποίησης. | el |
dc.format.extent | 89 | el |
dc.language.iso | el | el |
dc.publisher | Πανεπιστήμιο Πειραιώς | el |
dc.title | Μελέτη μοντέλων παράλληλης εκτέλεσης για την εκπαίδευση συνελικτικών νευρωνικών δικτύων | el |
dc.title.alternative | Study of parallel execution models for training convolutional neural networks | el |
dc.type | Bachelor Dissertation | el |
dc.contributor.department | Σχολή Τεχνολογιών Πληροφορικής και Επικοινωνιών. Τμήμα Πληροφορικής | el |
dc.description.abstractEN | This thesis investigates various parallel execution practices for training Convolutional Neural Networks. The study focuses on experimenting with two models, AlexNet for image classification tasks, and DCGAN for generating synthetic images. The aim was to implement both the basic models, as well as implementations of data and model parallelism. CIFAR-10 was used as the dataset and TensorFlow was the implementation framework. The results highlight the significant time-saving benefit of implementing parallelism, while analyzing its impact on classification accuracy and the reliability of the generated results. For instance, training AlexNet with 2-way data parallelism reduced training time by 46%, with a 5.7% drop in classification accuracy. | el |
dc.subject.keyword | Συνελικτικά νευρωνικά δίκτυα | el |
dc.subject.keyword | Παραλληλισμός δεδομένων | el |
dc.subject.keyword | Παραλληλισμός μοντέλου | el |
dc.subject.keyword | AlexNet | el |
dc.subject.keyword | DCGAN | el |
dc.date.defense | 2025-06-18 | |