| dc.contributor.advisor | Μήτρου, Λίλιαν | |
| dc.contributor.author | Σωπασουδάκη, Σουζάνα | |
| dc.date.accessioned | 2026-05-06T09:47:11Z | |
| dc.date.available | 2026-05-06T09:47:11Z | |
| dc.date.issued | 2025-06 | |
| dc.identifier.uri | https://dione.lib.unipi.gr/xmlui/handle/unipi/19259 | |
| dc.description.abstract | Η παρούσα εργασία πραγματεύεται το ζήτημα του ελέγχου περιεχομένου από τις ψηφιακές πλατφόρμες υπό το πρίσμα της προστασίας των προσωπικών δεδομένων και της εν γένει διασφάλισης των θεμελιωδών δικαιωμάτων στο σύγχρονο ψηφιακό περιβάλλον. Ειδικότερα, επιχειρεί να αναδείξει τον τρόπο με τον οποίο οι μηχανισμοί φιλτραρίσματος, επισημάνσεων, αφαίρεσης και περιορισμού περιεχομένου, είτε μέσω ανθρώπινης εποπτείας είτε μέσω αλγοριθμικών διαδικασιών, επηρεάζουν το εύρος άσκησης της ελευθερίας της έκφρασης και την ιδιωτικότητα των χρηστών. Το ζήτημα αποκτά ακόμη μεγαλύτερη σημασία, αν ληφθεί υπόψη ότι οι πλατφόρμες, μέσω της συλλογής και επεξεργασίας τεράστιου όγκου προσωπικών δεδομένων, συγκεντρώνουν μια μορφή ιδιωτικής αλλά ουσιαστικά θεσμικής εξουσίας, η οποία δεν υπόκειται πάντοτε σε επαρκή λογοδοσία ή διαφάνεια.
Στο πλαίσιο αυτό, η εργασία αναλύει τα μοντέλα αυτορρύθμισης και συρρύθμισης που έχουν υιοθετηθεί διεθνώς, αξιολογώντας την αποτελεσματικότητά τους σε σχέση με τις αρχές της αναλογικότητας, της αναγκαιότητας και της διαφάνειας. Η μελέτη εστιάζει στη μετάβαση του ζητήματος από μια τεχνική διαδικασία σε ένα θεσμικό πρόβλημα, που αφορά την ίδια τη λειτουργία της δημοκρατίας στο ψηφιακό πεδίο.
Κεντρική θέση στην ανάλυση κατέχει το ευρωπαϊκό ρυθμιστικό πλαίσιο, όπως αυτό διαμορφώνεται από τον Κανονισμό (ΕΕ) 2022/2065 για τις Ψηφιακές Υπηρεσίες (Digital Services Act - DSA), ο οποίος εισάγει νέους κανόνες για τη διαχείριση περιεχομένου, την ευθύνη των παρόχων, τη διαφάνεια των συστημάτων και την προστασία των χρηστών από καταχρηστικές πρακτικές. Παράλληλα, εξετάζεται η σχέση του εν λόγω Κανονισμού με την προστασία προσωπικών δεδομένων, και ιδίως με τον Γενικό Κανονισμό (ΕΕ) 2016/679 (ΓΚΠΔ) και τον ν. 4624/2019, οι οποίοι θέτουν το πλαίσιο για τη νόμιμη επεξεργασία δεδομένων και τα δικαιώματα των υποκειμένων.
Η εργασία βασίζεται σε ανάλυση νομοθετικών και κανονιστικών κειμένων, νομολογίας του Δικαστηρίου της Ευρωπαϊκής Ένωσης (ΔΕΕ) και του Ευρωπαϊκού Δικαστηρίου Δικαιωμάτων του Ανθρώπου (ΕΔΔΑ), καθώς και σε επιστημονική βιβλιογραφία που αναδεικνύει τις νομικές και ηθικές διαστάσεις του ζητήματος. Μέσα από αυτήν την πολυεπίπεδη προσέγγιση, επιδιώκεται να αποτυπωθεί η ένταση ανάμεσα στην ανάγκη καταπολέμησης του παράνομου ή επιβλαβούς περιεχομένου και στην υποχρέωση διαφύλαξης των ατομικών ελευθεριών.
Η συνολική αξιολόγηση των δεδομένων οδηγεί στην ανάδειξη της ανάγκης για τη διαμόρφωση ενός συνεκτικού πλαισίου συνεργασίας κράτους, πλατφορμών και ανεξάρτητων αρχών, το οποίο θα συνδυάζει την τεχνολογική καινοτομία με την προστασία των θεμελιωδών δικαιωμάτων. Η ενίσχυση της διαφάνειας, η καθιέρωση σαφών διαδικασιών ελέγχου και ένστασης, καθώς και η συνεκτίμηση των αρχών προστασίας δεδομένων αποτελούν κρίσιμους άξονες για μια πιο δίκαιη και δημοκρατική ψηφιακή διακυβέρνηση. Με αυτόν τον τρόπο, ο έλεγχος περιεχομένου μπορεί να εξελιχθεί από πεδίο σύγκρουσης συμφερόντων σε μηχανισμό ισορροπίας μεταξύ της ελευθερίας της έκφρασης, της ασφάλειας του ψηφιακού χώρου και της προστασίας της ιδιωτικότητας των χρηστών. | el |
| dc.format.extent | 91 | el |
| dc.language.iso | el | el |
| dc.publisher | Πανεπιστήμιο Πειραιώς | el |
| dc.title | Έλεγχος περιεχομένου από πλατφόρμες και προστασία προσωπικών δεδομένων | el |
| dc.title.alternative | Content moderation from platforms and personal data protection | el |
| dc.type | Master Thesis | el |
| dc.contributor.department | Σχολή Τεχνολογιών Πληροφορικής και Επικοινωνιών. Τμήμα Ψηφιακών Συστημάτων | el |
| dc.description.abstractEN | This paper addresses the issue of content moderation by digital platforms through the lens of personal data protection and the broader safeguarding of fundamental rights in the contemporary digital environment. In particular, it seeks to highlight the ways in which mechanisms of filtering, flagging, removal, and restriction of content, whether through human supervision or algorithmic processes, affect both the scope of freedom of expression and the privacy of users. The issue becomes even more significant when considering that platforms, through the collection and processing of vast amounts of personal data, concentrate a form of private but de facto institutional power, which is not always subject to sufficient accountability or transparency.
Within this context, the study analyzes the models of self-regulation and co-regulation adopted internationally, assessing their effectiveness in light of the principles of proportionality, necessity, and transparency. The research focuses on the transformation of content moderation from a mere technical process into an institutional challenge, directly related to the functioning of democracy in the digital sphere.
A central position in the analysis is held by the European regulatory framework, as shaped by Regulation (EU) 2022/2065 on Digital Services (Digital Services Act - DSA), which introduces new rules regarding content moderation, provider liability, system transparency, and the protection of users from abusive practices. At the same time, the study explores the relationship between the DSA and the protection of personal data, particularly the General Data Protection Regulation (EU) 2016/679 (GDPR) and Law 4624/2019, which establish the legal framework for the lawful processing of personal data and the rights of data subjects.
The research is based on the analysis of legislative and regulatory texts, the case law of the Court of Justice of the European Union (CJEU) and the European Court of Human Rights (ECHR), as well as scientific literature that highlights the legal and ethical dimensions of the issue. Through this multi-layered approach, the study aims to capture the tension between the need to combat illegal or harmful content and the obligation to safeguard individual freedoms.
The overall assessment highlights the need to establish a coherent framework of cooperation between states, platforms, and independent authorities, one that combines technological innovation with the protection of fundamental rights. Strengthening transparency, introducing clear mechanisms of review and appeal, and consistently integrating data protection principles are identified as key pillars for achieving a fairer and more democratic model of digital governance. In this way, content moderation can evolve from a field of conflicting interests into a mechanism of balance between freedom of expression, digital security, and user privacy. | el |
| dc.contributor.master | Δίκαιο και Τεχνολογίες Πληροφορικής και Επικοινωνιών (MSc in Law and Information and Communication Technologies) | el |
| dc.subject.keyword | Πλατφόρμες | el |
| dc.subject.keyword | Έλεγχος περιεχόμενου | el |
| dc.subject.keyword | ΓΚΠΔ | el |
| dc.subject.keyword | DSA | el |
| dc.date.defense | 2026-04-19 | |