dc.contributor.advisor | Μήτρου, Λίλιαν | |
dc.contributor.author | Ασημακοπούλου, Παναγιώτα | |
dc.date.accessioned | 2025-02-06T08:55:08Z | |
dc.date.available | 2025-02-06T08:55:08Z | |
dc.date.issued | 2024-09 | |
dc.identifier.uri | https://dione.lib.unipi.gr/xmlui/handle/unipi/17425 | |
dc.description | Διαθέσιμο μετά τις 31/08/2025 | |
dc.description.abstract | Η έκρηξη της Τεχνητής Νοημοσύνης, στην οποία συμπεριλαμβάνονται τα Μεγάλα Γλωσσικά Μοντέλα (Large Language Models – LLMs) και τα σχετικά Chatbots, φαίνεται να «ανοίγει τον ασκό του Αιόλου», θέτοντας νέες προκλήσεις και εγείροντας έντονους προβληματισμούς αναφορικά με την προστασία των προσωπικών δεδομένων και την εν γένει προστασία της ιδιωτικής ζωής.
Καθώς αυτά τα μοντέλα εκπαιδεύονται σε τεράστιες ποσότητες δεδομένων, τίθενται πολλά ερωτήματα, όπως τι είδους δεδομένα χρησιμοποιούνται και συλλέγονται, πόσο καιρό αποθηκεύονται αυτά τα δεδομένα, και αν και κατά πόσο χρησιμοποιούνται εν αγνοία μας, χωρίς την έγκρισή μας, αποτελώντας τελικά μέρος της εκπαίδευσης ενός μοντέλου. Επιπλέον, η δυνατότητα των chatbots να αναλύουν και να συσχετίζουν διάφορα δεδομένα μας από διαφορετικές διαδικτυακές πηγές, αναμφίβολα ενισχύει τον φόβο μας για την ύπαρξη διαφόρων κινδύνων, όπως ότι αυτά μπορεί να αποκαλυφθούν σε ανεπιθύμητους αποδέκτες.
Περίτρανο παράδειγμα της τεχνολογίας της Τεχνητής Νοημοσύνης, αποτελεί το πολυσυζητημένο LLM «ChatGPT», το οποίο θα μπορούσε να πει κανείς ότι αποτέλεσε το έναυσμα για την περαιτέρω και ουσιαστική προστασία των προσωπικών δεδομένων και της ιδιωτικότητας εν γένει, αλλά και την επιπλέον διερεύνηση των μοντέλων, υποδεικνύοντας την επιτακτική ανάγκη για την άμεση οριοθέτηση τους. Επιστρατεύονται έτσι, όλα τα δυνατά μέσα, όπως είναι η ανάπτυξη και εφαρμογή αυστηρότερων κανονισμών, μεθόδων και τεχνικών για την εξασφάλιση της προστασίας των δεδομένων στον ψηφιακό κόσμο.
Στην παρούσα μεταπτυχιακή διπλωματική εργασία εξετάζονται τα ζητήματα προστασίας της ιδιωτικότητας που ανακύπτουν από την εφαρμογή της Τεχνητής Νοημοσύνης, δίνοντας έμφαση στα Μεγάλα Γλωσσικά Μοντέλα. Παρουσιάζονται case studies αυτών, όπως το ChatGPT, το Claude και το Meltemi, ενώ στη συνέχεια αναλύονται μέθοδοι προστασίας των προσωπικών δεδομένων και της ιδιωτικότητας, μέσα από τον συνδυασμό του ρυθμιστικού πλαισίου και των σύγχρονων τεχνικών, με σκοπό την ενίσχυση της ασφάλειας και προστασίας των προσωπικών δεδομένων στον τομέα αυτό. | el |
dc.format.extent | 120 | el |
dc.language.iso | el | el |
dc.publisher | Πανεπιστήμιο Πειραιώς | el |
dc.rights | Αναφορά Δημιουργού-Μη Εμπορική Χρήση-Όχι Παράγωγα Έργα 3.0 Ελλάδα | * |
dc.rights | Αναφορά Δημιουργού-Μη Εμπορική Χρήση-Όχι Παράγωγα Έργα 3.0 Ελλάδα | * |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/3.0/gr/ | * |
dc.title | Ζητήματα προστασίας της ιδιωτικοτήτας στην τεχνητή νοημοσύνη & στα μεγάλα γλωσσικά μοντέλα | el |
dc.title.alternative | Privacy protection issues in artificial intelligence & large language models | el |
dc.type | Master Thesis | el |
dc.contributor.department | Σχολή Τεχνολογιών Πληροφορικής και Επικοινωνιών. Τμήμα Ψηφιακών Συστημάτων | el |
dc.description.abstractEN | The Artificial Intelligence explosion, which includes Large Language Models (LLMs) and related Chatbots, seems to "open a can of worms", posing new challenges and raising serious concerns regarding the protection of personal data and privacy.
As these models are trained on vast amounts of data, many questions arise, such as what kind of data is used and collected, how long that data is stored, and whether and to what extent it is being used without our knowledge and approval, ultimately becoming part of a model’s training. In addition, the ability of chatbots to analyze and correlate our various data from different online sources undoubtedly heightens our fear of the existence of various risks, such as that it may be disclosed to unwanted recipients.
A typical example of Artificial Intelligence technology is the much-discussed LLM "ChatGPT", which could be said to have been the trigger for the further and substantial protection of personal data and privacy in general, as well as the additional investigation of models, indicating the imperative need for their immediate delimitation. Thus, all possible means are employed, such as the development and implementation of stricter regulations, methods and techniques to ensure data protection in the digital world.
In this master's thesis, privacy protection issues arising from the application of Artificial Intelligence are examined, emphasizing Large Language Models. Case studies of these, such as ChatGPT, Claude and Meltemi, are presented, while methods of protecting personal data and privacy are also analyzed through the combination of the regulatory framework and modern techniques, with the aim of strengthening the security and protection of personal data in this field. | el |
dc.contributor.master | Δίκαιο και Τεχνολογίες Πληροφορικής και Επικοινωνιών (MSc in Law and Information and Communication Technologies) | el |
dc.subject.keyword | Τεχνητή νοημοσύνη | el |
dc.subject.keyword | Μεγάλα γλωσσικά μοντέλα | el |
dc.subject.keyword | Αλγόριθμοι | el |
dc.subject.keyword | Προσωπικά δεδομένα | el |
dc.subject.keyword | Ιδιωτικότητα | el |
dc.subject.keyword | Ρυθμιστικό πλαίσιο | el |
dc.subject.keyword | Γενικός Κανονισμός Προστασίας Δεδομένων (GDPR) | el |
dc.subject.keyword | Πράξη για την Τεχνητή Νοημοσύνη (AI-ACT) | el |
dc.date.defense | 2025-02-02 | |