| dc.contributor.advisor | Μήτρου, Λίλιαν | |
| dc.contributor.author | Κουρουκλής, Χρίστος | |
| dc.date.accessioned | 2025-09-05T16:17:34Z | |
| dc.date.available | 2025-09-05T16:17:34Z | |
| dc.date.issued | 2025-03 | |
| dc.identifier.uri | https://dione.lib.unipi.gr/xmlui/handle/unipi/18099 | |
| dc.description.abstract | Η τεχνητή νοημοσύνη (ΤΝ) έχει ραγδαίως αναδειχθεί σε κινητήρια δύναμη της εποχής μας. Οι τεράστιες δυνατότητές της συνοδεύονται από πληθώρα κινδύνων. Η χρήση αυτοματοποιημένων όπλων και συστημάτων ΤΝ για την εξαπόλυση κυβερνοεπιθέσεων, η εγκατάσταση συστημάτων βιομετρικής παρακολούθησης, οι κίνδυνοι που παρουσιάζει για την ιδιωτικότητα και η ραγδαία αναδιαμόρφωση της αγοράς εργασίας που αναμένεται να σημειωθεί εξαιτίας της ΤΝ, αποτελούν μόνο κάποια από τα ζητήματα που χρίζουν εξέτασης.
Για την ελαχιστοποίηση αυτών των κινδύνων, οι ειδικοί έχουν ξεχωρίσει συγκεκριμένες αξίες που πρέπει να υποστηρίζουν τα συστήματα ΤΝ. Διαφάνεια, ανθεκτικότητα, ασφάλεια, διαχείριση δεδομένων και ανθρώπινη εποπτεία είναι μεταξύ των πιο συχνά αναφερόμενων αξιών. Συστήματα ΤΝ με τέτοια χαρακτηριστικά θα μπορούσαν να χαρακτηριστούν ως συστήματα υπεύθυνης ΤΝ.
Για την επικράτηση των αρχών αυτών και την επίτευξη της δημιουργίας συστημάτων υπεύθυνης ΤΝ, η ΕΕ έχει ψηφίσει και θέσει σε ισχύ τον Κανονισμό για την Τεχνητή Νοημοσύνη («ο Κανονισμός»). Αυτός ο Κανονισμός κατηγοριοποιεί τα συστήματα ΤΝ σύμφωνα με τους κινδύνους που ενέχουν. Συστήματα που κρίνεται ότι παρουσιάζουν απαγορευτικούς κινδύνους αποκλείονται ολοσχερώς από την ενωσιακή αγορά. Τέτοια συστήματα είναι αυτά που ταξινομούν πολίτες σε ομάδες βάσει κοινωνικής βαθμολογίας, που επιτρέπουν την εξ αποστάσεως βιομετρική ταυτοποίηση προσώπων και μία σειρά άλλων συστημάτων τα οποία απαριθμούνται στο άρθρο 5 του Κανονισμού.
Ακολουθούν τα συστήματα υψηλού κινδύνου τα οποία πρέπει να συμμορφώνονται με εκτεταμένες απαιτήσεις. Τέτοιες απαιτήσεις έχουν να κάνουν με την ενσωμάτωση συστημάτων διαχείρισης κινδύνων, την αυστηρή διακυβέρνηση των δεδομένων που αξιοποιούνται από τα συστήματα ΤΝ, τη σύνταξη και την επικαιροποίηση τεχνικού φακέλου, ο οποίος πρέπει να περιλαμβάνει πλήθος πληροφοριών αναφορικά με το σύστημα, την αυτοματοποιημένη δημιουργία αρχείου δραστηριότητας του συστήματος και τη σχεδίαση του κατά τρόπου που θα επιτρέπει την εποπτεία του, την αποσαφήνιση των σταδίων που μεσολάβησαν μεταξύ της τροφοδοσίας του με κάποια δεδομένα και της παραγωγής ενός συγκεκριμένου αποτελέσματος, ενώ ταυτόχρονα θα είναι ικανό να αποκρούσει τυχόν κυβερνοεπιθέσεις.
Λιγότερες υποχρεώσεις, κυρίως διαφάνειας θεσπίζονται για τα συστήματα ΤΝ χαμηλού κινδύνου. Επιπλέον ο Κανονισμός προβλέπει την ίδρυση και λειτουργιά ενός πολύπλοκου συστήματος διακυβέρνησης σε ενωσιακό επίπεδο αποτελούμενο από ευρωπαϊκές αρχές όπως η Υπηρεσία ΤΝ και το Συμβούλιο Τεχνητής Νοημοσύνης αλλά και εθνικές επιβλέπουσες αρχές. Ένας άλλος θεσμός με εξαιρετικό ενδιαφέρον ο οποίος θεσπίζεται δια του Κανονισμού είναι τα ρυθμιστικά δοκιμαστήρια ΤΝ τα οποία αποσκοπούν στην πιστοποίηση της ασφάλειας ενός συστήματος προτού αυτό τεθεί σε λειτουργιά στην ενωσιακή αγορά.
Λιγότερο συγκροτημένες είναι οι αντίστοιχες προσπάθειες που έχουν λάβει χώρα στις ΗΠΑ. Οι σημαντικότερες προσπάθειες εντοπίζονται σε πολιτειακό επίπεδο, ενώ η ομοσπονδιακή κυβέρνηση είχε αρχικώς κάνει κάποιες προσπάθειες να υιοθετήσει αντίστοιχα του Κανονισμού νομοθετήματα, οι οποίες ωστόσο, με την επανεκλογή του Προέδρου Τραμπ έχουν διακοπεί. Αντιθέτως, η νέα κυβέρνηση φαίνεται να προσανατολίζεται προς την εφαρμογή λιγότερων και όχι περισσότερων υποχρεώσεων για τους δημιουργούς συστημάτων ΤΝ.
Σε επίπεδο τεχνικών προδιαγραφών, o Διεθνής Οργανισμός Τυποποίησης (ISO) έχει εκδώσει δύο πρότυπα για την ασφάλεια της ΤΝ, ενώ το Εθνικό Ινστιτούτο Προτύπων και Τεχνολογίας έχει εκδώσει το δικό του πλαίσιο διαχείρισης κινδύνων ΤΝ.
Ο Κανονισμός για την ΤΝ είναι ένα πραγματικά φιλόδοξο νομοθέτημα. Επιχειρεί να ρυθμίσει ένα από τα πλέον αντιδραστικά στη ρύθμιση πεδία. Ωστόσο, η σημασία του υπονομεύεται σημαντικά από την έλλειψη προγραμμάτων ανάπτυξης ΤΝ της ΕΕ μέχρι σήμερα. Μόλις τον Φεβρουάριου του 2025 η Πρόεδρος της Ευρωπαϊκής Επιτροπής ανακοίνωσε σημαντικά προγράμματα επένδυσης στην ανάπτυξη συστημάτων ΤΝ. Το μεγαλύτερο μέρος της έρευνας και ανάπτυξης σχετικά με την ΤΝ εκτελείται από εταιρείες με έδρα τις ΗΠΑ και την Κίνα. Η στάση τους απέναντι στις απαιτήσεις συμμόρφωσης που θέτει ο Νόμος για την ΤΝ επικεντρώνεται κυρίως στο να τις αγνοούν, όπως προκύπτει και από δηλώσεις εξεχόντων του χώρου προσώπων όπως ο Σαμ Άλτμαν.
Επιπλέον, τόσο οι ΗΠΑ όσο και η Κίνα φαίνεται να επικεντρώνονται περισσότερο στο να εδραιωθούν ως η κυρίαρχη δύναμη στην ΤΝ παρά στο να ποδηγετήσουν τις προσπάθειες για δημιουργία υπεύθυνης ΤΝ. Αυτή η στάση είναι εμφανής στις πρόσφατες αποφάσεις της αμερικανικής κυβέρνησης, και κερδίζει ραγδαία έδαφος και μεταξύ των κορυφαίων εταιρειών που σχετίζονται με την ΤΝ. Τροφοδοτούμενες από τις τελευταίες εξελίξεις στην Κίνα με την λειτουργία του σαφώς φθηνότερου από τα αμερικάνικα συστήματα δημιουργικής ΤΝ (ChatGPT, Claude AI), όμως εξίσου αποτελεσματικού με αυτά, DeepSeek, οι αντιδράσεις των ΗΠΑ τείνουν να εδραιώσουν ένα περιβάλλον ανταγωνισμού που ομοιάζει με τον ψυχροπολεμικό ανταγωνισμό εξοπλισμού με πυρηνικά όπλα. Αυτό το κλίμα δεν είναι πρόσφορο για την ευδοκίμηση των προσπαθειών ρύθμισης της ΤΝ. Στην πραγματικότητα, η τελευταία τάση στις ΗΠΑ είναι η απορρύθμιση της έρευνας στην ΤΝ, σε μια προσπάθεια να μεγιστοποιηθεί η ευελιξία του τομέα. Η διάθεση αστρονομικών κονδυλίων για την έρευνα στην ΤΝ, σε συνδυασμό με μια αίσθηση κατεπείγοντος αποτελούν τις τέλειες προϋποθέσεις για τη δημιουργία συστημάτων ΤΝ που σε καμία περίπτωση δεν θα μπορούν να χαρακτηριστούν υπεύθυνα.
Η αναποτελεσματικότητα της τοπικής νομοθεσίας όπως αυτή του ευρωπαϊκού Κανονισμού για την Τεχνητή Νοημοσύνη, σε συνδυασμό με τις διεθνείς δυναμικές που αναπτύσσονται υπογραμμίζουν τη σημασία της δημιουργίας ενός διεθνούς πλαισίου διακυβέρνησης για την ΤΝ. Ένα τέτοιο πλαίσιο θα μπορούσε να οδηγήσει στην υιοθέτηση κοινών πρακτικών ασφάλειας για την ΤΝ, επιβραδύνοντας τον ρυθμό καινοτομίας, αποκλιμακώνοντας τη δυναμική του ανταγωνισμού εξοπλισμών, με την ελπίδα να διαφυλάξει καλύτερα τον στόχο της υπεύθυνης ανάπτυξης ΤΝ. Την ίδια γνώμη έχει εκφράσει και ο Οργανισμός Ηνωμένων Εθνών και οι G7.
Αυτό το σχέδιο δεν στερείται αδύναμων σημείων. Η εφαρμογή του θα απαιτήσει επίδειξη πολιτικής βούλησης από όλες τις εμπλεκόμενες τεχνολογικές δυνάμεις, ένα στοιχείο που, αυτή τη στιγμή, φαίνεται να λείπει. Επιπλέον, οι εξελίξεις κατά τη διάρκεια αυτής της χιλιετίας έχουν θέσει υπό αμφισβήτηση παρόμοιες διεθνείς πρωτοβουλίες. Το ξέσπασμα πολέμων και στρατιωτικών συγκρούσεων, οι παγκόσμιες κρίσεις δημόσιας υγείας και η διαχείριση της κλιματικής κρίσης έχουν δημιουργήσει αμφιβολίες για την αποτελεσματικότητα των διεθνών οργανισμών και των διεθνικών συνεργασιών. Τέλος, παραμένει το ζήτημα της τεχνικής πτυχής της ρύθμισης της ΤΝ. Πολλές από τις προκλήσεις που παρουσιάζει η ΤΝ, όπως τα προβλήματα ευθυγράμμισης και ελέγχου, τα ζητήματα αδιαφάνειας και οι απαιτήσεις για επεξηγήσιμα συστήματα που υπόκεινται σε ανθρώπινη εποπτεία, μπορεί να μην είναι τεχνικά εφικτά, παρά τους πιο ισχυρούς διεθνείς Κανονισμούς που μπορούμε να ψηφίσουμε και να ακολουθήσουμε πιστά. | el |
| dc.format.extent | 57 | el |
| dc.language.iso | en | el |
| dc.publisher | Πανεπιστήμιο Πειραιώς | el |
| dc.rights | Αναφορά Δημιουργού - Μη Εμπορική Χρήση - Παρόμοια Διανομή 3.0 Ελλάδα | * |
| dc.rights.uri | http://creativecommons.org/licenses/by-nc-sa/3.0/gr/ | * |
| dc.title | Responsible AI : redefining the boundaries of technology regulation | el |
| dc.title.alternative | Υπεύθυνη τεχνητή νοημοσύνη : επανακαθορίζοντας τα όρια της ρύθμισης της τεχνολογίας | el |
| dc.type | Master Thesis | el |
| dc.contributor.department | Σχολή Τεχνολογιών Πληροφορικής και Επικοινωνιών. Τμήμα Ψηφιακών Συστημάτων | el |
| dc.description.abstractEN | AI is a driving force in today’s world. Its immense capabilities, however, come with a myriad risks. Automated weapons, privacy infringement, biometric surveillance systems, workforce replacement, to name but a few, present grave threats for humanity’s core values. To minimize those risks, experts have set apart certain principles that AI systems shall uphold. Transparency, robustness, safety, data governance and human oversight are among the most commonly sighted of these principles. AI systems with such characteristics could earn the characterization of Responsible AI systems (RAI).
To enforce these principles, the European Union (EU) has voted into effect the AI Act (AIA). This Regulation categorizes AI systems according to the risks they pose. Systems that are deemed to pose unacceptable risks are banned from being put into service altogether. High-risk systems must comply with extensive requirements such as human oversight, transparency prerequisites, built-in fail-safes, log keeping and many more. From a technical standpoint, the International Organization for Standardization (ISO) has issued two ISO standards related to AI safety, while the National Institute of Standards and Technology has published its own AI risk management playbook.
AIA is a truly ambitious piece of legislation. Attempting to regulate what might prove to be the final technological frontier. However, its importance is greatly undermined by the lack of the EU's AI development programs to date. Most of the AI-related research and development is undertaken by US-based and Chinese companies. Their attitude towards the compliance requirements set by the AI Act is mainly focused on ignoring them.
Moreover, both the USA and the PRC seem more focused on becoming the leading AI force than becoming the leading force in Responsible AI. This attitude is evident in the latest decisions made by the US Administration, and it is rapidly gaining ground amongst the leading AI-related companies as well. Fuelled by China’s latest advancements in the sector, the USA’s reaction tends to establish a cold war-like arms race environment. This climate isn’t kind to regulation attempts. In fact, the latest trend in the USA is to deregulate AI research, in an attempt to maximize the sector’s agility. The allocation of astronomical funds for AI research coupled with a sense of combative urgency constitute the perfect prerequisites for the creation of AI systems that will in no way be responsible.
The ineffectiveness of regional legislation such as AIA, combined with the international power dynamics developed, underline the importance for the creation of an international AI governance framework. Such a framework could lead to the adoption of common AI safety practices, slowing down the pace of innovation, defusing the arms race dynamic and hopefully better gatekeep the goal of Responsible AI development.
This plan isn’t without soft spots. Its implementation will require great political will from all the countries involved, an ingredient that, at the moment, seems to be missing. In addition, developments during this millennium have brought similar international initiatives under question. The outbreak of major wars and military conflicts, global public health breakdowns and the management of the existential climate crisis have cast doubt on the effectiveness of international organizations and multi-national cooperation schemes. Last but not least, the question of the technical aspect of AI regulation remains. Many of the challenges presented by AI, such as the alignment and control problems, the issues of opacity and untraceability, the demand for explainable systems, subject to human oversight, might not even be sustainably technically possible, despite the most robust international Regulations we can vote into effect and follow religiously. | el |
| dc.contributor.master | Δίκαιο και Τεχνολογίες Πληροφορικής και Επικοινωνιών (MSc in Law and Information and Communication Technologies) | el |
| dc.subject.keyword | Τεχνητή νοημοσύνη | el |
| dc.subject.keyword | Artificial intelligence | el |
| dc.subject.keyword | AI | el |
| dc.subject.keyword | ΤΝ | el |
| dc.date.defense | 2025-07 | |