| dc.contributor.advisor | Ράικου, Μαρία | |
| dc.contributor.author | Ούστογλου, Γεώργιος | |
| dc.date.accessioned | 2026-03-20T08:29:37Z | |
| dc.date.available | 2026-03-20T08:29:37Z | |
| dc.date.issued | 2026 | |
| dc.identifier.uri | https://dione.lib.unipi.gr/xmlui/handle/unipi/19036 | |
| dc.description.abstract | Η μελέτη αυτή εξετάζει την είσοδο της Τεχνητής Νοημοσύνης (ΤΝ) στην ψυχική υγεία όχι σαν ένα ακόμη «ψηφιακό εργαλείο», αλλά σαν μια τεχνολογία που μπορεί να αλλάξει τον τρόπο με τον οποίο αναγνωρίζουμε δυσκολίες, υποστηρίζουμε ανθρώπους και οργανώνουμε υπηρεσίες φροντίδας. Στη βιβλιογραφική ανασκόπηση ακολουθούνται τρεις βασικοί άξονες. Πρώτον, παρουσιάζεται πώς η ΤΝ μπορεί να «διαβάσει» ενδείξεις ψυχικής επιβάρυνσης μέσα από δύο συμπληρωματικά μονοπάτια: τη συμπεριφορική/ψηφιακή πλευρά (μοτίβα ύπνου, δραστηριότητας, γλώσσας και αλληλεπίδρασης) και τη νευροβιολογική/νευρολογική πλευρά (βιοδείκτες, νευροδεδομένα και κλινικές πληροφορίες). Δεύτερον, αναλύονται οι παράγοντες που καθορίζουν την αποδοχή της τεχνολογίας: τι κάνει τους ανθρώπους να νιώθουν ότι «αξίζει», τι γεννά εμπιστοσύνη, και πότε εμφανίζονται επιφυλάξεις. Τρίτον, συζητούνται οι ηθικές και κοινωνικές προϋποθέσεις μιας υπεύθυνης εφαρμογής, με έμφαση στην ιδιωτικότητα, τη διαφάνεια και τον έλεγχο των δεδομένων. Το εμπειρικό μέρος βασίστηκε σε ποσοτική, διατομεακή διαδικτυακή έρευνα με δομημένο ερωτηματολόγιο. Στόχος ήταν να αποτυπωθεί πώς αντιλαμβάνεται το κοινό τις εφαρμογές ΤΝ στην ψυχική υγεία, ποιες λειτουργίες θεωρεί χρήσιμες, τι όρους θέτει για τη χρήση τους και ποιοι παράγοντες συνδέονται με την πρόθεση αξιοποίησής τους. Τα ευρήματα δείχνουν ότι η αποδοχή δεν εξαρτάται μόνο από το αν «αρέσει» η ιδέα της ΤΝ, αλλά από το αν ο χρήστης μπορεί να τη φανταστεί σε πρακτικά, συγκεκριμένα σενάρια. Όταν η ΤΝ μεταφράζεται σε λειτουργίες που μοιάζουν άμεσα χρήσιμες (π.χ. παρακολούθηση διάθεσης, υπενθυμίσεις, απλές ασκήσεις, μια πρώτη καθοδήγηση με ανθρώπινη εποπτεία), η πρόθεση χρήσης ενισχύεται αισθητά. Παράλληλα, η εξοικείωση με την ΤΝ λειτουργεί σαν «γέφυρα»: όσο πιο οικεία φαίνεται η τεχνολογία, τόσο πιο εύκολα περνά κανείς από τη γενική αποδοχή στη διάθεση να τη δοκιμάσει. Την ίδια στιγμή, αναδεικνύεται μια καθαρή κοινωνική γραμμή: για πολλούς ανθρώπους, η χρήση εφαρμογών ψυχικής υγείας δεν είναι ουδέτερη υπόθεση δεδομένων. Η προθυμία να μοιραστούν πληροφορίες συνδέεται στενά με την αποδοχή, ενώ ένα σημαντικό μέρος του δείγματος εμφανίζεται ιδιαίτερα επιφυλακτικό, επιλέγοντας να μην μοιραστεί τίποτα. Αυτό δείχνει ότι στην ψυχική υγεία η τεχνολογία δεν κρίνεται μόνο ως «έξυπνη» ή «αποτελεσματική», αλλά ως σχέση εμπιστοσύνης: τι δεδομένα ζητά, πού πηγαίνουν, για πόσο κρατιούνται και ποιος τα βλέπει. Συνολικά, η μελέτη καταλήγει ότι η κοινωνία φαίνεται αρκετά ανοιχτή στη χρήση ΤΝ στην ψυχική υγεία, ιδιαίτερα όταν τα οφέλη είναι ξεκάθαρα και πρακτικά. Ωστόσο, αυτή η θετική στάση δεν σημαίνει απαραίτητα ότι έχουν γίνει πλήρως αντιληπτοί οι κίνδυνοι μιας τεχνολογίας που μπορεί να αγγίξει πολύ βαθιά προσωπικές πτυχές του ανθρώπου. Γι’ αυτό, η υπεύθυνη υιοθέτηση απαιτεί όρους: διαφάνεια, πραγματικό έλεγχο του χρήστη, σαφείς δικλείδες ασφαλείας και προτεραιότητα στο όφελος του ανθρώπου, όχι στη μείωση κόστους ή στην εμπορική αξιοποίηση ευαίσθητων δεδομένων. | el |
| dc.format.extent | 127 | el |
| dc.language.iso | el | el |
| dc.publisher | Πανεπιστήμιο Πειραιώς | el |
| dc.title | Διερεύνηση των αντιλήψεων και προτιμήσεων των πολιτών σχετικά με τη χρήση της τεχνητής νοημοσύνης στην ψυχική υγεία | el |
| dc.title.alternative | An assessment of public perceptions and preferences toward the use of artificial intelligence in mental health care | el |
| dc.type | Master Thesis | el |
| dc.contributor.department | Σχολή Οικονομικών, Επιχειρηματικών και Διεθνών Σπουδών. Τμήμα Οικονομικής Επιστήμης | el |
| dc.description.abstractEN | This thesis explores the role of Artificial Intelligence (AI) in mental health not simply as another digital tool, but as a technology that may reshape how difficulties are identified, supported, and managed within care systems. The literature review is structured around three pillars. First, it outlines how AI may detect or monitor mental health-related signals through two complementary pathways: behavioral/digital traces (sleep, activity, language and interaction patterns) and neurobiological/neurological signals (biomarkers, neuro-data and clinical information). Second, it examines what drives acceptance and trust in technology, why people perceive value, what makes AI feel reliable, and when concerns emerge. Third, it discusses ethics and governance, focusing on privacy, transparency, user control, and safeguards. The empirical component is a quantitative cross-sectional online survey using a structured questionnaire. The study captures public perceptions of AI mental health applications, preferred features, conditions for use, and factors related to intention to adopt such tools. Findings suggest that acceptance is not only about liking the idea of AI, but about whether people can picture it in clear, practical use-cases. When AI is linked to concrete, everyday functions, such as mood tracking, reminders, basic well-being exercises, or early guidance supported by human oversight, intention to use becomes stronger. Familiarity with AI also acts as a bridge, easing uncertainty and supporting the step from general approval to actual willingness to try. At the same time, a clear boundary emerges around data. In mental health, technology is evaluated as a relationship of trust: what is collected, where it is stored, how long it is kept, and who can access it. Many respondents show strong caution, signaling that adoption depends on meaningful control, not just promised benefits. Overall, the study indicates a broadly positive openness toward AI in mental health, especially when usefulness is tangible. Yet this positivity does not necessarily mean that the deeper risks of highly sensitive data and potential commercial misuse are fully recognized. Responsible adoption therefore requires conditions: transparency, genuine user control, strong safeguards, and a clear commitment to maximizing human benefit rather than prioritizing costcutting or profit-driven uses of personal information. | el |
| dc.contributor.master | Οικονομικά και Διοίκηση της Υγείας | el |
| dc.subject.keyword | Τεχνητή νοημοσύνη | el |
| dc.subject.keyword | Ψυχική υγεία | el |
| dc.subject.keyword | Αποδοχή τεχνολογίας | el |
| dc.subject.keyword | Ψηφιακή ψυχική υγεία | el |
| dc.subject.keyword | Chatbots | el |
| dc.subject.keyword | Αποδοχή λειτουργιών εφαρμογής | el |
| dc.subject.keyword | Artificial intelligence | el |
| dc.subject.keyword | Mental health | el |
| dc.subject.keyword | Technology acceptance | el |
| dc.subject.keyword | Feature / function acceptance | el |
| dc.subject.keyword | Digital mental health | el |
| dc.date.defense | 2026-03-17 | |