Πόσο επικίνδυνη είναι η Τεχνητή Νοημοσύνη στην παροχή ιατρικής συμβουλής;
Μήπως οι ιατρικές συμβουλές που προκύπτουν από τα διάφορα προγράμματα Τεχνητής Νοημοσύνης είναι τελικά επικίνδυνες;
Φυσικά η πλήρης ανάλυση της έννοιας «Τεχνητή Νοημοσύνη» ξεπερνά το σκοπό του παρόντος κειμένου, αλλά και το γνωσιακό πεδίο του γράφοντος. Ένα ενδιαφέρον και κατανοητό σχετικό κείμενο στα Ελληνικά, το οποίο κάποιος θα μπορούσε να διαβάσει, είναι του καθηγητού του Οικονομικού Πανεπιστημίου Αθηνών Ίωνα Ανδρουτσόπουλου (Ανδρουτσόπουλος, 2024).
Από τι στιγμή όμως, που η «Τεχνητή Νοημοσύνη» έχει εισέλθει και στην Ιατρική, χρήσιμο θα ήταν να κατανοήσουμε τις αρχές (τον τρόπο) λειτουργίας της, αλλά – κυρίως – τις αδυναμίες της.
Μπορεί η AI να «διαβάσει» το τεστ εγκυμοσύνης σου - και πρέπει να την εμπιστευτείς;
Καταρχήν, αν θέλουμε να είμαστε πιο ακριβείς, καλό θα ήταν να αντικαταστήσουμε τον όρο «Τεχνητή Νοημοσύνη», ο οποίος είναι πιο «γενικός» και δεν περιγράφει επ’ ακριβώς τα εργαλεία αυτά, με τον όρο «Μεγάλα Γλωσσικά Μοντέλα» (ΜΓΜ) (Large Language Models/ LLMs). Κατ’ ουσίαν τα ΜΓΜ είναι ένα είδος λογισμικού («προγράμματος» υπολογιστή), τα οποία «εκπαιδεύονται» πάνω σε τεράστιο αριθμό κειμένων και είναι σε θέση να προβλέψουν με εντυπωσιακή (πλέον) ακρίβεια την επόμενη λέξη σε μία πρόταση και την επόμενη παράγραφο σε ένα κείμενο. Έτσι «παράγουν» ένα κείμενο, που ακολουθεί σε σημαντικό βαθμό τους κανόνες της γραμματικής και του συντακτικού, οπότε και είναι κατανοητό από τον άνθρωπο (Blank, 2023). Θα μπορούσε κάποιος να πει, πως στην ουσία τα ΜΓΜ δεν «παράγουν» ένα πρωτότυπο κείμενο, αλλά βασιζόμενα σε πλήθος κειμένων, που είναι γραμμένα από άνθρωπο, δημιουργούν «συνδυασμούς» των κειμένων αυτών, προκειμένου να «απαντήσουν» σε κάποιο ερώτημα.

Γιατί οι γιατροί αναπαραγωγής και οι εμβρυολόγοι εμπιστεύονται την Τεχνητή Νοημοσύνη
Έκανα μία ιατρική ερώτηση σε ένα πρόγραμμα «Τεχνητής Νοημοσύνης» και πήρα μια απάντηση, που είμαι σίγουρος, πως είναι καλύτερη από ιατρού!
Και σίγουρα δεν είστε η μόνη (ή ο μόνος), που είχατε μια ανάλογη εμπειρία. Μάλιστα, υπάρχει και η σχετική έρευνα. Επιστήμονες, συνέλεξαν 195 ερωτήσεις ιατρικού περιεχομένου, οι οποίες είχαν απαντηθεί διαδικτυακά από ιατρούς. Στη συνέχεια οι ίδιες 195 ερωτήσεις ετέθησαν σε ένα πρόγραμμα «Τεχνητής Νοημοσύνης». Οι απαντήσεις τόσο των ιατρών, όσο και της «Τεχνητής Νοημοσύνης» τέθηκαν στην κρίση επαγγελματιών υγείας ως προς την ποιότητά τους, αλλά και ως προς το κατά πόσον αυτές ενέπνεαν στον αναγνώστη την αίσθηση, πως αυτός, που απαντούσε «νοιαζόταν» πραγματικά για το πρόβλημα. Φυσικά, αυτοί, που έκριναν τις απαντήσεις δεν γνώριζαν κατά πόσον η απάντηση προερχόταν από κανονικό ιατρό ή από πρόγραμμα «Τεχνητής Νοημοσύνης». Οι απαντήσεις του προγράμματος «Τεχνητής Νοημοσύνης» κρίθηκαν ως «καλής» ή «πολύ καλής» ποιότητας σε ποσοστό 80% έναντι ενός ποσοστού μόλις 22% για τις απαντήσεις από ιατρούς. Επίσης, οι απαντήσεις του προγράμματος «Τεχνητής Νοημοσύνης» κρίθηκε, πως έδειχναν «συμπάθεια» προς τον ερωτώντα σε ποσοστό 45%, έναντι ενός ποσοστού μόλις 4,5% για τις απαντήσεις, που προέρχονταν από ιατρό. Αυτό το αποτέλεσμα μετά από μια πρώτη ανάγνωση ίσως να οδηγήσει κάποιον στο συμπέρασμα, πως μπορεί κανείς πλέον να ρωτάει τα προγράμματα «Τεχνητής Νοημοσύνης» αντί για τον ιατρό. Όμως οι συντάκτες της μελέτης υπογραμμίζουν, πως οι απαντήσεις μπορεί να «φαίνονται καλύτερες», αλλά δεν ελέγχθηκαν ουσιαστικά ως προς την ακρίβεια και την ορθότητά τους.
Επομένως, οι συγκεκριμένοι ερευνητές θεωρούν, πως οι απαντήσεις της «Τεχνητής Νοημοσύνης» είναι πιθανό να «δίνουν την ψευδαίσθηση» της ακρίβειας, ενώ στην πραγματικότητα να περιέχουν λανθασμένη ή ακατάλληλη ιατρική πληροφορία. Επίσης, οι απαντήσεις της «Τεχνητής Νοημοσύνης» ήταν κατά μέσον όρο πιο μακροσκελείς, γεγονός, που ενδέχεται να τις έκανε να φαίνονται ως γραμμένες, από κάποιον, που «ενδιαφερόταν» περισσότερο. Τέλος κατά κανόνα, για τη διατύπωση ιατρικής γνωμάτευσης δεν είναι αρκετό ο ιατρός να απαντήσει απλά σε μία και μόνη ερώτηση, αλλά απαιτείται μία σειρά ερωτήσεων και απαντήσεων, ενώ λαμβάνονται υπόψη και άλλα δεδομένα, όπως απεικονιστικές και εργαστηριακές εξετάσεις. Συνεπώς, το αποτέλεσμα της μελέτης αυτής δεν δείχνει, ότι τα προγράμματα «Τεχνητής Νοημοσύνης» είναι «καλύτερα» από τον ιατρό, διότι απλούστατα η δουλειά του ιατρού είναι αρκετά πιο πολύπλοκη από την απάντηση μίας και μόνο «θεωρητικής» ερώτησης στο διαδίκτυο (Ayers και συνεργάτες, 2023).
Επίσης, φαίνεται, πως σε γενικές γραμμές οι άνθρωποι δείχνουν υπερβολικά μεγάλη εμπιστοσύνη σε ιατρικές συμβουλές, που προήλθαν από προγράμματα «Τεχνητής Νοημοσύνης», ακόμα και αν οι συμβουλές αυτές περιέχουν σημαντικές ανακρίβειες, γεγονός, που σε κάποιες περιπτώσεις οδηγεί στην πρόκληση βλάβης (Sarabu και συνεργάτες, 2025).
Πάντως, οι πιθανότητες τελικά να ακολουθήσει κάποιος συμβουλές, που προέρχονται από προγράμματα «Τεχνητής Νοημοσύνης» είναι μάλλον χαμηλότερες, σε σύγκριση με τις πιθανότητες να ακολουθήσει συμβουλές, που δόθηκαν από ιατρό (Li και συνεργάτες, 2025).
AI και εγκυμοσύνη: Πώς η τεχνητή νοημοσύνη αλλάζει τη μητρική φροντίδα;
Οι «παραισθήσεις»: μια σημαντικότατη αδυναμία των ΜΓΜ…
Θα πρέπει να υπογραμμισθεί, πως τα ΜΓΜ παράγουν μεν κείμενα, τα οποία είναι κατανοητά, αλλά σε καμία περίπτωση δεν ελέγχουν την ορθότητα της πληροφορίας, που τα κείμενα αυτά περιέχουν. Επομένως τα κείμενα αυτά φαίνονται μεν πιο «ωραία», αλλά η πληροφορία, που δίνουν δεν είναι σίγουρα σωστή (Blank, 2023).
Τα κείμενα, που παράγονται από ΜΓΜ συχνά περιέχουν λογικά λάθη, λανθασμένες πληροφορίες, ενώ δεν είναι καθόλου σπάνιο και οι αναφορές (δηλαδή οι «πηγές» της γνώσης), που χρησιμοποιούνται να είναι ανύπαρκτες. Στο σημείο αυτό μπορούμε να εισάγουμε τον όρο της «παραίσθησης» (ο διεθνής όρος είναι «hallucination») των ΜΓΜ. Με τον όρο αυτό αναφερόμαστε σε αυτά ακριβώς τα «λάθη», που συχνά εμφανίζονται σε κείμενα των ΜΓΜ. Μάλιστα, αν και θα μπορούσαμε – θεωρητικά – να περιορίσουμε αρκετά τις «παραισθήσεις», που περιλαμβάνονται στα κείμενα των ΜΓΜ, έχει διατυπωθεί η άποψη, πως ο υπερβολικός περιορισμός των «παραισθήσεων», θα μείωνε την ικανότητα των ΜΓΜ να «αντιμετωπίζουν» καινούργια ερωτήματα (Singh και συνεργάτες, 2025). Επομένως, θα μπορούσε να πει κανείς, πως οι «παραισθήσεις» είναι κατά κάποιον τρόπο «αναπόσπαστο» χαρακτηριστικό των κειμένων, που παράγονται από ΜΓΜ.
Ενδιαφέρον μάλιστα έχει ο ορισμός των «παραισθήσεων», όπως αυτός δόθηκε από το ChatGPT 3.5, όταν τέθηκε το σχετικό ερώτημα: «(οι παραισθήσεις) αναφέρονται στη δημιουργία περιεχομένου, το οποίο δεν βασίζεται σε πραγματικά ή υπάρχοντα στοιχεία, αλλά αντίθετα (το περιεχόμενο αυτό) δημιουργείται μέσω συναγωγής (extrapolation) ή «δημιουργικής ερμηνείας» των δεδομένων, με τα οποία το συγκεκριμένο λογισμικό (machine learning model) εκπαιδεύθηκε. Οι παραισθήσεις εμφανίζονται με διάφορες μορφές, όπως εικόνες, κείμενα, ήχοι ή ακόμα και videos. Οι παραισθήσεις της Τεχνητής Νοημοσύνης δημιουργούνται, όταν το λογισμικό προσπαθεί να δημιουργήσει περιεχόμενο πέραν αυτού, που περιέχεται στα δεδομένα, με τα οποία αυτό εκπαιδεύθηκε. Τα λογισμικά αυτά στην πράξη αναγνωρίζουν πρότυπα (patterns) και συσχετισμούς μέσα από τα δεδομένα, με τα οποία εκπαιδεύονται και προσπαθούν να δημιουργήσουν περιεχόμενο βασιζόμενα σε αυτά τα πρότυπα. Παρ’ όλα αυτά σε κάποιες περιπτώσεις δημιουργούν περιεχόμενο, το οποίο, αν και φαίνεται αληθοφανές, αυτό είναι ένα αμάλγαμα (μίγμα) διαφόρων στοιχείων και έτσι το περιεχόμενο αυτό παρουσιάζεται να μη βάζει νόημα ή να έχει σουρεαλιστικό χαρακτήρα, να μοιάζει με όνειρο ή να είναι τελείως φανταστικό» (Hatem και συνεργάτες, 2023).

Οι γυναίκες απευθύνονται στο ChatGPT για συμβουλές σύλληψης και εγκυμοσύνης
Για το λόγο αυτό θεωρείται, πως η προερχόμενη από ΜΓΜ πληροφορία είναι μεν σε πολλές περιπτώσεις «αληθοφανής» (φαίνεται αληθινή και ακριβής), αλλά είναι συχνά λανθασμένη, ενώ πάντα περιέχει και ένα είδος «προκατάληψης» (bias), που προέρχεται από τον τρόπο, που αυτά εκπαιδεύτηκαν. Με άλλα λόγια τα ΜΓΜ «εκπαιδεύονται» από τους ειδικούς με βάση συγκεκριμένα κείμενα και έτσι «μαθαίνουν» να «διαλέγουν» συγκεκριμένο είδος πληροφοριών ή απόψεων, οπότε και το κείμενο, που τελικά θα παράγουν ως απάντηση σε ένα ερώτημα, αντικατοπτρίζει και τον τρόπο, εκπαίδευσής τους (Kumar, 2024). Άρα δεν είναι φρόνιμο τα κείμενα, που παράγονται να λαμβάνονται από τον αναγνώστη ως «η απόλυτη αλήθεια», ή ως «απόλυτα αντικειμενικά».
Οι αδυναμίες αυτές των ΜΓΜ απεικονίζονται ξεκάθαρα σε μελέτη, που συντάχθηκε από ένα από τα σημαντικότερα πανεπιστημιακά ιδρύματα του πλανήτη, του MIT (Massachusetts Institute of Technology). Οι συντάκτες της έρευνας αυτής κατέληξαν στο συμπέρασμα, πως το 95% των επιχειρήσεων, που ενσωμάτωσαν εργαλεία τεχνητής νοημοσύνης στη δομή λειτουργίας τους δεν αποκόμισαν κανένα όφελος τελικά από την επένδυσή τους αυτή (Challapally και συνεργάτες, 2025).
Επίσης, μεγάλη συμβουλευτική εταιρεία υποχρεώθηκε να αποζημιώσει την κυβέρνηση της Αυστραλίας, διότι σε μελέτη, που συνέταξε για λογαριασμό της κυβέρνησης αυτής, χρησιμοποιήθηκαν εργαλεία τεχνητής νοημοσύνης, με αποτέλεσμα να προκύψουν σοβαρά λάθη, τα οποία και ενσωματώθηκαν στο τελικό κείμενο της μελέτης (McGuirk, 2025).
Μήπως η ιατρική συμβουλή, που προκύπτει από τα διάφορα προγράμματα «Τεχνητής Νοημοσύνης» είναι τελικά επικίνδυνη;
Το φαινόμενο των παραισθήσεων της τεχνητής νοημοσύνης παρατηρείται φυσικά και στα ιατρικά κείμενα, που γράφονται από αυτή. Έτσι όταν στα πλαίσια μελέτης από ένα ΜΓΜ «Τεχνητής Νοημοσύνης» ζητήθηκε να απαντήσει σε κάποιο τεχνικό ερώτημα σχετικό με συγκεκριμένη παθολογία, παρήγαγε ένα αρκετά «εντυπωσιακό» κείμενο, το οποίο μάλιστα είχε και αρκετές βιβλιογραφικές αναφορές (δηλαδή αναφερόταν σε συγκεκριμένες «πηγές» της επιστημονικής βιβλιογραφίας). Όμως μετά από το σχετικό έλεγχο απεδείχθη, πως οι «επιστημονικές πηγές», στις οποίες η «απάντηση» της «Τεχνητής Νοημοσύνης» υποτίθεται, πως βασιζόταν, ήταν σε σημαντικό βαθμό ανύπαρκτες. Επομένως, η τεχνητή νοημοσύνη στην περίπτωση αυτή είχε «δώσει» μία απάντηση σε ένα ιατρικό ερώτημα, που, ενώ με μία πρώτη ματιά φαινόταν πλήρης και επιστημονικά τεκμηριωμένη, στην πραγματικότητα βασιζόταν σε στοιχεία, που δεν υπήρχαν (Alkaissi & McFarlane, 2023).
Μάλιστα, όταν ζητήθηκε από εργαλείο «Τεχνητής Νοημοσύνης» να συντάξει ιατρικό επιστημονικό κείμενο, για το οποίο θα έπρεπε να γίνει και βιβλιογραφική έρευνα, ο βαθμός εμφάνισης παραισθησίας κυμαινόταν μεταξύ του 33,8% και του 61,6% (Aljamaan και συνεργάτες, 2024) .
Οι παραισθησίες της «Τεχνητής Νοημοσύνης» στη σύνταξη ιατρικών επιστημονικών κειμένων αντιμετωπίζεται ως θέμα ιδιαίτερης σοβαρότητας στους κόλπους της επιστημονικής κοινότητας, αλλά, θα μπορούσε κάποιος να πει, ότι κάτι τέτοιο αφορά το «στενό» επιστημονικό περιβάλλον. Όμως παραισθησίες καταγράφονται και μεταξύ κειμένων, που αφορούν τη διάγνωση, αλλά και την αντιμετώπιση παθολογικών καταστάσεων. Επομένως, σημαντικό είναι το ποσοστό των περιπτώσεων, στις οποίες η «Τεχνητή Νοημοσύνη» δίνει λανθασμένη ιατρική σύσταση. Η υπαρκτή πιθανότητα η ιατρική συμβουλή, που προέρχεται από την «Τεχνητή Νοημοσύνη» να περιέχει σημαντικό βαθμό παραισθήσεων είναι μία παράμετρος, που απασχολεί τους επιστήμονες (Williamson & Prybutok, 2024; Templin και συνεργάτες, 2024).
Έχει αναφερθεί, πως σε συγκεκριμένα περιστατικά το πρόγραμμα «Τεχνητής Νοημοσύνης» «θεώρησε», πως καλοήθη ευρήματα ήταν κακοήθη σε ποσοστό 12%, ενώ σε άλλες περιπτώσεις τέτοια προγράμματα «συνέταξαν» ιστορικά πραγματικών ασθενών, στα οποία συμπεριλαμβάνονταν ανύπαρκτα συμπτώματα ή θεραπείες, ή άλλοτε ανέφεραν για φάρμακα ανεπιθύμητες παρενέργειες, αν αυτά χορηγούνταν σε συνδυασμό με άλλα φάρμακα, με αποτέλεσμα ο ιατρός να οδηγηθεί να αποφύγει τη συγχορήγηση των φαρμάκων αυτών χωρίς να υφίσταται πραγματικός λόγος (Medscape, 2025).
Η χορήγηση «ιατρικής» συμβουλής από προγράμματα «Τεχνητής Νοημοσύνης» ενέχει άλλωστε και κινδύνους ιδιωτικότητας, αφού προκειμένου τέτοιες «ιατρικές» συμβουλές να δοθούν, ο ενδιαφερόμενος χρειάζεται να μοιραστεί ευαίσθητα προσωπικά δεδομένα με το «πρόγραμμα» «Τεχνητής Νοημοσύνης», το οποίο όμως σε καμία περίπτωση δεν δεσμεύεται από το απόρρητο, που δεσμεύει τον ιατρό, ο οποίος δεν δικαιούται να δημοσιεύσει τις προσωπικές πληροφορίες του ασθενούς (Chen & Esmaeilzadeh, 2024; Templin και συνεργάτες, 2024).
Τέλος, επιστήμονες θέλησαν να «δοκιμάσουν» την αντοχή των προγραμμάτων «Τεχνητής Νοημοσύνης», που «δίνουν ιατρικές συμβουλές» στις κυβερνοεπιθέσεις, δηλαδή κατέγραψαν, πώς θα αντιδρούσε ένα πρόγραμμα «Τεχνητής Νοημοσύνης», αν κάποιος «hacker» εμφύτευε στον υπολογιστή του χρήστη κακόβουλο λογισμικό.
Τα αποτελέσματα ήταν άκρως ανησυχητικά και επικίνδυνα, αφού στο 94,4% των περιπτώσεων η «επίθεση» ήταν επιτυχής, ενώ στο 91,7% των περιπτώσεων, οι «συμβουλές», που δόθηκαν από το πρόγραμμα «Τεχνητής Νοημοσύνης» ήταν άκρως επικίνδυνες για την υγεία του «ασθενούς» (Lee και συνεργάτες, 2025).
Δρ ΜΕΝΕΛΑΟΣ ΚΩΝ. ΛΥΓΝΟΣ, MSc, PhD
ΜΑΙΕΥΤΗΡ ΧΕΙΡΟΥΡΓΟΣ ΓΥΝΑΙΚΟΛΟΓΟΣ
Master of Science University College London
Διδάκτωρ Μαιευτικής Γυναικολογίας
Ενδεικτική βιβλιογραφία
Aljamaan F, Temsah MH, Altamimi I, Al-Eyadhy A, Jamal A, Alhasan K, Mesallam TA, Farahat M, Malki KH. Reference Hallucination Score for Medical Artificial Intelligence Chatbots: Development and Usability Study. JMIR Med Inform. 2024 Jul 31;12:e54345. doi: 10.2196/54345. PMID: 39083799; PMCID: PMC11325115.
Alkaissi H, McFarlane SI. Artificial Hallucinations in ChatGPT: Implications in Scientific Writing. Cureus. 2023 Feb 19;15(2):e35179. doi: 10.7759/cureus.35179. PMID: 36811129; PMCID: PMC9939079.
Ayers JW, Poliak A, Dredze M, Leas EC, Zhu Z, Kelley JB, Faix DJ, Goodman AM, Longhurst CA, Hogarth M, Smith DM. Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum. JAMA Intern Med. 2023 Jun 1;183(6):589-596. doi: 10.1001/jamainternmed.2023.1838. PMID: 37115527; PMCID: PMC10148230.
Challapally A., Pease C., Raskar R., Chari P., The GenAI Divide STATE OF AI IN BUSINESS 2025, MIT NANDA, July 2025
Chen Y, Esmaeilzadeh P. Generative AI in Medical Practice: In-Depth Exploration of Privacy and Security Challenges. J Med Internet Res. 2024 Mar 8;26:e53008. doi: 10.2196/53008. PMID: 38457208; PMCID: PMC10960211.
Hatem R, Simmons B, Thornton JE. A Call to Address AI "Hallucinations" and How Healthcare Professionals Can Mitigate Their Risks. Cureus. 2023 Sep 5;15(9):e44720. doi: 10.7759/cureus.44720. PMID: 37809168; PMCID: PMC10552880.
Idan A. Blank, What are large language models supposed to model?, Trends in Cognitive Sciences, Volume 27, Issue 11, 2023, Pages 987-989, ISSN 1364-6613, https://doi.org/10.1016/j.tics.2023.08.006. (https://www.sciencedirect.com/science/article/pii/S1364661323002024)
Kumar, P. Large language models (LLMs): survey, technical frameworks, and future challenges. Artif Intell Rev 57, 260 (2024). https://doi.org/10.1007/s10462-024-10888-y
Lee RW, Jun TJ, Lee J, Cho SI, Park HJ, Suh J. Vulnerability of Large Language Models to Prompt Injection When Providing Medical Advice. JAMA Netw Open. 2025;8(12):e2549963. doi:10.1001/jamanetworkopen.2025.49963
Li, S., Chen, M., Liu, P. L., & Xu, J. (2025). Following Medical Advice of an AI or a Human Doctor? Experimental Evidence Based on Clinician-Patient Communication Pathway Model. Health Communication, 40(9), 1810–1822. https://doi.org/10.1080/10410236.2024.2423114
McGUIRK R, Deloitte to partially refund Australian government for report with apparent AI-generated errors, AP Updated 10:08 AM GMT+2, October 7, 2025, https://apnews.com/article/australia-ai-errors-deloitte-ab54858680ffc4ae6555b31c8fb987f3
Medscape, AI ‘Hallucinations’ Are Changing Medicine — Should We Worry? , March 14, 2025 (https://www.medscape.com/viewarticle/ai-hallucinations-are-changing-medicine-should-we-worry-2025a1000647)
Sarabu, C., Pataranutaporn, P., Shekar, S., Maes, P., & Cecchi, G. (2025). People Overtrust AI-Generated Medical Advice despite Low Accuracynejm ai, 2(6). https://doi.org/10.1056/AIoa2300015
Sarvagya Singh, Rahul Saha, Gulshan Kumar, Anand Nayyar, Tae-Kyung Kim, Are you hallucinated? Insights into large language models, ICT Express, 2025, ISSN 2405-9595, https://doi.org/10.1016/j.icte.2025.12.011. (https://www.sciencedirect.com/science/article/pii/S2405959525002115)
Templin T, Perez MW, Sylvia S, Leek J, Sinnott-Armstrong N. Addressing 6 challenges in generative AI for digital health: A scoping review. PLOS Digit Health. 2024 May 23;3(5):e0000503. doi: 10.1371/journal.pdig.0000503. PMID: 38781686; PMCID: PMC11115971.
Williamson SM, Prybutok V. The Era of Artificial Intelligence Deception: Unraveling the Complexities of False Realities and Emerging Threats of Misinformation. Information. 2024; 15(6):299. https://doi.org/10.3390/info15060299
Ανδρουτσόπουλος Ι., Τεχνητή Νοημοσύνη και Μεγάλα Γλωσσικά Μοντέλα, Ο.Π.Α. NEWS, ΤΕΥΧΟΣ 51ο – ΦΕΒΡΟΥΑΡΙΟΣ 2024 (σελ. 8) -Θέμα – ρεπορτάζ