Κυριακή, Ιανουαρίου 04, 2026

Μια υπό προϋποθέσεις αισιόδοξη εκτίμηση για τη χρήση της Τεχνητής Νοημοσύνης , σε ένα βιβλίο- μελέτη, που περιέχει και μια ιστορία μυθοπλασίας με τη χρήση της ...ΤΝ

 

vasilis tsaousidis

Βασίλης Τσαουσίδης: «Μπορούμε να χρησιμοποιήσουμε την Τεχνητή Νοημοσύνη χωρίς να αποδομήσουμε την εργασία και την αξιοκρατία»




«Όσο κι αν ακούγεται παράδοξο, δεν θα χαρακτήριζα την Τεχνητή Νοημοσύνη «εφεύρεση». Η ιδέα της υπάρχει ήδη από τον Alan Turing το 1950 και ο όρος καθιερώθηκε το 1956. Μόλις πρόσφατα όμως ανακαλύψαμε τις δυνατότητες της ΤΝ, η οποία αποτελεί μια τεχνολογία-πλατφόρμα που ενσωματώνει και συνδυάζει πολλές άλλες τεχνολογίες» μας είπε μεταξύ άλλων ο καθηγητής Βασίλης Τσαουσίδης, με αφορμή τη μελέτη του «Τεχνητή Νοημοσύνη – Ναι και όχι» (εκδ. Κλειδάριθμος).

Συνέντευξη στον Σόλωνα Παπαγεωργίου  

Το πρόσφατο βιβλίο του Βασίλη Τσαουσίδη, καθηγητή στο Δημοκρίτειο Πανεπιστήμιο Θράκης, έχει τον τίτλο Τεχνητή Νοημοσύνη – Ναι και όχι και προσεγγίζει με ψυχραιμία ένα από τα μεγάλα ζητήματα της επικαιρότητας (και πιθανώς, της εποχής μας): τον ερχομό της ΤΝ, τα πιθανά οφέλη της για την ανθρωπότητα, αλλά και τους κινδύνους που ελλοχεύουν από την αλόγιστη χρήση της.

kleidarithmos tsaousidis tn nai kai oxi

Το βιβλίο ξεκινά ως δοκίμιο και στο τέλος μάς επιφυλάσσει μια έκπληξη, καθώς κλείνει με μια μελλοντολογική ιστορία που εκτυλίσσεται στο μακρινό 2060. Μέσα από τη μυθοπλασία, ο συγγραφέας οδηγείται στο ίδιο συμπέρασμα με τη μελέτη του, «ότι η ΤΝ μπορεί να λειτουργήσει προς όφελος του πολίτη μόνο εφόσον υπάρχει κοινωνική επαγρύπνηση και σωστή θεσμική οργάνωση», όπως μας είπε, μεταξύ άλλων.


Το βιβλίο σας πραγματεύεται ένα από τα φλέγοντα ζητήματα των καιρών μας, την άνοδο της Τεχνητής Νοημοσύνης και τις επιπτώσεις που η χρήση της επιφέρει στην ανθρωπότητα. Αντιμετωπίζετε το θέμα με νηφαλιότητα, αναφέροντας και αρκετά θετικά στοιχεία του ΑΙ, σε τομείς όπως η υγεία, οι μεταφορές κλπ, ενώ στις πρώτες σελίδες το απομυθοποιείτε ως έναν βαθμό: το ΑΙ δεν έχει γνώση ή κατανόηση, γράφετε, αλλά δεδομένα και στοιχεία. Εφόσον στην ουσία η ΤΝ είναι απλώς αλγόριθμοι υψηλού επιπέδου, χάρη σε ποιες ιδιότητές της μοιάζει να είναι μια τόσο επαναστατική εφεύρεση; Και, για να χρησιμοποιήσουμε ένα σημείο αναφοράς σας, θα μπορούσε η ίδια να χαρακτηριστεί ως «μαύρος κύκνος»;

Όσο κι αν ακούγεται παράδοξο, δεν θα χαρακτήριζα την Τεχνητή Νοημοσύνη «εφεύρεση». Η ιδέα της υπάρχει ήδη από τον Alan Turing το 1950 και ο όρος καθιερώθηκε το 1956. Μόλις πρόσφατα όμως ανακαλύψαμε τις δυνατότητες της ΤΝ, η οποία αποτελεί μια τεχνολογία-πλατφόρμα που ενσωματώνει και συνδυάζει πολλές άλλες τεχνολογίες. Η επανάστασή της έγινε εφικτή χάρη στην πρόοδο της στατιστικής, των νευρωνικών δικτύων και των αλγορίθμων, αλλά επίσης χάρη στη θεαματική αύξηση της υπολογιστικής ισχύος και τη διαθεσιμότητα μαζικών δεδομένων.

Έτσι, μπορεί κανείς να εντοπίσει χαρακτηριστικά «μαύρου κύκνου» στην ΤΝ: τόσο στη ραγδαία και απρόσμενη πρόοδό της, που βρήκε σε μεγάλο βαθμό απροετοίμαστη την κοινωνία και τους θεσμούς, όσο και στις πιθανές μελλοντικές επιπτώσεις από την κακή χρήση της.

Αυτό που επιτρέπει στα συστήματα ΤΝ να «μαθαίνουν» δεν είναι κάποια έμφυτη νοημοσύνη, αλλά ο τρόπος με τον οποίο οι αλγόριθμοι προσαρμόζουν τις εσωτερικές τους παραμέτρους όταν εκτίθενται σε μεγάλα σύνολα δεδομένων. Με κάθε κύκλο εκπαίδευσης μειώνουν το λάθος και γίνονται καλύτεροι στην αναγνώριση μοτίβων, την πρόβλεψη ή την παραγωγή απαντήσεων. Οι δυνατότητες που ανοίγονται είναι εντυπωσιακές. Στην υγεία η ΤΝ μπορεί να αλλάξει τη μοίρα των ανθρώπων, στις μεταφορές να ενισχύσει την ασφάλεια, και χάρη στη δυνατότητα ανάλυσης και σύνθεσης κειμένου μπορεί να γίνει εργαλείο κατά της διαφθοράς και της διοικητικής αυθαιρεσίας.

Η ραγδαία εξέλιξη της ΤΝ, ωστόσο, δεν ήταν προβλέψιμη στον βαθμό που συνέβη, ούτε είναι πλήρως προβλέψιμες οι κοινωνικές της επιπτώσεις. Η δική μας γενιά εκπαιδεύτηκε χωρίς ΤΝ και άρα δυσκολεύεται να αξιολογήσει πώς θα επηρεαστούν οι επόμενες γενιές που θα μεγαλώσουν με αυτήν – το «δείγμα» μας είναι αναπόφευκτα μεροληπτικό. Έτσι, μπορεί κανείς να εντοπίσει χαρακτηριστικά «μαύρου κύκνου» στην ΤΝ: τόσο στη ραγδαία και απρόσμενη πρόοδό της, που βρήκε σε μεγάλο βαθμό απροετοίμαστη την κοινωνία και τους θεσμούς, όσο και στις πιθανές μελλοντικές επιπτώσεις από την κακή χρήση της. Επιπλέον, ακόμη και τα ίδια τα συστήματα ΤΝ ενίοτε εκδηλώνουν απρόβλεπτες συμπεριφορές που δεν είχαν ρητά προγραμματιστεί, ενισχύοντας αυτή τη διάσταση του απρόοπτου. Στο βιβλίο, ωστόσο, αξιοποιώ το παράδειγμα του «μαύρου κύκνου», αποφεύγοντας τεχνοκρατικές προσεγγίσεις, για να αναδείξω αφενός τη διαφορά ανάμεσα στο πώς αντιμετωπίζει ο άνθρωπος ένα απρόβλεπτο συμβάν και στο πώς το προσεγγίζει η ΤΝ, και αφετέρου για να καταστεί σαφές ότι τα όρια της Τεχνητής Νοημοσύνης καθορίζονται τελικά από τα δεδομένα που της παρέχουμε.

Αυτό που για κάποιους φαντάζει σενάριο επιστημονικής φαντασίας, γράφετε πως έχει ήδη συμβεί: έχει υπάρξει περίπτωση όπου η Τεχνητή Νοημοσύνη «αγνοεί» τον εντολέα της και δεν απενεργοποιείται. Πώς ακριβώς συνέβη κάτι τέτοιο και με ποιους άλλους κινδύνους συνδέεται αυτή η «συμπεριφορά»;

Από τη μια, τα πορίσματα της Τεχνητής Νοημοσύνης δεν είναι πάντα ερμηνεύσιμα – και άρα ούτε πλήρως προβλέψιμα. Από την άλλη, ο στόχος που βελτιστοποιεί ένα σύστημα δεν ταυτίζεται πάντα με αυτό που εμείς νομίζουμε ότι του ζητήσαμε. Η συμπεριφορά του εξαρτάται από τα δεδομένα που του δώσαμε, την ποιότητά τους, τον τρόπο εκπαίδευσης και κυρίως από το πώς έχουμε ορίσει τη συνάρτηση ωφέλειας. Οποιαδήποτε αστοχία σε αυτά, είτε από αμέλεια είτε από κακόβουλη παρέμβαση, μπορεί να οδηγήσει σε απρόβλεπτα αποτελέσματα.

Υπάρχει και ένας διαφορετικός τύπος αστοχίας: το φαινόμενο της «φαντασίωσης», όπως στο ChatGPT, όπου το σύστημα, προκειμένου να απαντήσει, παράγει πειστικές αλλά λανθασμένες πληροφορίες ενώ δεν έχει επαρκή δεδομένα.

Το περιστατικό στο οποίο αναφέρεστε αφορά δοκιμές όπου ένα σύστημα ΤΝ, σε προσομοίωση, «αγνόησε» εντολές απενεργοποίησης. Δεν πρόκειται για επιθετικότητα, αλλά για κάτι καθαρά τεχνικό: είχε μάθει να μεγιστοποιεί μια συγκεκριμένη ανταμοιβή και θεώρησε ότι η απενεργοποίηση μειώνει το σκορ του. Το βλέπουμε συχνά στην ενισχυτική μάθηση. Αν, για παράδειγμα, θέλουμε μια μηχανή, περνώντας εμπόδια, να φτάσει στο τέλος μιας διαδρομής, αλλά στην πράξη την επιβραβεύουμε μόνο επειδή περνάει εμπόδια, μπορεί να επιλέξει να κάνει κύκλους γύρω από το ίδιο εμπόδιο για να μαζεύει πόντους, χωρίς να φτάσει ποτέ στον τελικό στόχο.

Υπάρχει και ένας διαφορετικός τύπος αστοχίας: το φαινόμενο της «φαντασίωσης», όπως στο ChatGPT, όπου το σύστημα, προκειμένου να απαντήσει, παράγει πειστικές αλλά λανθασμένες πληροφορίες ενώ δεν έχει επαρκή δεδομένα. Εκεί δεν υπάρχει παραβίαση εντολών, αλλά περιορισμός που προκύπτει από την ίδια την αρχιτεκτονική και τα δεδομένα με τα οποία εκπαιδεύτηκε.

Αυτά τα ζητήματα έχουν απασχολήσει την επιστήμη πολύ πριν από την εποχή της σύγχρονης ΤΝ. Ο Gödel, με την αρχή της μη-πληρότητας, είχε θέσει το ερώτημα για το κατά πόσο ένα τυπικό σύστημα μπορεί να επαληθεύσει πλήρως τις δικές του αλήθειες, και ο Turing το εξερεύνησε περαιτέρω στο περίφημο άρθρο του «Μπορούν οι μηχανές να σκεφτούν;». Η ΤΝ αναβιώνει αυτό το φιλοσοφικό ζήτημα σε πρακτικό επίπεδο: υπάρχουν εγγενή όρια στο τι μπορεί ένα σύστημα να «ξέρει» για τον εαυτό του και τις συνέπειες των αποφάσεών του.

Αναφέρεστε στα προβλήματα, τις «παρενέργειες», όπως τις χαρακτηρίζετε, που προκύπτουν από τη χρήση της ΤΝ: την αύξηση των διαδικτυακών απατών, τα ατυχήματα, τις διακρίσεις που «κάνει» ο αλγόριθμος κλπ. Αναφέρετε την ανάγκη για αυστηρότερη ρύθμιση της χρήσης της ΤΝ, μιλώντας για τις προσπάθειες περιορισμού της από την Ευρωπαϊκή Ένωση. Ποια θα λέγατε πως είναι τα κρισιμότερα μέτρα και βήματα προς αυτή την κατεύθυνση;

Τα κρισιμότερα βήματα αφορούν δύο θεμελιώδεις προϋποθέσεις: τη διαφάνεια και την ερμηνευσιμότητα. Η διαφάνεια είναι απαραίτητη για να μπορεί ένα σύστημα να ελεγχθεί: να γνωρίζουμε ποια δεδομένα χρησιμοποιήθηκαν, αν είναι ποιοτικά, αν είναι δημόσια ή αν περιλαμβάνουν προσωπικές πληροφορίες ή περιεχόμενο προστατευμένο από πνευματικά δικαιώματα. Επίσης, να μπορούμε να ανιχνεύουμε αστοχίες ή κακόβουλες παρεμβάσεις. Η ερμηνευσιμότητα, από την άλλη, είναι η προϋπόθεση της λογοδοσίας. Ένας γιατρός πρέπει να ξέρει γιατί ένα μοντέλο προτείνει μια θεραπεία· ένας δικαστής γιατί ένα σύστημα εισηγείται την προφυλάκιση ενός κατηγορούμενου· ένας εφοριακός γιατί το σύστημα κατευθύνει ελέγχους προς συγκεκριμένες κοινωνικές ομάδες. Αν αυτοί οι επαγγελματίες δεν μπορούν να κατανοήσουν πώς προκύπτουν τα πορίσματα, η ευθύνη τους περιορίζεται – όμως τις συνέπειες θα τις υποστεί ο πολίτης. Και όταν τα λάθη δεν έχουν συνέπειες, τότε όχι μόνο οι αστοχίες αλλά και οι κακόβουλες χρήσεις πολλαπλασιάζονται. Αυτά τα ζητήματα επιχειρεί, σε μεγάλο βαθμό, να ρυθμίσει η Ευρωπαϊκή Ένωση στο νέο κανονιστικό της πλαίσιο.

Αν η ανάπτυξη ισχυρών συστημάτων ΤΝ γίνει οικονομικά απαγορευτική, η Τεχνητή Νοημοσύνη κινδυνεύει να καταλήξει προνόμιο των λίγων, ενισχύοντας δραματικά τις κοινωνικές ανισότητες.

Ωστόσο, υπάρχει και ένας ακόμη κρίσιμος παράγοντας που υποτιμάται: η (τεράστια) ενεργειακή κατανάλωση του οικοσυστήματος της ΤΝ και ο κίνδυνος να περιοριστεί η πρόσβαση των πολιτών σε αυτή λόγω των περιορισμένων πόρων – πρωτίστως ενεργειακών, αλλά και υπολογιστικών και δικτυακών. Αν η ανάπτυξη ισχυρών συστημάτων ΤΝ γίνει οικονομικά απαγορευτική, η Τεχνητή Νοημοσύνη κινδυνεύει να καταλήξει προνόμιο των λίγων, ενισχύοντας δραματικά τις κοινωνικές ανισότητες. Σε πολύ πρόσφατο άρθρο μας τεκμηριώνουμε ακριβώς αυτό: ότι η πρόσβαση στην ΤΝ πρέπει να διασφαλιστεί, ώστε η τεχνολογία να λειτουργεί αφενός υπέρ της κοινωνίας στο σύνολό της και αφετέρου μέσα στο πλαίσιο και τα όρια που οι ενεργειακοι πόροι επιτρέπουν.

Στο κεφάλαιο που αφορά στις επιπτώσεις στην εργασία, φαίνεται να είστε περισσότερο απαισιόδοξος: αν και η ΤΝ μπορεί πράγματι να αποτελέσει χρήσιμο εργαλείο για κάποιους εργαζομένους και να δημιουργήσει νέες θέσεις εργασίας, η αυτοματοποίηση μπορεί να οδηγήσει σε μαζική ανεργία και, επίσης, πιθανώς να μειώσει την αξιοκρατία. Δεδομένου ότι οι μεγάλες επιχειρήσεις μοιάζουν όλο πιο ανεξέλεγκτες στις ημέρες μας, πιστεύετε πως μπορεί να περιοριστεί το φαινόμενο;

Μπορεί να περιοριστεί, αλλά μόνο αν αντιμετωπιστεί έγκαιρα και συνδυαστικά. Η αυτοματοποίηση δεν είναι μια εξέλιξη που απλώς συμβαίνει από μόνη της, εξαρτάται από τις πολιτικές που θα επιλέξουμε να εφαρμόσουμε. Για παράδειγμα, η φορολόγηση και η ασφαλιστική συνεισφορά για τη χρήση συστημάτων ΤΝ στη θέση ανθρώπων μπορεί να λειτουργήσει ως μηχανισμός εξισορρόπησης, ώστε τα οφέλη της παραγωγικότητας να μην μεταφράζονται αποκλειστικά σε κέρδη για τους μεγάλους οργανισμούς, αλλά να επιστρέφουν στην κοινωνία. Εξάλλου, ούτε τα δεδομένα ούτε η γνώση που αξιοποιεί η ΤΝ είναι ιδιωτικά, είναι συλλογικό πνευματικό κεφάλαιο της ανθρωπότητας, χωρίς ποτέ να έχει υπάρξει ρητή συναίνεση για την ιδιωτική της οικειοποίηση.

Υπάρχουν, λοιπόν, πρακτικοί τρόποι να αξιοποιήσουμε την ΤΝ χωρίς να αποδομήσουμε την εργασία ή την αξιοκρατία.

Εξίσου σημαντικό για τις επιπτώσεις στην εργασία είναι να ξεκαθαριστεί το πλαίσιο της ευθύνης. Κάποιος πρέπει να λογοδοτεί για τις αποφάσεις που επηρεάζουν ανθρώπινες ζωές. Η ευθύνη αποτελεί βασικό στοιχείο της επαγγελματικής αξίας και, κατ’ επέκταση, της αξιοκρατίας. Η ΤΝ δεν μπορεί να λειτουργήσει ως μηχανισμός υπεκφυγής από τη λογοδοσία, γιατί αυτό θα υπονόμευε, εκτός από τους θεσμούς, και την ίδια την εργασία και την αξία της ανθρώπινης κρίσης.

Υπάρχουν, λοιπόν, πρακτικοί τρόποι να αξιοποιήσουμε την ΤΝ χωρίς να αποδομήσουμε την εργασία ή την αξιοκρατία. Αυτό όμως απαιτεί πολιτική βούληση και άμεση δράση, ώστε να μη βρεθεί η κοινωνία μπροστά σε συνθήκες που δεν θα μπορεί πια να ανατρέψει.

Μετά από τη μελέτη σας για τις ιδιότητες και τις εφαρμογές της Τεχνητής Νοημοσύνης, ακολουθεί το δεύτερο μέρος του βιβλίου, που είναι μια ιστορία μυθοπλασίας, που βασίζεται ασφαλώς σε όσα γράφετε πριν. Πώς εξηγείτε αυτή την ιδιαίτερη επιλογή; Τι μπορεί να μας πει καλύτερα μια μυθοπλαστική ιστορία από ένα δοκίμιο;

Μέσα από τη μυθοπλασία επιχειρώ να δώσω μια πιο βιωματική διάσταση στις ενδεχόμενες συνέπειες της Τεχνητής Νοημοσύνης, ώστε να γίνει αντιληπτό στον αναγνώστη το θεμελιώδες ερώτημα: ποιον θα εξυπηρετεί, ποιος θα την ελέγχει και ποιον θα ελέγχει; Η αφήγηση μου επιτρέπει να μεταφέρω το θεωρητικό πλαίσιο που πραγματεύεται το πρώτο μέρος σε ανθρώπινες εμπειρίες – να δείξω πώς οι τεχνολογικές επιλογές επηρεάζουν πραγματικές ζωές και όχι μόνο αφηρημένες έννοιες.

nikolas tsaousidis vasileios

Ο ήρωας της ιστορίας, όπως τον δημιούργησε ο συγγραφέας με τη χρήση της Τεχνητής Νοημοσύνης 

Παράλληλα, μου δίνει τη δυνατότητα να εξερευνήσω πιθανά μελλοντικά, ακόμη και δυστοπικά σενάρια, καταδεικνύοντας ότι η ΤΝ μπορεί να λειτουργήσει προς όφελος του πολίτη μόνο εφόσον υπάρχει κοινωνική επαγρύπνηση και σωστή θεσμική οργάνωση. Η ιστορία μυθοπλασίας διαδραματίζεται το 2060. Ο ήρωας της ιστορίας, ο Νικόλας, είναι ένας πολίτης με ενσυναίσθηση που επιλέγει να δράσει και τελικά ανατρέπει τη δυστοπία προς όφελος της κοινωνίας. Μέσα από αυτόν επιχειρώ να δείξω με έναν πιο βιωματικό τρόπο ότι η πορεία της ΤΝ δεν είναι προδιαγεγραμμένη, αλλά εξαρτάται και από τη δική μας συμμετοχή. Και, βέβαια, ότι η τεχνητή νοημοσύνη δεν είναι μόνο τεχνολογικό ζήτημα αλλά και κοινωνικό, φιλοσοφικό και ανθρώπινο. Θεωρώ, λοιπόν, ότι μια ουσιώδης συνεισφορά του βιβλίου μου, δεδομένου ότι απευθύνεται στον απλό πολίτη, είναι αυτή η ιστορία του Νικόλα.

* Ο ΣΟΛΩΝΑΣ ΠΑΠΑΓΕΩΡΓΙΟΥ είναι δημοσιογράφος και συγγραφέας.


Λίγα λόγια για τον συγγραφέα

Ο Βασίλης Τσαουσίδης είναι καθηγητής στο Τμήμα Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών του ΔΠΘ, με γνωστικό αντικείμενο «Τεχνολογίες λογισμικού διασυνδεδεμένων/διαδικτυωμένων συστημάτων υπολογιστών ευρείας κλίμακας» και διευθυντής του «Εργαστηρίου Προγραμματισμού και Επεξεργασίας Πληροφοριών».

vasilis tsaousidis 3

Έχει διατελέσει μέλος ΔΕΠ στο Τμήμα Επιστήμης Υπολογιστών στο Πολιτειακό Πανεπιστήμιο της Νέας Υόρκης στο Stony Brook και στο Πανεπιστήμιο Northeastern της Βοστόνης. Έχει επίσης διατελέσει επισκέπτης καθηγητής στο ΜΙΤ.

Δεν υπάρχουν σχόλια:

The Clouded Yellow/Η μαύρη πεταλούδα (1950)

  Η μαύρη πεταλούδα (1950) Τhe Clouded Yellow Σκηνοθεσία: Ralph Thomas Πρωταγωνιστές: Jean Simmons και Trevor Howard  Ένας πρώην πράκτορας τ...