Σάββατο, Φεβρουαρίου 18, 2023

Ο «συγγραφέας» ChatGPT και οι ηθικές προκλήσεις που δημιουργεί

 

Ο «συγγραφέας» ChatGPT και οι ηθικές προκλήσεις που δημιουργεί

Τεχνολογία 

Εδώ και αρκετά χρόνια υπάρχουν εφαρμογές Τεχνητής Νοημοσύνης (ΤΝ) που αποκτούν ολοένα και μεγαλύτερη ικανότητα να παράγουν ή, ίσως καλύτερα, να αναπαράγουν ομιλία. Αυτή η ικανότητα έχει πια φτάσει σε τέτοιο βαθμό που δεν είναι καθόλου εύκολο, για έναν άνθρωπο, να αντιληφθεί με σιγουριά εάν συνομιλεί με έναν άλλον άνθρωπο ή με ένα σύστημα ΤΝ. Τον περασμένο χρόνο ήδη υπήρχαν αναφορές ότι ορισμένοι επιστήμονες χρησιμοποιούσαν chatbots ως βοηθούς στην έρευνά τους, για παράδειγμα βοηθώντας τους να οργανώσουν την σκέψη τους, να ανατροφοδοτήσουν την έρευνά τους, να βοηθηθούν στην συγγραφή λογισμικού, καθώς και για να συνοψίζουν επιστημονική βιβλιογραφία.

Οι παραπάνω λειτουργίες δεν είχαν προβληματίσει ιδιαιτέρως την επιστημονική κοινότητα. Αυτό όμως άλλαξε απότομα από τα τέλη Νοεμβρίου του 2022, με την κυκλοφορία του λεγόμενου ChatGPT, που αποτελεί ακρωνύμιο του Chat Generative Pre-Trained Transformer και έχει δημιουργηθεί από την αμερικανική εταιρία OpenAI. Το ChatGPT ανήκει στα λεγόμενα Large Language Models (LLMs), τα οποία παράγουν πειστικές προτάσεις μιμούμενα γλωσσικά μοτίβα, μέσω στατιστικής ανάλυσης κολοσσιαίων ποσοτήτων κειμένου που ανακτούν από το διαδίκτυο. Αυτή η υπηρεσία ΤΝ, όντας σε λειτουργία μόλις 2 μήνες, έχει προκαλέσει ανησυχίες στην ερευνητική και ακαδημαϊκή κοινότητα, που σχετίζονται με την συγγραφή εργασιών από φοιτητές και επιστημονικών δημοσιεύσεων από ερευνητές.

Το ChatGPT δεν είναι, όπως αναφέρθηκε, το πρώτο σύστημα ΤΝ που εκτελεί τέτοιου είδους ενέργειες. Είναι όμως το πρώτο, καθώς και το πιο εξελιγμένο, που διαθέτει στο ευρύ κοινό εφαρμογές αυτόματης συγγραφής. Η εταιρία OpenAI παρέχει το ChatGPT δωρεάν και με ένα τέτοιο τρόπο που να μπορεί να χρησιμοποιηθεί από ανθρώπους χωρίς ειδίκευση ή τεχνικές γνώσεις επάνω στην ΤΝ. Αυτή τη στιγμή υπολογίζεται ότι έχει εκατομμύρια χρήστες, κάποιοι από τους οποίους έχουν προχωρήσει σε «συγγραφικά πειράματα» που έχουν προκαλέσει ανάμεικτα συναισθήματα ενθουσιασμού και ανησυχίας.

Σκεφτείτε ότι υπάρχει μία εφαρμογή που είναι φιλική στον χρήστη και παρέχεται δωρεάν, με τη βοήθεια της οποίας μπορούν να παραχθούν αυτοματοποιημένα φοιτητικές εργασίες που να θεωρούνται αξιοπρεπούς ποιότητας, περιλήψεις επιστημονικών εργασιών που να είναι πιστές στο κείμενο στο οποίο αναφέρονται, απαντήσεις σε εξετάσεις που να μπορούν να «περάσουν το μάθημα», καθώς και προγραμματιστικός κώδικας. Ήδη το ChatGPT έχει παραγάγει περιλήψεις επιστημονικών άρθρων τα οποία έχουν ξεγελάσει ερευνητές, οι οποίοι πείστηκαν ότι είχαν γραφεί από κάποιον συνάδελφό τους. Παρότι η εταιρία OpenAI έχει προσπαθήσει να αναπτύξει κατάλληλα αντίμετρα για να εμποδίσει τη χρήση του ChatGPT για ύποπτους σκοπούς, όπως για ανάπτυξη κακόβουλου λογισμικού, οι χρήστες ήδη βρίσκουν τρόπους να τα ξεπεράσουν.

Μία από τις φλέγουσες ερωτήσεις είναι εάν οι εκδότες επιστημονικών περιοδικών μπορούν να ξεχωρίσουν ένα κείμενο που έχει παραχθεί από το ChatGPT ή από ένα άλλο προηγμένο σύστημα LLMs. Αυτή τη στιγμή η απάντηση είναι «ενδεχομένως». Ένα κείμενο μπορεί να αποκαλυφθεί ότι είναι παράγωγο του ChatGPT, εφόσον δεν έχει υποστεί κάποια επιμέλεια από άνθρωπο, εάν κάποιος το διαβάσει με προσοχή, ειδικά εάν έχει χρησιμοποιηθεί για την παραγωγή ενός μεγάλου σε έκταση κειμένου που σχετίζεται με κάποιο πολύ τεχνικό επιστημονικό ζήτημα. Αυτό οφείλεται στο ότι τα συστήματα LLM, όπως ήδη αναφέρθηκε, παράγουν μοτίβα ή ακολουθίες λέξεων που βασίζονται στη στατιστική συσχέτιση λέξεων από υπάρχοντα κείμενα που έχουν χρησιμοποιηθεί για την «εκπαίδευση» τέτοιων συστημάτων ΤΝ. Αυτό σημαίνει ότι το κείμενο που παράγουν μπορεί να εμφανίζεται στα μάτια ενός αναγνώστη γενικόλογο ή να περιέχει απλά γραμματικά λάθη. Επίσης, το ChatGPT δεν μπορεί ακόμα να τοποθετεί βιβλιογραφικές αναφορές στα κείμενα που παράγει.

Μελλοντικά, όμως, οι ερευνητές στην ΤΝ μπορεί να καταφέρουν να παραμερίσουν τέτοιου είδους προβλήματα. Για παράδειγμα ήδη γίνονται πειράματα σύνδεσης chatbots με εφαρμογές που παρέχουν βιβλιογραφικές βάσεις δεδομένων, καθώς και πειράματα εκπαίδευσης chatbots επάνω στην παραγωγή επιστημονικών κειμένων. Παράλληλα, εκδοτικοί οίκοι είναι ανάμεσα σε αυτούς που εργάζονται προς την ανάπτυξη και βελτίωση εφαρμογών που θα μπορούν να εντοπίζουν κείμενα που έχουν παραχθεί με συστήματα LLM.

Ποιες όμως είναι οι ηθικές ανησυχίες που εγείρονται από τέτοιου είδους εφαρμογές, συγκεκριμένα στον χώρο της επιστημονικής έρευνας; Μία πρώτη αφορά στη σωστή απόδοση της συγγραφικής ομάδας μιας επιστημονικής δημοσίευσης. Ήδη έχουν εντοπιστεί τέσσερις επιστημονικές δημοσιεύσεις, οι οποίες βρίσκονται στο στάδιο κρίσης, οι οποίες έχουν συμπεριλάβει στη λίστα των συγγραφέων το ChatGPT. Αυτό δεν φαίνεται να γίνεται αποδεκτό, διότι μία από τις βασικές προϋποθέσεις του να είναι κάποιος συγγραφέας είναι να έχει την ικανότητα να δίνει τη συγκατάθεσή του, καθώς και να αναλαμβάνει την ευθύνη των γραφομένων. Το ChatGPT, όπως και όλα τα υπάρχοντα συστήματα LLM, προφανώς, δεν μπορούν να κάνουν κάτι τέτοιο.

Επίσης, ακόμα και εάν δεν αναγράφεται το ChatGPT ως συγγραφέας, θα πρέπει, για λόγους διαφάνειας, να αναφέρεται από τους συγγραφείς ρητά η έκταση της χρήσης του. Δεν είναι δύσκολο να φανταστεί κανείς ότι η επιστημονική κοινότητα δεν θα βρει ιδιαιτέρως χρήσιμα κείμενα τα οποία δεν κάνουν τίποτε άλλο από το να αναπαράγουν άλλα, παλιότερα επιστημονικά κείμενα.

Τέλος, ειδικοί υποστηρίζουν ότι η χρήση συστημάτων LLM για τη συγγραφή επιστημονικών άρθρων, είναι απλώς μία αποτυχία. Συγκεκριμένα, αναφέρουν ότι τα κείμενα που παράγονται αυτοματοποιημένα δεν είναι απαραιτήτως σωστά, ενώ εάν ερωτηθούν το ίδιο πράγμα περισσότερες από μία φορές, τότε οι απαντήσεις που θα δώσουν είναι διαφορετικές. Με άλλα λόγια, με τα ίδια δεδομένα παράγουν διαφορετικά αποτελέσματα. Συνεπώς, φαίνεται ότι εκτός από ηθικοί προβληματισμοί εγείρονται και πολύ πρακτικοί προβληματισμοί που άπτονται και της ακεραιότητας στην έρευνα.

Λαμβάνοντας υπόψη ότι ενδέχεται να υπάρξουν ερευνητές που θα προσπαθήσουν να συγγράψουν επιστημονικές δημοσιεύσεις σε πεδία εκτός της ειδικότητάς τους, με τη χρήση του ChatGPT, ο έλεγχος της αξίας τέτοιων αυτοματοποιημένων κειμένων από τους «οιονεί συγγραφείς» δεν μπορεί παρά να είναι, στην καλύτερη περίπτωση, πλημμελής.

_________________

*Παναγιώτης Κάβουρας

Είναι φυσικός με MSc και PhD στην Επιστήμη και Τεχνολογία Υλικών. Για αρκετά χρόνια συμμετείχε στην έρευνα για τη διαχείριση στερεών αποβλήτων. Επί του παρόντος, το κύριο ερευνητικό του ενδιαφέρον είναι η ανάπτυξη και εφαρμογή πειραματικών πρωτοκόλλων για τον χαρακτηρισμό των φυσικών ιδιοτήτων καινοτόμων υλικών. Δραστηριοποιείται επίσης στον τομέα της ακεραιότητας της έρευνας, συμμετέχοντας σε πολλά έργα Science with and for Society H2020. Ως μέλος της συντονιστικής ομάδας του EARTHnet και συμμετέχοντας σε εκδηλώσεις ανοιχτής διάδοσης, συμμετέχει σε δραστηριότητες ανάπτυξης ικανοτήτων και ευαισθητοποίησης για την ακεραιότητα της έρευνας στην Ελλάδα.

Δεν υπάρχουν σχόλια: