ΑΠΟΨΕΙΣ

Πρώτο θύμα η αλήθεια της δημοσιογραφίας

 02/04/2023 22:00

Ήταν όνειρό σου είναι να γίνεις συγγραφέας, σεναριογράφος, ποιητής. Λίγο η αναβλητικότητα που σε δέρνει, λίγο η ανόρεχτη και διακριτικά απορριπτική υποδοχή που έτυχαν τα δείγματα δουλειάς που έδειξες σε φίλους, σε απέτρεψαν από το να δοκιμάσεις.

Μέχρι να εμφανιστεί μια άγρια ελπίδα: Λες να τα καταφέρω με τη βοήθεια του ρομπότ;

Άλλοι πάλι, σημερινοί νέοι και απόγονοί μας στα αμφιθέατρα των ΑΕΙ που συνεχίζουν την παράδοση της γενιάς μας στον πόθο για «μαζικές αντιγραφές», ελπίζουν η τεχνητή νοημοσύνη να τους βοηθήσει να συγγράψουν τις εργασίες τους.

Για να μην αδικήσουμε κανέναν: η τεχνητή νοημοσύνη μπορεί να βοηθήσει δημιουργικά τις εκπαιδευτικές και ερευνητικές διαδικασίες στα ΑΕΙ και στα σχολεία.

Έλα όμως που το εκπαιδευτικό και επαγγελματικό μέλλον είναι ένας στίβος ανταγωνιστικός στο βωμό του οποίου πέφτει χρήμα, «παπαγαλία», «αντιγραφές», «copy paste» και βέβαια η ψηφιακή τεχνολογία. Απλά πράγματα καθημερινής πονηριάς, όπως συνέβαινε από τότε που υπάρχει ο άνθρωπος.

Έξυπνος απόφοιτος στο μέλλον δηλαδή θα είναι ο αντιγραφεύς;

Στα βιβλία πάλι η εικόνα από το μέλλον λέει πολλά. Όπου να ’ναι θα λες «αυτά συνέβαιναν τα παλιά τα χρόνια». Άκουγες τότε μία ιδέα για ένα βιβλίο. Αργότερα έπαιρνες στα χέρια σου ένα πρώιμο αντίγραφο καθώς ο συγγραφέας σε είχε τιμήσει βάζοντάς σε στη μικρή λίστα αυτών από τους οποίους ζητά τη γνώμη.

Και το θαύμα: πριν βγει το βιβλίο, ένιωθες το θόρυβο που ερχόταν. Κάτι συμβαίνει εδώ έλεγες. Το διάβασες λοιπόν, έριξες ιδεούλα για το εξώφυλλο, έβλεπες κοντολογίς ένα καλό βιβλίο να έρχεται με όμορφο βάδισμα.

Ζήτησα και εγώ από σημαντικούς ανθρώπους της γραφής και της Τέχνης μια γνώμη κυρίως για τρία βιβλία μου. Χωρίς να φοβάμαι την αρνητική έως απορριπτική άποψη.

Ήταν λυτρωτική η κριτική τους με τα αυστηρά, κάποιες φορές αρνητικά και κάποιες φορές εγκαρδιωτικά σχόλιά τους.

Σήμερα ζητάς ένα κείμενο, ένα διήγημα και ένα σενάριο και βάζεις μάλιστα προδιαγραφές: Ερωτικό δράμα στην Ελλάδα του Μεσοπολέμου, με πολιτικά πάθη και τραγικό τέλος. Το πασίγνωστο πια ChatGPT (Generative Pre-trained Transformer - Παραγωγικός Προεκπαιδευμένος Μετασχηματιστής), η εφαρμογή τεχνητής νοημοσύνης, σου το παραδίδει αμέσως!

Η τρίτη και πιο δραματική διάσταση του κόσμου που ανοίγει μπροστά μας η τεχνητή νοημοσύνη, είναι η φρενίτιδα των fake news.

Η τελευταία αναστάτωση διεθνώς συμπυκνώνεται με το ερώτημα: Όντως το ChatGPT θα μπορούσε να είναι καταστροφικό για την αλήθεια στη δημοσιογραφία;

«Μία πλατφόρμα που μπορεί να μιμηθεί τη γραφή ανθρώπων χωρίς δέσμευση για την αλήθεια είναι ένα δώρο για όσους επωφελούνται από την παραπληροφόρηση. Πρέπει να ρυθμίσουμε τη χρήση του τώρα» γράφει στον Γκάρντιαν η Έμιλι Μπελ καθηγήτρια στο Columbia School of Journalism και διευθύντρια του Tow Center για την Ψηφιακή Δημοσιογραφία.

«Χρειάστηκε πολύ λίγος χρόνος, προσθέτει η ίδια, για να επηρεάσει αρνητικά τη δημοσιογραφία η εφαρμογή τεχνητής νοημοσύνης ChatGPT. Ένας αρθρογράφος τεχνολογίας για τους New York Times έγραψε ότι ένα chatbot εξέφραζε συναισθήματα (πράγμα αδύνατο). Άλλα μέσα ενημέρωσης γεμάτα με παραδείγματα του «Σίδνεϊ» του πειράματος αναζήτησης Bing AI της Microsoft που είναι «αγενές» και «εκφοβιστικό» (επίσης αδύνατο)».

Για να είμαστε σαφείς, δεν είναι δυνατό για AI όπως το ChatGPT να έχουν συναισθήματα. Ούτε μπορούν να πουν αν έχουν νόημα ή όχι.

Για τους σκοπούς της δημοσιογραφίας όμως, μπορούν να δημιουργήσουν τεράστιες ποσότητες υλικού -λέξεις, εικόνες, ήχους και βίντεο- πολύ γρήγορα.

Το πρόβλημα είναι ότι δεν έχουν καμία απολύτως δέσμευση για την αλήθεια. Απλώς σκεφτείτε πόσο γρήγορα ένας χρήστης του ChatGPT θα μπορούσε να πλημμυρίσει το Διαδίκτυο με ψευδείς ειδήσεις που φαίνεται να έχουν γραφτεί από ανθρώπους.

Όσον αφορά τη δημοσιογραφία επίσης, γράφει η Emily Bell, «πολλά newsrooms στις ΗΠΑ χρησιμοποιούν τεχνητή νοημοσύνη εδώ και αρκετό καιρό. Αν πρόσφατα δεχτήκατε ώθηση να δωρίσετε χρήματα ή να πληρώσετε για να διαβάσετε ένα άρθρο στον ιστότοπο ενός εκδότη ή αν η διαφήμιση που βλέπετε είναι λίγο πιο προσαρμοσμένη στα γούστα σας, αυτό μπορεί επίσης να σημαίνει τεχνητή νοημοσύνη στην εργασία».

Η τεχνολογία εξελίσσεται και παράγει νέες δυνατότητες .

Η Interpol επισημαίνει τρεις επικίνδυνες περιπτώσεις χρήσης τεχνητής νοημοσύνης.

1. Απάτη και μηχανική κοινωνικού επηρεασμού: Η ικανότητα των μεγάλων γλωσσικών μοντέλων να αναπαράγουν γλωσσικά μοτίβα μπορεί να χρησιμοποιηθεί για να υποδυθεί το ύφος ομιλίας συγκεκριμένων ατόμων ή ομάδων.

2. Παραπληροφόρηση.

3. Έγκλημα στον κυβερνοχώρο: Εκτός από τη δημιουργία γλώσσας που μοιάζει με ανθρώπινη, το ChatGPT είναι ικανό να παράγει κώδικα σε διάφορες γλώσσες προγραμματισμού.

Ζούμε μία πρωτόγνωρη νέα πραγματικότητα που απειλεί να αλλάξει πολλές δράσεις της καθημερινής επικοινωνίας μας, όπως το πώς γράφουμε mail, πανεπιστημιακές εργασίες, πολιτική επικοινωνία και ποίκιλλες άλλες μορφές γραφής.

Και τα δύσκολα έρχονται.

*Δημοσιεύθηκε στη "ΜτΚ" στις 02.04.2023