To ChatGPT, οι “AI προκλήσεις” και η “θανάσιμη” πλευρά της Τεχνητής Νοημοσύνης που προβληματίζει

Στις 30 Νοεμβρίου 2022 μια άγνωστη – για πολλούς – μέχρι τότε εταιρία, η OpenAI άνοιξε για δημόσια χρήση, ένα μοντέλο τεχνητής νοημοσύνης, το ChatGPT. Το γεγονός αυτό ήρθε να ταράξει τα – τεχνολογικά – νερά καθώς οι ορίζοντες που άνοιγε η χρήση της πλατφόρμας για νόμιμους (και όχι τόσο νόμιμους) σκοπούς ήταν αμέτρητοι. Η ίδια η ιστορία της OpenAI είναι μια τυπική ιστορία καλών προθέσεων, οι οποίες τελικά δεν επιβεβαιώνονται. Το κείμενο που ακολουθεί είναι προϊόν της παρακολούθησης των εξελίξεων από τις αρχές του χρόνου…

Από: defence-point.gr - Του Σώζοντα Λεβεντόπουλου
(Subject Matter Expert Cyberwarfare/Military)

Όπως δηλώνει και το όνομά της (Open) η OpenAI ξεκίνησε ως ένα μη-κερδοσκοπικό εργαστήριο έρευνας πάνω στην τεχνητή νοημοσύνη (με τον Elon Musk να είναι ανάμεσα στους – αρχικούς – ιδρυτές). Σήμερα, αποτελείται από 2 μέρη, την OpenAI Inc, η οποία παραμένει ως μη-κερδοσκοπικός οργανισμός, και η OpenAI Limited Partnership η οποία αφορά στο αμιγώς εταιρικό κομμάτι. Στην δεύτερη, βασικός επενδυτής είναι η Microsoft, η οποία φαίνεται ότι βρήκε – επιτέλους – τον τρόπο να αντιμετωπίσει την πρωτοκαθεδρία της Google στο internet/www.

Τα τελευταία χρόνια παρατηρείται μια έξαρση στις υπολογιστικές και άλλες εφαρμογές που βασίζονται στην Τεχνητή Νοημοσύνη – ΤΝ (Artificial Intelligence – AI). Τέτοιες εφαρμογές περιλαμβάνουν μηχανές αναζήτησης (π.χ. Google), συστήματα υποδείξεων (π.χ. Netflix), αναγνώρισης λόγου (π.χ. Siri και Alexa), παιχνιδιών στρατηγικής (π.χ. Go), αλλά και πιο εξειδικευμένες εφαρμογές, όπως αναγνώριση πιθανών στόχων σε μη-επανδρωμένες πλατφόρμες όλων των τύπων, νέες μορφές ανίχνευσης/πρόκτησης, κλπ.

Οι μεσοπρόθεσμοι στόχοι της ΤΝ είναι η αιτιότητα, αναπαραγωγή γνώσης, η οργάνωση, η μάθηση, η επεξεργασία φυσικής γλώσσας (Natural Language Processing – NLP). Ένας από τους βασικότερους μακροπρόθεσμους στόχους είναι η δημιουργία Artificial General Intelligence, μια μορφή ΤΝ η οποία θα προσομοιάζει – κατ’ απόλυτο τρόπο – την αντίστοιχη ανθρώπινη.

Η έρευνα πάνω στην ΤΝ δεν είναι κάτι νέο. Για την ακρίβεια η πρώτες ενδείξεις ότι οι ψηφιακοί υπολογιστές μπορούν να προσομοιάσουν έναν τυπικό συλλογισμό, αναφέρεται στην περίφημη Church-Turing Thesis. Ήδη από τις αρχές της δεκαετίας του 1950 διάφοροι ερευνητές ξεκίνησαν να ασχολούνται με την ΤΝ και τις προκλήσεις που αναδύονταν. Όμως, κατά τα μέσα της δεκαετίας του 1970 και σε απάντηση έντονης κριτικής, αλλά και περιορισμένων αποτελεσμάτων, η υποστήριξη στα σχετικά ερευνητικά προγράμματα μειώθηκε δραματικά ή μηδενίστηκε. Η περίοδος αυτή είναι γνωστή ως ΑΙ Winter/Χειμώνας. Η ΤΝ επανεμφανίστηκε δυναμικά στο προσκήνιο στα τέλη του 20ου και στις απαρχές του 21ου αιώνα, με δυο – ουσιαστικά – ερευνητικά papers, ένα από την Google, και ένα από την ίδια την OpenAI.


Τι είναι όμως το ChatGPT? Ας ρωτήσουμε το ίδιο!



Το ChatGPT είναι ουσιαστικά μια διεπαφή (interface) για το αντίστοιχο Large Language Model (LLM) της ίδιας εταιρίας, το GPT (Generative Pre-trained Transformer) το οποίο πλέον βρίσκεται στην έκδοση 4 (14 Μαρ 2023). Ένα LLM δεν είναι τίποτε άλλο από έναν τεράστιο αριθμό «εκπαιδευμένων» δεδομένων κειμένου. Φυσικά, στην πραγματικότητα δεν είναι τόσο απλό, και υπάρχουν αρκετές (και αρκετά περίπλοκες) μέθοδοι «εκμάθησης» αυτών των μοντέλων, όπως η εποπτευόμενη (όπου υπάρχει ένα δίπολο επισημασμένων δεδομένων εισόδου/εξόδου), η ενισχυτική (όπου το σύστημα μαθαίνει μέσω αλληλεπιδράσεων και επιβραβεύσεων με το περιβάλλον του), κ.λπ.

Για παράδειγμα, το αρχικό GPT χρησιμοποίησε ένα μέρος (7000 βιβλία με συνολικό μέγεθος 4.5 GB) από μια συλλογή δεδομένων (dataset) η οποία είναι γνωστή ως BookCorpus η οποία περιλαμβάνει περίπου 11.000 μη δημοσιευμένα βιβλία τα οποία βρίσκονται διάσπαρτα στο internet. Για σύγκριση, το μοντέλο GPT3 χρησιμοποίησε 570 GB κειμένου!

Τα LLM χρησιμοποιούνται για την επεξεργασία συστημάτων φυσικής γλώσσας (Natural Language Processing – NLP), τα οποία με τη σειρά τους επιτρέπουν την αλληλεπίδραση μεταξύ ανθρώπου και μηχανής. Πιθανότητα οι περισσότεροι έχουμε χρησιμοποιήσει κάποιο (ή κάποια) από αυτά τα συστήματα, όπως για παράδειγμα οι ψηφιακοί βοηθοί σε ιστοσελίδες, γνωστοί και ως chatbot. Το ChatGPT βέβαια πηγαίνει τη σχετική τεχνολογία αρκετά βήματα παραπέρα.

Για την «εκπαίδευση» του το ChatGPT βασίστηκε σε ένα LLM το οποίο όμως είναι βελτιστοποιημένο μέσω ενισχυτικής (reinforced) και εποπτευόμενης (supervised) μάθησης, όπου και στις δυο υπήρξε χρήση ανθρώπων ως εκπαιδευτών (κάτι που είναι προϋπόθεση για την εποπτευόμενη αλλά όχι και για την ενισχυτική μάθηση). Αυτό επέτρεψε στο ChatGPT να μπορεί να προσφέρει την ψευδαίσθηση συνομιλίας με πραγματικό άνθρωπο.

Το ChatGPT μπορεί να χρησιμοποιηθεί σε μια ευρεία γκάμα εφαρμογών, όπως ένας πιο ευέλικτος και φυσικός ψηφιακός βοηθός, στην εποικοδομητική συζήτηση, στη δημιουργία προσωποποιημένης επικοινωνίας (για παράδειγμα απαντητικά email, κλπ.), στη δημιουργία περιεχομένου για τα κοινωνικά δίκτυα, με ειδική έμφαση στην προώθηση προϊόντων, κλπ. Όμως, η συγκεκριμένη τεχνολογία φαίνεται ότι έχει και μια γκρίζα πλευρά.

Για παράδειγμα, υπάρχουν αναφορές για ενθάρρυνση χρηστών σε αυτοκτονία ή για επικίνδυνες πρακτικές (π.χ. βάλε το στυλό στην πρίζα!). Όμως μια από τις πλέον σοβαρές προεκτάσεις είναι ότι ήδη κακόβουλοι χρήστες χρησιμοποιούν το ChatGPT τόσο για τη δημιουργία phishing email, τα οποία φαίνονται ΕΞΑΙΡΕΤΙΚΑ αληθοφανή, καθώς χρησιμοποιούν σωστό συντακτικό και γλωσσικές εκφράσεις, όσο και για τη δημιουργία κακόβουλου λογισμικού, ακόμα και χωρίς καμία γνώση προγραμματισμού!

Αποτελεί λοιπόν το ChatGPT πραγματική απειλή; Δυστυχώς αυτή είναι μια ερώτηση που δεν έχει εύκολη απάντηση. Πράγματι, ήδη από το τέλος Δεκεμβρίου 2022, κακόβουλοι χρήστες αρχίζουν να «πειραματίζονται» ενεργά στο πως θα μπορέσουν να εκμεταλλευτούν στο έπακρο τη νέα τεχνολογία. Επίσης, σχολεία και πανεπιστήμια αρχίζουν να διαβλέπουν τις προκλήσεις που αναδύονται (το ChatGPT μπορεί – δυνητικά – να συντάξει μια πλήρη διπλωματική εργασία).

Από την άλλη, μπορεί να χρησιμοποιηθεί προς όφελος των αμυνομένων. Για παράδειγμα μπορεί να ελέγξει κώδικα για κενά ασφαλείας, ή να υποστηρίξει τη δημιουργία εργαλείων προστασίας. Ένας περιοριστικός παράγοντας είναι το κόστος (μια από τις αιτίες πίσω από τη μετατροπή από μη-κερδοσκοπικός οργανισμός σε κανονική εταιρία). Το τελευταίο δεν είναι καθόλου ευκαταφρόνητο.

Η τεχνική και τεχνολογική υποδομή που απαιτείται για την «εκπαίδευση» μοντέλων με δισεκατομμύρια παραμέτρους απαιτεί συστοιχίες από κατάλληλους servers (π.χ. ο DGX A100 multi-GPU server με κόστος $200.000), ενώ η κατανάλωση ενέργειας, τόσο για τη λειτουργία των server όσο και για την κατάλληλη ψύξη των datacenter φτάνει σε αστρονομικά ύψη. Δεν είναι υπερβολή αν το συγκεκριμένο κόστος υπολογίζεται σε εκατοντάδες εκατομμύρια δολάρια (κάτι που κάνει τις υποδομές mining να μοιάζουν με παιχνίδι!)

Στην πράξη, όλα καταλήγουν στο ίδιο ερώτημα. Πόση ηθική «χωράει» ή πρέπει να χωράει στην τεχνολογική ανάπτυξη; Λίγο πριν ξεσπάσει ο Β’ ΠΠ, διάφοροι επιστήμονες όχι μόνο είχαν δημιουργήσει το θεωρητικό υπόβαθρο, αλλά είχαν προτείνει (με κάθε τρόπο) και τη δημιουργία ενός όπλου, που θα εκμεταλλευόταν την πυρηνική ενέργεια. Το όπλο τελικά φτιάχτηκε και χρησιμοποιήθηκε δύο φορές, πριν φέρει μια ισορροπία τρόμου και την ανθρωπότητα στο χείλος της (αυτο)καταστροφής.

Το 1996 παρουσιάστηκε στο κοινό η Dolly (Ντόλι) ένα πρόβατο ράτσας ντορσέ, το οποίο ήταν το πρώτο θηλαστικό που κλωνοποιήθηκε από ενήλικο σωματικό κύτταρο. Αν και εξαιρετικά πρωτοποριακή, η μέθοδος ήρθε αντιμέτωπη με πολλαπλές αντιδράσεις, και αν και τα πειράματα συνεχίστηκαν (ειδικά στην Κίνα) η σχετική τεχνολογία δεν προχώρησε, τουλάχιστον στο βαθμό που θα μπορούσε.

Αν ρωτήσουμε την ίδια την ChatGPT σχετικά με την «επικινδυνότητά» της, θα λάβουμε μια αρκετά διπλωματική απάντηση.



Κλείνοντας θα πρέπει να τονίσουμε το εξής, η τεχνολογία «γεννιέται» ουδέτερη, η χρήση της από τον άνθρωπο είναι αυτή που καθορίζει την πλευρά – καλή ή κακή – που θα πάρει. Το σίγουρο είναι ότι ο κόσμος μας αλλάζει δραστικά…

Νεότερη Παλαιότερη
--------------
Ακούστε το τελευταίο ηχητικό από τη ΜΕΣΗ ΓΡΑΜΜΗ


Η Freepen.gr ουδεμία ευθύνη εκ του νόμου φέρει για τα άρθρα / αναρτήσεις που δημοσιεύονται και απηχούν τις απόψεις των συντακτών τους και δε σημαίνει πως τα υιοθετεί. Σε περίπτωση που θεωρείτε πως θίγεστε από κάποιο εξ αυτών ή ότι υπάρχει κάποιο σφάλμα, επικοινωνήστε μέσω e-mail