Οι νέες πραγματικότητες που διαμορφώνονται με τις προόδους της τεχνητής νοημοσύνης, με αφορμή το λανσάρισμα του επαναστατικού «προεκπαιδευμένου μετασχηματιστή κειμένων» Chat GPT, οι δυνατότητες που δημιουργούνται αλλά και οι κίνδυνοι που προκύπτουν σε πολλά επίπεδα, ήταν τα θέματα που αναλύθηκαν στην εκπομπή του Πολυδεύκη Παπαδόπουλου «Με το Πρώτο στην Ευρώπη και τον Κόσμο», με τη συμμετοχή του δημοσιογράφου και συγγραφέα τεχνολογικών ζητημάτων Μανώλη Ανδριωτάκη.
Oι καινοτομίες που έρχονται και οι ανάλογες επιχειρηματικές κινήσεις των τεχνολογικών κολοσσών
Στην εκπομπή εξηγήθηκε, κατ΄αρχήν, τι ακριβώς είναι το Chat GPT (Generative Pretrained Transformer) και ποιές τεχνολογικές διαφορές έχει ως “προεκπαιδευμένος μετασχηματιστής δημιουργίας κειμένων» σε σχέση με παρόμοιες μηχανές και εφαρμογές τεχνητής νοημοσύνης (A.I.) που είχαν εμφανιστεί μέχρι τώρα.
Αναφέρθηκαν, επίσης, οι επιχειρηματικές αλλαγές που φέρνει το Chat GPT, το οποίο ανέπτυξε η εταιρεία OpenAI, υποστηριζόμενη οικονομικά από την Microsoft. H τελευταία ανακοίνωσε μια νέα έκδοση της δικής της μηχανής αναζήτησης Bing, που θα τροφοδοτείται από ένα γλωσσικό μοντέλο παρόμοιο με το Chat GPT, καθώς επίσης και την ενσωμάτωση του στα προϊόντα γραφείου της, όπως το Word, το Outlook και το PowerPoint. Η Google έδωσε πριν μερικές μέρες, ως απάντηση, στους δοκιμαστές τεχνολογικών προϊόντων τη δική της μηχανή αναζήτησης με τη βοήθεια Α.Ι. που ονομάζεται Bard, κίνηση που κρίθηκε ως βιαστική μια και παρουσιάστηκαν τεχνικά προβλήματα. Επίσης, πρόσφατα η Meta, ιδιοκτήτρια του Facebook, παρουσίασε μια επίσης ανάλογη τεχνητή νοημοσύνη, που την ονομάζει LLaMA. Την περιέγραψε ως ένα “μικρότερο, πιο αποδοτικό” μοντέλο που έχει σχεδιαστεί για να “βοηθήσει τους ερευνητές να προωθήσουν το έργο τους”, κάτι που θα μπορούσε να θεωρηθεί και ως συγκαλυμμένη κριτική στην απόφαση της Microsoft να διαθέσει ευρέως την σχετική τεχνολογία, κρατώντας παράλληλα μυστικό τον κώδικα προγραμματισμού.
Τα οφέλη, οι κριτικές και οι φόβοι
Η παρουσίαση εύχρηστων και εύκολα προσβάσιμων συστημάτων τεχνητής νοημοσύνης προκάλεσε τοποθετήσεις που αφενός υμνούν τις δυνατότητες αυτής της τεχνολογίας και αφετέρου που επισείουν κινδύνους.
Στις πρώτες ανήκει ο ιδρυτής της Microsoft Μπιλ Γκέιτς, ο οποίος υποστήριξε ότι το Chat GPT αποτελεί μία πρώτης τάξεως ευκαιρία για τον μέσο άνθρωπο να εξασκηθεί με συστήματα τεχνητής νοημοσύνης, τα οποίο μπορούν να γράψουν, να συνθέσουν και να λύσουν προβλήματα, απαλλάσσοντας μας από περιττές δουλειές λευκού κολάρου ή κάνοντάς τες πιο αποτελεσματικές.
Όμως, αυτός είναι κι ένας από τους λόγους που αρκετοί τομείς εργαζομένων, από τους λιγότερο έως τους περισσότερο εξειδικευμένους, ανησυχούν και πάλι πως η τεχνολογική εξέλιξη θα απειλήσει τις δουλειές τους, καταργώντας πολύ περισσότερες θέσεις εργασίας από όσες δημιουργεί. Επίσης, ο Ελον Μασκ έσπευσε να πει: «Το Chat GPT είναι τρομακτικά καλό. Δεν είμαστε μακριά απ’ την έλευση μιας επικίνδυνα δυνατής τεχνητής νοημοσύνης». Να σημειωθεί ότι ο “ιδιόρρυθμος” Μασκ ήταν από τους ιδρυτές της ΟpenAI, θέλοντας να αντιδράσει στην Google που θεωρούσε ότι δεν δίνει προσοχή στα θέματα ασφάλειας της A.I. Αποχώρησε, όμως, από τη νέα αυτή εταιρία το 2018. . Ωστόσο, δεν ήταν ο μόνος που ανησύχησε, καθώς και αρκετοί άλλοι πιστεύουν πως η OpenAI βιάστηκε να δώσει σε πειραματική χρήση στο γενικό κοινό ένα τόσο ισχυρό εργαλείο.
Επίσης, πριν μερικές μέρες διεθνής διάσκεψη που διοργανώθηκε στην Ολλανδία από 60 χώρες, συμπεριλαμβανομένων των ΗΠΑ και της Κίνας, ζήτησε τη ρύθμιση της ανάπτυξης και χρήσης της Τεχνητής Νοημοσύνης (A.I.) στον στρατιωτικό τομέα, μέσω μιας διεθνούς συνθήκης, όπως εκείνες που υπάρχουν για τον έλεγχο των χημικών και πυρηνικών όπλων, προειδοποιώντας για τους κινδύνους «ανεπιθύμητων συνεπειών». Να σημειωθεί ότι στον στρατιωτικό τομέα, η τεχνητή νοημοσύνη χρησιμοποιείται ήδη για αναγνώριση, επιτήρηση και ανάλυση καταστάσεων και στο μέλλον θα μπορούσε να είναι σε θέση να επιλέγει στόχους με αυτόνομο τρόπο, με πλήθος drones ή και χρήση πυρηνικών συστημάτων διοίκησης και ελέγχου.
Οι κίνδυνοι για περαιτέρω διευκόλυνση των τρολς
Tο Chat GPT θα μπορούσε να διευκολύνει ιδιαιτέρως τα «τρολ του διαδικτύου» να επεκτείνουν τη δράση τους, σύμφωνα με έκθεση του Πανεπιστημίου Georgetown και του Παρατηρητηρίου Διαδικτύου του Στάνφορντ. Τα γλωσσικά μοντέλα των A.I. θα μπορούσαν να παράγουν μεγάλο όγκο πρωτότυπου περιεχομένου κι έτσι οι προπαγανδιστές δεν θα χρειάζεται κάθε φορά να αναπαράγουν το ίδιο μήνυμα σε πολλούς διαφορετικούς λογαριασμούς.
Να σημειωθεί ότι οι δυνατότητες αυτές φαίνεται πως αποτέλεσαν βασικά εργαλεία για ένα ακόμη δίκτυο οργανωμένης παραπληροφόρησης, που αποκάλυψε διεθνής δημοσιογραφική έρευνα. Συγκεκριμένα ερευνητική κοινοπραξία δημοσιογράφων από τριάντα μέσα ενημέρωσης -μεταξύ των οποίων οι εφημερίδες Guardian, Le Monde, El Pais, Der Spiegel και Haaretz- αποκάλυψε τη δράση της «ομάδας Χόρχε». Πρόκειται για μια δεύτερη κι ακόμη πιο επιθετική περίπτωση Cambridge Analytika, που φαίνεται πως ξεκίνησε από πρώην μέλη των ισραηλινών μυστικών υπηρεσιών και η οποία έναντι οικονομικής αμοιβής αναλαμβάνει επιχειρήσεις παραπληροφόρησης προς όφελος κρατών, πολιτικών δυνάμεων, εταιρειών και πλουσίων ατόμων. Η εταιρία, η οποία σύμφωνα με τα δημοσιεύματα έχει δραστηριοποιθεί και στην Ελλάδα, φέρεται, μεταξύ άλλων, να έχει εμπλακεί σε 33 εκλογικές διαδικασίες. Μία από τις βασικές υπηρεσίες της ομάδας είναι ένα εξελιγμένο πακέτο λογισμικού που ονομάζεται Advanced Impact Media Solutions ή Aims. Ελέγχει έναν τεράστιο στρατό από χιλιάδες πλαστά προφίλ στο Twitter, το LinkedIn, το Facebook, το Telegram, το Gmail, το Instagram και το YouTube. Ορισμένα avatar έχουν ακόμη και λογαριασμούς Amazon με πιστωτικές κάρτες, πορτοφόλια bitcoin και λογαριασμούς Airbnb, με σκοπό να κάνουν πιο πειστικές τις ψεύτικες καμπάνιες στα μέσα κοινωνικής δικτύωσης.
www.ertnews.gr