«Κάνε την υπόθεση ότι κρατάς στο χέρι σου ένα μήλο. Τώρα, το αφήνεις από το χέρι σου. Βλέπεις το αποτέλεσμα και λες: Το μήλο έπεσε. Αυτό είναι μια περιγραφή. Μια πρόβλεψη μπορεί να ήταν ότι το μήλο θα πέφτει όταν ανοίγω το χέρι μου. Αυτή η περιγραφή και αυτή η πρόβλεψη είναι κάτι πολύτιμο, και οι δύο είναι σωστές. Αλλά μια εξήγηση είναι κάτι περισσότερο. Δεν περιλαμβάνει μόνο περιγραφές και προβλέψεις, αλλά και εναλλακτικά υποθετικά σενάρια όπως οποιοδήποτε αντικείμενο θα πέσει. Μαζί και την πρόσθετη υποπρόταση ότι το μήλο θα πέφτει λόγω της βαρύτητας ή λόγω της καμπυλότητας του χωροχρόνου. Μια εξήγηση αιτίου και αιτιατού στην περίπτωση του φρούτου μας θα ήταν: Το μήλο δεν θα είχε πέσει δίχως τη δύναμη της βαρύτητας. Αυτό είναι σκέψη».
Με αυτό το παράδειγμα ο Νόαμ Τσόμσκι σε άρθρο του που δημοσιεύτηκε στις 8 Μαρτίου στους New York Times μιλούσε για τις «κούφιες υποσχέσεις» του ChatGPT: Της νέας εφαρμογής Τεχνητής Νοημοσύνης που έγινε πρόσφατα προσβάσιμη στο ευρύ κοινό.
Μετά την κυκλοφορία της, η εφαρμογή, αυτός ο «εικονικής πραγματικότητας φίλος» έχει την τύχη που έχει κάθε νέο εργαλείο της τεχνολογίας που μπαίνει στην κοινωνική ζωή. Από έναν ενθουσιασμό έως φόβο. Με τον Τρίτο Νόμο δράσης-αντίδρασης.
Χιλιάδες άρθρα αναφέρονται για τις προεκτάσεις της νέας ορατής «παρέμβασης» της Τεχνητής Νοημοσύνης στην ανθρώπινη ζωή, με αντιδράσεις πολιτικές, κοινωνικές και εντός της επιστημονικής κοινότητας.
Με επιστολή τους, κοντά σε 2.000 ερευνητές ζητούν ένα εξάμηνο μορατόριουμ ανάπτυξης της Τεχνητής Νοημοσύνης, και η Ιταλία χθες Παρασκευή έγινε η πρώτη χώρα στην Δύση που απαγόρευσε την εφαρμογή επικαλούμενη λόγους ασφαλείας δεδομένων.
«Λουκέτο»
Σχεδιασμένη από την εταιρεία Open AI, το ChatGPT έρχεται να ανατρέψει πολλές μορφές της καθημερινής επικοινωνίας μας, όπως το πώς γράφουμε mail, πανεπιστημιακές εργασίες και αναρίθμητες άλλες μορφές γραφής.
«Το ChatGPT πρόκειται να αντικαταστήσει τους πολιτικούς σχολιαστές;» «To ChatGPT δεν θα αντικαταστήσει ποτέ τον Τόμας Φρίντμαν», είναι ο τίτλος σε άρθρο στο αμερικανικό περιοδικό Jacobin.
Σε άλλο άρθρο στους NYT που συνυπογράφουν ο Αμερικανός γνωστός συγγραφέας, ειδικός σε θέματα κυβερνοασφάλειας Μπρους Σνάιερ και ο επιστήμονας δεδομένων Νέιθαν Σάντερς μιλούν για το «Chat GPT ως απειλή για το πολιτικό σύστημα». Όπως τονίζουν το ChatGPT μπορεί να συντάξει αυτόματα σχόλια που υποβάλλονται κατά τη νομοθετική διαδικασία. Μπορεί να γράψει επιστολές προς δημοσίευση προς αρχισυντάκτες σε τοπικές εφημερίδες. Μπορεί να σχολιάσει άρθρα ειδήσεων, αναρτήσεις σε μπλογκ και μέσα κοινωνικής δικτύωσης εκατομμύρια φορές μέσα σε μια μέρα. «Μπορεί να μιμηθεί το έργο της ρωσικής υπηρεσίας πληροφοριών για το Διαδίκτυο κατά την απόπειρά του να επηρεάσει τις αμερικανικές εκλογές του 2016, αλλά χωρίς να απαιτεί τον καταγεγραμμένο προϋπολογισμό πολλών εκατομμυρίων και τους εκατοντάδες εργαζομένους που επιστρατεύτηκαν γι’ αυτόν τον σκοπό».
Από τότε που κυκλοφόρησε το ChatGPT του προκατόχου του GPT-3 πέρυσι, αντίπαλες εταιρείες έσπευσαν να λανσάρουν παρόμοια προϊόντα.
Μια επιστολή, με ημερομηνία 22 Μαρτίου που είχε συγκεντρώσει 1.800 υπογραφές μελών της επιστημονικής κοινότητας μέχρι χθες Παρασκευή, ζητά ένα εξάμηνο μορατόριουμ στην ανάπτυξη συστημάτων «πιο ισχυρών» από το νέο GPT-4 (το επόμενο πρόγραμμα που κυκλοφόρησε τελευταία η OpenAI) που υποστηρίζεται από τη Microsoft, το οποίο μπορεί να κάνει ανθρώπινες συνομιλίες, να συνθέσει τραγούδια και να κάνει σύνοψη μεγάλων σε έκταση εγγράφων. Η ανοιχτή επιστολή αναφέρει ότι συστήματα Τεχνητής Νοημοσύνης με «νοημοσύνη που ανταγωνίζεται τον άνθρωπο» θέτουν σοβαρούς κινδύνους για την ανθρωπότητα, επικαλούμενη 12 μελέτες από ειδικούς, συμπεριλαμβανομένων ακαδημαϊκών, καθώς και νυν και πρώην υπαλλήλους της OpenAI, της Google και της θυγατρικής της DeepMind.
«Μια παύση περαιτέρω ανάπτυξης εργαλείων της Τεχνητής Νοημοσύνης δεν αρκεί. Πρέπει να βάλουμε λουκέτο σε όλα αυτά» τόνισε ο Ελιέζι Γιουντκόφσκι επιστήμονας στη θεωρία παιγνίων κι ερευνητής της Τεχνητής Νοημοσύνης ο ίδιος, σε άρθρο του στο περιοδικό TIME.
Ομάδες της κοινωνίας των πολιτών στις ΗΠΑ και την ΕΕ ασκούν πλέον πιέσεις σε εκλεγμένους αξιωματούχους να χαλιναγωγήσουν την έρευνα του OpenAI.
Επικριτές κατηγόρησαν το Future of Life Institute (FLI), τον οργανισμό πίσω από την επιστολή, οργανισμό που χρηματοδοτείται κυρίως από το ίδρυμα του Ίλον Μασκ, ότι δίνει προτεραιότητα σε φανταστικά σενάρια Αποκάλυψης έναντι πιο άμεσων ανησυχιών για την Τεχνητή Νοημοσύνη, όπως ρατσιστικές ή σεξιστικές προκαταλήψεις.
Αντιδράσεις εντός της επιστημονικής κοινότητας
Σήμερα, τέσσερις επιστήμονες σε θέματα Τεχνητής Νοημοσύνης εξέφρασαν ανησυχία καθώς η ανοιχτή επιστολή έκανε αναφορές σε μελέτες τους.
Μεταξύ των μελετών που γινόταν αναφορά στην επιστολή ήταν το «On the Dangers of Stochastic Parrots», μια εργασία που συνυπογράφει η Μάργκαρετ Μίτσελ, επιστήμονας υπολογιστών που εργάζεται για την αλγοριθμική μεροληψία και τη δικαιοσύνη στη μηχανική μάθηση, η οποία προηγουμένως επέβλεπε την δεοντολογική έρευνα Τεχνητής Νοημοσύνης στην Google.
H Μίτσελ, τώρα επικεφαλής επιστήμονας δεοντολογίας στην εταιρεία Τεχνητής Νοημοσύνης Hugging Face, επέκρινε την επιστολή, λέγοντας στο Reuters ότι ήταν ασαφές τι θεωρείται «πιο ισχυρό από το GPT4».
«Θεωρώντας πολλές αμφισβητήσιμες ιδέες ως δεδομένες, η επιστολή επιβεβαιώνει ένα σύνολο προτεραιοτήτων και ένα αφήγημα για την Τεχνητή Νοημοσύνη που ωφελεί τους υποστηρικτές του FLI», είπε. «Η αγνόηση των ενεργών βλαβών αυτή τη στιγμή είναι ένα προνόμιο που ορισμένοι από εμάς δεν έχουμε», σημείωσε.
Η Μίτσελ, η Τίμνιτ Γκέμπρου, η Έμιλι Μ. Μπέντερ και η Αντζελίνα Μακ Μίλαν Μέιτζορ δημοσίευσαν στη συνέχεια μια απάντηση στην επιστολή, κατηγορώντας τους συντάκτες αυτής για «τρομολαγνεία και για «ντόρο» γύρω από Τεχνητή Νοημοσύνη»».
«Είναι επικίνδυνο να αποσπάσουμε την προσοχή μας με μια φανταστική ουτοπία που δημιουργεί η Τεχνητή Νοημοσύνη ή σενάρια Αποκάλυψης που υπόσχεται ή ένα «ευημερές» ή ένα «δυνητικά καταστροφικό» μέλλον», έγραψαν. «Η ευθύνη δεν εναπόκειται στα τεχνουργήματα αλλά στους κατασκευαστές τους», είπαν χαρακτηριστικά.
Ο πρόεδρος του FLI, ο Μαξ Τέγκμπαρκ είπε στο Reuters ότι η επιστολή δεν ήταν μια προσπάθεια να παρεμποδιστεί το εταιρικό πλεονέκτημα του OpenAI. «Είναι αρκετά ξεκαρδιστικό να ακούω ανθρώπους να λένε: «Ο Ίλον Μασκ προσπαθεί να επιβραδύνει τον ανταγωνισμό»», τόνισε, προσθέτοντας ότι ο Μασκ δεν διαδραμάτισε κανένα ρόλο στη σύνταξη της επιστολής. «Δεν είναι ζήτημα μίας εταιρείας».
Η Σίρι Ντόρι-Χακόχεν, επίκουρη καθηγήτρια στο Πανεπιστήμιο του Κονέκτικατ, τόνισε στο Reuters ότι συμφωνεί με ορισμένα σημεία της επιστολής, αλλά αμφισβήτησε τον τρόπο με τον οποίο αναφέρθηκε το έργο της.
Πέρυσι συνέγραψε μια ερευνητική εργασία που υπογράμμισε τους σοβαρούς κινδύνους που εγκυμονεί η ευρεία χρήση της Τεχνητής Νοημοσύνης.
Η έρευνά της υποστήριζε ότι η σημερινή χρήση συστημάτων Τεχνητής Νοημοσύνης θα μπορούσε να επηρεάσει τη λήψη αποφάσεων σε σχέση με την κλιματική αλλαγή, τον πυρηνικό πόλεμο και άλλες υπαρξιακές απειλές.
«Η Τεχνητή Νοημοσύνη δεν χρειάζεται να αποκτήσει νοημοσύνη σε ανθρώπινο επίπεδο για να επιδεινώσει αυτούς τους κινδύνους (…) «Υπάρχουν μη υπαρκτοί κίνδυνοι που είναι πραγματικά, πολύ σημαντικοί, αλλά δεν τυγχάνουν της ίδιας προσοχής σε στυλ Χόλιγουντ», υπογράμμισε η Ντόρι-Χακόχεν.
Κληθείς να σχολιάσει, ο Τέγκμπαρκ του FLI είπε ότι τόσο οι βραχυπρόθεσμοι όσο και οι μακροπρόθεσμοι κίνδυνοι της Τεχνητής Νοημοσύνης θα πρέπει να ληφθούν σοβαρά υπόψη.
«Ανάμεσα σε όλο το φάσμα πιθανών ανησυχιών που έχουν εκφραστεί από ειδικούς της Τεχνητής Νοημοσύνης, από τους κινδύνους για τα προσωπικά δεδομένα μέχρι και τις ανησυχίες για ακόμα και τελικό αφανισμό της ανθρωπότητας, υπάρχει μια πληθώρα ενδιάμεσων διακυβευμάτων, κυρίως επειδή το ChatGPT και άλλα παρόμοια προγράμματα όταν απαντούν δεν ανασύρουν απλώς πληροφορίες που υπάρχουν στο διαδίκτυο αλλά επινοούν δικές τους απαντήσεις. Και μάλιστα με μόνο στόχο να «ικανοποιήσουν» τον χρήστη, κάτι που δεν θα πετύχαιναν αν τυχόν απαντούσαν ότι δεν γνωρίζουν την απάντηση στην ερώτηση που τους τέθηκε», δηλώνει στο ΑΠΕ-ΜΠΕ ο Φίλιππος Παπαγιαννόπουλος, μεταδιδακτορικός ερευνητής στο πανεπιστήμιο Παντεόν-Σορμπόν, του Παρισιού.
«Για να πάρετε μια ιδέα του πώς κατασκευάζει και «επινοεί» τις πληροφορίες και τις απαντήσεις που σας δίνει το ChatGPT, ρωτήστε το ποιά είναι τα «διασημότερα τραγούδια που έγραψε ο Αλέκος Φασιανός» ή «τα επιστημονικά βιβλία του Γιώργου Σεφέρη». Θα εκπλαγείτε με το πόσο αληθοφανείς μοιάζουν οι εντελώς επινοημένες απαντήσεις που θα πάρετε, προκειμένου και μόνο να σας δώσει ο αλγόριθμος την εντύπωση ότι σας φάνηκε χρήσιμος», τονίζει ο Παπαγιαννόπουλος.
Πηγή: ΑΠΕ-ΜΠΕ
www.ertnews.gr