Την Τρίτη, 80 επιστήμονες τεχνητής νοημοσύνης και περισσότερες από 200 “άλλες σημαντικές προσωπικότητες” υπέγραψαν δήλωση στην οποία αναφέρεται ότι “ο μετριασμός του κινδύνου εξαφάνισης από την τεχνητή νοημοσύνη θα πρέπει να αποτελέσει παγκόσμια προτεραιότητα μαζί με άλλους κινδύνους κοινωνικής κλίμακας, όπως οι πανδημίες και ο πυρηνικός πόλεμος”.
Η προειδοποίηση μιας πρότασης από την ποικιλόμορφη ομάδα επιστημόνων, μηχανικών, στελεχών επιχειρήσεων, ακαδημαϊκών και άλλων ενδιαφερόμενων ατόμων δεν υπεισέρχεται σε λεπτομέρειες σχετικά με τις υπαρξιακές απειλές που θέτει η τεχνητή νοημοσύνη. Αντίθετα, επιδιώκει να “ανοίξει τη συζήτηση” και να “δημιουργήσει κοινή γνώση του αυξανόμενου αριθμού εμπειρογνωμόνων και δημόσιων προσώπων που λαμβάνουν επίσης σοβαρά υπόψη ορισμένους από τους πιο σοβαρούς κινδύνους της προηγμένης τεχνητής νοημοσύνης”, σύμφωνα με το Κέντρο για την Ασφάλεια της Τεχνητής Νοημοσύνης, έναν μη κερδοσκοπικό οργανισμό με έδρα τις ΗΠΑ, ο ιστότοπος του οποίου φιλοξενεί τη δήλωση.
Ο επικεφαλής υπογράφων Τζέφρι Χίντον, που συχνά αποκαλείται “νονός της τεχνητής νοημοσύνης”, κρούει τον κώδωνα του κινδύνου εδώ και εβδομάδες. Νωρίτερα αυτόν τον μήνα, ο 75χρονος ομότιμος καθηγητής της επιστήμης των υπολογιστών στο Πανεπιστήμιο του Τορόντο ανακοίνωσε ότι παραιτήθηκε από τη θέση του στη Google προκειμένου να μιλήσει πιο ελεύθερα για τους κινδύνους που συνδέονται με την τεχνητή νοημοσύνη.
Πριν παραιτηθεί από τη Google, ο Hinton δήλωσε στοCBS News τον Μάρτιο ότι οι πιθανές επιπτώσεις της ταχέως εξελισσόμενης τεχνολογίας είναι συγκρίσιμες με “τη βιομηχανική επανάσταση, ή τον ηλεκτρισμό, ή ίσως τον τροχό”.
Ερωτηθείς σχετικά με τις πιθανότητες η τεχνολογία να “εξαφανίσει την ανθρωπότητα”, ο Hinton προειδοποίησε ότι “δεν είναι αδιανόητο”.
Αυτό το τρομακτικό ενδεχόμενο δεν έγκειται απαραίτητα στα υπάρχοντα σήμερα εργαλεία τεχνητής νοημοσύνης, όπως το ChatGPT, αλλά μάλλον σε αυτό που αποκαλείται “τεχνητή γενική νοημοσύνη” (AGI), η οποία θα περιλαμβάνει υπολογιστές που αναπτύσσουν και ενεργούν με βάση τις δικές τους ιδέες.
“Μέχρι πρόσφατα, πίστευα ότι θα χρειαστούν 20 έως 50 χρόνια μέχρι να έχουμε τεχνητή νοημοσύνη γενικού σκοπού”, δήλωσε ο Hinton στο CBS News. “Τώρα πιστεύω ότι μπορεί να είναι 20 χρόνια ή και λιγότερο”.
Πιεζόμενος από το πρακτορείο αν θα μπορούσε να συμβεί νωρίτερα, ο Hinton παραδέχτηκε ότι δεν θα απέκλειε το ενδεχόμενο να φτάσει η ΑΓΙ μέσα σε πέντε χρόνια, μια σημαντική αλλαγή σε σχέση με μερικά χρόνια πριν, όταν “θα έλεγε, “Με τίποτα””.
“Πρέπει να σκεφτούμε πολύ για το πώς θα το ελέγξουμε αυτό”, δήλωσε ο Hinton. Ερωτηθείς αν αυτό είναι εφικτό, ο Hinton είπε: “Δεν ξέρουμε, δεν έχουμε φτάσει ακόμα εκεί, αλλά μπορούμε να προσπαθήσουμε”.
Ο πρωτοπόρος της τεχνητής νοημοσύνης δεν είναι καθόλου μόνος του. Σύμφωνα με την έκθεση 2023 AI Index Report, μια ετήσια αξιολόγηση της ταχέως αναπτυσσόμενης βιομηχανίας που δημοσιεύθηκε τον περασμένο μήνα από το Ινστιτούτο Stanford Institute for Human-Centered Artificial Intelligence, το 57% των επιστημόνων πληροφορικής που συμμετείχαν στην έρευνα δήλωσαν ότι “η πρόσφατη πρόοδος μας οδηγεί προς την AGI” και το 58% συμφώνησε ότι “η AGI αποτελεί σημαντικό ζήτημα”.
Αν και τα ευρήματά του δημοσιεύθηκαν στα μέσα Απριλίου, η έρευνα του Stanford σε 327 ειδικούς στην επεξεργασία φυσικής γλώσσας -ένας κλάδος της επιστήμης των υπολογιστών που είναι απαραίτητος για την ανάπτυξη των chatbots- διεξήχθη τον περασμένο Μάιο και Ιούνιο, μήνες πριν το ChatGPT του OpenAI εμφανιστεί στη σκηνή τον Νοέμβριο.
Ο διευθύνων σύμβουλος της OpenAI Sam Altman, ο οποίος υπέγραψε τη δήλωση που κοινοποιήθηκε την Τρίτη από το Κέντρο για την Ασφάλεια της Τεχνητής Νοημοσύνης, έγραψε σε μια ανάρτηση στο ιστολόγιο τον Φεβρουάριο: “Οι κίνδυνοι θα μπορούσαν να είναι εξαιρετικοί. Μια λανθασμένα ευθυγραμμισμένη υπερ-ευφυής AGI θα μπορούσε να προκαλέσει σοβαρή ζημιά στον κόσμο”.
Τον επόμενο μήνα, ωστόσο, ο Altman αρνήθηκε να υπογράψει μια ανοιχτή επιστολή με την οποία ζητούσε ένα μορατόριουμ μισού έτους για την εκπαίδευση συστημάτων τεχνητής νοημοσύνης πέρα από το επίπεδο του τελευταίου chatbot της OpenAI, του GPT-4.
Η επιστολή, που δημοσιεύθηκε τον Μάρτιο, αναφέρει ότι “ισχυρά συστήματα τεχνητής νοημοσύνης θα πρέπει να αναπτύσσονται μόνο όταν είμαστε βέβαιοι ότι τα αποτελέσματά τους θα είναι θετικά και οι κίνδυνοι τους θα είναι διαχειρίσιμοι”.
Ο διευθύνων σύμβουλος της Tesla και του Twitter Elon Musk ήταν μεταξύ εκείνων που ζήτησαν παύση πριν από δύο μήνες, αλλά “αναπτύσσει σχέδια για να ξεκινήσει μια νέα start-up τεχνητής νοημοσύνης για να ανταγωνιστεί” την OpenAI, σύμφωνα με τους Financial Times, θέτοντας το ερώτημα αν η δηλωμένη ανησυχία του για τους “βαθύτατους κινδύνους της τεχνολογίας για την κοινωνία και την ανθρωπότητα” είναι ειλικρινής ή έκφραση ιδιοτέλειας.
Το γεγονός ότι ο Altman και αρκετοί άλλοι υποστηρικτές της Τεχνητής Νοημοσύνης υπέγραψαν τη δήλωση της Τρίτης εγείρει την πιθανότητα ότι οι γνώστες με δισεκατομμύρια δολάρια σε κίνδυνο προσπαθούν να επιδείξουν την επίγνωσή τους για τους κινδύνους που εγκυμονούν τα προϊόντα τους σε μια προσπάθεια να πείσουν τους αξιωματούχους για την ικανότητά τους να αυτορυθμίζονται.
Οι απαιτήσεις από το εξωτερικό της βιομηχανίας για ισχυρή κυβερνητική ρύθμιση της τεχνητής νοημοσύνης αυξάνονται. Αν και οι πιο επικίνδυνες μορφές ΑΓΙ μπορεί να απέχουν ακόμη χρόνια, υπάρχουν ήδη αυξανόμενες ενδείξεις ότι τα υπάρχοντα εργαλεία ΤΝ επιδεινώνουν την εξάπλωση της παραπληροφόρησης, από τα chatbots που λένε ψέματα και τις εφαρμογές ανταλλαγής προσώπων που δημιουργούν ψεύτικα βίντεο μέχρι τις κλωνοποιημένες φωνές που διαπράττουν απάτες. Η τρέχουσα, μη δοκιμασμένη τεχνητή νοημοσύνη βλάπτει τους ανθρώπους με άλλους τρόπους, μεταξύ άλλων όταν αυτοματοποιημένες τεχνολογίες που αναπτύσσονται από ασφαλιστές Medicare Advantage αποφασίζουν μονομερώς να τερματίσουν τις πληρωμές, με αποτέλεσμα την πρόωρη διακοπή της κάλυψης για ευάλωτους ηλικιωμένους.
Οι επικριτές έχουν προειδοποιήσει ότι ελλείψει ταχείας παρέμβασης από τους φορείς χάραξης πολιτικής, η ανεξέλεγκτη τεχνητή νοημοσύνη θα μπορούσε να βλάψει επιπλέον ασθενείς υγειονομικής περίθαλψης, να υπονομεύσει τη δημοσιογραφία που βασίζεται σε γεγονότα, να επιταχύνει την καταστροφή της δημοκρατίας και να οδηγήσει σε έναν ακούσιο πυρηνικό πόλεμο. Άλλες κοινές ανησυχίες περιλαμβάνουν εκτεταμένες απολύσεις εργαζομένων και επιδείνωση της ανισότητας, καθώς και μαζική αύξηση της ρύπανσης από τον άνθρακα.
Μια έκθεση που δημοσιεύθηκε τον περασμένο μήνα από την Public Citizen υποστηρίζει ότι “μέχρι να υπάρξουν ουσιαστικές κυβερνητικές εγγυήσεις για την προστασία του κοινού από τις βλάβες της γεννητικής τεχνητής νοημοσύνης, χρειαζόμαστε μια παύση”.
“Οι επιχειρήσεις αναπτύσσουν δυνητικά επικίνδυνα εργαλεία τεχνητής νοημοσύνης ταχύτερα από ό,τι μπορούν να κατανοηθούν ή να μετριαστούν οι βλάβες τους”, προειδοποίησε σε ανακοίνωσή της η προοδευτική ομάδα υπεράσπισης.
“Η ιστορία δεν προσφέρει κανέναν λόγο να πιστεύουμε ότι οι εταιρείες μπορούν να αυτορρυθμιστούν για να απομακρύνουν τους γνωστούς κινδύνους -ιδιαίτερα από τη στιγμή που πολλοί από αυτούς τους κινδύνους είναι τόσο μέρος της γενεσιουργού τεχνητής νοημοσύνης όσο και της εταιρικής απληστίας”, συνέχισε το παρατηρητήριο. “Οι επιχειρήσεις που σπεύδουν να εισαγάγουν αυτές τις νέες τεχνολογίες παίζουν με τις ζωές και τα μέσα διαβίωσης των ανθρώπων, και αναμφισβήτητα με τα ίδια τα θεμέλια μιας ελεύθερης κοινωνίας και ενός βιώσιμου κόσμου”.
Νωρίτερα αυτό το μήνα, ο πρόεδρος της Public Citizen, Robert Weissman, χαιρέτισε το νέο σχέδιο της κυβέρνησης Biden για την “προώθηση της υπεύθυνης αμερικανικής καινοτομίας στην τεχνητή νοημοσύνη και την προστασία των δικαιωμάτων και της ασφάλειας των ανθρώπων”, αλλά τόνισε επίσης την ανάγκη για “πιο επιθετικά μέτρα” για την “αντιμετώπιση των απειλών της ανεξέλεγκτης εταιρικής τεχνητής νοημοσύνης”.
Απηχώντας την Public Citizen, μια διεθνής ομάδα γιατρών προειδοποίησε πριν από τρεις εβδομάδες στο επιστημονικό περιοδικό BMJ Open Health ότι η τεχνητή νοημοσύνη “θα μπορούσε να αποτελέσει υπαρξιακή απειλή για την ανθρωπότητα” και απαίτησε μορατόριουμ στην ανάπτυξη της εν λόγω τεχνολογίας εν αναμονή ισχυρής κυβερνητικής εποπτείας.
Η τεχνητή νοημοσύνη “θέτει μια σειρά από απειλές για την ανθρώπινη υγεία και ευημερία”, έγραψαν οι γιατροί και οι σχετικοί εμπειρογνώμονες. “Με την εκθετική ανάπτυξη της έρευνας και της ανάπτυξης της τεχνητής νοημοσύνης, το παράθυρο ευκαιρίας για την αποφυγή σοβαρών και δυνητικά υπαρξιακών βλαβών κλείνει”.
Ο Kenny Stancil είναι συγγραφέας του Common Dreams.
Ακολουθήστε το Sahiel.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις.