THEPOWERGAME
Σε συλλογή υπογραφών προχωρούν κορυφαίες προσωπικότητες, μεταξύ των οποίων και επικεφαλής τεχνολογικών κολοσσών, όπως ο Έλον Μασκ, ώστε να σταματήσει προσωρινά κάθε έργο που συνδέεται με την τεχνητή νοημοσύνη (AI), μέχρι να ρυθμιστεί αποτελεσματικά η αγορά των προϊόντων, που σχετίζονται με αυτή.
Ειδικότερα, όπως φαίνεται σε μελέτες, τα συστήματα τεχνητής νοημοσύνης με ανθρώπινη-ανταγωνιστική νοημοσύνη μπορούν να θέτουν σοβαρούς κινδύνους για την κοινωνία και την ανθρωπότητα. Μάλιστα, η σχετική Αρχή για την Τεχνητή Νοημοσύνη Asilomar τονίζει πως η προηγμένη τεχνητή νοημοσύνη θα μπορούσε να αντιπροσωπεύει μια βαθιά αλλαγή στην ιστορία της ζωής στον πλανήτη και για αυτό θα πρέπει να σχεδιάζεται και να διαχειρίζεται με ανάλογη προσοχή και πόρους. Δυστυχώς, αυτό το επίπεδο σχεδιασμού και διαχείρισης δεν υπάρχει αυτή τη στιγμή, παρόλο που τους τελευταίους μήνες τα εργαστήρια τεχνητής νοημοσύνης έχουν επιδοθεί σε έναν αγώνα εκτός ελέγχου για να αναπτύξουν όλο και πιο ισχυρά ψηφιακά εργαλεία τεχνητής νοημοσύνης που κανείς –ακόμα και οι δημιουργοί τους– δεν μπορούν να προβλέπουν ή να ελέγχουν με αξιόπιστο τρόπο.
Τα σύγχρονα συστήματα τεχνητής νοημοσύνης, όπως αναφέρεται στην ανοιχτή επιστολή των διεθνών προσωπικοτήτων που την υπογράφουν και που δημοσιεύεται στο futureoflife.org, γίνονται πλέον ανταγωνιστικά για τον άνθρωπο σε γενικές εργασίες. Κατ’ επέκταση, βρισκόμαστε στη χρονική στιγμή που πρέπει να αναρωτηθούμε: Πρέπει να αφήσουμε τις μηχανές να πλημμυρίσουν τα κανάλια πληροφοριών μας με προπαγάνδα και αναλήθεια; Θα πρέπει να αυτοματοποιήσουμε όλες τις δουλειές, συμπεριλαμβανομένων και αυτών που λειτουργούν ικανοποιητικά; Πρέπει να αναπτύξουμε μη ανθρώπινα μυαλά που θα μπορούσαν τελικά να μας ξεπεράσουν και να μας αντικαταστήσουν; Πρέπει να διακινδυνεύσουμε να χάσουμε τον έλεγχο του πολιτισμού μας; Τέτοιες αποφάσεις δεν πρέπει να ανατίθενται σε μη εκλεγμένους ηγέτες τεχνολογίας. Ισχυρά συστήματα τεχνητής νοημοσύνης θα πρέπει να αναπτυχθούν μόνο όταν είμαστε σίγουροι ότι τα αποτελέσματά τους θα είναι θετικά και ότι οι κίνδυνοι τους θα είναι διαχειρίσιμοι. Αυτή η εμπιστοσύνη πρέπει να αιτιολογείται επαρκώς και να αυξάνεται ανάλογα με το μέγεθος των πιθανών επιπτώσεων ενός συστήματος.
«Ως εκ τούτου, καλούμε όλα τα εργαστήρια τεχνητής νοημοσύνης να σταματήσουν άμεσα για τουλάχιστον έξι μήνες την εκπαίδευση συστημάτων τεχνητής νοημοσύνης πιο ισχυρών από το GPT-4. Αυτή η παύση θα πρέπει να είναι δημόσια και να περιλαμβάνει όλους τους βασικούς παράγοντες. Εάν μια τέτοια παύση δεν μπορεί να εφαρμοστεί γρήγορα, οι κυβερνήσεις θα πρέπει να παρέμβουν και να θεσπίσουν μορατόριουμ» τονίζεται στην επιστολή.
Στην επιστολή προτείνεται τα εργαστήρια τεχνητής νοημοσύνης και οι ανεξάρτητοι εμπειρογνώμονες να εκμεταλλευτούν αυτή την παύση για να αναπτύξουν και να εφαρμόσουν από κοινού ένα σύνολο κοινών πρωτοκόλλων ασφάλειας για προηγμένο σχεδιασμό και ανάπτυξη τεχνητής νοημοσύνης, που θα ελέγχονται αυστηρά και θα επιβλέπονται από ανεξάρτητους εξωτερικούς ειδικούς. Αυτά τα πρωτόκολλα θα πρέπει να διασφαλίζουν ότι τα συστήματα που τα τηρούν είναι ασφαλή πέρα από κάθε αμφιβολία. Αυτό δεν σημαίνει παύση στην ανάπτυξη της τεχνητής νοημοσύνης γενικά, απλώς μια μικρή επιβράδυνση από την επικίνδυνη κούρσα στην οποία είχαν επιδοθεί τα εργαστήρια.
Παράλληλα, προτείνεται η έρευνα και ανάπτυξη της τεχνητής νοημοσύνης να επικεντρωθεί εκ νέου στο να καταστήσει τα σημερινά ισχυρά και υπερσύγχρονα συστήματα πιο ακριβή, πιο ασφαλή, πιο διαφανή, πιο ισχυρά, πιο νομικά ευθυγραμμισμένα και πιο αξιόπιστα.
Επιπλέον, οι προγραμματιστές τεχνητής νοημοσύνης πρέπει να συνεργαστούν με τους υπεύθυνους χάραξης πολιτικής για να επιταχύνουν δραματικά την ανάπτυξη ισχυρών συστημάτων διακυβέρνησης τεχνητής νοημοσύνης. Αυτά θα πρέπει τουλάχιστον να περιλαμβάνουν:
- Νέες και ικανές ρυθμιστικές αρχές αφιερωμένες στην τεχνητή νοημοσύνη.
- Επίβλεψη και παρακολούθηση συστημάτων τεχνητής νοημοσύνης υψηλής ικανότητας και μεγάλων δεξαμενών υπολογιστικής ικανότητας.
- Συστήματα που βοηθούν στη διάκριση παρακολούθησης διαρροών μοντέλων.
- Ένα ισχυρό οικοσύστημα ελέγχου και πιστοποίησης.
- Ευθύνη για βλάβη που προκαλείται από την τεχνητή νοημοσύνη.
- Ισχυρή δημόσια χρηματοδότηση για την έρευνα για την ασφάλεια της τεχνητής νοημοσύνης.
- Θεσμούς με επαρκείς πόρους για την αντιμετώπιση των δραματικών οικονομικών και πολιτικών αναταραχών (ειδικά στη δημοκρατία) που θα προκαλέσει η τεχνητή νοημοσύνη.
Τέλος, η ανοιχτή επιστολή, την οποία εκτός από τον CEO των SpaceX, Tesla και Twitter Έλον Μασκ, συνυπογράφουν και ο συνιδρυτής της Apple Steve Wozniak, ο συνιδρυτής του Skype Jaan Tallinn, συνιδρυτής του Pinterest Evan Sharp, ο CEO του πρακτορείου Getty Images Craig Peters, η ερευνήτρια ερευνητής της Microsoft Jennifer F. Waldern, η διευθύντρια σε θέματα τεχνητής νοημοσύνης και εφαρμογής του νόμου στο The Future Society Νίκη Ηλιάδη, o επικεφαλής για την ΑΙ στη Meta Christopher Reardon, καταλήγει ως εξής:
«Η ανθρωπότητα μπορεί να απολαύσει ένα ακμάζον μέλλον με την τεχνητή νοημοσύνη. Έχοντας καταφέρει να δημιουργήσουμε ισχυρά συστήματα τεχνητής νοημοσύνης, μπορούμε τώρα να απολαύσουμε ένα “καλοκαίρι τεχνητής νοημοσύνης” στο οποίο αποκομίζουμε τις ανταμοιβές, σχεδιάζουμε αυτά τα συστήματα προς σαφές όφελος όλων και δίνουμε στην κοινωνία την ευκαιρία να προσαρμοστεί (στη νέα πραγματικότητα). Η κοινωνία έχει κάνει παύση σε άλλες τεχνολογίες που θα μπορούσαν να αποδειχθούν καταστροφικές για αυτή. Μπορούμε να το κάνουμε και εν προκειμένω. Ας απολαύσουμε ένα μακρύ καλοκαίρι τεχνητής νοημοσύνης, ας μην βιαζόμαστε να μπούμε απροετοίμαστοι σε ένα φθινόπωρο».