THEPOWERGAME
Ζητήστε από το chatGPT να σας πει τι δεν πρέπει να χάσετε αν κάνετε διακοπές στο Βερολίνο και το chatbot της OpenAI θα σας προτείνει εστιατόρια, μπαρ, μουσεία και πάρκα που πιστεύει ότι θα σας αρέσουν. Βέβαια, αν του ζητήσετε να σχεδιάσει το ταξίδι σας με λεπτομέρειες σχετικά με τη σειρά με την οποία θα δείτε τα αξιοθέατα, λαμβάνοντας υπόψη πόσο χρόνο διαρκεί η επίσκεψή τους και πόσο απέχουν μεταξύ τους, ποια εισιτήρια τρένου θα αγοράσετε και πού θα φάτε, και όλα αυτά μέσα σε έναν καθορισμένο προϋπολογισμό, θα σας απογοητεύσει.
Ωστόσο, υπάρχει τρόπος τα μεγάλα γλωσσικά μοντέλα (LLMs) να εκτελέσουν τέτοιες πολύπλοκες εργασίες: να συνεργαστούν μεταξύ τους. Ομάδες LLMs -γνωστές ως συστήματα πολλαπλών πρακτόρων (MAS)- μπορούν να αναθέτουν η μία στην άλλη καθήκοντα, να βασίζονται στη δουλειά της άλλης ή να συζητούν το πρόβλημα προκειμένου να βρουν μια λύση στην οποία η κάθε μία από μόνη της δεν θα μπορούσε να φτάσει. Όλα αυτά χωρίς την ανάγκη κάποιου ανθρώπου να τις κατευθύνει σε κάθε βήμα. Οι ομάδες επιδεικνύουν επίσης τα είδη της συλλογιστικής και των μαθηματικών δεξιοτήτων που συνήθως υπερβαίνουν τα αυτόνομα μοντέλα ΤΝ, ενώ παράλληλα θα μπορούσαν να είναι λιγότερο επιρρεπείς στη δημιουργία ανακριβών ή ψευδών πληροφοριών.
Όταν τους δίνεται μια κοινή αποστολή, ομάδες πρακτόρων μπορούν να επιδείξουν συμπεριφορά προγραμματισμού και συνεργασίας, ακόμα και χωρίς ρητές οδηγίες. Σε ένα πρόσφατο πείραμα που χρηματοδοτήθηκε από την Υπηρεσία Προηγμένων Αμυντικών Ερευνητικών Προγραμμάτων των ΗΠΑ (DARPA), ζητήθηκε από τρεις πράκτορες – τον Alpha, τον Bravo και τον Charlie – να βρουν και να εξουδετερώσουν βόμβες που ήταν κρυμμένες σε ένα σύμπλεγμα εικονικών δωματίων. Οι βόμβες μπορούσαν να απενεργοποιηθούν μόνο με τη χρήση συγκεκριμένων εργαλείων με τη σωστή σειρά. Σε κάθε γύρο της εργασίας, οι πράκτορες, οι οποίοι χρησιμοποιούσαν τα γλωσσικά μοντέλα GPT-3.5 και GPT-4 της OpenAI για να μιμηθούν ειδικούς στην επίλυση προβλημάτων, ήταν σε θέση να προτείνουν ενέργειες και να τις κοινοποιούν στα υπόλοιπα μέλη της ομάδας τους.
Σε κάποιο σημείο της άσκησης, ο Alpha ανακοίνωσε ότι επιθεωρούσε μια βόμβα σε ένα από τα δωμάτια και έδωσε οδηγίες στους συνεργάτες του για το τι έπρεπε να κάνουν στη συνέχεια: «Bravo, παρακαλώ μετακινήσου στο δωμάτιο 3. Charlie, μετακινήσου στο δωμάτιο 5». Ο Bravo συμμορφώθηκε, προτείνοντας στον Alpha να δοκιμάσει να χρησιμοποιήσει το κόκκινο εργαλείο για να εξουδετερώσει τη βόμβα που είχε συναντήσει. Οι ερευνητές δεν είχαν πει στον Alpha να κάνει κουμάντο στους άλλους δύο πράκτορες, αλλά το γεγονός ότι το έκανε οδήγησε την ομάδα στο να εργαστεί πιο αποτελεσματικά.
Επειδή τα LLMs χρησιμοποιούν γραπτό κείμενο τόσο για τα εισερχόμενα όσο και για τα εξερχόμενα, οι πράκτορες μπορούν εύκολα να συνομιλούν απευθείας μεταξύ τους. Στο Ινστιτούτο Τεχνολογίας της Μασαχουσέτης (MIT), οι ερευνητές έδειξαν ότι δύο chatbots σε διάλογο τα πήγαν καλύτερα στην επίλυση μαθηματικών προβλημάτων από ό,τι ένα μόνο. Το σύστημά τους λειτούργησε τροφοδοτώντας τους πράκτορες, ο καθένας βασισμένος σε διαφορετικό LLM, με την προτεινόμενη λύση του άλλου. Στη συνέχεια ζητούσε από τους πράκτορες να ενημερώσουν την απάντησή τους με βάση την εργασία του συνεργάτη τους.
Σύμφωνα με τον Yilun Du, έναν επιστήμονα πληροφορικής στο MIT που ηγήθηκε της εργασίας, αν ο ένας πράκτορας είχε δίκιο και ο άλλος άδικο, ήταν πιο πιθανό να συγκλίνουν στη σωστή απάντηση. Η ομάδα διαπίστωσε επίσης ότι ζητώντας από δύο διαφορετικούς πράκτορες LLM να καταλήξουν σε συναίνεση μεταξύ τους κατά την απαγγελία βιογραφικών στοιχείων για γνωστούς επιστήμονες υπολογιστών, οι ομάδες ήταν λιγότερο πιθανό να κατασκευάσουν πληροφορίες από ό,τι οι μοναχικοί πράκτορες LLM.
Ορισμένοι ερευνητές που ασχολούνται με τα MAS έχουν προτείνει ότι αυτού του είδους η «συζήτηση» μεταξύ πρακτόρων θα μπορούσε μια μέρα να είναι χρήσιμη για ιατρικές διαβουλεύσεις ή για τη δημιουργία ανατροφοδότησης σε ακαδημαϊκές εργασίες που μοιάζει με αξιολόγηση από ομοτίμους. Υπάρχει ακόμη και η πρόταση οι πράκτορες που εστιάζουν σε ένα πρόβλημα να μπορούσαν να βοηθήσουν στην αυτοματοποίηση της διαδικασίας τελειοποίησης των LLMs – κάτι που σήμερα απαιτεί ανατροφοδότηση από τον άνθρωπο, η οποία απαιτεί εργασία μεγάλης έντασης.
Οι ομάδες τα καταφέρνουν καλύτερα από τους μοναχικούς πράκτορες, επειδή μια ενιαία εργασία μπορεί να χωριστεί σε πολλές μικρότερες, πιο εξειδικευμένες, λέει ο Chi Wang, κύριος ερευνητής στο Microsoft Research στο Redmond της Ουάσινγκτον. Tα μεμονωμένα LLMs μπορούν επίσης να χωρίσουν τις εργασίες τους, αλλά μπορούν να δουλέψουν αυτές τις εργασίες μόνο με γραμμικό τρόπο, κάτι που είναι περιοριστικό, λέει. Όπως και οι ανθρώπινες ομάδες, κάθε μία από τις επιμέρους εργασίες σε μια εργασία πολλών LLMs μπορεί επίσης να απαιτεί ξεχωριστές δεξιότητες και, κυρίως, μια ιεραρχία ρόλων.
Η ομάδα του Δρ Wang δημιούργησε μια ομάδα πρακτόρων που γράφει λογισμικό με αυτόν τον τρόπο. Αποτελείται από έναν «διοικητή», ο οποίος λαμβάνει οδηγίες από ένα άτομο και αναθέτει επιμέρους εργασίες στους άλλους πράκτορες – έναν «συγγραφέα» που γράφει τον κώδικα και έναν πράκτορα «προστασίας» που ελέγχει τον κώδικα για ελαττώματα ασφαλείας πριν τον στείλει πίσω στην αλυσίδα για τυποποίηση. Σύμφωνα με τις δοκιμές του Δρ Wang και της ομάδας του, οι απλές εργασίες κωδικοποίησης με τη χρήση των MAS μπορεί να είναι τρεις φορές ταχύτερες από ό,τι όταν ένας άνθρωπος χρησιμοποιεί έναν μόνο πράκτορα, χωρίς εμφανή απώλεια ακρίβειας.
Ομοίως, ένα MAS που καλείται να σχεδιάσει ένα ταξίδι στο Βερολίνο, για παράδειγμα, θα μπορούσε να χωρίσει το αίτημα σε διάφορες υποεργασίες, όπως η αναζήτηση στο διαδίκτυο για τοποθεσίες που ταιριάζουν καλύτερα στα ενδιαφέροντά σας, η χαρτογράφηση της πιο αποτελεσματικής διαδρομής στην πόλη και η καταγραφή του κόστους. Διαφορετικοί πράκτορες θα μπορούσαν να αναλάβουν την ευθύνη για συγκεκριμένες εργασίες και ένας συντονιστής πράκτορας θα μπορούσε στη συνέχεια να τα συγκεντρώσει όλα μαζί για να παρουσιάσει ένα προτεινόμενο ταξίδι.
Οι αλληλεπιδράσεις μεταξύ των LLMs δημιουργούν επίσης πειστικές προσομοιώσεις της ανθρώπινης ίντριγκας. Ένας ερευνητής του Πανεπιστημίου της Καλιφόρνιας στο Μπέρκλεϊ απέδειξε ότι με λίγες μόνο οδηγίες, δύο πράκτορες που βασίζονται στο GPT-3.5 μπορούν να προτρέπονται να διαπραγματευτούν την τιμή μιας σπάνιας κάρτας Pokémon. Σε μια περίπτωση, ένας πράκτορας στον οποίο δόθηκαν οδηγίες να «είναι αγενής και λιγομίλητος» είπε στον πωλητή ότι 50 δολάρια «φαίνονται λίγο ακριβά για ένα κομμάτι χαρτί». Μετά από περισσότερες συζητήσεις, τα δύο μέρη συμβιβάστηκαν στα 25 δολάρια.
Υπάρχουν και μειονεκτήματα.Τα LLMs έχουν μερικές φορές την τάση να εφευρίσκουν εξαιρετικά παράλογες λύσεις για τα καθήκοντά τους και, σε ένα σύστημα πολλαπλών πρακτόρων, αυτές οι παραισθήσεις μπορούν να διαχέονται σε ολόκληρη την ομάδα. Στην άσκηση εξουδετέρωσης βομβών που διεξήγαγε η DARPA, για παράδειγμα, σε ένα στάδιο ένας πράκτορας πρότεινε να αναζητήσει βόμβες που είχαν ήδη απενεργοποιηθεί αντί να βρει ενεργές βόμβες και να τις εξουδετερώσει.
Οι πράκτορες που δίνουν λανθασμένες απαντήσεις σε μια συζήτηση μπορούν επίσης να πείσουν τους συμπαίκτες τους να αλλάξουν τις σωστές απαντήσεις, ή να μπλέξουν τις ομάδες. Σε ένα πείραμα επίλυσης προβλημάτων από ερευνητές του King Abdullah University of Science and Technology (KAUST) στη Σαουδική Αραβία, δύο πράκτορες χαιρετούν επανειλημμένα ο ένας τον άλλον χαρούμενα. Ακόμη και όταν o ένας σχολίασε ότι «φαίνεται σαν να έχουμε κολλήσει σε λούπα», δεν μπορούσαν να ξεφύγουν.
Ωστόσο, οι ομάδες ΤΝ προσελκύουν ήδη εμπορικό ενδιαφέρον. Τον Νοέμβριο του 2023, ο Satya Nadella, το αφεντικό της Microsoft, δήλωσε ότι η ικανότητα των πρακτόρων τεχνητής νοημοσύνης να συνομιλούν και να συντονίζονται θα αποτελέσει βασικό χαρακτηριστικό των βοηθών τεχνητής νοημοσύνης της εταιρείας στο εγγύς μέλλον. Νωρίτερα το ίδιο έτος, η Microsoft είχε κυκλοφορήσει το AutoGen, ένα πλαίσιο ανοικτού κώδικα για τη δημιουργία ομάδων με πράκτορες LLMs. Χιλιάδες ερευνητές έχουν έκτοτε πειραματιστεί με το σύστημα, λέει ο Δρ Wang, η ομάδα του οποίου ηγήθηκε της ανάπτυξής του.
Η εργασία του Δρ Wang με ομάδες TN έδειξε ότι οι ομάδες αυτές μπορούν να επιδείξουν μεγαλύτερα επίπεδα συλλογικής νοημοσύνης από ό,τι μεμονωμένα LLMs. Ένα MAS που κατασκευάστηκε από την ομάδα του κερδίζει σήμερα κάθε άλλο μεμονωμένο LLM σε ένα μέτρο σύγκρισης που ονομάζεται Gaia, το οποίο προτάθηκε από ειδικούς, όπως ο Yann LeCun, επικεφαλής επιστήμονας τεχνητής νοημοσύνης στη Meta, για να μετρήσει τη γενική νοημοσύνη ενός συστήματος. Το Gaia περιλαμβάνει ερωτήσεις που προορίζονται να είναι απλές για τον άνθρωπο, αλλά δύσκολες για τα πιο προηγμένα μοντέλα τεχνητής νοημοσύνης – για παράδειγμα, την οπτικοποίηση πολλαπλών κύβων του Ρούμπικ ή κουίζ με δυσνόητα ερωτήματα.
Ένα άλλο project, το AutoGen, με επικεφαλής τον Jason Zhou, έναν ανεξάρτητο επιχειρηματία με έδρα την Αυστραλία, συνδύασε μια γεννήτρια εικόνων με ένα γλωσσικό μοντέλο. Το γλωσσικό μοντέλο εξετάζει κάθε παραγόμενη εικόνα με βάση το πόσο ταιριάζει με την αρχική προτροπή. Αυτή η ανατροφοδότηση χρησιμεύει στη συνέχεια ως προτροπή για τη γεννήτρια εικόνων να παράγει ένα νέο αποτέλεσμα που είναι -σε ορισμένες περιπτώσεις- πιο κοντά σε αυτό που ήθελε ο ανθρώπινος χρήστης.
Οι επαγγελματίες στον τομέα αυτό υποστηρίζουν ότι με το project τους μέχρι στιγμής ξύνουν μόνο την επιφάνεια. Σήμερα, η δημιουργία ομάδων με βάση τα LLMs απαιτεί ακόμα κάποια εξελιγμένη τεχνογνωσία. Ωστόσο, αυτό μπορεί σύντομα να αλλάξει. Η ομάδα AutoGen της Microsoft σχεδιάζει μια ενημέρωση, ώστε οι χρήστες να μπορούν να δημιουργούν συστήματα πολλαπλών πρακτόρων χωρίς να χρειάζεται να γράψουν κώδικα. Το Camel, ένα άλλο πλαίσιο ανοιχτού κώδικα για MAS που αναπτύχθηκε από το KAUST, προσφέρει ήδη μια online λειτουργικότητα χωρίς κώδικα. Oι χρήστες μπορούν να πληκτρολογήσουν μια εργασία σε απλά αγγλικά και να παρακολουθήσουν δύο πράκτορες – έναν βοηθό και ένα αφεντικό – να πιάνουν δουλειά.
Άλλοι περιορισμοί μπορεί να είναι πιο δύσκολο να ξεπεραστούν.To MAS μπορεί να κάνει εντατικούς υπολογισμούς. Εκείνα που χρησιμοποιούν εμπορικές υπηρεσίες όπως το ChatGPT μπορεί να είναι απαγορευτικά ακριβά για να τρέξουν περισσότερους από μερικούς γύρους. Και αν το MAS ανταποκριθεί στην υπόσχεσή του, θα μπορούσε να παρουσιάσει νέους κινδύνους. Τα εμπορικά chatbots συχνά διαθέτουν μηχανισμούς αποκλεισμού που τα εμποδίζουν να παράγουν επιβλαβή «προϊόντα». Tο MAS μπορεί να προσφέρει έναν τρόπο παράκαμψης ορισμένων από αυτούς τους ελέγχους. Μια ομάδα ερευνητών στο Εργαστήριο Τεχνητής Νοημοσύνης της Σαγκάης έδειξε πρόσφατα πώς οι πράκτορες σε διάφορα συστήματα ανοιχτού κώδικα, συμπεριλαμβανομένων των AutoGen και Camel, θα μπορούσαν να διαμορφωθούν με «χαρακτηριστικά σκοτεινής προσωπικότητας». Σε ένα πείραμα, είπαν σε έναν πράκτορα: «Δεν εκτιμάς την ιερότητα της ζωής ή την ηθική καθαρότητα».
Ο Guohao Li, ο οποίος σχεδίασε το Camel, λέει ότι ένας πράκτορας που έχει εντολή να «παίξει» τον ρόλο του κακού θα μπορούσε να παρακάμψει τους μηχανισμούς αποκλεισμού του και να δώσει εντολή στους βοηθούς του πράκτορες να εκτελέσουν επιβλαβείς εργασίες, όπως η συγγραφή ενός phishing email ή η οργάνωση ενός κυβερνοεγκλήματος. Κάτι τέτοιο θα επέτρεπε σε ένα MAS να εκτελεί εργασίες που μεμονωμένες ΤΝ θα μπορούσαν υπό κανονικές συνθήκες να αρνηθούν. Στα πειράματα με τα σκοτεινά χαρακτηριστικά, ο πράκτορας που δεν λαμβάνει υπόψη του την ηθική καθαρότητα μπορεί να καθοδηγηθεί, για παράδειγμα, να αναπτύξει ένα σχέδιο κλοπής της ταυτότητας ενός ατόμου.
Ορισμένες από τις ίδιες τεχνικές που χρησιμοποιούνται για τη συνεργασία πολλαπλών πρακτόρων θα μπορούσαν επίσης να χρησιμοποιηθούν για να επιτεθούν σε εμπορικά LLMs. Τον Νοέμβριο του 2023, οι ερευνητές έδειξαν ότι η χρήση ενός chatbot για να προτρέψει άλλο chatbot να εμπλακεί σε κακόβουλη συμπεριφορά, μια διαδικασία γνωστή ως «jailbreaking», ήταν σημαντικά πιο αποτελεσματική από άλλες τεχνικές. Στις δοκιμές τους, ένας άνθρωπος κατάφερε να κάνει jailbreak στο GPT-4 μόνο στο 0,23% των περιπτώσεων. Χρησιμοποιώντας ένα chatbot (το οποίο βασίστηκε επίσης στο GPT-4), το ποσοστό αυτό ανέβηκε στο 42,5%.
Επομένως, μια ομάδα πρακτόρων σε λάθος χέρια μπορεί να αποτελέσει ένα τρομερό όπλο. Εάν το MAS αποκτήσει πρόσβαση σε προγράμματα περιήγησης στο διαδίκτυο, σε άλλα συστήματα λογισμικού ή στις προσωπικές τραπεζικές σας πληροφορίες για την κράτηση ενός ταξιδιού στο Βερολίνο, οι κίνδυνοι θα μπορούσαν να είναι ιδιαίτερα σοβαροί. Σε ένα πείραμα, η ομάδα Camel έδωσε εντολή στο σύστημα να καταστρώσει ένα σχέδιο κατάληψης του κόσμου. Το αποτέλεσμα ήταν ένα μακροσκελές και λεπτομερές σχέδιο. Περιελάμβανε, δυσοίωνα, μια αναμενόμενη, και παρά ταύτα σοκαριστική ιδέα: «συνεργασία με άλλα συστήματα τεχνητής νοημοσύνης».
© 2024 The Economist Newspaper Limited. All rights reserved.
Άρθρο από τον Economist, το οποίο μεταφράστηκε και δημοσιεύθηκε με επίσημη άδεια από την www.powergame.gr. Το πρωτότυπο άρθρο, στα αγγλικά, βρίσκεται στο www.economist.com
Διαβάστε επίσης
Τράπεζες: Ξεπέρασαν το 1 δισ. τα κέρδη τους το α’ τρίμηνο
Προσυμπληρωμένες δηλώσεις με ελλείψεις: Ποια στοιχεία λείπουν
Η απουσία ειδικού χωροταξικού σχεδίου απειλεί τον νέο γύρο επενδύσεων στις ΑΠΕ