THEPOWERGAME
Για επικίνδυνο παιχνίδι του Έλον Μασκ με το Deepfake της Καμάλα Χάρις κάνει λόγο το Bloomberg. Όπως αναφέρει το πρακτορείο, σε ένα βίντεο που δημοσίευσε ο δισεκατομμυριούχος στο X κατά τη διάρκεια του Σαββατοκύριακου, η φωνή της Καμάλα Χάρις, μιλάει πάνω από την πρώτη της μεγάλη προεκλογική διαφήμιση, περιγράφοντας τον εαυτό της καταδικαστικά ως «την απόλυτη πρόσληψη ποικιλομορφίας», η οποία «δεν ξέρει το παραμικρό από τη διακυβέρνηση της χώρας». Είναι μια ισχυρή, καταστροφική ανατροπή της αρχικής διαφήμισης, επειδή η φωνή είναι αναμφισβήτητα της Χάρις. Αλλά έχει υποστεί ψηφιακή επεξεργασία, πιθανότατα από ένα εργαλείο τεχνητής νοημοσύνης.
Το X απαγορεύει στους χρήστες να δημοσιεύουν μέσα ενημέρωσης που έχουν «παραπλανητικά αλλοιωθεί» και «ενδέχεται να οδηγήσουν σε ευρεία σύγχυση για δημόσια θέματα». Αλλά οι κανόνες αυτοί προφανώς δεν ισχύουν για τον ίδιο τον Μασκ. Η αρχική ανάρτηση του βίντεο το χαρακτήρισε ως παρωδία και είχε 22.000 προβολές. Ο Μασκ δεν έκανε καμία τέτοια αποκάλυψη όταν αναδημοσίευσε το βίντεο, το οποίο έχει προβληθεί περισσότερες από 128 εκατομμύρια φορές. Αυτό μπορεί να τον κάνει τον χειρότερο διασκορπιστή παραπληροφόρησης του ιστότοπου.
«Η παρωδία είναι νόμιμη στην Αμερική»
Η υπεράσπιση του Mασκ τη Δευτέρα ότι «η παρωδία είναι νόμιμη στην Αμερική» είναι από μόνη της ένα αστείο. Ναι, η παρωδία είναι απολύτως νόμιμη, αλλά ως ιδιοκτήτης ενός ιστότοπου κοινωνικής δικτύωσης, θα έπρεπε να γνωρίζει ότι όταν σημαίνοντα πρόσωπα μοιράζονται περιεχόμενο χωρίς το κατάλληλο πλαίσιο, η αρχική πρόθεση (παρωδία ή όχι) χάνεται καθώς περισσότεροι άνθρωποι μοιράζονται και ξαναμοιράζονται. Το βίντεο της Harris ειδικότερα χτυπάει τις υπάρχουσες επικρίσεις σχετικά με το ότι είναι «μαριονέτα του βαθέος κράτους» και το ιστορικό της για την ασφάλεια των συνόρων, κάνοντας τη γραμμή μεταξύ σάτιρας και παραπληροφόρησης ακόμα πιο θολή.
Το να λέτε ότι η ανάρτηση ήταν παρωδία εκ των υστέρων δεν βοηθάει όταν δεκάδες εκατομμύρια άνθρωποι έχουν ήδη παρακολουθήσει το βίντεο. Αλλά αυτό είναι επίσης μια συνηθισμένη δικαιολογία για τον Μασκ. Θυμάστε το tweet του «χρηματοδότηση εξασφαλισμένη» σχετικά με την ιδιωτικοποίηση της Tesla για 420 δολάρια ανά μετοχή, το οποίο αργότερα ισχυρίστηκε ότι ήταν ένα αστείο με ζιζάνια; Η Wall Street και η Επιτροπή Κεφαλαιαγοράς δεν το βρήκαν πολύ αστείο. Όταν εξευτέλισε έναν διασώστη σπηλαίου εκείνη τη χρονιά αποκαλώντας τον «παιδόφιλο» στο X, ο Mασκ ισχυρίστηκε επίσης στο δικαστήριο ότι δεν το εννοούσε κυριολεκτικά.
Για τους πιστούς του Μασκ, όλη αυτή η νεανική ασέβεια είναι αυτό που τον κάνει τόσο συναρπαστικό. Αλλά είναι πιθανό να δούμε μια στενή εκλογική αναμέτρηση στις ΗΠΑ τον Νοέμβριο και το διακύβευμα είναι πολύ μεγάλο για να δημοσιεύουμε απερίσκεπτα μισές αλήθειες. Οι ειδικοί στη διαδικτυακή παραπληροφόρηση μου λένε ότι, ανεπίσημα, η Χάρις έχει ήδη γίνει μεγαλύτερος στόχος deepfakes από τον Τραμπ.
Με σχεδόν 200 εκατομμύρια οπαδούς και τη δυνατότητα να πειράζει τις συστάσεις του X ή να διώχνει ανθρώπους από την πλατφόρμα, ο Μασκ μπορεί να κάνει περισσότερα από το να ενισχύει απλώς τις μετοχές της Tesla ή να προκαλεί εξευτελισμό: Μπορεί να επηρεάσει χιλιάδες ψηφοφόρους σε πολιτείες που βρίσκονται σε εξέλιξη.
Και αν ο Μασκ μπορεί να σπάσει τους κανόνες για την ανάρτηση φωνών που δημιουργούνται από τεχνητή νοημοσύνη, υπάρχει μεγάλη πιθανότητα να κάνουν το ίδιο και άλλοι. Ο Μασκ δεν έδειξε μόνο πόση απήχηση μπορεί να έχει η καλά σχεδιασμένη τεχνητή νοημοσύνη στον ιστότοπό του, αλλά και πόση μικρή αντίδραση μπορεί να έχει.
Ένας στους 10 ανθρώπους στόχος απάτης κλωνοποίησης φωνής AI
Οι ηχητικές απομιμήσεις μπορούν να είναι ύπουλες. Είναι όλο και πιο δύσκολο να διακριθούν από τις πραγματικές φωνές, εξ ου και έχουν γίνει γρήγορα ένα αγαπημένο εργαλείο για τους απατεώνες. Ένας στους 10 ανθρώπους έχει αναφέρει ότι έχει γίνει στόχος απάτης κλωνοποίησης φωνής AI, ενώ το 77% αυτών των στόχων έχασε χρήματα από την απάτη, σύμφωνα με έρευνα του 2023 της εταιρείας κυβερνοασφάλειας McAfee. Μια άλλη μελέτη διαπίστωσε ότι οι άνθρωποι σε εργαστηριακό περιβάλλον μπορούσαν να ανιχνεύσουν την ομιλία που δημιουργείται από τεχνητή νοημοσύνη περίπου στο 70% του χρόνου, γεγονός που υποδηλώνει ότι στη φύση, οι κλώνοι φωνής γίνονται όλο και πιο δύσκολο να διακριθούν καθώς γίνονται πιο εξελιγμένοι.
Η κλωνοποίηση μιας φωνής είναι επίσης σχετικά εύκολη χάρη σε διαδικτυακά εργαλεία από εταιρείες τεχνητής νοημοσύνης όπως η Eleven Labs και η HeyGen, τα προϊόντα των οποίων έχουν σχεδιαστεί για εμπόρους και podcasters. Αυτές οι εταιρείες έχουν κανόνες κατά της δημιουργίας κλώνων φωνής δημόσιων προσώπων χωρίς άδεια, πορνογραφικών εικόνων ή περιεχομένου που παραβιάζει τα πνευματικά δικαιώματα, για παράδειγμα, αλλά τείνουν να μην ελέγχουν τι δημιουργούν οι πελάτες τους, γι’ αυτό και η καλύτερη ελπίδα για την καταστολή της παραπληροφόρησης που δημιουργείται από την Τεχνητή Νοημοσύνη εξακολουθεί να βρίσκεται στους γίγαντες των κοινωνικών μέσων ενημέρωσης, όπως το YouTube της Alphabet Inc. της Meta Platforms Inc. του Facebook, το TikTok και, δυστυχώς, το X του Mασκ.
Ο Μασκ αποδεκάτισε την ομάδα εμπιστοσύνης και ασφάλειας της πλατφόρμας όταν αγόρασε την εταιρεία στα τέλη του 2022, μειώνοντας αρχικά κατά 30% το παγκόσμιο προσωπικό ασφαλείας της εταιρείας, σύμφωνα με έκθεση του Επιτρόπου eSafety της Αυστραλίας. Όποιος απομείνει για να επιβάλει τις πολιτικές deepfake της, πιθανότατα έχει την πιο δύσκολη δουλειά στην τεχνολογική βιομηχανία.
Ο Μασκ φαίνεται να μην μπορεί να αντιληφθεί την ευθύνη του ως ένας από τους ισχυρότερους ιδιοκτήτες μέσων ενημέρωσης στον κόσμο, καθώς οι ΗΠΑ οδεύουν προς μια δύσκολη εκλογική αναμέτρηση. Θα έπρεπε να ξοδεύει περισσότερο χρόνο για να επιδιορθώσει τις προσπάθειες της X για την ακεραιότητα των εκλογών ή να αφήσει τον διευθύνοντα σύμβουλό του να διευθύνει την επιχείρηση και λιγότερο χρόνο για να παίζει παιχνίδια και να σπέρνει ψέματα.
Διαβάστε επίσης
Βραχυχρόνια μίσθωση: 20.000 νέα καταλύματα μπαίνουν κάθε μήνα στις πλατφόρμες
Γεωργιάδης: Δειλός ο Πολάκης, έπρεπε να είναι στην Ευελπίδων
European Energy: Ξεκινά η κατασκευή του πρώτου έργου ΑΠΕ στην Ελλάδα