THEPOWERGAME
Η Meta επεκτείνει την προσπάθειά της για τον εντοπισμό εικόνων που έχουν παραποιηθεί από την τεχνητή νοημοσύνη, καθώς προσπαθεί να εξαλείψει την παραπληροφόρηση και τα fake news ενόψει των επερχόμενων εκλογών σε όλο τον κόσμο.
Συγκεκριμένα, η εταιρεία αναπτύσσει εργαλεία για τον εντοπισμό περιεχομένου που έχει δημιουργηθεί από τεχνητή νοημοσύνη, όταν εμφανίζεται στο Facebook, το Instagram και το Threads, όπως γνωστοποίησε η εταιρεία την Τρίτη.
Μέχρι τώρα, η Meta κατηγοριοποιούσε και επεσήμανε με ετικέτα μόνο τις εικόνες που είχαν δημιουργηθεί με τα δικά της εργαλεία τεχνητής νοημοσύνης. Τώρα, η εταιρεία υποστηρίζει ότι θα επιδιώξει να εφαρμόσει αυτές τις ετικέτες σε περιεχόμενο από τις Google, OpenAI, Microsoft, Adobe, Midjourney και Shutterstock. Οι ετικέτες θα εμφανίζονται σε όλες τις γλώσσες που είναι διαθέσιμες σε κάθε εφαρμογή. Αλλά η αλλαγή δεν θα είναι άμεση.
Στην ανάρτηση στο ιστολόγιο, ο Νικ Κλεγγ, πρόεδρος της Meta για τις παγκόσμιες υποθέσεις, έγραψε ότι η εταιρεία θα αρχίσει να επισημαίνει τις εικόνες που δημιουργούνται με τεχνητή νοημοσύνη και προέρχονται από εξωτερικές πηγές «τους επόμενους μήνες» και θα συνεχίσει να εργάζεται πάνω στο πρόβλημα «μέσα στο επόμενο έτος».
Ο πρόσθετος χρόνος είναι απαραίτητος για να συνεργαστεί με άλλες εταιρείες τεχνητής νοημοσύνης για την «ευθυγράμμιση σε κοινά τεχνικά πρότυπα που σηματοδοτούν πότε ένα κομμάτι περιεχομένου έχει δημιουργηθεί με χρήση τεχνητής νοημοσύνης», έγραψε ο Κλεγγ.
Η παραπληροφόρηση που σχετίζεται με τις εκλογές προκάλεσε κρίση στο Facebook μετά τις αμερικανικές προεδρικές εκλογές του 2016, λόγω του τρόπου με τον οποίο ξένοι παράγοντες, κυρίως από τη Ρωσία, μπόρεσαν να δημιουργήσουν και να διαδώσουν ιδιαίτερα φορτισμένο και ανακριβές περιεχόμενο.
Η Meta προσπαθεί να δείξει ότι είναι προετοιμασμένη για τους κακούς παράγοντες να χρησιμοποιήσουν πιο προηγμένες μορφές τεχνολογίας στον κύκλο του 2024.
Ενώ κάποιο περιεχόμενο που δημιουργείται με τεχνητή νοημοσύνη ανιχνεύεται εύκολα, αυτό δεν συμβαίνει πάντα. Οι υπηρεσίες που ισχυρίζονται ότι αναγνωρίζουν κείμενο που παράγεται από τεχνητή νοημοσύνη, όπως δοκίμια, έχει αποδειχθεί ότι παρουσιάζουν προκατάληψη έναντι των μη φυσικών ομιλητών της αγγλικής γλώσσας. Δεν είναι πολύ πιο εύκολο για τις εικόνες και τα βίντεο, αν και συχνά υπάρχουν ενδείξεις.
Η Meta επιδιώκει να ελαχιστοποιήσει την αβεβαιότητα συνεργαζόμενη κυρίως με άλλες εταιρείες τεχνητής νοημοσύνης που χρησιμοποιούν αόρατα υδατογραφήματα και ορισμένους τύπους μεταδεδομένων στις εικόνες που δημιουργούνται στις πλατφόρμες τους. Ωστόσο, υπάρχουν τρόποι αφαίρεσης των υδατογραφημάτων, ένα πρόβλημα που η Meta σχεδιάζει να αντιμετωπίσει.
«Εργαζόμαστε σκληρά για να αναπτύξουμε ταξινομητές που μπορούν να μας βοηθήσουν να ανιχνεύσουμε αυτόματα το περιεχόμενο που έχει δημιουργηθεί με τεχνητή νοημοσύνη, ακόμη και αν το περιεχόμενο δεν έχει αόρατα σήματα», έγραψε ο Κλεγγ. «Ταυτόχρονα, αναζητούμε τρόπους για να κάνουμε πιο δύσκολη την αφαίρεση ή την αλλοίωση των αόρατων υδατογραφήσεων».
Η παρακολούθηση του ήχου και του βίντεο μπορεί να είναι ακόμη πιο δύσκολη από ό,τι η παρακολούθηση των εικόνων, επειδή οι εταιρείες τεχνητής νοημοσύνης δεν έχουν ακόμη καθιερώσει να προσθέτουν αόρατα αναγνωριστικά.
«Δεν μπορούμε ακόμη να ανιχνεύσουμε αυτά τα σήματα και να επισημάνουμε αυτό το περιεχόμενο από άλλες εταιρείες», έγραψε ο Κλεγγ.
Η Meta θα προσθέσει έναν τρόπο για τους χρήστες να αποκαλύπτουν με τη θέληση του πότε ανεβάζουν βίντεο ή ήχο που δημιουργείται από τεχνητή νοημοσύνη. Αν μοιραστούν ένα deepfake ή άλλη μορφή περιεχομένου που έχει δημιουργηθεί από AI χωρίς να το αποκαλύψουν, η εταιρεία «μπορεί να επιβάλλει κυρώσεις», αναφέρει η ανάρτηση.
«Εάν διαπιστώσουμε ότι το ψηφιακά δημιουργημένο ή τροποποιημένο περιεχόμενο εικόνας, βίντεο ή ήχου δημιουργεί ιδιαίτερα υψηλό κίνδυνο ουσιαστικής παραπλάνησης του κοινού για ένα σημαντικό θέμα, ενδέχεται να προσθέσουμε μια πιο εμφανή ετικέτα, εάν είναι απαραίτητο», έγραψε ο Κλεγγ.