THEPOWERGAME
Οι προσπάθειες της OpenAI για την παραγωγή λιγότερο ψευδών δεδομένων από το chatbot ChatGPT δεν είναι αρκετές για να διασφαλιστεί η πλήρης συμμόρφωση με τους κανόνες της Ευρωπαϊκής Ένωσης για τα δεδομένα, δήλωσε μια ομάδα εργασίας στο όργανο προστασίας της ιδιωτικής ζωής της ΕΕ.
«Παρόλο που τα μέτρα που ελήφθησαν για τη συμμόρφωση με την αρχή της διαφάνειας είναι ωφέλιμα για την αποφυγή εσφαλμένης ερμηνείας της εξόδου του ChatGPT, δεν επαρκούν για τη συμμόρφωση με την αρχή της ακρίβειας των δεδομένων», ανέφερε η ομάδα εργασίας σε έκθεση που δημοσιεύθηκε στον ιστότοπό της την Παρασκευή.
Ο οργανισμός που ενώνει τους εθνικούς παρατηρητές της ιδιωτικής ζωής της Ευρώπης συγκρότησε την ειδική ομάδα για το ChatGPT πέρυσι, αφού οι εθνικές ρυθμιστικές αρχές με επικεφαλής την αρχή της Ιταλίας εξέφρασαν ανησυχίες σχετικά με την ευρέως χρησιμοποιούμενη υπηρεσία τεχνητής νοημοσύνης.
Οι διάφορες έρευνες που ξεκίνησαν από τα εθνικά παρατηρητήρια προστασίας της ιδιωτικής ζωής σε ορισμένα κράτη μέλη βρίσκονται ακόμη σε εξέλιξη, αναφέρεται στην έκθεση, προσθέτοντας ότι ως εκ τούτου δεν είναι ακόμη δυνατό να δοθεί πλήρης περιγραφή των αποτελεσμάτων. Τα ευρήματα έπρεπε να εκληφθούν ως «κοινός παρονομαστής» μεταξύ των εθνικών αρχών.
Η ακρίβεια των δεδομένων είναι μία από τις κατευθυντήριες αρχές του συνόλου των κανόνων της ΕΕ για την προστασία των δεδομένων.
«Στην πραγματικότητα, λόγω της πιθανολογικής φύσης του συστήματος, η τρέχουσα προσέγγιση εκπαίδευσης οδηγεί σε ένα μοντέλο που μπορεί επίσης να παράγει μεροληπτικά ή κατασκευασμένα αποτελέσματα», αναφέρεται στην έκθεση.
«Επιπλέον, τα αποτελέσματα που παρέχονται από το ChatGPT είναι πιθανό να θεωρηθούν από τους τελικούς χρήστες ως πραγματικά ακριβή, συμπεριλαμβανομένων των πληροφοριών που αφορούν άτομα, ανεξάρτητα από την πραγματική τους ακρίβεια».
Διαβάστε επίσης:
Στροφή στο asset management επιχειρούν οι τράπεζες
Γιατί πέφτει το ethereum μετά την έγκριση των ETF στον Αιθέρα
Energean: Ποια είναι τα επόμενα βήματα για το project αποθήκευσης CO2 στον Πρίνο