Το YouTube μετά από υπερβολική λογοκρισία των συστημάτων AI, φέρνει πίσω περισσότερους ανθρώπινους συντονιστές

Το YouTube αναφέρει ότι φέρνει πίσω ανθρώπινους συντονιστές που «που είχαν τεθεί εκτός» κατά τη διάρκεια της πανδημίας, αφού τα φίλτρα AI της εταιρείας απέτυχαν να ταιριάξουν με ακρίβειά σε σύγκριση με εκείνους.

Τον Μάρτιο, το YouTube δήλωσε ότι θα βασιστεί περισσότερο στα συστήματα μηχανικής εκμάθησης για την επισήμανση και την κατάργηση περιεχομένου που παραβίαζε τις πολιτικές του σε πράγματα όπως ρητορική μίσους και παραπληροφόρηση. Ωστόσο, το YouTube είπε στους Financial Times αυτήν την εβδομάδα ότι η μεγαλύτερη χρήση της εποπτείας AI είχε οδηγήσει σε σημαντική αύξηση των καταργήσεων βίντεο και κυρίως εσφαλμένων καταργήσεων.

Περίπου 11 εκατομμύρια βίντεο καταργήθηκαν από το YouTube μεταξύ των μηνών Απριλίου και Ιουνίου, σύμφωνα με το FT, ή περίπου το διπλάσιο του κανονικού ποσοστού. Έγινε επανεξέταση για περίπου 320.000 από αυτές τις καταργήσεις και επανεμφανίστηκαν τα μισά από τα βίντεο με ένσταση. Και πάλι, το FT λέει ότι διπλασιάζει περίπου το συνηθισμένο ποσοστό αφού τα συστήματα AI ήταν υπερβολικά ενθουσιώδεις στις προσπάθειές τους να εντοπίσουν επιβλαβές περιεχόμενο.

Όπως είπε ο επικεφαλής του YouTube, ο Neal Mohan, στο FT: «Μία από τις αποφάσεις που λάβαμε [στην αρχή της πανδημίας] αφορούσε ότι οι μηχανές δεν μπορούσαν να είναι τόσο ακριβείς όσο οι άνθρωποι»

Αυτή η παραδοχή αποτυχίας είναι αξιοσημείωτη. Όλες οι μεγάλες διαδικτυακές πλατφόρμες κοινωνικής δικτύωσης, από το Twitter έως το Facebook και το YouTube, δέχονται ολοένα και περισσότερες πιέσεις για να αντιμετωπίσουν τη διάδοση μίσους και παραπλανητικού περιεχομένου στους ιστότοπούς τους. Και όλοι έχουν πει ότι αλγοριθμικά και αυτοματοποιημένα φίλτρα μπορούν να βοηθήσουν στην αντιμετώπιση της τεράστιας κλίμακας των πλατφορμών τους.

Ωστόσο, ξανά και ξανά, εμπειρογνώμονες της τεχνητής νοημοσύνης έχουν εκφράσει την σκέψη τους σχετικά με αυτούς τους ισχυρισμούς. Κρίνοντας εάν ένα βίντεο σχετικά με, ας πούμε, θεωρίες συνωμοσίας περιέχει κρυφά νοήματα προς τις ρατσιστικές πεποιθήσεις. Οι υπολογιστές δεν έχουν την ικανότητά μας να κατανοήσουν το ακριβές πολιτιστικό πλαίσιο και τη λεπτότητα αυτών των ισχυρισμών. Τα αυτοματοποιημένα συστήματα μπορούν να εντοπίσουν τους πιο προφανείς παραβάτες, κάτι που είναι αναμφίβολα χρήσιμο, αλλά οι άνθρωποι χρειάζονται ακόμη για τις πιο απαιτητικές κρίσεις.

Ακόμη και με πιο απλές αποφάσεις, οι μηχανές μπορούν ακόμα να προκαλέσουν χάος. Τον Μάιο, για παράδειγμα, το YouTube παραδέχτηκε ότι διαγράφει αυτόματα σχόλια που περιέχουν ορισμένες φράσεις επικριτικές για το Κινεζικό Κομμουνιστικό Κόμμα (ΚΚΚ). Η εταιρεία κατηγόρησε αργότερα ένα «σφάλμα με τα συστήματα επιβολής μας» για τα λάθη.

Αλλά όπως είπε ο Mohan στο FT, τα συστήματα μηχανικής εκμάθησης έχουν σίγουρα τη θέση τους, ακόμα κι αν πρόκειται απλά να αφαιρέσουν τους πιο προφανείς παραβάτες. “Πάνω από το 50 τοις εκατό αυτών των 11 εκατομμυρίων βίντεο καταργήθηκαν χωρίς μία προβολή από έναν πραγματικό χρήστη του YouTube και πάνω από το 80 τοις εκατό καταργήθηκαν με λιγότερες από 10 προβολές”, είπε. “Και έτσι είναι η δύναμη των μηχανών.”

Leave your vote

Don’t Stop Here

More To Explore

Add to Collection

No Collections

Here you'll find all collections you've created before.

0
Would love your thoughts, please comment.x
()
x