Le géant de la vidéo numérique YouTube a lancé une approche novatrice en présentant une enquête à un sous-ensemble de ses utilisateurs, visant à identifier le contenu considéré comme « bazar d’IA ». Ce terme, utilisé par la plateforme, désigne spécifiquement les vidéos de faible qualité générées par intelligence artificielle. Cette initiative marque un effort accru de YouTube pour affiner ses mécanismes de modération de contenu et préserver l’intégrité de ses recommandations vidéo.

Mécanisme de l’enquête et interaction avec les utilisateurs

Selon des captures d’écran récemment partagées, l’interface de l’enquête affiche en évidence la vidéo concernée, ainsi que son titre et sa miniature. Les utilisateurs sont ensuite invités à évaluer si le contenu semble être du « bazar d’IA » ou simplement de « faible qualité ». Les options de réponse sont organisées sur une échelle de cinq points, allant de « pas du tout » à « extrêmement », permettant ainsi des retours nuancés.

Bien que les conséquences précises de ces évaluations par les utilisateurs restent ambiguës à ce stade, il est évident que YouTube cherche à exploiter ces données pour influencer potentiellement la manière dont ces vidéos, ainsi que leurs chaînes, sont traitées dans les algorithmes de recommandation de la plateforme. Cependant, les détails concernant la mesure dans laquelle ces évaluations affecteront la visibilité des vidéos ou le statut des chaînes n’ont pas encore été divulgués.

Cette initiative reflète l’engagement continu de YouTube à lutter contre la prolifération de contenus générés par IA de qualité inférieure, qui peuvent nuire à l’expérience utilisateur et diluer la qualité des médias disponibles sur la plateforme. En impliquant directement les utilisateurs dans le processus d’évaluation, YouTube exploite le jugement collectif pour surveiller et éventuellement supprimer plus efficacement les contenus indésirables.