Critiqs

Sand AI bloque les contenus politiquement sensibles dans le modèle vidéo d'IA

sand-ai-blocks-politically-sensitive-content-in-ai-video-model (en anglais)

Brève

Sand AI, un acteur récent dans le secteur de l'intelligence artificielle en Chine, a introduit un générateur de vidéo open source appelé Sable AI. Le lancement a rapidement suscité l'admiration des leaders de l'industrie technologique, bien que toute personne désireuse d'essayer Magi-1 doive y accéder par l'intermédiaire de la plateforme en ligne de l'entreprise en raison de ses exigences matérielles.

Malgré l'enthousiasme, les utilisateurs potentiels découvrent des contrôles stricts du contenu lorsqu'ils tentent de créer des vidéos. La plateforme rejette les images qui comportent des sujets politiquement sensibles tels que le président chinois, la place Tiananmen, la figure de protestation Tank Man ou des symboles relatifs à Hong Kong ou à Taïwan.

Comment la censure façonne l'innovation

Le filtrage rapide se produit même si les utilisateurs modifient les noms des fichiers d'images, ce qui met en évidence l'approche de filtrage au niveau du contenu intégrée dans le service. Toute personne qui tente d'utiliser des images restreintes reçoit une erreur directe du système.

Ces contrôles reflètent les pressions créées par les lois chinoises sur l'information, qui exigent des développeurs d'intelligence artificielle qu'ils s'assurent que leurs outils ne sapent pas les récits officiels ou ne menacent pas l'unité nationale. Par conséquent, les startups chinoises spécialisées dans l'IA mettent généralement en œuvre des filtres de données ou des filtres prompts et rigoureux pour répondre aux normes réglementaires.

D'autres entreprises technologiques chinoises, comme celles qui exploitent le générateur de médias Hailuo de la société MiniMax, basée à Shanghai, appliquent des restrictions similaires, bien que le blocage de Sand AI soit exceptionnellement rigoureux. Par exemple, si Hailuo restreint les images du président, il autorise encore certains contenus liés à la place Tiananmen, ce qui indique des variations dans l'application de la loi.

Dans un contraste révélateur, les plateformes chinoises ont tendance à accorder plus de latitude pour les contenus destinés aux adultes, souvent sans les protections de type américain contre les images explicites non autorisées. Cette double approche de la censure - très politique et plus légère ailleurs - met en lumière l'environnement réglementaire complexe dans lequel opèrent ces entreprises d'IA.

Mages 1 et ses concurrents continuent de développer des technologies de pointe sous l'étroite surveillance des pouvoirs publics, façonnant à la fois les capacités et les limites des outils accessibles au public. À mesure que l'intelligence artificielle évolue, les limites fixées par les décideurs politiques continueront à jouer un rôle central dans la manière dont ces innovations atteindront le monde.

PARTAGER

Ajouter un commentaire

What’s Happening in AI?

Stay ahead with daily AI tools, updates, and insights that matter.

C'est mieux dans l'application

Nous utilisons des cookies pour améliorer votre expérience sur notre site. Si vous continuez à utiliser ce site, nous supposerons que vous en êtes satisfait.

Se connecter / S'inscrire

Join the AI Community That’s Always One Step Ahead