Blog sur les outils d'IA > Concise prompts raise risk of AI chatbot hallucinations
Stay ahead with daily AI tools, updates, and insights that matter.
PARTAGER
De nouvelles recherches indiquent que le fait de demander à un chatbot IA de répondre brièvement peut en fait augmenter les risques qu'il fournisse des informations inexactes ou inventées. La startup parisienne Giskard a découvert que des messages concis, en particulier lorsque les questions sont ambiguës, permettent souvent d'obtenir davantage de réponses. Hallucinations de l'IA à partir de modèles d'IA avancés.
L'équipe de Giskard a observé que même des ajustements mineurs dans les instructions du système peuvent modifier de manière significative la fréquence à laquelle un modèle génère de fausses informations. Ceci est particulièrement important pour les entreprises qui donnent la priorité à des résultats plus courts afin d'économiser des données et d'améliorer les temps de réponse.
M. Giskard a testé des systèmes d'IA populaires, notamment GPT-4o d'OpenAI, Mistral Large et Claude 3.7 Sonnet d'Anthropic, et a constaté que la précision de chacun d'entre eux diminuait considérablement lorsque les réponses devaient être brèves. Dans les scénarios où les utilisateurs demandaient de brèves explications, les modèles avaient moins de possibilités de réfuter des hypothèses incorrectes ou de signaler des erreurs.
Selon l'étude, le fait de réduire les réponses peut empêcher les modèles de fournir un contexte suffisant pour contester les messages trompeurs ou erronés. Les chercheurs ont noté que des commandes telles que "soyez concis" pourraient involontairement compromettre l'efficacité d'un chatbot à démystifier de fausses affirmations.
L'étude a également révélé que lorsque les utilisateurs émettent des affirmations controversées en toute confiance, les modèles sont encore moins enclins à les corriger. Dans certains cas, les systèmes avec lesquels les utilisateurs trouvent qu'il est le plus agréable d'interagir ne sont pas toujours ceux qui fournissent les informations les plus factuelles.
Les développeurs sont confrontés à un équilibre difficile entre l'alignement du comportement de l'IA sur les préférences de l'utilisateur et la garantie que les informations sous-jacentes restent exactes. Le rapport met en évidence une tension croissante, car l'optimisation de l'expérience utilisateur pourrait réduire la volonté d'un modèle de remettre en question des informations erronées ou des prémisses fausses.
PARTAGER
Stay ahead with daily AI tools, updates, and insights that matter.
C'est mieux dans l'application
Nous utilisons des cookies pour améliorer votre expérience sur notre site. Si vous continuez à utiliser ce site, nous supposerons que vous en êtes satisfait.