Une IA capable de suspecter un texte rédigé par une IA.
Tweeter |
Le système baptisé GLTR (Giant Language model Test Room) permet de détecter si un texte (tweets, articles...) a été rédigé par une IA ou un humain.
GLTR aurait amélioré le taux de détection de faux textes de 54% à 72%, sans aucune formation au préalable.
Des résultats encourageants qui pourrait largement aider à détecter des fakes news.
Ø L’algorithme se base sur les distributions statistiques des mots du texteafin d’identifier les différences entre la rédaction humaine ou celle d’une IA, selon le principeun texte généré à l’aide d’une intelligence artificielle comportera une chaîne de mots plus prévisible que lorsqu’elle a été écrite par un humain.
Plus le résultat affiche les mots qui sont statistiquement plus susceptibles de se trouver après le précédent, plus le texte risque d’avoir été rédigé par une IA.
De telles initiatives peuvent être utiles notamment sur Twitter, par exemple, pour détecter les bots qui nuisent aux élections, notamment aux États-Unis.
TNW, un site Internet traitant de l'actualité des nouvelles technologies, note qu’il existe déjà le « Botomètre » , un outil qui permet de déterminer si un compte Twitter est géré par un humain ou un bot.
Cet outil réussit à trouver la bonne réponse dans 95% des cas.
Si, pour le moment, aucune de ces innovations n’est infaillible, elles démontrentcependant l’intérêt d’allier la puissance de l’intelligence artificielle à celle de l’homme pour s’attaquer à ces problèmes.
La justice américaine enquête sur les géants du Web. Une réponse aux plaintes, tant de consommateurs que d’entreprises, qui s'accumulent depuis plusieurs années. - News - publié le 31/07/2019
Le DoJ (Department of Justice) annonce l’ouverture d’une enquête quant aux plateformes en ligne « leaders du marché » et des soupçons de pratiques anticoncurrentielles. |