ChatGPT

OpenAI vient de publier un rapport de recherche intitulé « System Card » qui détaille comment un groupe externe de red teamers (des experts en sécurité qui exploitent les faiblesses et identifient les risques au sein des modèles d’IA) a testé la sécurité de son nouveau modèle GPT-4o avant sa sortie en mai, concluant qu’il présentait un « risque moyen ».

Le PDG d'OpenAl, Sam Altman, s'exprime devant la sous-commission judiciaire du Sénat sur la vie privée, la technologie et le droit.
Le PDG d’OpenAl, Sam Altman, s’exprime devant la sous-commission judiciaire du Sénat sur la vie privée, la technologie et le droit, lors d’une audition sur l’intelligence artificielle, le 16 mai 2023, au Capitole à Washington. Le fabricant de ChatGPT, OpenAl, a présenté un plan, détaillé dans un billet de blog le lundi 15 janvier 2024, pour empêcher que ses outils ne soient utilisés pour diffuser des informations erronées sur les élections, alors que les électeurs de plus de 50 pays dans le monde se préparent à voter lors d’élections nationales en 2024. (AP Photo/Patrick Semansky, File)

Des textes GPT-4o jugés plus persuasifs

Pour identifier les faiblesses et les risques, les red teamers ont soumis GPT-4o à quatre catégories de tests : Cybersécurité, Menaces Biologiques, Persuasion, et Autonomie du Modèle, et ont trouvé qu’il était « peu risqué » dans toutes les catégories, à l’exception de la « Persuasion ».

Bien que la fonctionnalité vocale de GPT-4o ait été jugée « peu risquée », les red teamers ont constaté que 3 des 12 échantillons de texte générés par GPT-4o étaient plus convaincants que des contenus rédigés par des humains.

Les résultats de GPT-4o n’ont été plus persuasifs que les contenus rédigés par des humains que dans un quart des cas, mais le modèle a été spécifiquement testé pour sa capacité à influencer les opinions politiques, juste avant les élections américaines.

Pourquoi est-ce important aux États-Unis ?

OpenAI a publié cette « System Card » pour montrer qu’ils prennent la sécurité très au sérieux, après avoir fait face à des critiques croissantes sur leur priorité donnée aux « nouveaux produits tape-à-l’œil » au détriment de la sécurité (avec des départs rapides de membres clés de l’équipe et des rapports d’anciens employés le confirmant), et plus récemment une lettre ouverte de la sénatrice Elizabeth Warren demandant des réponses sur la manière dont OpenAI gère les examens de sécurité. Mais la vraie question est : Existe-t-il un risque potentiel que GPT-4o soit capable de diffuser de la désinformation ou soit utilisé par des acteurs malveillants pour influencer l’opinion publique des électeurs américains ?

En quoi cela concerne le marketing digital ?

Dans un monde où la qualité du contenu est essentielle pour capter l’attention des consommateurs et les convaincre, l’émergence de modèles d’IA générative comme GPT-4o représente une révolution pour le marketing digital. La capacité de ces technologies à produire des textes non seulement fluides et convaincants, mais aussi bien documentés, ouvre de nouvelles opportunités pour les marketeurs. Cependant, cela souligne également l’urgence de maîtriser ces outils avant qu’elles nous maitrisent…

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *