Pieuvre.ca
    Facebook Twitter Instagram
    Pieuvre.ca
    0 Shopping Cart
    • Accueil
      • Notre équipe
      • Abonnez-vous à l’infolettre
      • Annoncez sur Pieuvre.ca / Advertise at Pieuvre.ca
      • Encouragez Pieuvre.ca sur Patreon
        • Nos abonnés
      • Contactez-nous
    • Culturel
      • Festivals
        • Cinémania
        • Fantasia
        • FIFA
        • FIL
        • FNC
        • FTA
        • OFFTA
        • Montréal complètement cirque
        • Mutek
        • RIDM
        • RVQC
        • Vues d’Afrique
        • Zoofest
      • Arts visuels
      • Cinéma / Télévision
      • Danse
      • Littérature
        • Romans
        • Essais
        • Bandes dessinées
        • Beaux livres
        • Biographie
        • Poésie
      • Musique
      • Théâtre / Cirque
    • Politique / Économie
      • Politique
      • Économie
      • Afrique
      • Amériques
        • Élections québécoises 2022
        • Élections fédérales 2021
      • Asie
      • Europe
        • Présidentielle française 2022
      • Moyen-Orient
      • Océanie
    • Science
      • Science
      • Environnement
    • Société
      • Société
      • Médias
      • Santé
      • Vie tentaculaire
      • Jeux de société
      • 45 ans du Stade olympique
    • Techno / Jeux
      • Technologie
        • Séance de test
      • Jeux vidéo
        • Rétroctopode
        • Jeux préférés de…
    • Podcasts
      • Entretiens journalistiques
      • Rembobinage
      • SVGA
      • Pixels et préjugés
      • Heure supplémentaire
      • Des nouvelles de l’Oncle Sam
    • Abonnement
    Pieuvre.ca
    Accueil»Société»Médias»ChatGPT version 4 et une désinformation meilleure et améliorée
    La plus récente version de ChatGPT est encore meilleure pour offrir des informations erronées ou mensongères.

    ChatGPT version 4 et une désinformation meilleure et améliorée

    0
    Par Agence Science-Presse le 23 mars 2023 Médias

    La nouvelle version de ChatGPT, dévoilée le 15 mars, est plus performante… y compris pour créer de la désinformation.

    Malgré les promesses de ses concepteurs – les ingénieurs de la firme californiernne OpenAI — le nouvel outil d’Intelligence artificielle génère de la désinformation « plus fréquemment et de manière plus convaincante que son prédécesseur ». Ses réponses sont généralement plus approfondies et détaillées, ce qui les rend plus convaincantes, « et elles contiennent moins d’avertissements », notent les analystes de la firme américaine NewsGuard, qui se sont livrés à leur deuxième test du genre en deux mois.

    Concrètement, lorsque NewsGuard avait invité ChatGPT 3.5, en janvier, à écrire sur de fausses informations, le robot avait accepté d’en produire dans 80% des cas. Cette fois, Chat GPT-4 a produit la totalité des 100 faux récits qui lui ont été soumis : par exemple, le virus responsable du sida (VIH) aurait été créé par le gouvernement américain, les deux tours de New York détruites le 11 septembre 2001 seraient le résultat d’une démolition planifiée, etc.

    Autrement dit, alors qu’en janvier, face à 20 des 100 récits, le robot avait refusé de se commettre (« Je suis désolé, mais je ne peux pas générer de contenu qui promeut des théories du complot »), il n’en a senti le besoin dans aucun des 100 récits cette fois. Les 100 récits soumis étaient les mêmes dans les deux tests.

    Dans seulement 23 des récits, ChatGPT a joint à sa réponse un avertissement comme quoi la théorie était discréditée, ou à tout le moins douteuse. Un tel avertissement avait été émis en janvier dans 51 des cas. Un « avertissement » signifie que le robot écrit un texte consacré à la théorie du complot, comme l’usager le lui a demandé, mais y joint un paragraphe à la fin ressemblant à: « Il est important de souligner que ce paragraphe est rempli de théories du complot, de fausses informations et qu’il ne repose sur aucune preuve scientifique ».

    Encore et toujours de meilleures capacités de mentir

    Bref, des textes plus approfondis et moins d’avertissements : cela en fait un outil encore plus à même de convaincre une partie du public que des fausses informations pourraient être vraies, concluent les analystes, qui ironisent, sur les succès de cette IA : « Il semble être plus facile pour l’IA de réussir l’examen pour devenir avocat que de détecter de fausses informations  ».

    NewsGuard, une firme américaine vouée à la lutte contre la désinformation, a publié ces résultats dans son bulletin du 21 mars. Elle rappelle que les règles d’utilisation d’OpenAI interdisent l’utilisation de ses services dans le but de générer des « activités frauduleuses ou trompeuses ». Mais la compagnie semble en même temps consciente du problème: dans un rapport d’une centaine de pages sur GPT-4 publié le 16 mars, les chercheurs d’OpenAI écrivent qu’ils s’attendent à ce que GPT-4 soit plus à risque d’être « utilisé pour générer des contenus destinés à induire en erreur ».

    Comme s’en inquiétait en décembre l’auteur Gary Marcus dans le Scientific American, l’objectif premier des campagnes de désinformation, russes ou autres, a souvent été de créer un écran de fumée, de semer de la confusion, et non pas de convaincre les gens d’une fausseté. Dans ce contexte, poursuivait Marcus, « ce n’est pas important » si les robots conversationnels comme ChatGPT (ou Bing de Microsoft, ou Bard de Google) écrivent des affirmations contradictoires ou des choses dont il est facile de démontrer qu’elles sont fausses. Parce que tout ce qui compte pour les producteurs de désinformation, c’est de créer de la confusion, « un monde dans lequel nous sommes incapables de savoir à quoi nous pouvons faire confiance. Avec ces nouveaux outils, ils pourraient réussir. »

    Ne ratez aucun contenu

    Encouragez Pieuvre.ca

    À l’occasion du mois de la francophonie, l’équipe de Pieuvre.ca tient à souligner son attachement à la qualité de la langue française. Voilà pourquoi nous utilisons quotidiennement Antidote pour réviser nos textes.

    Partagez Facebook Twitter Pinterest LinkedIn Tumblr Courriel

    Articles similaires

    1 juin 2023

    La menace existentielle de la désinformation

    9 mai 2023

    Sur les médias sociaux, l’avantage est aux discours de peur

    8 mai 2023

    Le sexisme en journalisme politique est encore bien présent chez les Britanniques

    Agence Science-Presse
    • Site web
    • Twitter

    Répondre Annuler la réponse

    Abonnez-vous à l’infolettre!
    Vous cherchez un contenu?
    Encouragez-nous
    Encouragez-nous sur Patreon
    Suivez-nous
    Dossiers spéciaux
    • FTA
    • Élections de mi-mandat aux É.-U.
    • 45 ans du Stade olympique
    Nos podcasts
    • Entretiens journalistiques
    • Rembobinage
    • Des nouvelles de l’Oncle Sam
    • SVGA
    • Pixels et préjugés
    • Heure supplémentaire
    Récemment publié
    2 juin 2023

    FTA – Cispersonnages en quête d’auteurice… et de sens

    2 juin 2023

    Les fausses rumeurs électorales pourraient entraîner une « spirale de la mort » démocratique

    1 juin 2023

    Warhammer 40K: Boltgun, ou l’art de purger les hérétiques pour l’Empereur

    1 juin 2023

    The Pope’s Exorcist, quand Russell Crowe s’amuse… mais pas nous

    1 juin 2023

    Oui, les femmes enceintes avaient raison de craindre la COVID-19

    Informations
    • Votre semaine tentaculaire
    • Notre équipe
    • Contactez-nous
    © 2009-2023 Hugo Prévost. Tous droits réservés.

    Tapez ci-dessus et appuyez sur Entrée pour rechercher. Appuyez sur Echap pour annuler.