Nothing Special   »   [go: up one dir, main page]

Aller au contenu

Discussion Projet:Observatoire des IA

Le contenu de la page n’est pas pris en charge dans d’autres langues.
Une page de Wikipédia, l'encyclopédie libre.
Autres discussions [liste]
  • Admissibilité
  • Neutralité
  • Droit d'auteur
  • Portail de qualité
  • Bon portail
  • Lumière sur
  • À faire
  • Archives
  • Commons

Points à valider sur le projet

[modifier le code]

Qu'y a-t-il à voir pour un projet utile et fonctionnel ?

  1. Le fond
    1. objectifs : actuellement, objectif « meta », visant à la régulation et l'anticipation des effets sur le Wikipédia francophone.
    2. plan de travail : actuellement, 3 propositions, documentation générale, projets de régulation, indexations des articles/utilisateurs concernés
  2. La forme
    1. Terminologie : IA est-il bien compris comme renvoyant essentiellement aux IA générative ou faut-il le préciser partout ?
    2. Navigation
      1. L'objet des pages : est-il clair ? D'autres propositions ?
      2. Onglets : sont-ils clairs ? Utiles sur toutes les pages (non-transcluses sur l'accueil) ?
  3. Le fonctionnement
    1. recherche de consensus : dans l'idéal, il faudrait mobiliser les utilisateurs ayant déjà fait des usages sur WP pour la recherche d'un consensus entre promoteurs et objecteurs. Nous ne sommes pas dans le cadre d'usages d'emblée irréguliers comme pour le projet:Antipub où il s'agit d'être essentiellement policier.
    2. liens à d'autres projets/groupes :
      1. patrouilleurs et admins peuvent enrichir la détection/suivi des articles/utilisateurs concernés
      2. intérêt partagé avec l'Observatoire des sources sur les sources impactées
  4. Autres ?

Fabius Lector (discuter) 7 octobre 2024 à 11:58 (CEST)[répondre]

Bonjour Fabius Lector. Il y a un consensus me semble-t-il sur le fait de ne pas utiliser des IA génératives pour produire des articles. « suivre l'évolution des usages d'IA, essentiellement IA génératives, et s'assurer qu'ils s'accordent aux principes fondateurs de Wikipédia ainsi qu'aux règles et recommandations définies par des prises de décision communautaires. » me semble au contraire encourager ces créations, en ignorant les problèmes connus. L'objectif pour moi du projet serait au contraire :
  • d'identifier de tels articles, voire de documenter concrètement en quoi ils posent problème. Car on sait qu'ils ne sont pas fiables.
  • d'étudier les usages plus (ou moins) admis en matière d'IA générative ou non : automatisation de mises en formes, recherches de sources, résumé de texte pour les RI, etc. et proposer des retours d'expérience sur ces autres usages, afin à terme de dégager un consensus sur les pratiques admises, celles nécessitant de la vigilance, et celles à interdire.
Il est donc important de préciser dans chaque cas si l'on parle d'IA générative ou non.
  • Liens avec d'autres projets : évident pour l'ODS, les pb posés par des sources elles-mêmes générés par IA est un des gros volets auquel nous aurons à faire face, ahma.
  • Tout le monde peut enrichir la détection des pages, pas uniquement les patrouilleurs ou admins.
  • Pour les autres points, je te réponds plus tard. Cdlt, --Pa2chant.bis (discuter) 11 octobre 2024 à 09:03 (CEST)[répondre]
Qu'appelles tu "produire un article" ? Générer entièrement un article à partir d'un prompt, ou synthétiser des sources par une IA ? Dans les deux cas on "produit un article". Mais je ne crois pas qu'il y a un consensus pour interdire ou décourager le deuxième cas. Jean-Christophe BENOIST (discuter) 11 octobre 2024 à 09:31 (CEST)[répondre]
Alors Jean-Christophe BENOIST il est urgent de documenter des cas pour montrer les problèmes. J'en ai récemment analysé deux proposés indirectement par Softenpoche sur le Bistro ( Dictionnaire historique de la suisse et un autre que je retrouve plus, l'hagiographie d'un santonnier), et si Wikipedia doit offrir ça, coincé entre de vrais articles, autant ne plus le lire.--Pa2chant.bis (discuter) 12 octobre 2024 à 04:55 (CEST)[répondre]
Bonjour @Pa2chant.bis,
je pense qu'en fait j'ai fait plus large que tes objectifs pour éviter de rater des question mais que ceux-ci sont intégrés dans les 3 volets du plan de travail. Faudrait voir si cette organisation fonctionne et si on peut/doit faire plus précis ou plus simple, cf. p.e. chez les anglophones le en:Wikipedia:WikiProject_AI_Cleanup est nettement plus léger et pourrait correspondre à mon 3e volet.
Sinon :
  • sur la précision d'IA génératives ou pas, la page documentation serait là pour indiquer quelles technos sont à prendre en compte et cf. par ici où j'explique pourquoi j'ai préféré rester vague sur leur périmètre vu les vitesses d'évolution ;
  • question consensus, usages admis ou pas, je travaille à la synthèse des positions en brouillon à partir de tout ce que j'ai réuni par ici (discussions, essais, sondage). Les problèmes sont déjà pas mal isolés sur le Wiki français ou anglais mais comme dit Jean-Christophe BENOIST, certains proposent des assistances à la création d'article qui vont loin, le consensus semblant surtout qu'en tout état de cause on est responsable de ce qu'on met sur WP et qu'on doit donc contrôler et valider avant de publier. Cf. cet essai qui parle d'assistance pour la synthèse de sources et pour le plan, ce qui à terme se rapproche d'une création complète, d'autres faisant des expérimentation dans ce sens, y compris au niveau de la WMF.
    • note sur le périmètre du fond : ma synthèse commence par les discussions de principe impliquant la nature même de Wikipédia avec son aspect communautaire humain indépendamment des questions pratiques de fiabilité. Que fait-on si les IA deviennent fiables ? Il me semble pertinent de suivre ça aussi, pas juste les problèmes pratiques.
  • la section sur la maîtrise des usages serait là pour les moyens de gestions des articles (modèles, catégories etc.) et noter ceux qui sont problématiques en lien avec l'onglet « Discuter ou signaler un usage sur Wikipédia » qui renvoie vers la page de discussion. Là aussi, il y a déjà des choses de faites, la détection concerne tout le monde mais si les problèmes s'amplifient, je me dis qu'il faudra sans doute coordonner l'usage avec patrouilleurs et admins. Pour l'heure, je n'ai noté qu'une RA (avec blocage d'utilisateur) Fabius Lector les admins ne sont pas trop concernés mais les risques de vandalisme, canulars et autre augmentent.
(discuter) 11 octobre 2024 à 13:35 (CEST)[répondre]
Bonjour Fabius Lector
  • Ma critique forte de la présentation proposée avec contre-proposition n'est pas une définition de l'objectif du projet, ou une limitation de son périmètre, mais un préalable à mon adhésion, je l'ai déjà écrit. Le relativisme consistant à dire "en tout état de cause on est responsable de ce qu'on met sur WP" oublie juste un point : c'est que les articles ne sont pas signés, et et que si on insère des conneries, il faudra des armées de petites mains derrière pour venir corriger.
  • Je pense que les volets que tu proposes sont adaptés, mais devraient être scindés en sous-pages de même nom. Pour la même raison qu'alinéa précédent, "Maitrise des usages" induit une incitation à utiliser ces outils. Projet:Observatoire des IA/Concrètement sur WP ou un titre assimilé me semblerait plus adapté (je n'aime pas trop le titre "Observatoire", qui dénote un côté passif, et risque de ne pas mobiliser de pour identifier et corriger les pb). Plus sobrement "IA sur Wikipédia" me semble plus adapté comme titre, la volet veille ,'en n'étant qu'une annexe.
  • Sur le ton vague, c'est l'un des points qui me met mal à l'aise, autant être concret et précis. A cet égard, l'objectif affiché sur en:Wikipedia:WikiProject_AI_Cleanup est nettement plus clair (ce qui n'empêche pas que les autres points que tu détailles soient traités eux aussi).
  • L'essai Wikipédia:Intelligence artificielle est marrant, rédigé par un contributeur expert en utilisation d'IA, et capable de générer deux articles de 4000 ko à mins de 2 minutes d'intervalle. Voilà de la matière pour les études de cas.
  • En ce qui concerne les expérimentations sur Storm relatées par Wikimedia (articles "Wikipedia-like"), là encore leur consensus est que les résultats actuels sont insuffisants pour créer des articles avec une IA.
Et si un jour les IA permettent des résultats corrects ? Mon avis est qu'on avisera à ce moment-là.
Bonjour Pa2chant.bis
  • je vais réfléchir à la réorganisation, ce serait en effet bien de coller aux 3 volets. À la base, j'ai fait une distinction sur/hors de WP en pensant que la page documentation serait pour les technos utilisées hors WP mais ce n'est pas terrible, ça va faire vite catalogue de logiciel et je n'aime pas vraiment « IA sur Wikipédia » qui n'indique aucune visée (cf. ci-dessous) ;
  • pour l'esprit même du projet, il y a un souci si il y a l'impression qu'il y a « incitation à utiliser ces outils » alors que ce n'est pas l'idée : dans Ce que n'est pas le projet, j'ai justement précisé que « il n'est pas dédié aux implémentation ou développement d'usages d'IA » parce que c'est une mécompréhension qui est apparu dès la discussion de la première idée nommée alors simplement Projet:IA générative, d'où la proposition par TigH (d · c) de nommer « observatoire » comme l'observatoire des sources qui fait la « police » des sources. « IA sur Wikipédia » ou « Concrètement sur WP » pourraient reproduire ce schéma, certains pensant qu'on veut en développer ici, et pour l'heure, je n'ai pas trouvé mieux que « observatoire ».
  • « maîtriser les usages » se voulait le contraire d'une incitation puisqu'il s'agit de mettre des contraintes mais j'ai évité d'évoquer une simple prohibition pour qu'on discute aussi des tendances au sein de WP/WMF qui voient des IA comme outils pour améliorer l'encyclopédie, p.e. :
    • le WikiProject AI Cleanup peut se faire soutien des utilisateurs d'IA en nettoyant juste les articles vu que « The purpose of this project is not to restrict or ban the use of AI in articles, but to verify that its output is acceptable and constructive, and to fix or remove it otherwise ». Faut que je creuse pour voir sur quoi ils se basent exactement pour agir, quels sont notamment leurs critères de révocation.
    • l'essai français a évolué vers du conseil technique apparemment sans que personne n'en ait discuté, ce serait à voir notamment par rapport à l’essai anglophone en:Wikipedia:Large language models qui m'a l'air beaucoup plus axé sur les problèmes et donc dans la direction ici visée.
    • peut-être aura-t-on à réfléchir à d'autres technos déjà implantées : les outils de traduction vu que des articles actuellement concernés par les IA sont liés à des traductions ou des bots produisant du contenu, cf. Roland45-Bot automatisant notamment l'écriture de sections « climat » depuis 2021, a priori sans IA générative.
Bon, je vais réfléchir à tout ça, faudrait peut-être faire voter sur des alternatives pour voir comment c'est perçu.
P.S. précision : je n'ai pas d'objection aux objectifs comme tu les as donné (identifier les articles, étudier les usages, consensus sur les pratiques admises etc.), c'est la synthèse que j'essaie de faire, il y a juste que je la vois comme étape intermédiaire pour l'établissement de règles/recommandation pouvant faire consensus/autorité. Je ne suis pas certain de ce que sont les consensus actuels et je n'ai pas spontanément l'idée d'intervenir sans précision d'un cadre « légal ». Fabius Lector (discuter) 12 octobre 2024 à 17:07 (CEST)[répondre]
Salut,
Je veux bien qu'on précise ce que ça veut dire IA générative. Le cas auquel tout le monde pense c'est créer un article avec un prompt. C'est le graal (ou la damnation éternelle selon qui parle). Mais y'a plein d'autres use cases pour lesquels je suis perplexe pour savoir si ça rentre dans le scope du projet. Par exemple WMF est en train de remplacer le scoring ORES par ceux de LARR et MLRR. En sortie, pour automoderator (talk sur automoderator à la dernière Wikimania) c'est un simple score de qualité. Mais derrière il y a un Bert. Autre exemple, y'a des travaux de WMF sur la détection auto d'articles/edits avec un langage qui fait penser à de la grosse autopromo (p.ex. Wikipédia:Éviter les superlatifs). En sortie, y'a seulement un score qui idéalement devrait trigger un warning par exemple sur Antipub ou ODS. Y'a rien de généré (au sens d'article en langage naturel) mais « dedans » ça utilise quand même de l'IA générative (Bert ou ptet Llama).
Une autre thématique qui pourrait être dans le scope du projet (ou de legifer ou d'avocats) : quelle licence pour du contenu généré par un LLM ? Est-ce qu'un utilisateur peut mettre du CC-BY-SA sur un edit ou article où il a juste tapé un prompt ?
WMF produit pas mal d'outils et recherches sur ces questions (j'ai vu que qqn avait lié vers l'extension add a fact que je trouve très prometteuse) et à Wikimania j'étais le seul du projet francophone à suivre ces thématiques (ptet parce qu'il y avait des sessions parallèles) donc un peu dépassé pour tout suivre sur le long terme. Je pense que suivre les projets WMF (research, future) et leur faire des retours sur nos besoins, notre ressenti « terrain » est important. Est-ce que c'est aussi le lieu pour se coordonner là-dessus ?
Si y'a besoin de caler des réunions de coordination (pas forcément sur la définition du scope du projet), il est possible d'obtenir des créneaux de visioconférence sur le server hebergé par Wikimédia France. Cordialement, (:Julien:) 21 octobre 2024 à 14:30 (CEST)[répondre]
Bonjour @(:Julien:),
le projet est orienté pour l'heure vers le contrôle des contributions sur Wikipédia-fr (cf. le WikiProject AI Cleanup anglophone) qui pourraient altérer le fonctionnement du Wiki ou ne respecterait pas les règles/recommandations qui seraient adoptées, sans trop de précision sur les technos vu leur évolutivité.
  • pour le côté technique : on a la page Documentation pour des infos sur les technos utiles, p.e. savoir si la WMF propose des outils opérationnels dans ce registre. Peut-être que les gens intéressés peuvent discuter des développements en cours en page de discussion (cf. le sujet ouvert Que documenter et comment ?) mais faudrait voir où trouver ces gens.
    • autre option : j'ai proposé de mettre l'Observatoire en sous-catégorie du Projet:Intelligence artificielle, j'aurais cru que c'était plus actif mais apparemment personne ne semble s'en servir pour discuter (cf. sa page de discussion), ce serait peut-être le lieu pour toucher des gens d'orientation technique vu que c'est associé aux articles d'informatique. En fait, je ne sais pas trop : les développeurs n'ont-ils pas un endroit où ils discutent tout ça de manière technique du côté WMF ou sur les wiki ?
  • pour le côté réglementation : on a la page Règlementation et tout ce qui est Legifer devrait être intégré dans la synthèse pour qu'on ait des guides d'action. Je n'ai pas encore creusé ce qui existait mais j'ai l'impression que le flou règne et que ce sont donc les normes adoptées par chaque Wiki qui prévalent sans cadre juridique bien défini ;
  • pour des retours à WMF, ça me semble tout à fait adéquat. Avec un projet qui tourne correctement, on pourrait faire des bilans réguliers.
  • pour l'organisation du projet, ça débute à peine, je l'ai lancé sans expérience de la chose, et est-il commun de gérer ça quasiment comme du IRL, avec réunions live ? De mon côté, je ne suis pas vraiment passionné par le sujet, et je n'aurais aucun souci à passer la main à plus motivé, mon objectif étant limité à mettre en place de quoi répondre aux problèmes qu'on a vu arriver p.e. dans cette liste de discussions ou avec un premier utilisateur bloqué.
Fabius Lector (discuter) 21 octobre 2024 à 16:18 (CEST)[répondre]

Projet:Observatoire des IA/Participants

[modifier le code]

Pour cette page, je propose de rester simple. Faisons juste une liste de participants au projet. Pas besoin de faire des sous catégories à mon avis. PAC2 (il/lui) (discuter) 7 octobre 2024 à 22:17 (CEST)[répondre]

Ok, commençons simple, j'enlève les catégories. Fabius Lector (discuter) 8 octobre 2024 à 16:12 (CEST)[répondre]

Projet de nettoyage des IA

[modifier le code]

Pour info, les anglophones ont créé un projet consacré au nettoyage des contributions sous IA : en:Wikipedia:WikiProject AI Cleanup. PAC2 (il/lui) (discuter) 7 octobre 2024 à 22:19 (CEST)[répondre]

Merci, c'est noté sur l'état des lieux. J'y ai regroupé ce que j'ai trouvé sur les Wiki en attendant d'attaquer une synthèse qui risque d'ailleurs de ne pas être simple, les initiatives m'ont l'air dispersées. Fabius Lector (discuter) 8 octobre 2024 à 18:31 (CEST)[répondre]

Bonjour,

Je pensais dire quelques mots sur la divergence que je ressens entre l'IA massivement connue comme ChatGPT et d'autres outils tels que Perplexity, dans lequel l'IA paraît seulement une énorme valeur ajoutée à des opérations par ailleurs très classiques et validées, comme la recherche de sources précises et valables. Je parle à l'imparfait parce que je crois maintenant qu'il faudrait avant tout être clair sur le périmètre de la veille ou celui des échanges relevant de ce projet. C'est l'IA générative qui semble poser problème et non d'autres formes qui d'ailleurs ne seraient pas manifestes pour le lecteur ou pour les "patrouilleurs" (on ne s'inquiète pas de la correction de l'orthographe par exemple ; donc s'inquiéterait-on de la correction du style ou de la modification d'un article par léger résumé et réécriture automatique avec un style personnel imposé à l'IA ?).

Donc voilà, il faudrait peut-être mieux préciser et énumérer les actions critiques, ou leurs modes opératoires. TigH (discuter) 8 octobre 2024 à 10:31 (CEST)[répondre]

Bonjour @TigH,
j'ai voulu faire simple au niveau terminologie et ne pas trop fermer les questions en me disant qu'on peut recadrer ensuite si on s'aperçoit qu'on perd en pertinence/efficience. D'un côté c'est gênant parce que les questions ne concernent pas l'IA en général, c'est pour ça que j'ai évité « observatoire de l'IA », mais d'un autre côté « IA générative » me semblait trop restrictif vu qu'on ne sait pas comment les soucis peuvent évoluer :
  • pour la documentation, si pour l'instant on est face à des systèmes assez repérables, je me dis que ça peut changer assez vite avec les intégrations, p.e. moteur de recherche + LLM, bureautique + LLM, suites logicielles graphiques + générateur d'image etc., et ce sera peut être un mélange de technos avec une évolution des pratiques qui sera à prendre en compte ;
  • pour le traitement au niveau de IA sur Wikipédia, le centrage se ferait a posteriori par le suivi des questions discutées (bistro, sondages, essais...), sans définition précise a priori. C'est actuellement centré sur la gestion des textes/images par IA générative mais ce pourrait être plus large, cf. celle-ci sur l'avenir même de Wikipédia qui pourrait aussi concerner la stratégie de la WMF (p.e. qui participe à ce projet de recherche de génération d'article ?).
Est-ce que ça semble cohérent ? Si, oui, je peux le préciser en deux mots à l'Accueil.
P.S. j'ai indiqué un essai personnel de Perplexity sur la section dédiée qui m'a laissé perplexe avec l'impression qu'il utilisait trop Wikipédia comme base d'où un risque de cercle référentiel, ce qui est un problème touchant directement Wikipédia sans être un problème d'intégration de texte généré. Fabius Lector (discuter) 8 octobre 2024 à 18:13 (CEST)[répondre]
Il est pertinent de distinguer les différentes IA mais avec quelques haies sur le tour de pistes :
  • Il faut avoir testé sois même les différentes IA pour savoir ce qu'elles ont dans le capot et leurs limites.
  • Il est impossible de savoir quelle IA un contributeur a utilisé, et encore moins sa version (or par exemple la même IA utilisée via un accès pro ou un accès perso n'a pas du tout les mêmes bornes ni les mêmes accès, et donc le même rendu).
Il me semble que les réflexions de ce nouveau projet doivent aussi porter sur les différents types d'IA et ce qu'ils peuvent ou pas apporter. Cela peut être une sous tâche du projet si besoin. Le chat perché (discuter) 9 octobre 2024 à 11:29 (CEST)[répondre]
Une bonne utilisation d'IA la rend presque indétectable, à part ceux qui l'utilisent n'importe comment et ceux qui annoncent qu'il l'utilisent, créer une liste d'utilisateurs concernés paraît utopiste. Actuellement l'un des meilleurs détecteurs, et parmi les plus fiables est Copyleaks (la plupart des autres sont des blagues qui ont des faux positifs et faux négatifs en surabondance), et c'est un projet commercial pour lequel l'utilisation sur du contenu français nécessite un abonnement. Mais sans outil du style, il parait difficile de repérer avec certitude un utilisateur. Global Donald (discuter) 9 octobre 2024 à 14:55 (CEST)[répondre]
Oui, c'est à la fois simple et compliqué. J'avance ainsi la comparaison avec un bug qui n'apparaît que dans une version et environnement et dans une opération précise (but attendu à partir de tel point de départ). Il serait aussi stupide d'ignorer le bug et le flop que d'en tirer des conclusions inconsidérément. Tout devrait se décanter au fil des mois et ce projet peut contribuer à avancer vers un ensemble de conclusions limitées et précises", mais sur deux niveaux (1. le déprécié. 2. l'appréciable). TigH (discuter) 9 octobre 2024 à 11:44 (CEST)[répondre]
On est d'accord, pour que ce projet soit efficient il faut avoir une vision binaire et pondérée. Je ne désespère pas non plus, et pour moi ce projet peut être l'endroit, encore une foi ça peut être une sous tâche, qu'on puisse aussi identifier des outils ou fonctionnalités d'IA à pousser à la WMF ou à mettre en place localement. Le chat perché (discuter) 9 octobre 2024 à 11:52 (CEST)[répondre]
Typiquement si on arrive à avoir une IA disponnible par défaut ou par paramétrage du compte qui sait aider à la recherche de sources ou à la synthèse ce serait un vrai plus. Le chat perché (discuter) 9 octobre 2024 à 11:54 (CEST)[répondre]
@Le chat perché La question est plus "de quelle manière est utilisée une IA" que "distinguer les différentes IA", ou savoir quelle IA a été utilisée. Les différences d'utilisation sont supérieures (de loin) aux différences entre les IA entre elles. Notamment, l'utilisation en production, ou en synthèse. Jean-Christophe BENOIST (discuter) 9 octobre 2024 à 11:57 (CEST)[répondre]
Pour ce qui fait consensus, nul besoin de subtilités en effet, et ce n'est pas l'objet de ce projet, par conséquent de cette discussion. TigH (discuter) 9 octobre 2024 à 12:07 (CEST)[répondre]
@Jean-Christophe BENOIST, personnellement je n'ai pas suffisament de recul pour en juger même si je suis d'accord que le "comment a été utilisé" est la première question, la plus importante.
Mais j'identifie quand même le danger lié à ce à quoi une IA a accès. Je te donne un exemple simple. Comme je l'ai dit mon entreprise utilise Microsoft Copilot. Cela dit notre version de Copilot n'est pas la version disponible pour le grand publique. D'une part pour se protéger des fuites de données mais aussi pour éviter de violer le droit d'auteur ou de risque le détournement d'images. Typiquement la fonctionnalité de génération d'image n'a pas la possibilité chez nous d'utiliser des photos qui ne sont pas dans le domaine publique. Si je lui demande de mé générer une image se basant sur Macron ou sur Mel Gibson il ne le pourra pas. Alors que si j'achète un pmack office pour mon PC perso Copilot le pourra. L'IA est le reflet de ce à quoi elle a accès et ce quel que soit le prompt que tu lui donnes.
Dans un autre domaine j'ai lu qu'un nouveau réseau social de type "twitter like" a été créé récemment et que ce RS n'a aucune modération. Si je transpose à l'IA, imagine la différence ente un Copilot ou un ChatGPT d'une part, et une éventuelle IA ayant accès sans contrôle au dark web (je grossis le trait mais ça me semble plus que vraissemblable que ça existe déjà).
Alors OK pour ce qui est de faire par exemple des fonctions de synthèses on est d'accord qu'il n'y a pas de sujet, pour ce qui est d'usage plus créatifs comme rédiger un article (fut ce à partir de source sélectionnée par avance) je suis moins affirmatif. Le chat perché (discuter) 9 octobre 2024 à 12:11 (CEST)[répondre]
Le problème dont tu parles est surtout pour la "production", c.a.d pour faire simple, générer beaucoup plus de texte que le prompt. En synthèse, c'est l'inverse : l'IA ne se fonde pas sur ses connaissances, mais sur les documents que tu lui donne (ou les copier/coller qu'il synthétise), et donc produit beaucoup moins que ce que on lui injecte. Donc c'est bien l'usage dont on parle, plus que la différence entre les IA. Moi je suis affirmatif : les IA ne devraient pas être utilisées en production, avec leur connaissances, en tout cas dans l'état actuel des choses. Jean-Christophe BENOIST (discuter) 9 octobre 2024 à 12:18 (CEST)[répondre]
@Jean-Christophe BENOIST on est tout à fait d'accord mais si ce projet a été monté c'est bien parce que justement aujourd'hui l'usage de l'IA dans Wikipedia ne se limite pas à la synthèse. Si c'était le cas ce projet n'aurait que très peu de raison d'être. Mais on est confronté à des rédaction entière d'article via IA. Et ce phénomène doit être appréhendé par la communauté et pas juste par le biai des mises en garde de contributeurs voir de blocage de comptes récalcitrants comme ça a déjà été le cas. C'est un des grands enjeux de ce projet. Le chat perché (discuter) 9 octobre 2024 à 12:23 (CEST)[répondre]
Il y a tant de choses formidables pour Wikipédia à faire avec les IA sans utiliser la production ! Mais évidemment, c'est l'usage le plus "paresseux" qui gagne, pas le plus formidable. Jean-Christophe BENOIST (discuter) 9 octobre 2024 à 12:27 (CEST)[répondre]
Une question concrète par rapport à l'organisation du projet : est-on d'accord sur le nom « Observatoire des IA », est-ce que ça qualifie le fond de manière acceptable pour l'instant ou y a-t-il d'autres propositions, p.e. faudrait-il rajouter « génératives » ? Fabius Lector (discuter) 9 octobre 2024 à 12:48 (CEST)[répondre]
Pour moi c'est OK. Comme ce sont les usages surtout qui sont à discuter, cela concerne toutes sortes d'IA, y compris d'autres à venir. Jean-Christophe BENOIST (discuter) 9 octobre 2024 à 14:10 (CEST)[répondre]
@Global Donald, pour l'heure, l'idée d'une information sur les utilisateurs concernés vise surtout pour moi à pouvoir inviter ces personnes à travailler le consensus sur les usages ou non-usages. Il y aura peut-être des questions de vandalisme à traiter (merci d'avoir indiqué le détecteur de CopyLeaks que j'ai mis en documentation générale) mais c'est plus un auto-contrôle qui me semble d'actualité, le temps de faire le point sur les questions. Fabius Lector (discuter) 9 octobre 2024 à 15:48 (CEST)[répondre]

Communication sur l'existence du projet

[modifier le code]

Bonjour, Je me ralie à ce que TigH a répondu sur le bistro quant à la communication en première intention. Le message sur le bistro suffit, innutile d'en rajouter ce qui pourrait être vu comme du rameutage. Par contre je suis favorable à de la communication par opportunité. Dit autrement mentionner le projet au détour d'une discussion sur les IA. C'est ce que j'ai fait, sobrement, ce matin suite à l'ouverture d'une section sur le WP:BULPAT suite à une suspicion de création d'article rédigé entièrement par une IA ( Wikipédia:Bulletin_des_patrouilleurs#Réf_"GPT_4"/"Bing"). Le chat perché (discuter) 9 octobre 2024 à 11:36 (CEST)[répondre]

Bonjour @Le chat perché,
j'ai quand même déposé quelques messages d'invitation sur des pages utilisateurs de personnes qui pourraient être mentionnées dans l'état des lieux des discussions et initiatives sur le sujet, ça me semble plus poli avant de faire état de leurs travaux/avis.
Le message :
Invitation au projet « Observatoire des IA »
Bonjour,
je me permets de vous signaler le lancement du projet « Observatoire des IA » (essentiellement IA génératives) dont je me suis dit qu'il pourrait vous intéresser vu que vous avez déjà participé à des échanges sur le sujet. Le projet est en phase de lancement avec des discussions sur son organisation à partir d'une proposition initiale de travail en 3 volets : documentation, projets de régulation, moyens de maîtrise des usages. Toute participation est la bienvenue.
Cordialement.
P.S. : il est possible que vous y soyez mentionné dans le cadre d'un état des lieux des discussions et initiatives sur le sujet. Fabius Lector (discuter) 9 octobre 2024 à 12:26 (CEST)[répondre]
Désolé pour le ping groupé, @Le chat perché, @PAC2, @Wikihydro, @Spartan.arbinger, @Kabsurde, @(:Julien:), @Jean-Christophe BENOIST mais une question : des annonces sur cette page avec les gens intéressés l'ayant en suivi suffisent-elles pour l'information ou y a-t-il d'autres moyens à mettre en place ?
J'y pense parce que j'avance en essayant de prendre en compte toutes les remarques mais je préfère avoir confirmation que ça va dans une direction collectivement admise, que tout le monde est bien au courant de ce que je fais, auquel cas l'absence d'objection peut suffire pour que je poursuive. Fabius Lector (discuter) 21 octobre 2024 à 21:09 (CEST)[répondre]
oui et même pas forcement besoin de ping Spartan.arbinger (discuter) 22 octobre 2024 à 09:39 (CEST)[répondre]

L'utilisation de ChatGPT pour rédiger et traduire des articles peut être totalement invisible.

[modifier le code]

Bonjour,

Je trouve l'idée de créer un espace de discussion autour des IA particulièrement intéressante. On m'a invité à partager mon avis et à contribuer, alors je profite de cette occasion pour le faire ici. L'utilisation de ChatGPT dans la création ou la traduction d'articles peut passer totalement inaperçue, tout dépend du soin apporté à l'élaboration des prompts et à la relecture. D'où l'importance de signaler les cas d'utilisation "bourrin" de l'IA ou d'un manque évident de relecture adéquate.

De mon point de vue, et je le considère même comme un fait, il est tout à fait possible de générer entre 95 et 100 % d'un article via ChatGPT sans que cela soit détecté. Contrairement à certaines idées reçues, l'ère des "hallucinations systématiques" générées par l'IA est derrière nous. Déjà avec GPT-4, ces erreurs se faisaient rares. Dans un cadre professionnel, j'utilise la version 4o avec des prompts spécifiques (c'est-à-dire des instructions données à l'IA pour ceux moins familiers avec le jargon technique), et bien que de nombreuses tâches ne soient pas encore automatisables, la rédaction d'articles pour Wikipédia peut l'être dans son entièreté (et je comprends que ça soit difficile à entendre). À moins que l'utilisateur fasse preuve de transparence sur son utilisation, je doute sincèrement qu'une utilisation raisonnée d'un utilisateur qui sait ce qu'il fait soit détectable. Sur 16 000 utilisateurs actifs par mois, je suis absolument certain qu'au moins 1% d'entre eux l'utilisent pour la rédaction.

À mes yeux, l'intérêt de signaler qu'un article a été rédigé ou traduit par l'IA n'est pas pertinent tant que le contenu est bien sourcé et vérifiable, comme c'est le cas avec ChatGPT, qui peut également fournir ces sources et même formater les références. Un bandeau devrait être réservé aux articles qui présentent des lacunes évidentes, que ce soit dans la qualité de la traduction ou de l'écriture. En revanche, imposer un bandeau "rédigé par l'IA" systématiquement, alors qu'un article pourrait tout aussi bien avoir été écrit par un humain, n'a pas vraiment de sens si le contenu est correct et vérifié.

Une suggestion toute simple que je propose, c'est de demander aux Wikipédiens utilisateurs d'IA de se déclarer sur une page dédiée, que ce soit pour de la simple reformulation, de la création d'infobox, ou pour des contributions à 80-100% assistées par IA. Afin de visibiliser l'initiative, un bandeau qui apparaitrait régulièrement sur la page d'accueil "Vous êtes assisté par une IA pour contribuer sur Wikipédia ? Déclarez.vous", ou quelque chose comme ça, pourrait aider en ce sens. Global Donald (discuter) 11 octobre 2024 à 03:02 (CEST)[répondre]

A mon avis, si les générations sont réellement indétectables, alors l'utilisateur n'aura aucun intérêt à se déclarer, cela ne pourra que lui attirer des ennuis. Je pense que tout ce que peut faire l'observatoire, c'est de donner des "guidelines" et recommandations : au moins l'utilisateur sait ce qui est autorisé, encouragé, découragé ou interdit par la communauté. Après, on juge l'arbre à ses fruits, et s'ils sont mauvais ou pas terrible et qu'il est fortement soupçonné d'utiliser l'IA, qu'il se soit déclaré ou non cela revient au même.
Car à mon avis, un utilisateur qui utilise l'IA en génération est détectable, au moins par le rythme de ses contributions "non naturel", contribution "en gros bloc" sans fautes typographiques, pas ou peu de peaufinage ou de repentir, etc.. Et je demande à voir un article correctement sourcé entièrement généré par IA (je ne parle pas de synthèse), même si cela peut arriver un jour en effet. Jean-Christophe BENOIST (discuter) 11 octobre 2024 à 08:56 (CEST)[répondre]
De mon côté, deux questions que je poserais pour favoriser la pertinence des recommandations :
  • quelles sont les motivations ? Quantitatif, augmenter le volume de l'encyclopédie ? Qualitatif, améliorer la qualité de ce qu'on ferait sans aide ? Faire ni plus ni mieux mais avec moins d'efforts ? Autre ?
  • comment ça s'inscrit dans la construction communautaire de l'encyclopédie ? Est-ce que ça correspond à une représentation orientée vers l'objectif sans trop se soucier de la place de l'humain dans sa réalisation ? Cet article (en anglais) dit que c'est le débat entre contributeurs qui permet la fiabilité, ça me semble clair dès qu'on sort du « bêtement » factuel, mais même hors de cette question pratique, qui est intéressé par une collaboration entre humains ?
P.S. au passage : on a eu le cas d'un utilisateur qui a été bloqué et je me demande combien vont vouloir simplement jouer au test de Turing pour voir si on les détecte, entre canular et vandalisme. Fabius Lector (discuter) 11 octobre 2024 à 15:44 (CEST)[répondre]
Que la contribution soit faite par un humain ou IA, on peut toujours contester - le cas échéant - les Proportions ou la pertinence de la contribution. Cela ne change pas les débats et la construction communautaire.
Sinon pour "plus ou mieux", je constate que une grande force de travail, et beaucoup de contributeurs est consacrée aux articles d'actualité. J'ai même l'impression : une majorité, alors que cela devrait être 0%. Il y a un manque criant de "bras" sur les articles de fond, où on se retrouve souvent seul, et qui restent incomplets et souvent de faible qualité. Donc oui si on peut faire plus ET mieux sur les articles de fond avec l'aide des IA, cela peut contrebalancer ce fâcheux état des lieux. Jean-Christophe BENOIST (discuter) 11 octobre 2024 à 15:55 (CEST)[répondre]
Moi, par contre, j'ai un point de vue un peu différent. Je n'ai aucun souci à ce que des contributeurs utilisent l'IA en back office pour préparer des articles. Ceci étant dit pour l'avoir fait, en guise de test, avec Maria Beasley, ce ne fut pas concluant et le plaisir de la création en fut entaché. En revanche des IA maitrisant le wiki code, je les ai déjà utilisées pour créer de fastidieux tableaux par exemple en les réalisant sur excel et en leur demandant de me donner le code wiki. J'ai également eu à constater des hallucinations totales en matière d'entrées bibliographiques (inventions pures et simples). Ma position est désormais de dire : si utilisation d'IA, il est impératif de le signaler (les modèles ad hoc devraient être créés) ET le mieux serait encore de proscrire l'usage d'IA en tant que générateur de contenu sur WP (sauf en back office et pour des points de détail vérifiés ensuite par le contributeur, comme je le mentionnais, donc ne devant pas faire l'objet d'une déclaration). Demain, l'IA sera en mesure de produire bien mieux que nous des contenus totalement crédibles au format WP. La spécificité de WP sera alors de pouvoir dire made by humans et si nous ne sommes plus alors en mesure de le faire parce que déjà trop vérolé par l'IA... Eh bien ceci sonnerait le glas de WP. Bien à tous, — adel 11 octobre 2024 à 16:33 (CEST)[répondre]
Si c'est que pour la conversion de tableaux, il y a des outils en ligne qui font ça avec probablement beaucoup moins d'énergie que les IAs, je tombe sur cette url au hasard en cherchant viteuf' : https://tableconvert.com/html-to-mediawikiTomT0m [bla] 11 octobre 2024 à 16:50 (CEST)[répondre]
bon, ben on peut complètement s'en passer alors Sourire diabolique, — adel 11 octobre 2024 à 16:55 (CEST)[répondre]
Je pense que c'est au niveau du sourçage que la visibilité est la plus évidente: j'ai vu passer des tentatives de texte avec IA mais le sourçage péchait.
Par contre, la communauté a intérêt à mettre plus d'attention sur la qualité du sourçage car l'édifice Wp tient plus que jamais, à mon sens, sur cette clé de voûte.
Rien n'empêche des esprits malins de faire des pages entières par IA et de mettre des sources pseudo-secondaires rémunérées très "propres sur elles", comme on en voit fleurir à l'envi, l'ensemble s'intégrant dans une stratégie promotionnelle. Limfjord69 (discuter) 11 octobre 2024 à 18:57 (CEST)[répondre]
Mais nous pouvons empêcher des sourçages approximatifs voire frivoles en durcissant un peu le ton (et en blacklistant les sources impropres de manière plus drastique), WP en a l'étoffe désormais et la plus-value de WP, c'est justement nous. — adel 11 octobre 2024 à 19:06 (CEST)[répondre]
Au passage, une synthèse des positions est en cours à partir de cette liste de discussions et initiatives et le post de @Global Donald me rappelle qu'il faudra sans doute y intégrer la comparaison avec les outils de traduction que j'ai déjà vue ailleurs.
Personne ne conteste ces outils alors qu'ils ont des défauts en commun avec les IA génératives vu qu'ils facilitent l'importation de contenus peu vérifiés avec une rédaction parfois mauvaise. C'est d'ailleurs un des reproches que j'avais fait à l'article Intelligence morale créé par Global Donald, j'ai posé la même question de qualité pour une série d'articles sur la schizophrénie venus de la version anglophone et il m'est déjà arrivé d'abandonner une traduction parce que l'article original n'était pas bon.
En fait, je me demande si la question des traductions automatisées ne devrait pas être intégrée au sujet par-delà celle des IA génératives. Fabius Lector (discuter) 11 octobre 2024 à 21:17 (CEST)[répondre]
Salut, je ne sais pas si les modèles de détection de contenu généré par un LLM vont s'améliorer pour permettre de mieux détecter si un contenu a été généré par une IA ou un humain, ou si au contraire les LLM vont devenir indétectables. Mais c'est peut-être pas la meilleure façon de regarder la question.
La qualité du texte fait chier (surtout dans les traductions auto) et il faut retaper des articles face à des utilisateurs qui créent des pavés en 2 minutes. Et comme personne n'a l'idée d'interdire les traductions auto, le problème restera. Donc notre seul espoir du côté rédaction c'est d'avoir de meilleurs modèles de traduction (ou des outils auto de réécriture de traductions). L'un comme l'autre c'est pas vraiment de notre ressort. Si c'est détecté, on peut agir (quitte à bloquer), si la prose est indétectable bah osef. J'ai rien contre l'intégration de la dimension traduction dans le projet (comme tu le proposes Fabius Lector), mais je pense qu'il faut pas juger de l'outil (trop difficile) mais du résultat produit (ce que dit aussi Jean-Christophe BENOIST).
Le truc qui me fait vraiment chier, c'est ce que disent Pa2chant et Limfjord69 (si j'ai bien compris, même s'ils sont plus polis), c'est l'adéquation entre le contenu textuel (qui peut être très agréable à lire comme dit Global Donald) et les sources citées. C'est la base de notre projet. Je classe dedans le travail de Madelgarius sur les fermes de liens. C'est là qu'il faut un outil de vérification de l'adéquation entre texte et contenu des sources (j'ai déjà vu un papier là-dessus, faut que je le retrouve). Je pense que ça peut le faire soit contre la base générale de connaissance (le train des LLM), soit avec un RAG uniquement sur le contenu des sources. On a déjà ce problème sans LLM, j'ai vu des personnes copier-coller des sources en chinois sans pour autant comprendre le chinois… c'est juste que la source était dispo soit sur en:, soit sur zh: et roule-roule, je recopie. Mais avec genAI, on risque de perdre cette chaîne de transmission du savoir (isnad, oué, on n'est pas les premiers) et c'est notre rôle de la conserver. Bonne journée, (:Julien:) 21 octobre 2024 à 15:16 (CEST)[répondre]

Nouvel essai

[modifier le code]

J'ai initié un essai sur Wikipedia et les LLMs : Wikipédia:Wikipédia et les grands modèles de langage. PAC2 (il/lui) (discuter) 13 octobre 2024 à 21:52 (CEST)[répondre]

@PAC2, je l'ai rajouté dans la liste de l'existant, dans la catégorie Sur l'avenir et les principes de Wikipédia qui me semble y correspondre par rapport aux autres.
J'ai avancé sur la synthèse et notamment en résumant l'essai anglophone Large language model et comme je disais plus haut à Pa2chant.bis, on a l'essai Intelligence artificielle qui lui est lié mais qui a dérivé vers du conseil pratique, et je suis d'avis qu'on devrait avoir quelque part l'équivalent de l'anglophone pour se rapprocher d'une règle/recommandation sur les usages/non-usages.
Mais de ce que je saisis du tien, il est plus orienté sur des questions de principe évoqué en début de synthèse et donc ça pourrait être complémentaire. On pourrait notamment y rajouter les positions prises par la WMF sur le sujet.
P.S. : demain je devrais faire une proposition de révision de l'organisation pour prendre en compte les remarques de Pa2chant.bis qui trouve que le projet n'est pas assez clair. Cf. mon brouillon où je m'oriente sur le premier menu pour 3 pages correspondant aux 3 volets du plan de travail et une terminologie plus directe. Fabius Lector (discuter) 14 octobre 2024 à 22:14 (CEST)[répondre]

Révision de l'organisation

[modifier le code]

Suite aux remarques de @Pa2chant.bis plus haut et mes avancées sur la synthèse de l'existant, je modifie les onglets pour :

  • une terminologie plus directe sur les objectifs ;
  • une tripartition correspondant au plan de travail avec :
    • « Règlementation » qui pour l'heure renvoie vers la section Définir des règles et recommandations mais aurait sa page dédiée (<= renommage de IA sur Wikipédia). La visée est d'y présenter les principes, règles et recommandations liées aux IA avec en attendant les essais correspondant, particulièrement l'anglophone en:Wikipedia:Large language models pour la génération de texte qui serait à reprendre parce qu'il a pour moi l'essentiel de ce dont on a besoin sur le sujet ;
    • « Contrôle », qui pour l'heure renvoie vers la section Maîtriser les usages, espace rédactionnel mais aurait sa page dédié (= nouvelle page Contrôle). La visée se rapprocherait du projet anglophone WikiProject AI Cleanup mais faudrait voir jusqu'à quel point on a envie de participer d'une reprise d'articles à problèmes comme ils semblent être prêts à le faire. Note : j'ai cherché un mot simple et « Contrôle » m'a semblé l'intermédiaire adéquat sur un spectre gestionnaire/policier du type « Gestion », « Maîtrise », « Contrôle », « Patrouille » .
    • « Documentation », pas de changement mais je le mets en 3e position pour marquer l'aspect secondaire de l'objectif qu'on n'aille pas vers du catalogue de logiciels et tutoriels d'usage.
    • Les discussions viennent ensuite, le projet, la règlementation (pour leur celle de IA sur Wikipedia mais irait vers future page correspondante) et «Signaler un usage» (future page «Contrôle») pour insister à nouveau sur le côté contrôle/patrouille.

Sauf objections ou proposition alternative, je ferai rapidement la scission et renommage de IA sur Wikipédia avec quelques modifications de la présentation du projet en accueil pour adapter à la nouvelle organisation.

P.S. au cas où, ping aux inscrits : PAC2, Le chat perché, Wikihydro, spartan.arbinger - Fabius Lector (discuter) 15 octobre 2024 à 16:26 (CEST)[répondre]

Lu et approuvé. Le chat perché (discuter) 15 octobre 2024 à 16:51 (CEST)[répondre]
J'ai fait la révision et j'invite plus compétent que moi à vérifier que c'est techniquement correct, p.e. j'ai fait du renommage en laissant des redirections par prudence mais c'est peut-être à nettoyer :
Fabius Lector (discuter) 17 octobre 2024 à 08:33 (CEST)[répondre]
Question d'ergonomie sur les discussions : 3 pages de discussion sont indiquées dans le menu d'onglets, mais tous les thèmes commence à apparaître sur « Discussion du projet » et il y a peut-être à être plus clair ou à abandonner l'idée d'une telle orientation.
Ci-dessous, 3 propositions d'évolution :
  1. un seul renvoi titré « Discussion du projet », on verra à l'usage comment sont utilisées (ou pas) les autres pages de discussion ;
  2. deux renvois « Discuter l'organisation du projet » et « Discuter usages et règles », on met de côté pour l'instant les signalement pour simplifier ;
  3. trois renvois : « Discuter l'organisation du projet », « Discuter usages et règles », « Signaler un usage », on garde le signalement pour voir si des gens s'en servent.
  4. autre proposition : si vous avez d'autres idées
Là, je voterais pour l'option 2 pour rester le plus simple possible tout en distinguant deux choses différentes à caler : l'aspect interne au projet avec l'organisation des participants et l'aspect externe avec les usages généraux, qu'on participe ou pas au projet. Fabius Lector (discuter) 20 octobre 2024 à 13:36 (CEST)[répondre]

Analyse qualitative du sondage du 28 janvier 2024 sur les IA génératives

[modifier le code]

Bonjour @Fabius Lector, j'ai vu que tu citais parfois le Sondage 28-01-2024, Intelligence artificielle générative avec la mention "Analyse qualitative à faire". En allant consulté le sondage, je suis tombé sur une première analyse qualitative en page de discussion du sondage qui me semble déjà suffisamment riche pour être un apport au débat. Bien cordialement Gisyd (discuter) 16 octobre 2024 à 20:18 (CEST)[répondre]

Merci, je l'avais ratée. Je l'ai indiquée en disant qu'on pourrait la valider et la passer en sous-page des résultats du sondage. Fabius Lector (discuter) 17 octobre 2024 à 07:56 (CEST)[répondre]

Quelque Banalité pour commencer

[modifier le code]

1. Faire connaitre le projets Il me semble important d'aller "au front" sur ce sujet, de provoquer discussion et débat ainsi que d'utiliser 2 outil qui nous permettrai de parler du projet et ainsi d'augmenter la presence d'intervention, et donc de solution :

  • Creer un bandeau "Attention, ce contenu a très certainement été généré en partie ou totallement par l'IA, n'hesiter pas a le rendre plus "human friendly" en améliorant son plan, en supprimant les répétition et en réécrivant les paragraphe qui vous semble mal rédiger" ou un truc dans le genre
  • Militer pour demander une transparence : ce n'est pas honteux de s'aider de l'IA, mais savoir qu'un article a été rediger a l'aide de cette outil permet une plus grande vigilance.

2. Comprendre les erreurs Si on ne retrouve plus, ou presque, ce que l'on appelait, par abus de language, des artefact IA dans les texte généré, certaines erreur sont tres presente, par nature :

  • Les repetitions de termes (Du a la partie prédictive des ia generative, qui va préféré les termes les plus explicite)
  • La mauvaise disposition des source avec la phrase relié (probleme de mise en forme du a la génération linéaire)
  • Le sentimentalisme, le changement de ton d'une phrase à l'autre (Pour passer certain detecteur d'ia, l'ia ment en etant emphasique, voire publicitaire sur certain sujet)

Déjà, si un travail de maintenance est fait sur ces chose la on gagne en qualité, IA ou pas.

Il existe pas encore de boite utilisateur "Je m'aide de l'IA", "je suis contre l'utilisation de l'IA", "je participe au projet:Observatoire de l'IA" ?

Pardonnez les fautes d'orthographes, je suis vraiment terrible sur ce sujet. Kabsurde est ici 18 octobre 2024 à 20:12 (CEST)[répondre]

On pourrait aussi creer des "Patrouille" par sujet
Par exemple, je suis caviste et assez renseigner sur le vin, je pourrais m'occuper de "patrouiller" sur les article du portail vigne et vin Kabsurde est ici 18 octobre 2024 à 20:26 (CEST)[répondre]
Bonjour, @Kabsurde, quelques remarques :
  • faudrait compléter mais il y a déjà des modèles, cf. par ici Développement de moyens techniques avec
  • pour le suivi, ce serait sans doute des catégories qu'il faudrait utiliser comme font les anglophones sur le projet WikiProject_AI_Cleanup. De nôtre côté, sauf erreur, on n'a pour l'instant que Catégorie:Page comportant une illustration générée par une IA. Faudrait en créer d'autres adaptées à la génération de texte et peut-être d'autres usages (p.e. par ici une utilisatrice indique un usage pour de la traduction et faudrait voir si c'est autre chose que du Google Translate ou DeepL et si ça nécessite d'être indiqué vu qu'elle fait des articles de qualité). Je n'ai pas l'expérience de gestion de catégories mais a priori ce n'est pas compliqué.
  • pour la communication : je pense que le plus simple sera de communiquer sur les outils concrets pour « tagger  » des articles (modèles et catégories) quand une discussion parlant d'IA est lancée sur le bistro et en voyant du côté du Bulletin des patrouilleurs et du Bulletin des administrateurs pour qu'ils soient connus. Mais tant qu'on ne détectera pas de problème important, le plus compliqué sera sans doute de motiver du monde à avancer sur une règlementation et encore plus à re-travailler des articles si il n'y a pas prohibition. De leur côté, les anglophones ont catégorisé de 1 à 40 articles suspects par mois depuis un an et ça explique peut-être qu'ils aient 80 participants au « nettoyage ».
Fabius Lector (discuter) 19 octobre 2024 à 14:36 (CEST)[répondre]
Catégorie « Suspicion IA Générative »
à apposé dans le bandeau des catégorie sous cette forme Kabsurde est ici 19 octobre 2024 à 14:55 (CEST)[répondre]
Sous cette forme : {{Catégorie|Suspicion IA Générative|majuscule}}
Il faudrait, en parrallèlle, créé des exemple et des critère, j'ai mis des critère bateau mais peut être faudrait-il en ajouter, modifier, supprimer Kabsurde est ici 19 octobre 2024 à 15:01 (CEST)[répondre]
Faut juste creer un modele, ou en modifier un pour que quand on utilise un modele Bandeaux, alerte ou autre, on relie la categorie directement Kabsurde est ici 19 octobre 2024 à 15:06 (CEST)[répondre]
Je viens de faire un test avec AIDetector et c'est flagrant:
https://fr.wikipedia.org/wiki/Andrea_Bruno = 91 % IA Kabsurde est ici 19 octobre 2024 à 15:29 (CEST)[répondre]
Un problème possible est que les IA sont entrainées sur WP (entre autres, mais le corpus est important) donc les IA peuvent employer un style wikipédien mais qui est aussi employé par des humains. Donc les taux de faux positifs de ces outils auront tendance à être supérieur sur WP que dans d'autres contextes. Jean-Christophe BENOIST (discuter) 20 octobre 2024 à 10:02 (CEST)[répondre]
Et sinon on peut commencer par
Il existe l'extension de navigateur Qui a écrit cela ? qui permet de montrer quand un passage a été introduit dans un article et qui l'a écrit. L'idéal serait de croiser les outils sur l'IA avec cela comme première vérification.
On me la conseiller pour eviter les faux positif Kabsurde est ici 20 octobre 2024 à 11:22 (CEST)[répondre]
Trois points rapidement :
  • j'ai lancé le sujet sur la création de catégories pour qu'on organise tout ça ;
  • au niveau communication : faudrait lancer un sujet dédié pour mettre au point des messages standards à utiliser et notamment voir ce qu'on peut faire sur le principe de Messages à déposer sur les pages de discussion des utilisateurs. Poser simplement "Suspicion d'utilisation d'IA" en discussion d'un article me semble trop abrupt, il faudrait au minimum expliquer que c'est lié à ce projet-ci et qu'on invite chacun a donner ses positions, notamment pour des contributeurices expérimentés comme ici. Pour l'heure, il n'y a pas de règle/recommandation dédiée organisant des principes de « patrouille » et je pense qu'on doit éviter de braquer les gens en collant sans explication des étiquettes de suspicion. Un truc minimal qui fonctionnerrait aussi avec une catégorie dédiée : indiquer dans le résumé des modifications que c'est lié au projet avec lien vers la page de discussion Contrôle pour qui voudrait expliquer ce qui a été fait. Ça apparaît dans l'historique et ça permet d'expliquer rapidement pourquoi on a fait ça ;
  • je ne compterais pas trop sur les développement technologiques pour l'instant, gadgets et autre, vu que d'après la présentation ci-dessous il y a déjà des soucis à régler avec les détecteurs.
Fabius Lector (discuter) 20 octobre 2024 à 17:04 (CEST)[répondre]

Études sur l'utilisation des IAs dans les nouveaux articles

[modifier le code]

Dans le The Signpost (d) Voir avec Reasonator du moment, une étude sur l'utilisation de l'IA sur la wikipédia en anglais mais aussi en français dans les textes des nouveaux articles, cf. l'article (en anglais bien sûr).

Le résumé met en lumière de l'étude les motivations pour l'utilisation des IAs. Du "bon", comme l'écriture d'article bien rédigés par des gens qui savent de quoi ils parlent, avec un résultat sourcé, et du moins bon, comme l'autopromotion ou le poussage de point de vue. Aussi utilisé, sans surprise, pour la traduction.

Dans une précédente édition une recherche sur des articles sur les gènes était aussi ressortie, dans un cadre contrôlé et en synthétisant des articles de qualité, les IAs obtenaient des résultats jugés plutôt meilleurs que l'existant dans ce domaine. L'aspect automatique était cherché parce que le travail ne manque pas dans ce domaine, il y a plein de gène et plein de recherches et évidemment la synthèse des conclusions est d'intérêt pour toute la communauté. Synthèse … inédite ?

Les rédacteurice(s?) du SignPost font ensuite une lecture critique de l'article, en mettant notamment comme point faible : l'absence de bonne mesure de la qualité du résultat de l'échantillon, à part de fait que de nombreux éléments ont reçus des bandeaux d'alerte comme "l'article ne cite aucune source", des critiques sur la fiabilité des outils de détection, des critiques sur la méthodologie (en particulier, les données publiées ne permettent pas de répliquer les résultats).

D'intérêt pour le projet, il y a aussi d'autre articles sur le sujet dans la revue de littérature de la page. — TomT0m [bla] 19 octobre 2024 à 15:10 (CEST)[répondre]

Merci. Je l'ai indiqué en documentation générale.
Au passage, les avis sont les bienvenus sur cette question d'ergonomie pour l'organisation (ou non-organisation...) des discussions. Fabius Lector (discuter) 20 octobre 2024 à 13:40 (CEST)[répondre]

Futurs usages

[modifier le code]

J'utilise souvent l'IA générative pour les traductions (les traductions de ChatGPT conservent mieux le sens et sont moins littérales que celles de l'outil automatique de Wikipédia) et pour des vérifications de grammaire et reformulations superficielles (ChatGPT trouve souvent des formulations plus claires et moins verbeuses).

J'estime que l'IA générative a fait d'énormes progrès ces dernières années, notamment en termes de réduction des hallucinations, de compréhension des sujets, et de taille de fenêtres de contexte. Les progrès ne vont pas soudainement s'arrêter là. Des entreprises comme OpenAI parlent même d'"agents d'IA", potentiellement d'ici l'année prochaine.[1] En gros, des chatbots comme ChatGPT qui peuvent accomplir une série de tâches. Un exemple radical serait de pouvoir à la fois analyser les problèmes dans un article, chercher des sources, les synthétiser, formater, et proposer à l'utilisateur de publier la modification.

Supposons que la qualité du contenu généré soit au moins aussi bonne que celui du contributeur moyen. J'ai tendance à penser que la qualité des articles pour les lecteurs devrait être le souci premier, et que si l'IA générative améliore la qualité, tant mieux, autant l'exploiter. Mais en même temps, le fait de pouvoir générer beaucoup de contenu avec peu d'efforts a de quoi mettre mal à l'aise. Qu'en pensez vous? Est-ce que ça vous paraît encore trop lointain pour valoir le coup de l'envisager? Alenoach (discuter) 19 octobre 2024 à 20:23 (CEST)[répondre]

Nous verrons le jour où cela arrivera, et si cela arrivera. Je pense qu'il ne faut pas compliquer le débat par des spéculations, et des dissertations philosophiques sur les différences entre une AGI et l'esprit humain, car c'est à ça que cela revient. Jean-Christophe BENOIST (discuter) 19 octobre 2024 à 20:29 (CEST)[répondre]
Pour le coup, la ou nous devons nous concentrer c'est sur 2 chose :
  • Alerter sur les article ou l'utilisation de l'IA est poussive
  • Patrouiller pour détecter et corriger les erreur, artefact et synthèse inédite produite à l'IA
  • Je continue à militer pour la transparence : cela n'a rien de honteux de généré du contenue en s'aidant de l'IA, mais il faut le signaler, afin que les autre puissent etre plus vigilant sur les article en question
Comme toi, je pense qu'il faut d'abord voir le probleme par l'oeil de l'utilisateur de wp Kabsurde est ici 20 octobre 2024 à 11:26 (CEST)[répondre]
Dans les positions que je suis en train de synthétiser, on voit aussi que si on ne prend en compte que la satisfaction du lecteur, alors à terme, l'existence même de Wikipédia peut être mise en question avec le retour des encyclopédies privées/privatisées vu qu'un combo IA/expert rémunéré se contentant de valider les articles à la chaîne pourrait être plus satisfaisant pour le lecteur (et il ne m'étonnerait pas qu'un certain techno-milliardaire y pense[2]).
Par contre, si la raison d'être de Wikipédia est de garder vivante une communauté de bénévoles pour la réalisation collective d'une encyclopédie, alors c'est à cette communauté de décider de la place qu'elle donne aux outils par rapport à l'humain, serait-ce dans l'acceptation d'une réduction de l'efficacité. C'est un peu le slogan de la WMF : Knowledge is human (cf. cette version archivée mentionnant les IA).
Au passage : les avis sont les bienvenus sur cette question d'ergonomie pour l'organisation (ou non-organisation...) des discussions, voir si il faut changer le menu du projet pour distribuer les sujets. Fabius Lector (discuter) 20 octobre 2024 à 14:13 (CEST)[répondre]
Avis pris en compte. Il faut que je réfléchisse plus en profondeur sur le sujet. Kabsurde est ici 22 octobre 2024 à 18:06 (CEST)[répondre]

Création de catégories

[modifier le code]

Proposition révisée 28/10/2024, usage de l'existant pour l'instant :

L'indentation correspond à une organisation catégorie/sous-catégorie, les liens bleus/rouge à de l'existant/à créer :

Première proposition

Méthodologie d'usage :

  • les catégories de suspicion (ou possibilité) sont pour indiquer qu'il y a enquête à mener, voir déjà si il y a problème ou pas.
  • celles indiquant une présence de contenu générées seraient utilisable à simple titre d'information si il est décidé qu'il n'y a pas de problème (on n'a pas de règlementation donc, je ne sais pas trop quel niveau d'acceptabilité est à avoir pour l'instant)

Questions techniques :

  • si j'ai bien compris, l'arborescence se fait simplement en indiquant la/les catégorie(s) mère(s) dans la catégorie fille donc on peut réorganiser assez facilement tant qu'il n'y a pas de pages déjà catégorisées ;
  • il n'y a pas grand chose d'indiqué comme convention sur les titres, j'ai évité les caractères spéciaux et toute simplification sera sans doute appréciable.

P.S. : je vais laisser un message en discussion du projet Catégories pour leur indiquer ce sujet pour qui voudrait faire des remarques. P.P.S. en passant : je rappelle que le projet concernerait aussi les images, cf. du côté anglophone leur page sur les images où ils choisissent de les garder ou les supprimer et sinon il y a un cette question d'ergonomie à voir pour l'organisation des discussions. Fabius Lector (discuter) 20 octobre 2024 à 16:03 (CEST)[répondre]

Il y a un truc a éclaircir absolument avant de mettre en marche ces catégories. Si l'article visé possède des problèmes de pertinence, de véracité, de TI, d'absence de sources.. alors il existe déjà les bandeaux et catégories associées. Si l'article ne possède apparemment aucun de ces défauts, mais est soupçonné ou convaincu d'IA, alors OK pour ces catégories, car rien n'existe. Mais sinon il faut poser d'abord les bandeaux habituels, éventuellement en précisant dans les commentaires du bandeau qu'il y a suspicion d'IA, mais pour moi cela suffit. Il n'y a aucune raison de sortir ces articles du système habituel de contestation de pertinence, ou faire un système parallèle pour l'IA, cela disperserait les efforts. Jean-Christophe BENOIST (discuter) 20 octobre 2024 à 16:55 (CEST)[répondre]
L'information sur les usages et les problèmes éventuels sont pour moi deux choses différentes : quand on indique qu'un article est la traduction d'un autre Wiki, on donne juste l'information en lien avec la traçabilité des auteurs, indépendamment des problèmes et idem ici, on indique juste qu'on suspecte ou qu'on sait qu'une IA est à créditer dans les auteurs, quelle que soit la qualité finale.
Et dans cette idée, c'est pour ça que la catégorie « Utilisateur certifié d'IA » me semble beaucoup plus discutable vu qu'il ne s'agit plus là de ce type d'information. D'ailleurs, je me dis maintenant que si elle était adoptée, elle pourrait être plutôt « Utilisateur certifié d'IA par l'Observatoire », en sous-catégorie de celle du projet, pour qu'il soit clair que c'est simplement le projet qui indique qu'il fait confiance à la personne.
En complément, cf. cette réponse à Kabsurde sur des points de communication à traiter pour éviter de braquer les gens avec un étiquetage de suspicion. Fabius Lector (discuter) 20 octobre 2024 à 17:29 (CEST)[répondre]
Mais "L'information sur les usages" risque de se substituer aux problèmes, surtout si dans l'esprit de leur utilisateur, c'est un problème en soi. L'indication de traduction n'a aucune connotation, et est là surtout pour des problèmes de license CC-BY. Nous verrons. Jean-Christophe BENOIST (discuter) 20 octobre 2024 à 17:47 (CEST)[répondre]
Pour info, autocritique : j'ai rajouté l'option « possibilité » plutôt que « suspicion » et ça me semble préférable dans un premier temps pour éviter le côté agressif de la suspicion. Fabius Lector (discuter) 21 octobre 2024 à 16:24 (CEST)[répondre]
Pour info (bis) : Modification des catégories proposées en lien avec un projet de charte. Fabius Lector (discuter) 21 octobre 2024 à 20:38 (CEST)[répondre]
Euh je ne comprend pas ceci : « on indique juste qu'on suspecte ou qu'on sait qu'une IA est à créditer dans les auteurs, quelle que soit la qualité finale ». Ou plutôt peut être je n'aurais pas utilisé le verbe "créditer". Il ne s'agit pas de créditer à proprement parler l'IA car d'un point de vue du fonctionnement wikipedien le crédit d'auteur est relatif aux comptes ayant publié et modifié un article. Le reste, par exemple pour une citation, c'est de l'ordre du sourçage. Une IA qui produit un contenu suite à un prompt ne dispose pas de droit d'auteur sur son résultat. Ce dont il peut être question c'est d'indiquer dans l'article qu'une IA a été utilisée pour aider à la rédaction, mais ce n'est pas, désolé d'être tatillon, du crédit d'auteur.
Par ailleurs je rejoins JCB sur le fait de ne pas faire de confusion sur les rootcauses de problématiques. Si la problématique relève d'un type de bandeau déjà existant, c'est ce bandeau qui doit être mis en place et cette problématique sui doit être réglée en priorité. Par exemple si un article est promotionnel c'est ça l'information principale qui doit figurer. Le fait de relever une problématique liée à une possible contribution par IA ne doit pas un être un "annule et remplace" des autres sujets d'amélioration.
Je suis d'accord aussi, si je synthétise un peu votre échange, pour dire qu'il faut travailler sur un langage qui ne soit pas accusatoire. On doit pouvoir embarqué avec nous les utilisateurs d'IA et non leur donner l'impression qu'on les cible ou qu'on les désigne comme des problèmes. Le chat perché (discuter) 23 octobre 2024 à 11:31 (CEST)[répondre]
Oui, j'ai fait la comparaison avec le crédit d'auteur non pas pour dire qu'il faut considérer les IA comme auteur mais pour le principe de transparence comme quand on indique qu'on a traduit à partir d'un autre Wiki même si on a ensuite beaucoup changé l'article et qu'il ne reste parfois pas grand chose de l'article original.
Sinon, suite à cette discussion avec Jean-Christophe BENOIST, je suis en train de revoir assez en profondeur le projet de charte d'usage responsable qui a justement pour objectif d'amener à la mobilisation volontaire pour éviter le côté « accusatoire » voire punitif.
J'espère pouvoir proposer la nouvelle mouture ce soir sur la base de l'adhésion à 4 principes (légalité, prudentiel (faire attention), responsabilité personnelle (ne pas déléguer le règlement des soucis à la communauté) et transparence) avec leurs déclinaisons concrète à voir, p.e. savoir sur quoi il y a nécessité de transparence et les modalités de mise en œuvre de celle-ci (indication en résumé de modif', catégorisation ou pas, bandeaux, modèles etc.). Fabius Lector (discuter) 23 octobre 2024 à 12:47 (CEST)[répondre]
@Fabius Lector, non ça ne n'est la même chose que le fait d'indiquer que l'article est traduit d'une autre version linguistique. Par ce que dans ce cas de figure précisément la raison majeure, la seule vraie qui soit importante, est bien de créditer les auteurs de la version dans la langue d'origine. Parce que c'est une obligation légale. Wikipedia a beau être sous licence libre les rédacteurs conservent un droit d'auteur, mais le conteny étant sous licence libre ils ne peuvent en revendiquer rémunération. Raison pour laquelle un site externe qui copie Wikipedia sans créditer Wikipedia est dans l'illégalité.
Mais je pense qu'on se comprend Émoticône. Le chat perché (discuter) 23 octobre 2024 à 13:36 (CEST)[répondre]
Bonjour. Je ne comprends pas la notion d'"utilisateurd'IA certifié par l"Observatoire". Si on parle IA générative, on sait que les résultats produits ne sont pas au niveau. Donc soit un utilisateur l'utilise quand même, mais passe du temps à vérifier les sources et à retravailler/vérifier le contenu produit, au point que cela ne se voit pas, et dans cas la question ne se pose pas ; soit ce travail de vérification/réécrityure n'est pas abouti, et il n'y a alors aucune raison de lui donner une imprimatur. Et cela risquerait d'être ressenti comme "L'IA est interdite sauf pour une petite coterie qui s'assiste dans son entre-soi". Voire comme "La génération de texte par IA est autorisée, mais musclez-vous pour avoir une imprimatur.
Concernant les doublons/substitution avec les autres bandeaux, je pensais l'avoir dit, mais il peut y avoir des cas où on pressent que quelque chose ne va pas, que c'est généré par IA, sans pouvoir mettre le doigt dessus. Des catégories/bandeaux spécifiques sont adaptées, car vérifier un texte écrit par une IA est un travail bien spécifique : il faut se faire une idée de l'état de l'art sur un sujet donné, vérifier le contenu des sources, l'absence d'interprétation, le poids respectif s'il s'agit d'un article présenté comme complet ; et enfin vérifier que le style ne comporte pas trop de formules stéréotypées ou hagiographiques façon ChatGPT. On pourrait remplacer par une combinaison de TI +à vérifier + style non encyclopédique, mais cela me parait contre productif (il n'est pas possible ici a priori de donner un exemple d'un point qui serait à vérifier, ou de ce qui serait un TI).
Pour les noms de catégorie, on privilégie en général des noms assez courts. Ici cela pourrait être "Image potentiellement générée par IA", ou pour un contenu de type texte "Possiblement généré par IA".
Pour l'arborescence des catégories, oui, c'est exact. --Pa2chant.bis (discuter) 23 octobre 2024 à 16:48 (CEST)[répondre]
Bonsoir, réponses dans l'ordre sur la base de la version 2 de ce projet de charte d'usage responsable destiné à une mobilisation volontaire faute de règles et recommandations adoptées :
  • @Le chat perché, oublions le droit d'auteur, disons juste qu'il s'agit d'un principe de transparence indiqué dans le projet de charte et dont les modalités concrètes d'application seraient à proposer en annexe ;
  • @Pa2chant.bis, j'ai enlevé l'idée d'utilisateur certifié et remplacé par celle de la charte en considérant qu'il ne faut pas prendre pour acquis que « on sait que les résultats produits ne sont pas au niveau ». Qui sait ? Qui est convaincu de l'inverse ? Les usages se démocratisent, un tas de gens n'ont même pas conscience des questions qui se posent et il y a actuellement tension entre les discussions de problèmes et des propositions d'usages acceptables, donc je pars sur l'idée d'un premier travail de sensibilisation en visant le public le plus large possible, y compris ceux qui seraient aptes à des usages indétectables. J'ai mis dans la section Pourquoi cette charte (ébauche à travailler) les éléments à donner dont des questions de principe indépendantes de la capacité technique à produire des contenus corrects, parce que saurait-on le faire qu'on pourrait refuser de le faire.
    • Pour la longueur des noms de catégories : je me suis basé sur Catégorie:Page comportant une illustration générée par une IA qui existait déjà avec 173 pages indiquées, le terme « illustration  » étant sans doute lié à l'essai associé mais je ne serai pas contre raccourcir aussi son nom. "Image potentiellement etc." me semble peu clair vu qu'on caractérise un article mais simplement "Contient etc." allégerait par rapport à "Page comportant". Faut-il corriger tous les articles associés si on change le nom de la catégorie ?
Fabius Lector (discuter) 23 octobre 2024 à 20:12 (CEST)[répondre]
Oui principe de transparence c'est parfait comme formulation. Merci à toi. Le chat perché (discuter) 23 octobre 2024 à 21:00 (CEST)[répondre]
« On sait que les résultats produits ne sont pas au niveau » : je ne connais que des sources allant dans ce sens, aucune qui dise l'inverse. Si quelqu'un en connait une seule, je m'incline. Je comprends le désir de ne pas heurter, mais en même temps j'ai un reproche à faire à la charte que tu proposes : risque de TL;DR (Trop long ; pas lu), et amha n'affiche pas assez la couleur de manière franche. Le problème n'est pas sur le fond, mais sur la manière de présenter. Il faudrait je pense être plus ferme, en commençant par "Il est interdit de générer des articles avec de l'IA, sauf si". C'est pour moi un point central (le refus "juste pour le principe" m'apparaissant a contrario tout à fait irréaliste).
Nom des catégories : "Contient" irait bien, le tout est d'avoir le nom le plus court possible (mais explicite). Quand on change le nom d'une catégorie, il faut en effet la changer sur les articles. Cela arrive très souvent, et s'il y a plus d'une poignées d'articles concernés, on fait appel à des bots, sur la page de requêtes dédiées. --Pa2chant.bis (discuter) 25 octobre 2024 à 07:20 (CEST)[répondre]
Pour info : j'ai créé la Catégorie:Projet:Observatoire des IA, déjà un minimum pour indiquer des pages d'intérêt pour le projet. Catégorie non-cachée et catégorisée dans Catégorie:Projet de maintenance (j'ai pris exemple sur Catégorie:Projet:Sources qui me sert de modèle).
Sinon, @Pa2chant.bis (ou qui saurait) est-ce bien en faisant p.e. Catégorie:Observatoire_des_IA/Contrôle qu'on fait communément des sous-catégories correspondant à des sections de projet ? Ce serait déjà pour catégoriser l'article Aksidan déplacé ici, et en fait, ce pourrait être une option simple pour indiquer ce qu'on aurait à voir avec une catégorie de maintenance invisible.
Et pour la cohérence de l'organisation, je pensais renommer Aksidan en sous-page de Projet:Observatoire_des_IA/Contrôle et indiquer quelque part de faire ainsi si on avait d'autres cas. Des remarques là-dessus ? Fabius Lector (discuter) 26 octobre 2024 à 11:39 (CEST)[répondre]
Révision de proposition pour faire au plus simple avec l'existant vu qu'il y a déjà des catégories associées à des modèles :
Faut que je vérifie les usages actuels des catégories et que je revois le modèle IA générative avant renommage. Fabius Lector (discuter) 28 octobre 2024 à 11:39 (CET)[répondre]
et faire une règle qui dit que seul les membre du projet peuvent confirmée l'usage inappropriée de l'ia Spartan.arbinger (discuter) 28 octobre 2024 à 13:01 (CET)[répondre]

Projet de charte pour l'usage responsable d'IA

[modifier le code]

J'ai lancé un projet de charte pour l'usage responsable d'IA à discuter sur la discussion afférente. L'idée est d'avoir déjà des engagements volontaires à défaut de règles/recommandation et de répondre rapidement à des problèmes soulevés dans les discussions.

Tout commentaire et proposition d'amélioration sont bienvenus et je pense qu'on pourrait rapidement signaler l'initiative au bistro et peut-être sur les bulletins des patrouilleur et administrateur (ça se fait de leur indiquer les choses ainsi ?). Fabius Lector (discuter) 21 octobre 2024 à 20:54 (CEST)[répondre]

Annonce : boîte utilisateur disponible

[modifier le code]

Une boîte utilisateur a été créée par Spartan.arbinger pour la participation au projet, c'est par ici : {{Modèle:Utilisateur_Projet/Observatoire_des_IA}}.

P.S. : rappel de discussion en cours sur l'orientation prise pour la question de la règlementation (contrainte ou volontariat ?) avec implications sur le contrôle, les avis sont les bienvenus. Fabius Lector (discuter) 25 octobre 2024 à 13:58 (CEST)[répondre]

est ce que on fait pas aussi celle ia et on considère que ceux qui participe ici son aussi des participant au projet ia Spartan.arbinger (discuter) 25 octobre 2024 à 16:12 (CEST)[répondre]
Peut-être pas maintenant, par prudence : on pourrait aussi avoir des membres qui viennent parce qu'ils sont anti-IA et ne veulent pas être affiliés au projet IA. Faut voir, la sous-catégorisation du projet dans le projet IA n'implique pas forcément celle des membres. Fabius Lector (discuter) 25 octobre 2024 à 20:19 (CEST)[répondre]
ok je desactive l'ajout auto Spartan.arbinger (discuter) 25 octobre 2024 à 20:38 (CEST)[répondre]

Annonce : page Règlementation/Liste d'usages à traiter

[modifier le code]

J'ai créé la page Liste d'usages à traiter en sous-page de Règlementation et je vous invite à y indiquer vos préconisations en terme de règles/recommandation dans les listes à puce initiées. Vous pouvez bien sûr y rajouter ce que vous voulez en terme d'usages à traiter avec description de cas pour qu'on voit de quoi on parle. Fabius Lector (discuter) 25 octobre 2024 à 20:24 (CEST)[répondre]

Annonce : procédure d'intervention

[modifier le code]

J'ai lancé une section dédiée à une procédure d'intervention pour le contrôle : Procédure d'intervention : identification, signalements, mesures.

Ce serait à corriger/compléter notamment au niveau des indices permettant une détection et des mesures déjà utilisées dans les cas de détection (annulations de modif', suppressions d'images, « quarantaine », RA... quoi d'autre ?). Fabius Lector (discuter) 26 octobre 2024 à 14:38 (CEST)[répondre]

Dans Projet:Observatoire_des_IA/Contrôle#Mesures, il faudrait commencer peut-être par "trouver un consensus en page de discussion", avant de passer au révert, la quarantaine etc.. ? Et il n'est pas rappelé dans "Signalement" qu'il faut en priorité signaler les problèmes avec les bandeaux habituel : pertinence, neutralité, etc.. --Jean-Christophe BENOIST (discuter) 27 octobre 2024 à 11:58 (CET)[répondre]
  • Sur les mesures, ça se veut pour l'heure juste descriptif des pratiques constatées, pour ce qu'on devrait faire, de mon côté je ne sais pas précisément, d'où le recueil des avis sur les usages à traiter et les préconisations d'action.
    • j'ai rajouté le fait de discuter, avec des exemples ;
    • et proposer la recherche de consensus en PDD comme base pourrait-il signifier de laisser aux contributeurs l'option de gérer entre-eux, au cas par cas, sans règle spécifique ? Si c'est ça, ça pourrait être proposé en préconisation générale même si l'idée de règlementation et de contrôle par le projet va dans le sens inverse. Cf. aussi la PDD et l'historique de Aksidan, analyse/détection du problème et « quarantaine » pour l'article par Pa2chant.bis, sauf erreur sans discussion de ce qu'il y a à faire.
  • Sur les signalements : il s'agit là des signalement spécifiques d'usages d'IA pas des problèmes communs de pertinence, neutralité etc. qui sont censés être déjà traités ailleurs, même si ça peut se cumuler avec le signalement spécifique. Mais je travaille sur une révision du modèle {{IA générative}} pour le rapprocher de en:Template:AI-generated avec la documentation donnant les modèles alternatifs à éventuellement utiliser et l'indication d'expliquer les problèmes en page de discussion.
P.S. : dans le code du modèle, j'ai découvert qu'il existait déjà la Catégorie:Article pouvant contenir un contenu généré par une intelligence artificielle pour du signalement. Va falloir que je révise la création de catégorie et sans doute faire au plus simple en en restant à l'existant pour l'instant. Fabius Lector (discuter) 27 octobre 2024 à 14:01 (CET)[répondre]
Les règles spécifiques existent surtout quand on ne trouve pas de consensus. Sachant que les règles de base : WP:V, WP:PROP; WP:NPOV sont intangibles, et le consensus doit être fondé sur ces règles (pas "entre-eux"). Sur les signalement, comme je l'ai déjà dit, il y a fort à parier que le signalement IA sera fait en priorité, et en lieu et place des autres, surtout s'il y a un caractère péjoratif à ce signalement qui suffit en soi à remettre en cause le passage. Jean-Christophe BENOIST (discuter) 27 octobre 2024 à 14:42 (CET)[répondre]
Pas sûre d'avoir tout compris. Sur Aksidan, précision : ce n'est pas tant une quarantaine qu'une SI + une analyse des pb identifiés, le texte n'étant conservé que pour donner une assise à cette analyse. Et pour la mention ici « analyse/détection du problème et « quarantaine » pour l'article par Pa2chant.bis, sauf erreur sans discussion de ce qu'il y a à faire » si la critique porte sur le fait que j'ai demandé une SI sans en discuter au préalable, j'assume : c'est ainsi que je procède pour les TI sans sources, pas de raison de faire autrement ici, d'autant que je m'appuie sur le sondage autorisant "une plus grande sévérité". Si la critique porte sur le fait d'avoir conservé le contenu d'une page et ajouté mon analyse, j'ai toujours présenté ainsi (même si je l'ai pas forcément bien explicité) ma participation : un des objectifs/moyen du projet doit être de bâtir un corpus de cas pour nous doter d'aides à l'identification d'articles générés par IA.
En ce qui me concerne, JCB, il est inconcevable de perdre du temps à dégager en PDD un consensus article par article sur ce qu'on conserve et que l'on rejette, si l'on s'est rendu compte d'un pb lié à l'utilisation d'IA. Cela a été dit par plusieurs et à de multiples reprises : nous, humains, ne sommes pas de taille à lutter contre une invasion de WP par des centaines de textes générés en quelques secondes par IA sous la main de contributeurs n'en maitrisant pas les effets. Le seul cas à mes yeux qui mérite une réflexion ou des discussions en PDD est celui des synthèses pures, et encore, à condition qu'il n'y ait pas trop de biais dans la sélection des sources. Mais même pour ça, en cas de pb visible, je serais pour une sévérité accrue. --Pa2chant.bis (discuter) 27 octobre 2024 à 17:59 (CET)[répondre]
Le biais potentiel dans la sélection des sources est le même, ni plus ni moins, qu'avec une synthèse humaine puisque c'est l'humain qui spécifie les sources. Je vois ce que tu veux dire, et je comprends. La submersion est le problème n°1 de l'IA, que les articles générés soient OK (en apparence) ou pas. Entre lire les sources, corriger le résultat, on peut sortir deux articles par jour (ou équivalent) à plein temps maxi en synthèse IA. Et en prenant ce temps, il n'y aura pas de problème visible (enfin, ni plus ni moins que ce qu'aurait fait l'humain qui a vérifié). Donc je suis d'accord sur : problème visible + suspicion d'IA => sévérité, mais j'aurais tendance à dire que c'estla même chose si un contributeur sort des contributions invalides à un rythme effréné sans IA. Et je pense aussi que si un compte sort plus de 2 articles ou équivalent par jour, il y a qqchose qui cloche, et le rythme en soi est un problème avec ou sans IA. Mais si le rythme d'un compte est "humain" et pas de problème visible, on a le temps de discuter. Jean-Christophe BENOIST (discuter) 27 octobre 2024 à 19:17 (CET)[répondre]
@Pa2chant.bis, quand je disais « sans discussion de ce qu'il y a à faire », ce n'était pas une critique, ça me semble au contraire le principe même d'un contrôle plus ou moins centralisé que d'avoir des critères pour agir sans devoir à chaque fois discuter de ce qu'il y a à faire.
Sinon, sauf erreur « SI » signifie « Suppression immédiate » et j'ai modifié l'explication de la mesure prise mais j'aurais cru qu'on réservait le terme aux suppressions faites par des admins par demande de suppression immédiate. Ça correspond aussi à ce que peut faire un Wikipédia:Révocateur ?
En fait, va peut-être falloir organiser les mesures prises/prenables selon les statuts. Fabius Lector (discuter) 28 octobre 2024 à 10:58 (CET)[répondre]
@Spartan.arbinger, sauf erreur, l'article Projet:Observatoire_des_IA/Aksidan a été supprimé suite à ta demande mais @Pa2chant.bis disait ci-dessus l'avoir déplacée sur le projet pour présenter son analyse donc je voudrais savoir si c'est ok pour tout le monde. Ce pourrait être une procédure d'intervention à entériner : en cas de création d'article clairement suspecte, on met de côté ici pour présenter une analyse et on fait la demande de suppression.
Je demande parce que j'ai fait la page Mesures prises pour avoir un historique et j'aimerais y inscrire la manière dont ça s'est fait.
P.S. : si l'analyse qui était en PDD est récupérable quelque part, ça m'intéresse pour la documentation. Fabius Lector (discuter) 28 octobre 2024 à 17:15 (CET)[répondre]
je l'ai virée car un l'article était pas générer par l'ia ou sinon le type est hyper bon et était juste pas admissible Spartan.arbinger (discuter) 28 octobre 2024 à 17:39 (CET)[répondre]
Tu as regardé l'analyse qui était en PDD ? A priori, Pa2chant.bis pensait qu'il y avait de l'IA dedans, c'est pour ça que ça a été déplacé sur le projet.
Enfin bon, faudrait se caler sur une procédure si ça doit se reproduire, qu'on sache pourquoi un article arrive ici et où le mettre (j'avais proposé en sous-page de Contrôle si c'est un article à contrôler). Fabius Lector (discuter) 28 octobre 2024 à 18:05 (CET)[répondre]
@Spartan.arbinger : alors là, je suis furieuse contre vous à un point que vous ne pouvez pas imaginer. Si vous aviez voulu être constructif, et pensez réellement que ce texte n'a pas été généré par IA, il aurait été beaucoup plus logique d'expliquer en PDD pourquoi selon vous, à la suite de mon analyse. Franchement, ce que vous faites est de la désorganisation pure et simple. Merci de demander le rétablissement de ce texte. --Pa2chant.bis (discuter) 28 octobre 2024 à 19:56 (CET)[répondre]
Ok, Fabius Lector. J'ai en effet fait une demande de SI (abus de langage quand j'ai parlé de SI ; les révocateurs n'ont pas plus de droits que d'autres).
Je reviens au comportement de Spartan.arbinger, et d'un autre contributeur avant, qui avait déplacé la même page vers l'espace WP. Si on tolère de tels comportements, cela veut dire que la seule solution serait de conserver nos analyses sur nos espaces personnels. Pour un travail en projet, ce n'est pas vraiment idéal, mais je tenterai de m'en souvenir.--Pa2chant.bis (discuter) 28 octobre 2024 à 20:05 (CET)[répondre]
j'ai fait une sous page acheck ou on va mettre toutes les pages a vérifié (et demandée la restauration dedans Spartan.arbinger (discuter) 28 octobre 2024 à 20:15 (CET)[répondre]
De plus je pense être le contributeur qui a le plus de connaissance dans l'IA (c'est littéralement une partie de mon domaine d'étude et j'ai fait une conférence dessus) Spartan.arbinger (discuter) 28 octobre 2024 à 20:18 (CET)[répondre]
1) pas du tout le phraser de n'importe laquelle des ia courante et on peut oublier les IA entrainées à la main
2) les IA ne sont pas capables de générer les infobox et le code mediawiki correctement
3) ce genre d'article ne peut pas être écrit par une IA, car il n'a strictement pas assez d'information alors que les ia ont comme biais de mettre trop d'info plutot que pas assez
4) la raison pour laquelle, j'ai demandé là si est que l'article n'avait rien à faire en sous page du projet directement si je dois vraiment récupérer l'article, il ne sera pas en sous page direct Spartan.arbinger (discuter) 28 octobre 2024 à 20:09 (CET)[répondre]
Attendez : vous débarquez ici, en prétendant avoir la plus grosse connaissance, vous faites supprimer une analyse sans concertation, vous décidez de comment doivent être organisées les pages sans vous préoccuper un instant de ce qui s'est dessiné au cours des discussions précédentes, et vous pensez que ça va passer crème ? Quand je serai calmée, je rediscuterai avec vous sur le fond SUR LA PDD IDOINE de vos arguments, qui à mon avis sont erronés et témoignent juste d'un manque de connaissances du phénomène. --Pa2chant.bis (discuter) 28 octobre 2024 à 20:27 (CET)[répondre]
Un point de méthodologie pour éviter des problèmes : communiquer pour coordonner.
Ma méthode : pour chaque changement notable, un sujet « Annonce : » où j'explique ce que j'ai fait, que ça se discute si besoin est.
Là, je vais en créer un pour la page « acheck » avec des commentaires. Fabius Lector (discuter) 29 octobre 2024 à 11:57 (CET)[répondre]
Pour info : j'ai réorganisé la page Contrôle en mettant en premier une section Articles à traiter.
En attendant de clarifier la procédure et révision de modèle (cf. P.S.), si un article est concerné, on peut :
Une fois traité, ça devrait être indiqué dans la page Mesures prises pour conserver un historique.
P.S. : j'ai une révision du modèle {{IA générative}} en cours qui intègre la catégorie et sauf objection, je devrais la renommer « Signalement d'IA générative » pour faire simple vu que c'est censée être une catégorie de maintenance invisible. Fabius Lector (discuter) 29 octobre 2024 à 14:41 (CET)[répondre]
@Spartan.arbinger, il serait bon de faire preuve d'humilité. L'argument d'autorité étant précisément interdit dans Wikipedia. Personne n'a de préséance parce qu'il affirme avoir une expertise IRL. Wikipedia ne marche pas comme ça et il est inconcevable de vous laisser imposer unilatéralement vos vues. On construit ce projet collectivement avec notamment @Fabius Lector (merci de son engagement), @Jean-Christophe BENOIST, @Pa2chant.bis et quelques autres. Ce n'est pas pour qu'un contributeur débarque subitement et décide tout seul. Il vous a déjà par ailleurs plusieurs fois été demandé de modérer vos propos et de porter plus de respect à autrui dans vos interractions.
Par ailleurs ceci est problématique : « et faire une règle qui dit que seul les membre du projet peuvent confirmée l'usage inappropriée de l'ia ». Non cela ne marche pas comme ça et cela montre une certaine méconnaissance des projets dans Wikipedia (ce qui n'est pas grave en soit, on en apprend tout les jours}}. Ce projet comme par exemple l'ODS n'a pas de mandat de la communauté pour lui imposer formellement quoi que ce soit ni pour s'auto-arroger une prérogative unilatérale. On en est à peine à construire le fonctionnement du projet. Le chat perché (discuter) 29 octobre 2024 à 14:47 (CET)[répondre]
Mais le problème est qu'il s'est porté volontaire pour répondre à un journaliste Suisse, et s'il fait cavalier seul.. Au moins il faudrait qu'il lui dise qu'il s'exprime en tant qu'individu et au nom de personne. Jean-Christophe BENOIST (discuter) 29 octobre 2024 à 16:44 (CET)[répondre]
pour info j'ai employée la première personne et surtout j'ai été le seul volontaire donc bon Spartan.arbinger (discuter) 29 octobre 2024 à 16:50 (CET)[répondre]
Encore une procédure à mettre en place pour la communication externe. Pour info, on m'a déjà proposé en privé d'intervenir sur le sujet pour une table ronde en visio ou IRL. J'ai dit que le mieux serait que si ça se fait, ce soit préparé collectivement par le projet et qu'on voit qui peut faire la présentation au mieux. Penser collectif.
Sinon, Spartan.arbinger, pour renchérir sur ce que dit Le chat perché : il m'étonnerait qu'on puisse demander une règle réservant aux membres la définition de l'usage inappropriée d'IA, ce serait définir un nouveau statut du niveau des admins. On peut tout au plus argumenter dans une demande d'action administrative comme dans le projet Sources ou Antipub, l'Observatoire pouvant servir à centraliser les discussions/analyses. Fabius Lector (discuter) 29 octobre 2024 à 17:21 (CET)[répondre]
et pour le coup, c'est ça que j'entendais par uniquement les membres (et pas participant) Spartan.arbinger (discuter) 29 octobre 2024 à 17:31 (CET)[répondre]
en soit les page sont accessible à tout pour discuter Spartan.arbinger (discuter) 29 octobre 2024 à 17:40 (CET)[répondre]
On peut conseiller, suggérer, recommander...Mais certainement pas imposer. Wikipedia repose sur la notion de consensus sauf pour le non respect des règles communes, disons basiquement sur le respect des principes fondateurs. Pour tout ce qui est de l'ordre de l'éditorial il n'y a pas de prérogatives exclusives de tel ou tel projet. Et on aurait à juste titre, moi le premier, des levées de bouclier si on voulait s'en arroger. L'esprit collaboratif wikipedien est incompatible dans sa dimension éditoriale avec l'idée de chasse garder, de prescription de sachant. On peut avoir un avis éclairer parce que dans le cadre d'un projet on a travailler sur un sujet précis. Mais tout contributeur est légitime, qu'il soit participant ou membre ou aucun des deux à s'exprimer quand bon lui semble. Le chat perché (discuter) 29 octobre 2024 à 17:43 (CET)[répondre]

┌─────────────────────────────────────────────────┘
Proposition de procédure standard : sur la base de ce qui se fait du côté du Projet:Sources et du Projet:Antipub, j'ai donné un résumé de procédure standard en attendant des compléments après révisions des modèles et catégories. Merci de me dire si ça vous va ou ce que vous amenderiez. P.S. : la page d'archivage serait en fait un renommage de « acheck », cf. sujet ci-dessous où je vais détailler l'idée. Fabius Lector (discuter) 30 octobre 2024 à 17:58 (CET)[répondre]

Demande de la RTS

[modifier le code]

Bonjour

Un journaliste pour la radio publique suisse (RTS) a contacté Wikimedia CH. Il cherche à parler à des contributeurs francophones suisses qui luttent contre les faux articles écrits avec IAG. https://en.wikipedia.org/wiki/Wikipedia:WikiProject_AI_Cleanup / https://fr.wikipedia.org/wiki/Discussion_Projet:Observatoire_des_IA.

Voici des articles anglophones sur la question : https://www.extremetech.com/internet/people-are-stuffing-wikipedia-with-ai-generated-garbage?utm_source=pocket_saves

https://www.404media.co/the-editors-protecting-wikipedia-from-ai-hoaxes/

Est-ce qu'il y a une contributrice ou un contributeur (suisse) pour parler de l’arrivée des textes/photos IAG sur Wikipédia et de votre expérience. Il doit rendre son sujet déjà demain, mardi 29 octobre à 12h ?

Merci de prendre contact avec moi par email à kerstin.sonnekalb@wikimedia.ch. Je suis la responsable d'outreach & communication chez Wikimedia CH:

Avec mes salutations les meilleures

Kerstin

Kerstin Sonnekalb (WMCH) (discuter) 28 octobre 2024 à 09:02 (CET)[répondre]

je suis francais et pas suisse mais je suis volontaire sa marche quand même Spartan.arbinger (discuter) 28 octobre 2024 à 13:00 (CET)[répondre]
Bonjour @Kerstin Sonnekalb (WMCH), le projet débute à peine et en croisant les premiers inscrits avec ceux du projet Suisse et cette catégorie, je ne pense pas qu'on ait pour l'heure de Suisse.
Mais si c'est pour écrire une chronique, qu'il n'y a pas d'enregistrement audio, pourquoi ne pas lui proposer de venir poser ici les questions ? En plus, il faudrait faire passer le message que ça devrait sans doute plus se gérer par langue, ici le wiki francophone, que par nationalité.

P.S. pour @Spartan.arbinger, au cas où il y ait interview, je mets quelques points que de mon côté j'essaierais de placer, et j'invite d'autres participants à faire de même. Au pire, le journaliste pourra voir ce qu'on a à dire :

  • dans le discours public, on s'intéresse surtout aux problèmes de fiabilité, canular etc. mais il y a aussi des problèmes de principe pour un projet basé sur une communauté humaine, le même genre de questions pouvant toucher la presse ou l'édition avec des rédacteurs devenant simples contrôleurs de rédaction par LLM (cf.Voici a publié sur son site ses premiers articles avec l’aide de l’IA) ou avec des images générées remplaçant un travail de graphiste ;
  • l'impact est pour l'instant limité mais avec risque d'aggravation. Sur plusieurs millions d'articles, les anglophones ont environ 150 signalés, sur le francophone on n'a qu'une dizaine de cas identifiés mais il n'y a pas d'outil de détection automatique fiable donc on est un peu dans le flou. Au niveau vandalisme, sur le wiki francophone, un seul utilisateur bloqué, les usages signalés étant plutôt faits de bonne foi, même si le résultat est déficient.
  • une mobilisation à plusieurs niveaux sur le sujet :
    • au niveau de la Wikimedia Foundation, l'institution gérant les wiki, il y a une réflexion générale mais pour l'heure, à ma connaissance, pas de chose concrète proposée (outil de détection par exemple, recommandations pour tous les wikis etc.)
    • au niveau des wikis organisés par langue : le niveau d'action et les objectifs peuvent varier selon les choix des communautés de bénévoles. Chez les anglophones le projet de suivi en:Wikipedia:WikiProject_AI_Cleanup date d'environ un an avec à ce jour une équipe de 89 « nettoyeurs » pour supprimer ou corriger des articles. Sur le francophone il y a déjà eu des interventions au cas par cas mais le projet d'organisation vient à peine de se lancer et il faudra un peu de temps pour voir comment ça se structure.

Fabius Lector (discuter) 28 octobre 2024 à 14:33 (CET)[répondre]
vue de toute manière c'est les points que je pensais abordée Spartan.arbinger (discuter) 28 octobre 2024 à 14:47 (CET)[répondre]
Bonjour @Spartan.arbinger, est-ce que tu aurais un peu de temps pour nous débrieffer ? Comment ça c'est passé ? Le chat perché (discuter) 29 octobre 2024 à 14:33 (CET)[répondre]
echange de mail pour l'instant Spartan.arbinger (discuter) 29 octobre 2024 à 14:41 (CET)[répondre]

Annonce : page « acheck » à checker

[modifier le code]

@Spartan.arbinger a créé la page « acheck » qui, si j'ai bien compris, servirait de répertoire pour des articles à analyser.

P.S. : je mettrais en réponse des commentaires après y avoir réfléchi (nom et lieu de la page, besoin ou pas de la fonction de création de sous-page si, en fait, on déplace des articles etc.) Fabius Lector (discuter) 29 octobre 2024 à 13:35 (CET)[répondre]

Une remarque : le but et le fonctionnement de cette page ne sont pas clairs. S'agit-il de lister les pages soupçonnées d'utiliser les IA ? Si elles sont juste soupçonnées, elles restent dans l'espace principal, sauf erreur. Ce que l'on pourrait mettre sur une page projet, ce sont les arguments montrant ou pas une utilisation de l'IA telle qu'une SI s'imposerait ou au contraire serait à rejeter. S'il s'agit de pages convaincues d'utiliser l'IA et passées en SI, elles sont destinées à faire partie d'un corpus d'analyse, et ne doivent pas à mon avis êtres confondues avec les premières. Il peut enfin s'agit de pages au statut trouble, "mise en quarantaine" ie renvoyées vers le brouillon de l'auteur ou ailleurs mais sorties de l'espace principal et destinées à être retravaillées(pas n"cessairement par le projet). Il est bon de les lister, mais doivent elles être transférées sur une page du projet ? Je n'en suis pas persuadée, sauf à donner l'illusion qu'une des taches du projet est la remise d'équerre de telles pages.
Sinon, comment ça marche ? --Pa2chant.bis (discuter) 29 octobre 2024 à 22:09 (CET)[répondre]
J'ai fait une proposition de procédure standard sur le même type que ce qu'il y a sur les Projet:Sources et Antipub, cf. ci-dessus pour la valider/discuter.
Si c'est ok, on renomme/déplace « acheck » en Projet:Observatoire_des_IA/Contrôle/Contenus archivés et on s'en sert pour ce qu'on voudrait garder, ne serait-ce que temporairement (quarantaine).
Pour la fonctionnalité de création de sous-page, j'avais des doutes sur l'utilité mais je viens de penser qu'elle serait sans doute intéressante : plutôt que du déplacement d'article, il faudrait sans doute créer une page d'archive dédiée et y copier/coller le code pour qu'une SI soit possible et que ce soit signalé si quelqu'un retente de créer l'article.
Si on est d'accord là-dessus, je modifie la procédure d'intervention pour indiquer l'archivage par création de sous-page.
P.S. : dans la procédure, les analyses se feraient sur la page dédiée de l'Observatoire plutôt qu'en PDD, comme on fait sur les Projets Sources et Antipub avec les admins qui s'en servent pour les décisions, faudrait y copier/coller celle d'Aksidan si on veut la garder. Fabius Lector (discuter) 30 octobre 2024 à 18:20 (CET)[répondre]

Gestion des images

[modifier le code]

Bilan de révision de la Catégorie:Page comportant une illustration générée par une IA (cf. journal des opérations) : plus d'une centaine d'articles étaient restés liés sans raison après la suppression des images suite à cet appel à commentaire puis ce sondage et la demande de suppression de lien sur Commons par l'auteur, @Triton .

À voir au niveau règlementation, peut-on à partir du sondage de janvier

À voir au niveau suivi :

  • Catégories
    • renommage en « Signalement d'illustration par IA » : c'est plus simple et plus explicite pour une catégorie de maintenance ;
    • créer une sous-catégorie : « Illustration autorisée par IA » : chez les anglophones, c'est « AI images in non-AI contexts » et ne sont pas concernée par exemple celles utilisées pour l'article Midjourney qu'on a nous dans la catégorie, mais on peut les classer dans une catégorie d'illustrations autorisées avec en plus celles qui le seraient éventuellement après discussion, p.e. les anglophones ont autorisés des images diffusées dans les cadres de théorie de complot ou d'élections.
  • A-t-on un admin Commons dans le secteur pour savoir où ça en est chez eux au niveau règles et procédures ?

P.S. : il y aura aussi le modèle dédié à revoir {{TIA}}, j'ai commencé à travailler dessus. Fabius Lector (discuter) 30 octobre 2024 à 19:28 (CET)[répondre]

Hello, merci pour la notif. Tout d'abord, je n'avais pas connaissance de ce projet, qui semble pertinent pour suivre les avancées de ce sujet sur WP, donc je vais suivre les discussions de plus près.
Ensuite, pour préciser mon état d'esprit malgré tout (En toute transparence ma demande de suppression en bloc de mes réalisations à l'époque a résulté du manque de discussion/bienveillance de la part d'autres wikipédiens, ce n'est pas le reflet de mon avis global sur les images générées par IA.) : je ne suis pas contre des illustrations sur les créatures fantastiques de base. Pour rappel j'ai lancé cet appel à commentaire que je n'ai pas conclu car il s'est fait télescopé par le sondage dont tu parles (qui manquait à mon sens de contexte et faisait intervenir tout le monde sur des sujets différents). Par contre il faut qu'elles collent au max aux descriptions disponibles dans l'article et doivent être discutées au cas par cas. Ces discussions ont par ailleurs abouti à Wikipédia:Illustrations générées par une intelligence artificielle par @Madelgarius.
NB: j'ai rajouté pas mal d'articles dans Catégorie:Page comportant une illustration générée par une IA, toutes dans le même domaine dont j'avais connaissance (mais ce ne sont peut être pas les seules). A mon sens toutes ne sont pas opportunes mais ce n'est pas à jeter en bloc, encore une fois. Triton (discuter) 30 octobre 2024 à 20:46 (CET)[répondre]
Bonjour à tous, oui, je rappelle seulement un principe de base, on ne supprime pas "en masse" parce qu'on est contre l'image générée par IA. Ceci doit/devrait faire l'objet d'une discussion au cas par cas en pdd, sereine, argumentée et non étayée par une position de principe. C'est en tout cas ma position et celle, je pense de la communauté, que j'ai essayé de transcrire dans cet essai. Même si, de manière générale, je pense surtout par rapport à la génération de contenu (outre de pondre du code vérifié par un humain qui en assume dès lors la responsabilité) que WP a tout à gagner en se préservant des productions de contenus par IA. C'est cela notre plus-value (made by humans), car demain, des pseudos WP-IA existeront partout. Un avis tout en nuance donc dont nos décisions doivent être empreintes. — adel 30 octobre 2024 à 22:29 (CET)[répondre]
Bonjour @Madelgarius, @Triton,
Sur les catégories, question urgente : la proposition de simplification du nom de catégorie fait suite à la discussion #Création de catégories, y a-t-il une objection à ce changement ?
Si c'est non, je fais le changement et il ne faudrait pas rajouter d'articles maintenant parce qu'il va falloir changer le nom de la catégorie dans chacun d'eux. Et sauf objection, je ferais aussi une sous-catégorie pour les articles où il n'y a pas débat (ceux traitant d'IA, les articles d'artistes du domaine etc.), l'idée étant d'avoir un outil simple pour savoir ce qui est réellement en question.
Précisions sur la démarche : j'essaie de mettre en place un suivi comme chez les anglophones où sont indiquées les images traitées et la jurisprudence de conservation/suppression pour s'éviter de répéter les mêmes débats et avoir une politique à peu près homogène où l'un ne s'offusque pas que lui soit refusé ce qui est accordé à l'autre (et vice-versa).
Pour le sondage : il était indiqué comme justificatif de la demande de suppression sur Commons donc je ne sais pas trop comment le considérer, d'où les questions revenant à :
  • donne-t-on au sondage un poids particulier dans les débats, voire une valeur de consensus communautaire ?
  • si oui, présente-t-on un périmètre d'application selon la jurisprudence observée d'où l'indication du cas des créatures fantastiques ?
De la réponse, dépendra la manière dont il serait présenté notamment si on travaille une règlementation pour passer de l'essai à une recommandation. Fabius Lector (discuter) 31 octobre 2024 à 12:23 (CET)[répondre]
Hello, pour les catégories je ne vois pas trop de différence entre la catégorie actuelle et "Signalement d'illustration par IA" (petite préférence pour l'actuelle qui est plus neutre que "signalement"). Et pour la sous catégorie je garderais les termes anglais : "Illustration générée par une IA en contexte IA" plutôt que "autorisé" (par qui?)
Et pour la suppression sur Commons, comme je disais, c'est plus un saut d'humeur de ma part (créateur des images) que de consensus ^^' Triton (discuter) 31 octobre 2024 à 12:57 (CET)[répondre]
PS: avoir une page du type en:Wikipedia:WikiProject AI Cleanup/AI images in non-AI contexts me semble utile pour visualiser les images gardées et supprimées en effet (et comme dit Madel, discutés au cas par cas). Triton (discuter) 31 octobre 2024 à 12:58 (CET)[répondre]
Bonjour à tous, pas d'avis particulier sur les changements de nom de catégorie tant qu'on ne renomme pas celle qui est liée au modèle:TIA. Et dispo pour faire évoluer l'essai vers une reco même si je suis un peu craintif de la voir évoluer vers une usine à gaz. Je pense qu'il faut en définir l'esprit plutôt que de vouloir en préciser la lettre dans le menu détail pour éviter de se retrouver devant un "machin" totalement indigeste. Bien à tous, — adel 31 octobre 2024 à 13:39 (CET)[répondre]
Peut-être faisais-je fausse route : les oppositions dans le sondage étaient assez intenses et avec la suppression des images de créatures, je pensais qu'on allait vers une règle/recommandation de contrôle général puisqu'on a des arguments de principe comme le fait que ce sont des WP:TI. C'est une tâche qui s'accordait avec l'objet du projet avec possibilité d'initier les discussions pour chaque insertion.
Mais vu que c'est moins clair, autant laisser la catégorie comme répertoire « neutre », et peut-être en faire une pour qui veut lancer un débat sur une image avec un modèle dédié, p.e. « Illustration par IA débattue ». Ça permettrait d'enregistrer la jurisprudence comme font les anglophones. Fabius Lector (discuter) 31 octobre 2024 à 14:31 (CET)[répondre]