Index
IA - Les biais et les limites
1. Les biais :
Les IA ont été entraînées avec des données qui contiennent des biais = qui reflète les inégalités du monde réel + les biais sont souvent inconscients de la part des programmeur.e.s et des humains de façon générale.
·
Les biais algorithmiques :
· Préjugés-stéréotypes : biais culturel (vision occidentale= mondiale), de beauté (standards physiques dominants sur-représentés), de pouvoir (association entre autorité-genre-origine)· hallucinations, erreurs (fausses citations, mauvaise compréhension, ...)
·
Les biais sociétaux :
· racistes : par exemple, les peaux blanches / peaux sombres· sexistes (masculinistes) : les femmes sont discriminées
· inégalitaires (minorités) :
On peut dire aussi que :
- a. L’IA hallucine : elle ne comprend ni le sens de la question, ni le sens de la réponse
- b. L’IA produit un contenu qu'il estime plausible ou probable mais pas forcément véridique
- c. L’IA produit une réponse convaincante mais inventée
4 articles et un doc :
1. https://datascientest.com/intelligence-artificielle-biais-ia
2. https://www.lapresse.ca/dialogue/2024-03-07/biais-cognitifs/ces-biais-qui-contaminent-les-intelligences-artificielles.php ainsi que les articles complémentaires en bas de la page ....
3. La liste des biais cognitifs : https://www.shortcogs.com/
4. Doc sur Arte « l’IA va t elle tuer internet » : et la notion nouvelle de « Slop »
https://www.arte.tv/fr/videos/122187-000-A/l-ia-va-t-elle-tuer-internet/
2. Coût écologique de l’IA :
Mistral me donne 3 articles récents (dont le podcast Radiofrance que j’avais déjà sélectionné) :
1. https://www.radiofrance.fr/franceinter/podcasts/la-terre-au-carre/la-terre-au-carre-du-lundi-10-fevrier-2025-3809708
2. « Le vrai coût écologique des IA » – Comarketing-News (25 août 2025)
3. « Intelligence artificielle : le vrai coût environnemental de la course à l'IA » – Bon Pote (2 septembre 2025)
4. Les data centers vs climat (dec 2025): https://www.arte.tv/fr/videos/121620-111-A/ia-data-centers-vs-climat/
3. Protection des données :
Les chartes européennes et françaises, complétées par la charte du MENJ et la note de service du MAASA précisent les modalités d’utilisation de l’IA et de la façon d’utiliser l’IA pour protéger les données
En résumé :
on ne peut pas « donner » à une IA des données personnelles (nom, prénom, photo, ...) des agents et enseignants, des élèves ou des parents
4. Notion d’ « informatique acceptable »
Le concept de "numérique acceptable" fait référence à l'utilisation responsable et éthique des technologies numériques, en tenant compte des impacts sociaux, environnementaux et économiques. Il s'agit de promouvoir un équilibre entre les avantages offerts par le numérique et les risques potentiels.
Le numérique acceptable encourage des pratiques durables. Il s'agit de sensibiliser les utilisateurs à une utilisation raisonnée des outils numériques, Cela passe par la formation et l'éducation des citoyens aux enjeux du numérique
Sinon : le créateur de la notion : https://louisderrac.com/
5. Notion des « petites mains de l’IA »
A Madagascar et au Kenya notamment, les « travailleurs du clic » souvent appelés « annotateurs » ou « étiqueteurs de données », effectuent un travail manuel et répétitif essentiel pour entraîner les intelligences artificielles, évalué à 430 millions de personnes dans le monde.
Voici en quoi consiste précisément leur mission :
- · Annotation d’images et de textes : Ils identifient, classent et étiquettent des milliers d’images, de sons ou de textes (par exemple, reconnaître un chat, une émotion sur un visage, ou détecter des mots-clés dans un texte). Ces annotations permettent aux algorithmes d’IA d’apprendre à reconnaître des motifs et à prendre des décisions.
- · Modération de contenu : Certains doivent aussi filtrer des contenus violents, haineux ou inappropriés sur les réseaux sociaux et les plateformes en ligne, une tâche souvent psychologiquement éprouvante.
- · Correction et enrichissement de données : Ils vérifient et corrigent les erreurs des systèmes automatisés, améliorant ainsi la précision des modèles d’IA.
Ces travailleurs sont généralement employés par des sous-traitants locaux des géants technologiques (comme Meta, Google ou OpenAI), dans des conditions précaires : salaires très bas (2€ de l’heure), contrats instables, et absence de protection sociale. Leur travail, bien qu’invisible pour le grand public, est la base invisible de l’apprentissage des IA génératives et des assistants vocaux que nous utilisons quotidiennement.
Une vidéo : https://www.arte.tv/fr/videos/126831-000-A/madagascar-les-petites-mains-de-l-ia/
Un podcast : https://www.radiofrance.fr/franceinter/podcasts/le-reportage-d-un-jour-dans-le-monde/reportage-du-lundi-10-fevrier-2025-9874367