
Épisode 10 - Actualités: Clearview AI, Gebru, DEDA.
02/25/21 • 64 min
Cet épisode est presque en direct. Nous souhaitions publier, de temps à autre, des épisodes de type actualité. La formule est connue. On regarde un peu ce qui se dit, ce qu’on lit, ce qui se passe dans le monde de l’AI. On vous en fait un résumé. On en discute un peu.
Dans cet épisode:
- Ève explore l’affaire Clearview AI. Un rapport conjoint des commissaires à la protection de la vie privée du Canada et des commissaires de trois provinces a en effet conclu que la société technologique américaine Clearview AI représentait de la «surveillance de masse» et avait commis une violation manifeste du droit à la vie privée des Canadiens.
- David fait un suivi sur le cas Timnit Gebru. Il a lu deux articles, dont celui publié par la principale concernée.
- Jean-François un outil d'aide à la décision en matière d'éthique des données massives: le Data Ethics Decision Aid (DEDA).
Les articles cités sont ici:
- Enquête conjointe sur Clearview AI, Inc. par le Commissariat à la protection de la vie privée du Canada, la Commission d’accès à l’information du Québec, le Commissariat à l’information et à la protection de la vie privée de la Colombie-Britannique et le Commissariat à l’information et à la protection de la vie privée de l’Alberta. Rapport de conclusions d’enquête en vertu de la LPRPDE no 2021-001
- Tamkin, A., Brundage, M., Clark, J., & Ganguli, D. (2021). Understanding the Capabilities, Limitations, and Societal Impact of Large Language Models. arXiv preprint arXiv:2102.02503.
- Aline Shakti Franzke, Iris Muis et Mirko Tobias Schäfer, Data Ethics Decision Aid (DEDA): a dialogical framework for ethical inquiry of AI and data projects in the Netherlands, Ethics and Information Technology.
- Mörch, C. M., Gupta, A., & Mishara, B. L. (2019). Canada protocol: An ethical checklist for the use of artificial Intelligence in suicide prevention and mental health. arXiv preprint arXiv:1907.07493.
Cet épisode est presque en direct. Nous souhaitions publier, de temps à autre, des épisodes de type actualité. La formule est connue. On regarde un peu ce qui se dit, ce qu’on lit, ce qui se passe dans le monde de l’AI. On vous en fait un résumé. On en discute un peu.
Dans cet épisode:
- Ève explore l’affaire Clearview AI. Un rapport conjoint des commissaires à la protection de la vie privée du Canada et des commissaires de trois provinces a en effet conclu que la société technologique américaine Clearview AI représentait de la «surveillance de masse» et avait commis une violation manifeste du droit à la vie privée des Canadiens.
- David fait un suivi sur le cas Timnit Gebru. Il a lu deux articles, dont celui publié par la principale concernée.
- Jean-François un outil d'aide à la décision en matière d'éthique des données massives: le Data Ethics Decision Aid (DEDA).
Les articles cités sont ici:
- Enquête conjointe sur Clearview AI, Inc. par le Commissariat à la protection de la vie privée du Canada, la Commission d’accès à l’information du Québec, le Commissariat à l’information et à la protection de la vie privée de la Colombie-Britannique et le Commissariat à l’information et à la protection de la vie privée de l’Alberta. Rapport de conclusions d’enquête en vertu de la LPRPDE no 2021-001
- Tamkin, A., Brundage, M., Clark, J., & Ganguli, D. (2021). Understanding the Capabilities, Limitations, and Societal Impact of Large Language Models. arXiv preprint arXiv:2102.02503.
- Aline Shakti Franzke, Iris Muis et Mirko Tobias Schäfer, Data Ethics Decision Aid (DEDA): a dialogical framework for ethical inquiry of AI and data projects in the Netherlands, Ethics and Information Technology.
- Mörch, C. M., Gupta, A., & Mishara, B. L. (2019). Canada protocol: An ethical checklist for the use of artificial Intelligence in suicide prevention and mental health. arXiv preprint arXiv:1907.07493.
Épisode précédent

Épisode 9 - Biais psychosociaux - Une I.A. humaine, trop humaine
Voyage dans le temps. L'épisode a été enregistré en septembre 2020. Ève, David et moi discutons de notre rencontre avec Justine Dima et des thèmes abordés avec cette dernière.
Thèmes abordés:
- Une IA humaine, trop humaine.
Les IA sont éduquées en fonction de ce que nous sommes, et non en fonction de ce que souhaiterions être. En effet, on les éduque en leur demandant d’apprendre de nos décisions et jugements passés. Or, ces décisions et jugements passés sont empreints de nos failles, erreurs, défauts, préconceptions, préjugés, tendances, biais psychosociaux. Les décisions et jugements résultants de ces algorithmes risquent de ressembler à ceux d’un homme avec ses failles et misères. Ces IA risquent de devenir humaines, mais trop humaines.
Les biais psychosociaux.
Plusieurs biais à l'œuvre en AI. Quelques distinctions: les biais d’accentuation inter-catégorielle (ou effet de contraste), les biais d’homogénéisation intra-catégorielle (ou effet d’assimilation).
Une IA qui reflète la morale et la culture des maîtres.
Les IA sont éduquées en fonction d’une conception occidentale de la morale. Imaginons des IA qui plaquent leur comportement et leur jugement sur les comportements et jugements attendus d’un régime chinois ou sud-coréen? Souhaiterait-on être jugés, évalués, sélectionnés, étudiés par des IA éduqués dans un tel contexte?
Une IA difficile à intégrer au monde du travail.
La technologie ne semble pas adaptée à la réalité organisationnelle. Justine Dima le rappelle: « 70-80% des changements IA en organisation échouent parce qu’on n'a pas pris en compte les facteurs humains, parce que les résistances humaines ne sont pas prises en compte ». Il existe des barrières personnelles, humaines et psychologiques qui font en sorte que les individus peuvent être plus réfractaires à l’intégration des IA dans le monde du travail. Quelles sont les pistes de solutions?
Production et animation: Jean-François Sénéchal, Ph.D
Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon
Épisode suivant

Épisode 11 - Cécile Petitgand - L'intelligence artificielle dans les établissements de santé
Nous avons enregistré cet épisode à l'automne 2020. Superbe rencontre avec cette experte en AI qui a fait le saut sur le plus périlleux des terrains: dans nos établissements de santé!
Sur le cv de Cécile Petitgand on lit : « Mon objectif est de mettre mon expertise et mes compétences en recherche et gestion au service de l'intégration responsable de l'innovation et de l'intelligence artificielle dans les établissements de santé».
Nous avons abordé avec elle plusieurs thèmes.
Notons:
- Le potentiel de l'AI en santé
- Les craintes (fondées ou non) associées à l'AI en santé
- Les principaux enjeux éthiques et sociaux de l'AI en santé
- Les biais
- La déclaration de Montréal
- Les attentes (parfois démesurées en AI)
Bonne écoute! Et merci encore, Cécile!
Production et animation: Jean-François Sénéchal, Ph.D
Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon
Si vous aimez cet épisode, vous adorerez
Commentaires de l'épisode
Générer un badge
Obtenez un badge pour votre site web qui renvoie vers ce episode
<a href="https://goodpods.com/podcasts/ia-caf%c3%a9-enqu%c3%aate-au-c%c5%93ur-de-la-recherche-sur-lintelligence-artificielle-232717/%c3%a9pisode-10-actualit%c3%a9s-clearview-ai-gebru-deda-26153851"> <img src="https://storage.googleapis.com/goodpods-images-bucket/badges/generic-badge-1.svg" alt="listen to épisode 10 - actualités: clearview ai, gebru, deda. on goodpods" style="width: 225px" /> </a>
Copier