Au programme de ce premier opus de la saison 5 :
Avec Jean-Pierre Lorre de Linagora : d'openLLM-France, des modèles Claire-7B et Lucie-7B, et des travaux de l'Open Source Initiative autour de la définition de ce qu'est une IA générative open source.
Avec Rémy Ibarcq, Caroline Jean-Pierre et Samuel Rincé de Dataforgood : du livre blanc sur les défis de la genAI, du projet "Gen AI impact" de calcul de l’empreinte environnementale des modèles appelés en API, et du serious game "La Bataille de l'IA"
Au programme de ce dernier opus de la saison 4 :
Une vision “patrimoine IA” pour gérer l’intégration d’un grand nombre de briques IA en production
Samuel Jaulin, Yann Golhen (MAIF)Les coûts cachés (voire oubliés) des LLMs
Céline Alby (Axionable)
Au programme de ce troisième opus de la saison 4 :
"L'Union Européenne va-t-elle interdire ChatGPT ? Enjeux et sur les méthodologies d’audit des LLMs qui se dégagent dans le paysage réglementaire et scientifique."
Grégoire Martinon, Hao Li, Aymen Mejro, Hadrien Strichard (Quantmetry)Synthèse du livre blanc "Generative AI Survey - The Technology, the Rewards & the Risks" pour l'élaboration duquel Artefact a interviewé plus de 50 entreprises
Hanan Ouazan (Artefact)
Au programme du 1er meetup de cette saison 4 :
IA éthique et responsable : comment s'aligner sur la future règlementation européenne ?
Grégoire Martinon, Philippe Neveux, Olivier Petit, Nicolas Girard (Quantmetry)Projet P16 porté par l’INRIA dans le cadre de la Stratégie Nationale pour l'IA
François Goupil (INRIA)
Au programme du 1er meetup de cette saison 4 :
IA éthique et responsable : comment s'aligner sur la future règlementation européenne ?
Grégoire Martinon, Philippe Neveux, Olivier Petit, Nicolas Girard (Quantmetry)Projet P16 porté par l’INRIA dans le cadre de la Stratégie Nationale pour l'IA
François Goupil (INRIA)
Au programme de ce meetup :
Giada Pistilli, Principal Ethicist d'Hugging Face présente ses travaux sur l'éthique ainsi que sur OpenRail, nouveau cadre de licence open source des modèles d'IA
Xavier Lioneton de datacraft et Gwendal Bihan d'Axionable et Impact AI présentent l'AI Act Day, événement le 15 décembre 2022 à la Sorbonne pour comprendre, mettre en pratique et anticiper le futur règlement européen de l'IA
Entre innovations transformatrices et dérives dangereuses, l’IA doit impérativement perdre son côté boîte noire et s’appuyer sur des certifications voire des labels pour établir la confiance sans laquelle elle ne pourra s’imposer à long terme.
Read MoreAu programme de ce meetup :
La MAIF présente Eurybia, sa nouvelle librairie open source permettant de surveiller les modèles de machine learning en production et d'éviter les dérives des modèles
Quantmetry présente sa méthode pour adapter des données temporelles impactées par le COVID-19 pour le machine learning
Read MoreArtefact est fière d’annoncer l’obtention du label Labelia - IA Responsable et de Confiance décerné par l’association indépendante Labelia Labs.
Read MoreAu programme :
Hafid Ait Sidi Hammou, chargé de mission chez la Métropole Européenne de Lille a présente certaines problématiques d’IA dans les organismes publics.
Alexis Leautier de la CNIL présente le guide d'auto-évaluation pour les systèmes d'intelligence artificielle et ses travaux sur l'IA.
Emmanuelle Legrand, de la Direction Générale des Entreprises intervient pour présenter les enjeux et le calendrier autour de la réglementation européenne de l'IA.
Retrouvez le replay de notre premier Meetup de la saison 3 co-organisé avec Data for Good et la Fing.
Read MoreA l'occasion de ce 3ème meetup Data Science Responsable et de Confiance de l'année organisé par Substra Foundation et Data For Good du 21 juin 2021, nos invités ont défriché et discuté des perspectives d la proposition de réglementation européenne de l'Intelligence Artificielle.
Read MorePionnier des services et solutions d’IA responsable et à finalité durable en France et au Canada, Axionable double la mise après avoir été la première entreprise certifiée IA éthique par le LNE
Read MoreLabelia, le Label IA Responsable et de Confiance !
Alors que le projet de règlement européen sur l’IA a été dévoilé au printemps 2021 et dans un contexte où les risques liés aux Data Sciences sont de plus en plus prégnants, les organisations se doivent d’adopter des pratiques, des outils, des approches de l’IA qui soient responsables afin de donner confiance.
In the first part of this article, you had your first encounter with Differential Privacy and learned why it’s so awesome. In this second part, we’ll present to you three python libraries for implementing Differential Privacy: Difflibpriv, TensorFlow-Privacy and Opacus.
Read MoreIn the first part of this article, we introduced a secure, traceable and distributed ML approach for a deepfake detection benchmark using the Substra framework. In this second part, we will present the technical details of the Substra framework and see the whole process of implementing an example on Substra, in order to allow you to submit your own algorithms or add your dataset to the Substra network.
Read MoreDoes the term Differential Privacy ring a bell? If it doesn’t then you’re in for a treat! The first part of this article provides a quick introduction to the notion of Differential Privacy, a new robust mathematical approach to formulate the privacy guarantee of data related tasks. We will be covering some of its use cases, untangle its mechanisms and key properties and see how it works in practice.
This article has been written by Heytem Boumaza, intern at Substra Foundation.
Read MoreCet article de blog est une introduction à la notion de distillation de modèle et son lien avec la privacy. Il a été écrit par Gijs Barmentlo dans le cadre de la saison 8 de Data For Good.
Read More