Panorama des risques, vulnérabilités et pistes pour une utilisation plus sûre de l'IA gén...
Présentation par : Willy Malvault, Aurélien Fournet 📕 Resumé : En 2023, l’Intelligence Artificielle générative (IA Gen) bat des records d’adoption : 100 millions d’utilisateurs pour chatGPT en 2 mois, une course effrénée entre les leaders technologiques (10 milliards d'investissement dans OpenAI par Microsoft, sortie de Google Bard, etc.). En effet, l’IA Gen est considérée par beaucoup comme un facteur de croissance et de productivité incontournable pour rester compétitif. Ça va très vite ! Mais on doit y aller ! Mais, une utilisation croissante de l’IA Gen expose à une augmentation des menaces cybercriminelles. Par exemple, plusieurs études montrent que la génération de code assistée par IA produit un code plus vulnérable, en moyenne, aux cyberattaques. Et ce n'est pas la seule vulnérabilité de l'IA Gen ! De fait, il convient d'évaluer les risques et d'appliquer des mesures de sécurité, pour bénéficier de la valeur ajoutée de l’IA de manière sûre et responsable. Avez vous pris le temps de le faire ? Nous oui ! Et c'est dans un écosystème en pleine maturation qu'on va trouver des mesures de sécurité, sous la forme de framework (ex: NIST AI RMF 1.0, ENISA), de référentiels de menaces (OWASP Top 10 LLM, Microsoft Learn, etc.) et d'un florilège de services innovants. Nous proposons de vous présenter nos études et travaux sur le sujet, dans cette conférence. Nous parlerons de risque comportemental et social, de contrôle et validation de données, de fuites d'informations et du besoin de transparence associé à l'utilisation d'IA générative. Enregistré en avril 2024 à Paris, Palais des Congrès, Porte Maillot. 🔥 Pour rester informé sur l'actualité de Devoxx France, suivez nous sur linkedIn : https://www.linkedin.com/company/devoxx-france/, twitter : https://twitter.com/DevoxxFR ou consultez notre site web https://www.devoxx.fr/