Alors que certaines technologies permettent aujourd’hui d’enregistrer ou traduire des conversations et de retranscrire un mémo d’investissement, des précautions d’usage s’imposent. La plupart des fonds et conseils ont dû redoubler d’efforts face au caractère sensible de la donnée désormais manipulée en masse par les outils d’IA auxquels ils ont recours.
« Quand on développe sa propre suite d’outils, il est important d’être particulièrement bien équipé en termes de cybersécurité », pose Jérémy Foucray, CTO de Cambon, qui a fait le choix de s’appuyer sur d’Okta et d’héberger ses données chez MangoDB et AWS. Lorsque la donnée analysée est issue de pitches ou de notes d’investissement, Alexis Deudon, CDO de Raise, préconise à ses équipes de ne pas utiliser ChatGPT, mais plutôt BingChat, une solution de Microsoft qu’il juge plus sûre. « L’interrogation de documents par le langage naturel pose à la fois des questions de sécurité (l’accès à la donnée est souvent contraint par des NDAs), mais aussi de scalabilité : ChatGPT et ses alternatives ne gardent en mémoire qu’un contexte assez limité, l’équivalent de quelques pages », complète le responsable, qui se fait accompagner, par ailleurs, par Qontrol, un DPO (délégué à la protection des données) externalisé à temps partiel.
Au-delà des éventuelles fuites de la data manipulée, c’est la nature même de cette dernière qui est parfois remise en cause. « À mon sens, l’un des gros travers de l’IA générative pourrait être l’opacité de l’origine de ses sources et un risque de manque
de fiabilité », exprime Aurélie Klein, responsable innovation de Fidal.
Une gestion des risques intégrée à la loi
Autant de problématiques potentielles qui, couplées à l’essor exponentiel de l’IA, ont amené le régulateur à prendre ses dispositions. En a découlé, cette année, l’ « AI Act », une proposition législative de l’Union européenne. « Ce règlement européen est l’un des premiers à intégrer une gestion de risques pour les entreprises. Par conséquent, les règles appliquées aux solutions d’IA et aux utilisateurs varient selon l’atteinte portée à la vie privée des individus », exprime Aurélie Klein.