Un collectif de chercheurs pionniers a rĂ©cemment annoncĂ© le lancement dâun ensemble dâĂ©valuations visant Ă standardiser lâinterprĂ©tation technique des exigences lĂ©gales posĂ©es par la nouvelle loi sur lâintelligence artificielle de lâUnion europĂ©enne. Ces Ă©valuations pour les modĂšles de langage de grande taille (LLM) promettent une avancĂ©e notable vers une conformitĂ© plus rigoureuse, sans sacrifier la performance et lâintĂ©gritĂ© des modĂšles. Leur objectif est de garantir un usage responsable et Ă©thique des technologies IA.
Une nouvelle interprétation technique du cadre légal
Table of Contents
Les chercheurs de lâETH Zurich, en collaboration avec lâInstitut bulgare de recherche en IA INSAIT et LatticeFlow AI, ont entrepris de traduire les exigences lĂ©gales europĂ©ennes en normes techniques mesurables et vĂ©rifiables. JusquâĂ prĂ©sent, ces normes concrĂštes faisaient dĂ©faut, compliquant lâimplĂ©mentation des critĂšres de conformitĂ©. Ce nouveau cadre offre aux dĂ©veloppeurs de modĂšles une mĂ©thode pratique pour Ă©valuer lâalignement de leurs crĂ©ations avec la rĂ©glementation europĂ©enne.
Des normes Ă la pratique : premier test sur des modĂšles existants
Ce cadre a Ă©tĂ© testĂ© sur douze modĂšles de langage gĂ©nĂ©ratif parmi les plus connus, tels que ChatGPT, Llama, Claude ou Mistral. Ces LLM ont dĂ©jĂ dĂ©montrĂ© leur potentiel, rendant lâIA accessible et populaire. Cependant, le besoin dâune utilisation responsable et lĂ©gale soulĂšve des questions cruciales, notamment en matiĂšre de protection des donnĂ©es, de transparence et dâĂ©thique. Les rĂ©sultats du test ont rĂ©vĂ©lĂ© que ces modĂšles ne satisfont pas complĂštement aux exigences de la loi, en particulier concernant la robustesse, la diversitĂ© et lâĂ©quitĂ©.
Lâimportance des exigences techniques claires
La mise en Ćuvre rĂ©ussie de la loi sur lâIA dĂ©pend non seulement de la lĂ©gislation elle-mĂȘme, mais surtout de la façon dont ses exigences seront techniquement interprĂ©tĂ©es et appliquĂ©es. Le cadre dĂ©veloppĂ© par les chercheurs clarifie les termes-clĂ©s et propose des mĂ©thodes dâĂ©valuation standardisĂ©es. Cependant, certains aspects, comme lâexplicabilitĂ© des modĂšles, manquent encore de clartĂ© pratique et technique, rendant leur Ă©valuation fiable difficile.
Vers une IA digne de confiance
The loi sur lâIA de lâUnion europĂ©enne, adoptĂ©e pour maximiser la confiance du public, impose un cadre lĂ©gal visant Ă minimiser les risques associĂ©s aux technologies IA. Cette initiative des chercheurs, outre la conformitĂ© lĂ©gale, vise aussi Ă encourager une compĂ©tition saine entre dĂ©veloppeurs, les poussant Ă intĂ©grer davantage dâexigences Ă©thiques et sociales dans le dĂ©veloppement des LLM.
Un outil pour le progrĂšs continu
Poursuivant leur mission, les chercheurs ont rendu leur outil dâĂ©valuation, appelĂ© COMPL-AI, accessible sur une plateforme open source. Cette dĂ©marche vise Ă stimuler la discussion technique et permet Ă dâautres chercheurs et professionnels de contribuer Ă lâamĂ©lioration continue des modĂšles. Par cette approche, ils espĂšrent non seulement satisfaire aux besoins immĂ©diats de la lĂ©gislation europĂ©enne, mais aussi offrir des solutions viables qui pourraient ĂȘtre adaptĂ©es Ă dâautres lois similaires dans le futur.