#20 Entretien : utilisation et gouvernance de l’IA générative au sein de l’administration
L’administration doit bien accompagner ses collaborateurs dans l’utilisation de l’intelligence artificielle (IA) générative et édicter des règles claires en la matière. Dans cet entretien, Marlène Schürch passe en revue les avantages de l’IA générative et les limites d’une telle technologie. Elle présente également la manière dont l’administration cantonale de Saint-Gall gère ce nouvel outil. Entretien réalisé par Timur Acemoglu
Marlène Schürch, titulaire d’un master en droit de l’Université de Saint-Gall, travaille à la Chancellerie d’État du canton de Saint-Gall. Elle y dirige le domaine chargé du droit de l’informatique et de la protection des données.
Timur Acemoglu est avocat et conseille les collectivités publiques sur les questions de droit de la cyberadministration.
Les systèmes d’IA qui servent à générer, entre autres, des textes ou des images occupent une place de plus en plus importante dans notre travail et dans nos vies. Comment l’administration peut-elle tirer parti de ces nouveaux instruments pour l’exécution des tâches courantes ?
Marlène Schürch : Depuis que l’éditeur de logiciels américain OpenAI a mis en service ChatGPT le 30 novembre 2022, le thème de l’intelligence artificielle est sur toutes les lèvres. Les systèmes d’IA générative ont un énorme potentiel, car ils permettent de soulager l’humain des tâches chronophages. Ils fournissent en outre des informations de manière rapide et structurée, ce qui peut faciliter la prise de décisions. La possibilité de formuler des textes de manière simplifiée ou d’obtenir facilement des traductions en différentes langues garantit également une diffusion plus large du savoir. Bref, les systèmes d’IA générative peuvent accroître l’efficacité et la productivité, car ils libèrent du temps pour la réalisation de tâches à valeur ajoutée. Compte tenu notamment de la pénurie de personnel qualifié, ces outils représentent aussi un atout pour l’administration en tant qu’employeur.
Quels sont les risques liés à l’utilisation de l’IA générative ?
La manière dont les textes sont générés par les algorithmes d’IA est généralement opaque et difficilement compréhensible (problématique de la « boîte noire »). Certains biais présents dans les ensembles de données utilisés par les algorithmes participent à renforcer les stéréotypes et peuvent ainsi conduire à des résultats discriminatoires. En outre, la qualité de la réponse dépend souvent de la précision des requêtes ou prompts envoyées à l’IA. L’utilisation de l’IA n’est pas toujours pertinente : les cas de figure complexes doivent impérativement être analysés par un être humain.
Dans le cas particulier de l’administration, il y a en outre le risque de transmettre des données secrètes ou confidentielles à des tiers. Cela constituerait une violation de la protection des données, du secret de fonction ou encore du secret professionnel prescrits par la loi. En effet, les données saisies peuvent être accessibles non seulement au fournisseur du système, mais également à des utilisateurs tiers puisqu’elles sont parfois utilisées pour le développement de l’IA.
Il peut également arriver que l’IA génère un texte en se servant de sources pour lesquelles le fournisseur n’a pas acquis tous les droits d’auteur nécessaires.
Comment l’administration peut-elle et doit-elle faire face à ces risques ?
C’est là qu’entrent en jeu les différences entre les systèmes d’IA générative disponibles librement et, en général, gratuitement sur Internet et ceux que l’administration a acquis et fait installer à des fins précises. Ces derniers doivent répondre aux exigences que les collectivités publiques définissent d’ordinaire pour l’acquisition de nouveaux systèmes informatiques. Dans le cadre d’un projet d’acquisition, ces exigences comprennent une analyse des bases légales et une évaluation détaillée des risques, notamment des risques pouvant nuire à la protection des données et à la sécurité informatique. Les parties prenantes concernées doivent être intégrées dans le processus. Le respect des dispositions légales et des exigences est garanti au moyen d’un contrat écrit avec le fournisseur. Les systèmes d’IA ont généralement une fonction de soutien. L’utilisation de systèmes qui opèrent des prises de décision requiert quant à elle davantage de précautions : pour autant qu’elle soit autorisée, elle doit satisfaire à des exigences accrues en matière de procédure administrative. Pour des raisons de transparence, l’ensemble des systèmes utilisés devraient figurer dans un registre public.
En ce qui concerne les systèmes d’IA générative librement disponibles sur Internet, comme ChatGPT ou DeepL, qui ont vocation à « simplifier les tâches », l’administration en tant qu’employeur doit veiller à ce que les collaborateurs les utilisent de manière responsable et rigoureuse. Cela passe entre autres par l’établissement de directives et de fiches d’information. Il est en outre indispensable d’accompagner et de responsabiliser les collaborateurs, par exemple au moyen de formations. Le bannissement pur et simple de ces outils paraît inadéquat dans un contexte de transformation numérique. De plus, il serait difficilement réalisable d’un point de vue technique en raison du grand nombre d’applications d’IA disponibles et de la possibilité d’utiliser un appareil privé.
Quelles règles de gouvernance l’administration du canton de Saint-Gall applique-t-elle en matière d’IA générative ?
La manière dont l’IA est utilisée au sein de l’administration cantonale de Saint-Gall sera analysée en détail dans le cadre d’un mandat visant l’élaboration d’une stratégie en matière d’IA. Le Conseil d’État a édicté le mandat correspondant lors de la session d’été 2023, par la voie de l’arrêté sur les comptes 2022 (33.23.01). Un groupe de travail a été institué à cet effet.
À la fin de l’été 2023, le gouvernement du canton de Saint-Gall et l’association des présidents de communes saint-galloises ont édicté, en tant que mesures immédiates, des lignes directrices sur l’utilisation de ChatGPT et de systèmes similaires dans l’administration (Leitlinien über die Verwendung von ChatGPT und ähnlichen Systemen in der Verwaltung). Celles-ci régissent l’utilisation de systèmes d’IA générative librement disponibles sur Internet tels que ChatGPT pour l’exécution des tâches courantes et, ce faisant, le respect des dispositions légales en vigueur. Les rédacteurs ont opéré une distinction entre saisie et utilisation de texte. Lorsqu’il saisit du texte, l’utilisateur ne doit faire mention d’aucune donnée protégée par le droit sur la protection des données (données personnelles) ou par une obligation de garder le secret (p. ex. secret de fonction, secret fiscal ou secrets d’affaires de fournisseurs). Ainsi, il doit toujours vérifier au préalable si le texte contient des données secrètes ou confidentielles et s’il est possible d’omettre ou de reformuler les passages sensibles. Avant d’exploiter un texte généré par une IA, il est indispensable d’en vérifier la qualité, l’exactitude et l’objectivité, et de s’assurer du respect des droits d’auteur, l’idéal étant de procéder à une comparaison avec des sources fiables. En outre, pour des raisons de transparence, il convient de mentionner l’utilisation de systèmes d’IA ou de remanier certains passages.
Quel est l’état d’avancement de la réglementation de l’IA ?
L’IA ne connaissant pas de frontières, une réglementation de portée internationale semble opportune. L’adoption de la loi sur l’IA par le Parlement européen le 13 mars 2024 et de la Convention sur l’IA par le Comité des ministres du Conseil de l’Europe le 17 mai 2024 constitue à ce titre un jalon important. La Convention sera soumise pour signature à l’ensemble des États le 5 septembre 2024 à Vilnius. Sa ratification par la Suisse nécessitera une transposition dans le droit national. À cet effet, le Conseil fédéral a demandé au Département fédéral de l’environnement, des transports, de l’énergie et de la communication (DETEC) d’examiner la réglementation en matière d’IA d’ici au mois de novembre 2024. Une telle réglementation doit s’appuyer sur le cadre juridique suisse existant et être compatible avec la loi sur l’IA de l’Union européenne et la Convention sur l’IA du Conseil de l’Europe. Elle doit en particulier garantir le respect des droits fondamentaux, fixer des normes techniques et préciser les incidences sur les finances et les institutions. L’examen demandé au DETEC, ainsi que le mandat concret qui en résultera en vue de l’élaboration d’un projet de réglementation de l’IA, présenteront un grand intérêt pour les cantons et les communes et serviront au développement de la stratégie du canton de Saint-Gall en matière d’IA.
La réglementation de l’IA est une question délicate. D’un côté, les possibilités de l’IA doivent pouvoir être exploitées, de l’autre, les risques qu’elle présente sont importants. Comment évaluez-vous la pertinence des réglementations actuelles, par exemple de la loi européenne sur l’IA, face à cette situation ?
L’enjeu est de permettre l’innovation, tout en traçant des lignes à ne pas franchir pour préserver les droits fondamentaux, la démocratie et l’État de droit. En adoptant une approche basée sur les risques, la loi européenne sur l’IA tient compte de cette problématique puisqu’elle interdit les systèmes qui font courir des risques inacceptables, comme le fait d’opérer des catégorisations biométriques sur la base de critères sensibles tels que la race ou le sexe. Dans l’ensemble, on peut affirmer que les principes établis tant dans la loi sur l’IA que dans la Convention sur l’IA, tels que l’autonomie des individus, le contrôle, la non-discrimination, la transparence ou la protection de la sphère privée, constituent des garde-fous à la fois essentiels et pertinents.