Photo de Igor Omilaev sur Unsplash

IA frugale : quoi, pourquoi et comment ?

Nous avions déjà défini les bases de fonctionnement des IA génératives et LLMs grand public dans un précédent article : LLMs, Transformers & IA générative : un guide. Devant l’adoption rapide de cette technologie, trop rapide diront certain.e.s, il apparaît nécessaire de s’interroger sur la possibilité de son intégration dans une stratégie globale de sobriété : est-il possible d’envisager les IA génératives (ou IAg) comme acteurs du numérique responsable que beaucoup construisent en opposition aux tendances actuelles ?

Pourquoi alors parler de « frugalité » ? Pourquoi est-ce important ?

Comment alors définir une IAg frugale ? Quelles seraient les différentes étapes de développement d’un outil IA frugal ? Les critères essentiels d’un tel outil ?

Dans cet article, nous partirons de ces questions soulevées par l’IAg, et élargirons le raisonnement aux outils IA dans leur globalité, incluant tout algorithme de Machine Learning, de la simple régression au réseau de neurones le plus avancé.

C’est parti.

La frugalité, une nécessité

Tout d’abord, qu’entend-on par « frugalité » ?

Invoquons ici le dictionnaire : frugalité, synonyme de sobriété, « qui se contente de peu », « dans la retenue », « dans l’inverse de l’excès ». Très bien, mais quel rapport avec l’IA ?

De nombreuses études mettent en évidence l’impact environnemental du développement et de l’utilisation des outils IA, impact s’étant aggravé avec l’arrivée des IA génératives. L’entraînement d’un seul modèle demande des ressources importantes, aussi bien énergétiques que matérielles, et son empreinte carbone est bien souvent démesurée. L’entraînement de GPT-3 aurait par exemple nécessité 190 000 kWh, soit 85 000 kg d’équivalents CO2, une quantité atteinte par un trajet de 700 000 kilomètres en voiture, ou encore un aller-retour Terre-Lune. Une requête GPT-3 consommerait 4 wattheures (Wh), soit un tiers d’une recharge complète de smartphone, mais peut grandement variée puisque la génération d’image consommerait en moyenne 60 fois plus que la génération de texte. La dernière version de LLaMa, un autre modèle d’IAg en accès libre, aurait consommé plus de 26 gigawatts-heures (GWh), soit la consommation annuelle de 5 000 ménages français. Enfin, selon un rapport du MIT Technology Review, la formation d’un seul modèle d’IA pourrait émettre plus de 626 000 livres d’équivalent CO2, soit près de cinq fois les émissions d’une voiture américaine moyenne au cours de sa durée de vie

Cependant, il est important de préciser que le calcul de l’impact d’un outil IAg grand public est complexe à quantifier, tant l’opacité de leurs structures et de leur développement est importante. Ces chiffres sous-estiment donc peut-être l’impact réel qu’ont ces IAg. Néanmoins, de nombreuses initiatives pour le calculer ont vu le jour ces dernières années, et confirment les doutes et craintes de beaucoup. Les conséquences de l’adoption rapide des IAg sont déjà visibles à travers le monde, et ne sont pas uniquement environnementales :

  • Multiplication des centres de données ou Data Centers, entraînant une croissance vertigineuse des besoins en électricité et eau;
  • Développement de réseaux de télécommunication étendus et d’usines de production de composants électroniques, ainsi que de mines pour les matières premières (plus complexes que les mines de fer), avec des conséquences sociales et géopolitiques d’envergure;
  • Exploitation humaine massive, majoritairement dans les pays du Sud, afin de labelliser les données et faire fonctionner les outils IAg;
  • Pillage d’œuvre protégées et non-respect des droits d’auteurs;
  • Affaiblissement des droits numériques au profit des entreprises IA;
  • Etc…

La liste est encore longue, et démontre la nécessité de trouver une alternative, une autre voix pour ces outils. Une nécessité de frugalité pour l’IA dans sa globalité.

IA frugale, une définition

Revenons aux définitions.

  • Qu’appelle-t-on « IA » ?

Pour le Parlement européen, l’intelligence artificielle représente tout outil utilisé par une machine afin de « reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ». Ce terme ne désigne donc pas uniquement les LLMs dernière génération, mais regroupe tout algorithme d’apprentissage automatique, ou Machine Learning. L’IA peut être vue comme un domaine plus qu’une technologie en particulier, un domaine développé bien avant la hype des dernières années.

Les différents types d’IA peuvent être divisés en deux catégories :

  • Les logiciels : assistants virtuels, logiciels d’analyse d’images, moteurs de recherche, systèmes de reconnaissance faciale et vocale
  • L’IA « incarnée » : robots, voitures autonomes, drones, l’Internet des objets
  • Comment définir l’IA frugale ?

Combinons les deux définitions : l’IA frugale désignerait l’ensemble des algorithmes de Machine Learning développés avec peu, sans fioritures, sans superflu, alloués à une tâche bien précise et rien d’autre. Après observations des impacts négatifs des outils IA déjà en place, il apparaît nécessaire que le développement d’un tel outil soit transparent et justifiable, son fonctionnement explicable, maîtrisable, mesurable. La frugalité doit se retrouver dans son objectif. L’utilisateurice de l’outil est informé.e et respecté.e, tout comme ces droits et le RGPD. Rappelons qu’une personne concernée a le droit de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé produisant des effets juridiques la concernant ou l’affectant de manière significative de façon similaire. Autrement dit, l’humain doit garder la main, et le résultat final doit être évalué, pour éviter tout biais algorithmique, avant toute validation, avec des audits réguliers.

Le fournisseur d’un service d’IAg frugal doit mettre en œuvre la démarche « éviter, réduire, compenser », un triptyque reposant sur trois étapes consécutives, par ordre de priorité :

  1. L’évitement des impacts en amont du projet ;
  2. La réduction des impacts durant le projet ;
  3. La compensation des impacts résiduels.
  • Quelle différence avec la Green AI, ou IA verte ?

Roy Schwartz et son équipe du Allen Institute for AI ont théorisé en 2019 deux grands concepts en IA sur la base des méthodes utilisées et de leur impact énergétique :

  • L’IA rouge, ou ‘’Red AI‘’ : l’objectif est ici l’amélioration de la précision et de la puissance des modèles à tout prix, en les complexifiant et en utilisant une puissance de calcul massive, quitte à augmenter son impact environnemental et social.
  • L’IA verte, ou ‘’Green AI‘’ : l’objectif est d’égaler l’IA rouge tout en réduisant au maximum les coûts de calculs. Son impact environnemental et social est un critère d’évaluation à part entière de sa performance.

Le domaine de l’IA frugale est encore largement confondu avec celui de la Green AI, réduite au final à une affaire technique et où l’utilisation de ces outils n’est pas vraiment questionnée. Le but de l’IA verte se concentre sur la réduction de l’empreinte des systèmes composants les outils (code, données, infrastructures), lorsque l’IA frugale ajoute le questionnement des besoins et usages, et peut amener le renoncement comme alternative viable.

Là se situe peut-être l’un des points les plus importants du développement d’un outil IA frugal : le renoncement peut, et doit, se faire à chaque étape de développement si les conditions et exigences de frugalité ne peuvent être remplies. Une IA frugale peut être une IA qu’on a laissé de côté, pour plus tard, ou pour jamais.

Étapes de développement d’un outil IA frugal

A partir des définitions et des problématiques soulevées, trouvons alors les critères concrets essentiels pour une application IA frugale et responsable, étape par étape.

1. Légitimité du besoin & pertinence de l’outil : ne pas développer pour rien

Nous le voyons chaque jour, les LLMs grand public sont déclinés en de nombreuses saveurs dans de nombreux domaines. Du simple assistant intégré dans notre environnement de travail au bot de conversation sur notre application bancaire, en passant par l’aide à coder, ils fleurissent dans notre quotidien, sans nous donner le temps de réflexion quant aux implications de leur utilisation, et surtout, si cette utilisation est justifiée.

Revenons à la définition de frugalité : synonyme de sobriété, « qui se contente de peu », « dans la retenue », « dans l’inverse de l’excès ». Dans le cadre du développement d’un outil IA frugal, chaque étape de son développement et élément le constituant se doit de suivre cette logique, à commencer par son objectif. Sa fonction première, la justification de son existence même, est le premier élément d’une longue liste à vérifier. Le pourquoi, bien avant le comment ou le quand. Arrive donc ici un des plus gros points de débat concernant l’utilisation des outils IA à n’importe quelle échelle : la justification de l’utilité et du besoin. Est-il vraiment nécessaire qu’un LLM reforme nos emails ? Avons-nous besoin d’aide pour trouver une recette de cake aux fruits ? Ne pouvons-nous pas rédiger notre lettre de motivation nous-même ? Avons-nous vraiment besoin d’un algorithme pour coder à notre place ?

La notion de besoin est ici primordiale, et doit être contrebalancée par tout impact négatif recensé. A-t-on réellement besoin qu’un assistant IA relise nous accompagne dans notre vie quotidienne ? Décide à notre place ? Que cela va-t-il changer dans notre travail ? Serons-nous plus efficaces ? Le gain de temps est-il réellement mesurable ? Avant de lancer tout projet incluant un algorithme de calcul poussé, il est essentiel de poser au propre les pours et les contres, les avantages et désavantages de l’outil, les conséquences positives et négatives connues dudit outil. Cette étape est accompagnée d’une définition d’un budget en termes de ressources pour les différentes phases de développement. Dans cette planification globale, il faut à la fois définir les algorithmes à évaluer, les comparer en prenant en compte leurs coûts environnementaux de développement et d’utilisation, évaluer l’impact lié à la fourniture du service sur une année et si possible sur le cycle de vie entier de l’outil, et créer un référentiel pour comparaison avec de futurs projets.

Une fois réalisée, cette étape nous amène à déterminer le bilan global de l’outil et à répondre à LA question : le jeu en vaut-il la chandelle ?

Si la réponse est oui, le projet est lancé, assurons-nous que le reste du processus de développement respecte tout autant le principe de frugalité, et surtout, que l’outil serve réellement le but pour lequel il a été conçu en travaillant avec les professionnel.le.s du milieu, par contre elleux. Assurons-nous de la validation du besoin et de la pertinence du projet directement auprès des personnes concernées.

Si la réponse est non, des alternatives existent : solutions moins avancées tout aussi efficaces, solutions déjà existantes à améliorer ou adapter, ou tout simplement rien, puisque le besoin n’a pas été clairement identifié. Rappelons-le, le renoncement est une option viable dans un monde trop enclin à faire sans y réfléchir à deux fois.

2. Contrôle du corpus d’entraînement : ne pas entraîner sur tout et n’importe quoi

Après la preuve du besoin, attaquons-nous à un aspect central dans le développement d’algorithme de Machine Learning : les données d’entraînement.

Imaginons que notre outil IA frugal a passé la phase de justification du besoin, le développement est décidé, et l’étape de test est lancée. Seulement, pour démarrer tout projet de science des données, nous avons besoin de… données, évidemment. Qu’importe le type d’algorithme, les données d’entraînement sont un pilier du processus. Elles doivent être suffisantes, détaillées, pertinentes, équilibrées. Mais qu’en est-il de l’aspect frugal ? Afin respecter ce principe, à quoi ressemble un corpus d’entraînement idéal ?

Nous le savons, les IA génératives grand public ont besoin d’une immense quantité de données d’entraînement pour rester pertinentes face aux requêtes de leurs utilisateurices. Elles sont entraînées à partir de corpus formés de données venant de la collecte intensive, ou « scraping« , de quantités immenses d’informations publiques ou privées, sans distinction de pertinence ou de qualité. Nous le savons également, les données récoltées le sont souvent illégalement, sans aucune forme d’autorisation. Certaines entreprises IA ont été reconnues coupables d’avoir enfreint les copyrights de milliers d’auteurs en s’appuyant sur des textes ou chansons dont ils n’avaient pas les droits. Pourtant, ce moissonnage intensif des contenus du web est défendu par les principaux acteurs du domaine, invoquant l’impossibilité de développement de ces super-algorithmes sans ce type de méthode.

Revenons à notre outil frugal. En prenant le contrepied de la politique actuelles des principaux concepteurs des LLMs tout public, notre corpus frugal doit être limité, trié, spécialisé, tout comme notre outil. Le contenu est sélectionné avec soin, classé en fonction des thématiques et des langues, pointu et utilisé avec l’autorisation des auteurices pour ce type d’application. L’entraînement de tout algorithme sur ce corpus est donc légal et encadré. De plus, le corpus doit être diversifié afin d’éviter l’apparition de biais lors de l’application de l’algorithme.

Le plus beau dans tout cela ? Ce type de corpus existe déjà. Common Corpus est une bibliothèque de données développée par Pléias en collaboration avec HuggingFace, Occiglot, Eleuther, Nomic AI, et Lang:IA. Des millions de textes en anglais, mais aussi en français, en allemand, en espagnol, en néerlandais ou en italien sont rassemblés pour ce projet en cours qui vise à montrer qu’il est possible d’entraîner de grands modèles de langage sur des corpus entièrement ouverts et reproductibles. L’initiative est encore en plein développement, encore jeune, mais démontre une faisabilité certaine.

3. Choix d’un algorithme adapté : ne pas désherber à la bombe H

Nous y voilà. Le besoin est identifié et justifié, le projet est lancé, le corpus frugal est établi. Passons au choix du modèle, avec test de plusieurs algorithmes présélectionnés. Cette étape est critique lors du développement d’un outil IA frugal, tant l’impact peut varier selon le modèle évalué. Le calcul du coût environnemental des outils IA générative grand public est bien souvent hasardeux tant la transparence est approximative pour la plupart. L’une des données cruciales est le choix du modèle utilisé. Jusqu’à récemment, il était possible pour les utilisateurices de ChatGPT de choisir quel algorithme allait répondre à leurs requêtes. Cette fonctionnalité est désormais payante, rendant la mesure de l’impact de son prompt quasiment impossible lorsque l’on ne désire pas dépenser plus que de raison. GPT-4.1, o4 mini, o3… la puissance varie, tout comme la consommation. Pour estimer l’impact d’un outil, il est crucial de tout savoir sur son modèle de base.

Mais comment évaluer un modèle ? Quels éléments considérer ?

Deux critères sortent du lot : la complexité, et l’efficacité.

La complexité d’un modèle engendre un entraînement long, une utilisation coûteuse, ainsi qu’une demande accrue en infrastructures de calcul et de mémoire. L’efficacité vient tempérer ce coût, permettant une résolution rapide du problème de l’utilisateurice. Cependant, l’efficacité ainsi que la complexité ne doivent pas surpasser les besoins, et rester adaptées à la problématique, nulle nécessité de milliers d’heures de calcul pour une simple régression, aucun besoin de milliard de coefficients pour un modèle classique de classification. La complexité et l’efficacité doivent donc être proportionnées aux tâches prévues pour l’outil en développement.

Afin d’évaluer ces deux critères, il est nécessaire de comprendre l’algorithme considéré, d’avoir accès à ses paramètres pour l’étudier et à terme, l’adapter à notre problématique. Les modèles open-source (terme désignant tout modèle dont le code source original est rendu disponible librement et peut être redistribué et modifié) semblent pour cela tout indiqués, les modèles open-weight (modèles dont les paramètres sont consultables mais pas modifiables) ne permettant pas la personnalisation.

L’algorithme d’un outil IA frugal se doit donc d’être mesurable, adaptable, transparent et open-source. Sa complexité doit être justifiée, balancée par son efficacité, et l’impact global ne doit pas dépasser une certaine limite précédemment établie lors de l’étape de validation du besoin.

4. Données utilisateur, infrastructure & hébergement : posséder, c’est maîtriser (plus)

Reprenons. Le projet est lancé, le corpus d’entraînement a été défini, le modèle choisi. Fine-tuning, tests, déploiement, tout est rodé, on connait la machine. Mais justement, la connait-on vraiment ? Une question reste en suspens quant à l’outil en développement : comment doit-il être déployé ? Comment rendre sa phase de production frugale ?

Une grande majorité des outils IA proposés aujourd’hui sont disponibles en ligne, proposant une expérience dématérialisée bien pratique. Mais cette praticité a un prix, et pose de multiples questionnements liés à la gestion des données utilisateurice. Car oui, notre chatbot préféré a beau apparaître comme par magie sur notre bureau, il n’en est pas moins hébergé quelque part. Les centres de données ou Data Centers, de vastes infrastructures de milliers de serveurs, abritent nos applications préférées, leur permettant de stocker, traiter et transmettre les données de nos activités en ligne. Ils tournent jours et nuits, en attente de requêtes. Comme nous l’avons déjà vu, ces centres ont un coût, que beaucoup payent déjà.

Tout d’abord, celui de l’eau. Dans un monde où cette ressource est manquante, le refroidissement des centres entraîne sa surconsommation, surconsommation aggravée par la nécessité de fournisseurs d’énergie dédiés, indispensables au bon fonctionnement de nos applications préférées, eux-mêmes devant être refroidis. Ces centres et ces centrales doivent également être construits, ajoutant le coût des matériaux et leur approvisionnement au total, sans omettre les possibles répercussions sur les populations locales des pays fournisseurs. Le choix du « cloud« , du « tout en ligne », du « dématérialisé » a un prix, un prix que l’on cache, mais pourtant très concret.

Si l’on ajoute à cela une gestion fluctuante des données récoltées, particulièrement pour les pays hors Europe (le RGPD encadrant le traitement des données personnelles sur le territoire de l’Union européenne), le choix de l’hébergement apparaît comme cruciale dans la construction de notre outil IA frugal. Une option de serveur uniquement européen pourrait sembler comme idéal, mais n’est-ce pas finalement déplacer le problème ?

Alors que faire ?

Dans l’objectif de protéger vos données, et de contrôler votre consommation énergétique et son impact, un hébergement local apparait comme la solution la plus frugale. Cela entend une installation sur site de l’outil, ainsi qu’une estimation de la puissance nécessaire à son fonctionnement (puissance optimisée aux étapes précédentes), mais l’utilisation est maîtrisée, les données à l’abri. Ainsi, Le contrôle de l’outil est total, de sa personnalisation à son optimisation progressive en passant par son utilisation. Nulle surconsommation en attente de l’utilisateurice, puisque l’utiliateurice iel-même choisit quand consommer. De plus, cette solution locale permet une meilleure réutilisation d’infrastructures déjà existantes, évitant un surcoût et une surconsommation hardware des plus bien venue.

5. Validation, amélioration continue & réutilisation : prévoir, anticiper et recycler

Nous arrivons à la phase de validation finale du projet IA frugale. Mais justement, que regarder ? Quels éléments doivent absolument être évalués sur notre outil afin d’assurer un livrable en accord avec nos principes de frugalité ?

Mettons de côté les erreurs technique, évidentes, qui ne permettent de tout façon pas la poursuite du développement. Plusieurs types erreurs plus spécifiques sont régulièrement observées dans les résultats de système d’apprentissage automatique. Parmi elles, nous trouvons :

  • Les erreurs liées au manque de représentativité et de diversité dans les données d’entraînement : notre outil est alors biaisé, on remarque une tendance à ne pas fonctionner pour une certaine partie de la population, ou de rejeter cette population, ou lui allouer toujours le même résultat, qu’importe le profil. Cette erreur devrait être écartée si notre corpus était parfait, mais la perfection est une douce illusion, la réalité étant que les données manquent cruellement lorsque l’on se penche sur des problématiques spécifiques concernant des populations peu étudiées. Par exemple, certains algorithmes de reconnaissance faciale entraînés sur des ensembles de données où les personnes de certaines origines ethniques étaient en nombre insuffisant.
  • Les erreurs liées à la faiblesse des hypothèses de départ, au côté bancal du concept : encore une fois, une erreur censée être aussi évitée à l’étape de preuve du besoin, mais il est bon de la vérifier. En tant qu’abstraction mathématique, l’algorithme repose sur des hypothèses dont certaines peuvent s’avérer trop approximatives, trop simples, et reposer sur un sophisme ou une erreur de logique. Par exemple, des algorithmes d’évaluation de la performance des enseignants aux États-Unis ont causé de nombreuses plaintes car l’hypothèse selon laquelle les notes des élèves étaient une preuve directe de la performance d’un enseignant était trop simpliste.
  • Les erreurs liées à la mauvaise évaluation des besoins en infrastructure: les systèmes d’IA ne sont pas exempts des défaillances classiques qui peuvent intervenir sur les infrastructures physiques où sont réalisés les calculs, lors de la communication d’information, ou encore à cause d’une erreur humaine.

Mais alors, comment évaluer et corriger l’outil si ces erreurs apparaissent ?

Les systèmes d’intelligence artificielle se distinguent des systèmes informatisés plus classiques par leur évaluation plus complexe. On parle d’explicabilité de l’algorithme, ou capacité de mettre en relation et de rendre compréhensible les éléments pris en compte par le système d’IA pour la production d’un résultat. En effet, dans les modèles de Machine Learning, l’analyse des paramètres utilisés pour comprendre le résultat et définir lequel a le plus influencé la sortie peut s’avérer délicat, particulièrement pour les algorithmes complexes tels que les réseaux de neurones. Le nombre de paramètres utilisés fait qu’il est alors souvent impossible de comprendre d’où vient l’erreur ou le biais. Pour limiter ce risque, il est recommandé de conserver certaines données utiles au système pour une durée proportionnée : c’est la traçabilité.

Assurer la traçabilité d’un système d’IA consiste à offrir de l’information transparente sur les données, les étapes, le processus utilisés par le système pour arriver à un résultat. Si le développement est clair et documenté depuis le début, la détection de l’origine de l’erreur ou du biais et sa correction se feront plus facilement. Dès les premières phases du projet, l’avancement doit être détaillé avec précision et honnêteté intellectuelle, explicable.

Apparaît alors deux autres aspects essentiels à toute la chaîne de développement et production d’un outil IA frugal : la transparence et l’anticipation. Dans la conception même de l’outil et ce dès le début, il est nécessaire d’intégrer un aspect d’amélioration continue, d’audit régulier de l’outil, et de documenter chaque résultat obtenu pour une meilleure durabilité de l’outil IA frugal. Comprendre son outil, c’est non seulement l’adapter, mais également l’améliorer, assurer sa pertinence dans le temps, qu’il ne devienne pas un énième gadget abandonné au bout de 6 mois, pour être remplacé par son successeur plus beau et plus puissant. Il faut, au mieux des possibilités, prévoir les limites techniques à venir liées à une augmentation des besoins hardware ou software, sans bien sûr tomber dans la course à la performance à tout prix.

Enfin, il est primordial de penser à l’après, la probable réutilisation de l’outil pour un autre projet. En effet, développer de grands modèles d’apprentissage automatique à partir de plus petits peut réduire considérablement le temps et les coûts de formation. Penser le code dès le départ comme pouvant être ré-implanter sur plusieurs environnement, décomposer l’algorithme en blocs logiques…nombreuses sont les méthodes assurant une deuxième vie à nos outils IA frugaux. Recycler tout, tout le temps, même l’IA.

6. Expérience utilisateur, sensibilisation & formation des équipes

Enfin, notre projet arrive à son terme. L’outil est créé, produit, les tests passés, la validation assurée, il ne manque que la remise en main propre au client, ou mise en ligne pour utilisation. Seulement, le travail n’est pas encore terminé, il reste une dernière étape pour parfaire l’ensemble et ne pas compromettre un développement frugal et responsable : la présentation de l’outil, sa notice d’utilisation, ses do et ses don’t. En d’autres termes, la sensibilisation et la formation du clients, des équipes ou utilisateurices dans leur globalité. Après tout, à quoi bon développer des outils frugaux si leur utilisation ne l’est pas ? L’outil IA frugal et éthique ne l’est réellement que par un comportement frugal et éthique de celui ou celle qui le manipule. Il est donc fondamental de former le client et ses équipes dans ce sens et de responsabiliser tous les usages.

De par notre engagement à développer un outil IA frugal, nous savons que le produit final respecte les principes de sobriété, mais qu’en est-il des clients et usagers ? Afin de prouver nos dires et proposer une expérience adaptée aux usages numériques de tout un chacun, il est important de communiquer sur le processus de développement et production dans sa globalité. Encore une fois, le critère de transparence, essentiel. Du choix du corpus d’entraînement au type de modèle sélectionné en passant par la consommation par utilisation, tout doit être documenté et disponibles à la lecture. Les livrables doivent être complets et adaptés au plus grand nombre pour une meilleure compréhension des enjeux. Un outil IA frugal est un outil compréhensible par toute et tous, et propose une expérience maîtrisable et maîtrisée. L’utilisateurice sait où vont et ne vont pas ses données, iel contrôle l’outil et non l’inverse. Par cette transparence imposée, la confiance est acquise, puisque rien n’est caché, et l’expérience utilisateur n’en est que plus agréable.

De plus, il est fondamental de responsabiliser le client et ses équipes, ainsi que l’usager. La communication peut être parfaite et la documentation complète, ne nous leurrons pas, les dérives d’usage ne peuvent malheureusement pas toutes être évitées. Il est primordial de mettre en place les blocages nécessaires pour prévenir toute utilisation abusive ou illégale, mais il est tout aussi important, peut-être même plus, d’informer sur ce qui ne devrait pas être demandé d’un outil IA dont la conception se veut frugale et responsable. Montrer les limites techniques, éthiques et morales de l’outil fait partie intégrante de sa production, tout comme la définition et le contrôle du respect des utilisations cibles.

CONCLUSION

Un outil IA frugal est au final un outil développé pour des raisons justifiables, répondant à un réel besoin spécifique. L’algorithme choisi est adapté à l’usage et est entraîné sur un corpus légal, spécialisé, ni trop restreint ni trop vaste. Il est hébergé localement, pour un respect total des normes en vigueur et des droits des utilisateurices concernant leurs données. Il ne présente aucun biais évident, et peut être expliqué facilement, puisque son développement est documenté depuis le premier jour et accessible. Le code est open-source, naturellement. L’outil est durable, améliorable et réutilisable. Enfin, l’usager est informé.e et sensibilisé.e aux enjeux derrière le produit. Iel comprend et maîtrise son expérience utilisateurice.

Un tel outil est-il réalisable ? Chez PGData, nous le pensons. Le tout est de le vouloir. Nous savons qu’un numérique éthique ne peut se construire sans vulgarisation et diffusion des grands enjeux technologiques de notre temps. Nos posts se veulent informatifs et, nous l’espérons, vous guident vers des choix de consommation éclairés et éthiques.

ALLER PLUS LOIN : évaluer son outil IA

Nous vous laissons avec quelques pistes et outils afin de vous aider à évaluer votre outil IA frugal. Evidemment, cette liste est exhaustive.

  1. Référentiel général pour IA frugale, ECO LAB – AFNOR
  2. KIT D’ENGAGEMENT POUR UNE INTELLIGENCE ARTIFICIELLE FRUGALE AU SEIN D’UNE ORGANISATION
  3. Online Ethics Canvas
  4. Guide d’auto-évaluation pour les systèmes d’intelligence artificielle (IA)

SOURCES SUPPLÉMENTAIRES

Envie de collaborer ?

Discutons de votre projet !

Commentaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *