Depuis quelques mois, il ya un engouement pour l'intelligence artificielle (IA). Les rencontres académiques se multiplient et les universitaires s'inquiètent d'un usage excessif de l'IA par les étudiants conduisant à biaiser les évaluations à tous les niveaux, y compris celui des candidats aux postes d'enseignant. Comment se fier à des articles publiés, des thèses de doctorat et des mémoires de fin d'études comme indicateurs fiables des compétences du candidat ? Mais d'un autre côté, l'IA étant un outil de recherche disponible, utilisé par les enseignants eux-mêmes, ne faut-il pas introduire dans les programmes une formation pour l'usage éthique de l'IA et permettre aux apprenants de bénéficier des possibilités qu'elle offre ? Le problème aujourd'hui réside dans le fait que l'engouement pour l'IA n'est pas compensé par un débat à la fois sur les risques qui lui sont associés, aussi bien ceux liés à la souveraineté nationale que ceux relatifs à l'intelligence humaine, l'économie et l'égalité des citoyens. Ce n'est pas un hasard si les grandes puissances et les petits pays riches se sont dotés d'une IA souveraine. Ce sont des investissements en amont qui assurent cette souveraineté. En effet, les grandes puissances et certains de leurs satellites souverains en IA (Etats-Unis, Chine, France, Royaume-Uni, Canada, Allemagne, Israël, Japon, Inde, Singapour) disposent d'une importante infrastructure de big data et de recherche. Tous ces pays investissent massivement dans la recherche, la R&D, l'innovation dans les applications de l'IA, notamment pour le commerce, l'administration et le soft power entre autres domaines. Ils disposent de nombreux centres de recherche, de startups et d'entreprises technologiques qui contribuent à leur position de leaders mondiaux. D'autres pays, loin d'être des leaders, ont réussi à se munir d'une IA souveraine. Ainsi la Corée du Sud, les Emirats arabes unis et la Suède investissent dans une technologie IA propre et l'introduisent dans plusieurs domaines. De plus, afin d'assurer une souveraineté, il faudra investir dans la collecte massive de données, la construction de grands centres de données consommateurs énormes d'eau et d'énergie. Il faut savoir exploiter à bon escient cette technologie émergente tout en veillant à en prévenir les risques. L'usage de l'IA crée donc des besoins énormes en formation de techniciens, de personnes hautement qualifiées en matière de conception et de sécurité ainsi que des utilisateurs éventuels de l'IA. Faut-il en déduire que la souveraineté en IA n'appartient qu'aux riches? Quant aux autres, ils n'ont qu'à admettre leur soumission à un statut de consommateurs et à une dépendance sans fin ? La réponse à ces questions ne sera ni positive ni négative mais suggère pour un pays moins économiquement loti comme le nôtre qu'il y a un besoin urgent d'élaborer une stratégie bien pensée pour se prémunir contre les risques inhérents à l'IA et pour l'exploitation optimale des possibilités qu'elle offre car quelle que soit l'autorité de l'Etat ou au sein des diverses organisations, rien ne peut empêcher la diffusion d'une technologie émergente qui permet tant de facilités et d'opportunités. Les défis de l'usage de l'IA sont d'ordre éthique, écologique, sécuritaire et social. Certains sont énumérés ci-dessous mais la liste ne peut être exhaustive. La dépendance évoquée plus haut est multidimensionnelle. Elle est économique du fait qu'il faudra payer les outils vendus par leurs producteurs. Si l'IA est utilisée pour la recherche ou les décisions, les résultats obtenus dépendent du big data collectée ailleurs. En conséquence, en matière de recherche, la production scientifique nationale non numérisée n'est pas prise en considération par l'IA. Et en matière de décision, il y a des risques de biais liés à la fois aux principes et paradigmes théoriques qui la sous-tendent et à la qualité de l'information disponible. Des risques de décisions biaisées et inadaptées au contexte de l'usager de l'IA sont possibles. C'est le cas par exemple lorsqu'on interroge l'IA pour prendre une décision d'ordre commercial et que des données précises relatives aux pratiques de commerce informel du/des produits en question ne figurent pas dans la base de données utilisée par l'IA. C'est aussi le cas d'un chercheur dans un domaine particulier interrogeant l'IA qui répond sans tenir compte des travaux précédents et non moins pertinents, non numérisés publiés dans des revues non indexées ou par des éditeurs locaux. D'une façon générale, les données fournies par l'IA risquent d'être biaisées, peu fiables, voire injustes si l'on considère la dimension éthique de leur application. Cela devient plus risqué dans le cas des systèmes d'IA autonomes capables de prendre des décisions sans intervention humaine, sans considération de variables d'ordre éthique ou de responsabilité en cas d'erreur aux conséquences dramatiques. Nombreux sont ceux qui préviennent que l'automatisation des tâches par l'IA risque d'entraîner des pertes d'emplois et peu de métiers en seront épargnés. Certes, les politiques doivent s'y préparer. Néanmoins, il existe un risque bien plus grave, à savoir celui de l'atrophie des capacités humaines intellectuelles, émotionnelles et sociales par un usage excessif de l'IA. Cela interroge les systèmes éducatifs sur le renouvellement de ses curricula et ses méthodes. Certains travaux montrent que l'usage de l'IA réduit la motivation pour l'effort, la capacité de penser de manière critique, de trouver par soi-même des solutions ou par la discussion afin de résoudre les problèmes. Les interactions sociales se réduisent avec la raréfaction de la communication et des échanges lors des débats organisés. La créativité individuelle et collective s'en trouve affectée et les capacités humaines d'innovation risquent de s'atrophier. Mais peut-on confier la créativité à l'IA ? C'est une hypothèse plausible car on voit déjà sur la Toile tant d'images et de vidéo créées au moyen de l'IA à des fins immorales et parfois criminelles: manipulation par la création de fausses informations largement diffusées par les nombreux réseaux sociaux, compromission et menace de personnes, manipulation de l'opinion publique… La liste des risques associés à l'usage incontrôlable de l'IA interroge les gouvernants sur les moyens d'éviter ou du moins de réduire de tels risques, d'une part, et ceux d'une exploitation optimale de l'IA pour l'intérêt général, éthique et propice au développement équitable et durable, d'autre part. Si l'on souhaite que l'usage de l'IA serve au développement économique et social du pays, on ne peut miser sur les seules initiatives d'individus ou de groupes appartenant à un corps professionnel particulier, ni au moyen de réformettes éparses. Ce qu'il faut, bien au contraire, c'est la fixation d'une orientation stratégique nationale unissant les initiatives vers un objectif partagé : quelle stratégie de positionnement de l'économie nationale sur l'échiquier régional et international ? Quelle stratégie d'exploitation de l'IA pour l'amélioration des performances, tous secteurs confondus, y compris celui de l'administration ? Quelle stratégie relative à l'IA orientée vers la souveraineté ou seulement à son exploitation au mieux malgré la dépendance? Quel cadre institutionnel idoine – à réviser/à créer pour favoriser la créativité et l'innovation créatrice de richesse par le biais de l'exploitation de l'IA et contrer l'exploitation non éthique, voire criminelle, de l'IA ? A ce propos, il y a des leçons à tirer de l'expérience des autres pays et de la stratégie adoptée par notre pays pour l'introduction de l'informatique . Considérant tout ce qui précède, il semble qu'il y a lieu d'introduire un chapitre IA dans la loi de finances et le plan de développement en gestation au niveau de l'Etat.