Des drones signalés en Méditerranée au-dessus de la flottille Al Soumoud    Saint-Tropez sourit à Moez Echargui : titre en poche pour le Tunisien    Hécatombe de poissons et mer brunâtre à Soliman : les causes encore inconnues    Foot – Ligue 1 (7e journée) : Les résultats des matchs de dimanche    Le ministre des Affaires Etrangères participe à la 80eme session de l'Assemblée Générale des Nations Unies à New York    Bizerte: fermeture temporaire de la piscine municipale pour cause de travaux    Visas Schengen : la France promet des améliorations pour les Tunisiens    Incident sur le terrain : Gaith Elferni transporté à l'hôpital après un choc à la tête    Alerte sanitaire : attention aux poissons morts à Tunis et dans ses environs !    Anne Guéguen : c'est un devoir moral et politique de reconnaître la Palestine    Gisèle Halimi incarnée par Charlotte Gainsbourg : le biopic qui soulève l'indignation    Zaghouan : un groupe belge claque la porte sans crier gare, 250 salariés en détresse    Maher Medhioub tire à boulets rouges sur Mziou, Abbou et Mahfoudh    Voguant vers Gaza, le député Mohamed Ali accuse ses détracteurs à Tunis de faire le jeu d'Israël    « C'est notre moment Afrique du Sud » : le boycott d'Israël s'impose comme langage universel    Alzheimer : la maladie qui vole la mémoire gagne du terrain, plus de 100.000 Tunisiens touchés    Tunis : huit mois de prison pour un gardien de parking illégal qui a agressé violemment un client    Agence Internationale de l'Energie Atomique (AIEA): l'Iran menace de suspendre sa coopération    Gabès se prépare pour la nouvelle saison touristique saharienne et oasienne    Transport scolaire : Béja renforce son parc avec 33 nouveaux bus    La Tunisie célèbre, le 25 septembre, la Journée du Littoral Méditerranéen    Dernier rappel : Déposez votre deuxième tranche d'acompte avant le 25 septembre !    4 500 cinéastes du monde entier : appel au boycott des institutions culturelles de l'entité sioniste    C1 – Premier tour aller (16H00 a Rades) – USM-EAST END LIONS FC (SIERRA LEONE) : Dans la peau d'un favori    Ligue 1 – 7e journée – CA : Arguments offensifs    Port de Radès-nouvelle saisie record de stupéfiants dans un conteneur : une enquête ouverte    Eclipse de l'Equinoxe: un spectacle rare à ne pas manquer dans l'hémisphère sud !    Tourisme de luxe : la Tunisie part à la conquête des voyageurs chinois    Tunisie : vers le lancement imminent de la carte d'identité biométrique    Le Royaume-Uni s'apprête à reconnaître l'Etat de Palestine    435 376 élèves bénéficieront de l'aide dès le 22 septembre !    Pluies éparses et orages attendus cet après-midi !    Mohamed-El Aziz Ben Achour: La Tunisie et l'Union française    L'Italie adopte une loi pionnière sur l'intelligence artificielle    Moez Echargui en finale du Challenger de Saint-Tropez    Visa H-1B : Trump ferme la porte aux talents étrangers    Plus de vingt grossistes et intermédiaires arrêtés lors d'une campagne contre la spéculation    Cinéma : Dorra Zarrouk et Mokhtar Ladjimi sous les projecteurs du Festival de Port-Saïd    Non, le Maroc n'a pas imposé de visa permanent aux Tunisiens    La pièce de théâtre tunisienne « Faux » triomphe en Jordanie et remporte 3 prix majeurs    Youssef Belaïli absent : La raison dévoilée !    Coupe du monde 2026 : l'Afrique du Sud menacée d'une lourde sanction !    Sfax célèbre l'humour à l'hôtel ibis avec ibis Comedy Club    La Bibliothèque nationale de Tunisie accueille des fonds de personnalités Tunisiennes marquantes    Fadhel Jaziri: L'audace et la norme    "The Voice Of Hind Rajab » film d'ouverture du Festival du film de Doha    Mois du cinéma documentaire en Tunisie : une vitrine sur le cinéma indépendant et alternatif    Fadhel Jaziri - Abdelwahab Meddeb: Disparition de deux amis qui nous ont tant appris    







Merci d'avoir signalé!
Cette image sera automatiquement bloquée après qu'elle soit signalée par plusieurs personnes.



Maledh Marrakchi: Ethique et gouvernance de L'intelligence artificielle générative
Publié dans Leaders le 20 - 06 - 2023

L'intelligence artificielle (IA) est un domaine en pleine effervescence qui suscite beaucoup d'enthousiasme et d'inquiétudes. Le développement de systèmes d'IA avec apprentissage automatique (ou apprentissage machine-Machine Learning) de plus en plus puissants pousse les limites des possibilités de cette technologie. En apprentissage machine, il existe principalement deux sous-catégories de modèles: les modèles apprenants discriminatifs et les modèles apprenants génératifs.
La majorité des modèles utilisés sont discriminatifs. Que ce soit pour la classification, la segmentation ou la régression, il s'agit de modèles d'apprentissage machine ayant comme principe de base d'associer un enregistrement en entrée (x) à une valeur de sortie (y). Par exemple, un cas où une image x en entrée est classifiée par le modèle dans une classe prédéterminée (de chats, de chiens, de véhicules, etc.). Peu importe la technique d'apprentissage (par un réseau de neurones artificiels ou un arbre de décision), le principe de fonctionnement des modèles discriminatifs est le même: associer une variable d'entrée à un label de sortie bien spécifique. Les modèles génératifs représentent une catégorie à part. Contrairement aux modèles discriminatifs qui associent les valeurs d'entrée à des étiquettes de sortie, ils ont pour objectif de générer de nouvelles données suivant des règles et des conditions spécifiques. Les modèles génératifs sont capables d'apprendre les caractéristiques communes d'une collection de données et, ensuite, de générer des données similaires. Au moment où les modèles discriminatifs associent un enregistrement x à une étiquette y, les modèles génératifs génèreront un autre enregistrement x'. Par exemple, si l'enregistrement x est l'image «d'un chat», associé à une étiquette y «la classe chats», un bon modèle génératif sera capable de générer une image de chat x' si réaliste qu'un modèle discriminatif pourra l'associer à une étiquette y (classe de chats).
Il existe une multitude d'utilités pour les modèles génératifs. Historiquement, comme ils étaient difficiles à entraîner, les cas d'usage opérationnels étaient limités. Actuellement, la construction d'un modèle d'IA générative est devenue possible grâce à l'augmentation de la puissance de calcul et à la quantité de stockage de données disponible. ChatGPT en est un exemple et a été formé sur 45 téraoctets de données textuelles pour un coût estimé à plusieurs millions de dollars américains. Ce type d'outils génératifs peut créer une grande variété de textes, puis répondre aux critiques pour rendre le texte plus adapté à son objectif.
L'IA générative se trouve à un point de basculement en termes d'adoption et d'impact, tout comme l'apprentissage automatique et l'IA il y a quelques années. Mais cette fois, les enjeux, l'environnement réglementaire, les effets sociaux, politiques et économiques potentiels de ces technologies et le rythme exponentiel de l'adoption et de l'évolution sont différents. Beaucoup de voix s'élèvent aujourd'hui pour dire que le moment est venu de poser la question suivante: comment les régulateurs et les entreprises devraient-ils permettre une transparence significative des technologies d'IA générative afin de garantir la responsabilité vis-à-vis de la société? Ces technologies ne sont pas dénuées de potentiel. L'amélioration des technologies d'accessibilité grâce à la génération d'images à partir de textes est prometteuse. Le potentiel de personnalisation de l'éducation avec de l'IA et l'IA générative particulièrement pourrait être transformateur. Les applications de l'IA générative dans les domaines de la santé, de l'industrie pharmaceutique, de l'industrie chimique et d'autres, offrent des potentiels énormes. L'IA générative peut améliorer l'efficacité de la conception et pourrait contribuer aux efforts de développement durable. Comment pouvons-nous donc tirer parti de ces avantages tout en évitant les inconvénients? Quels sont les systèmes de gouvernance nécessaires? Quelles sont les capacités techniques à développer pour ces systèmes de gouvernance afin de garantir que la technologie réponde aux besoins de la société?
Plusieurs gouvernements, organismes et experts explorent les mécanismes permettant une surveillance technique responsable de l'IA générative. Parmi les sujets cruciaux pour l'IA générative à explorer, citons: les nouveaux développements en matière de dommages et leurs impacts, l'équilibre entre la transparence et la sécurité dans la recherche ouverte, et la manière de permettre un contrôle technique significatif dans le paysage réglementaire naissant, l'impact sur les droits d'auteur et de propriété intellectuelle, etc. Ces problématiques alimentent les thèmes et les questions clés que les régulateurs et les auditeurs techniques indépendants devraient comprendre et être prêts à aborder. Le cas de l'IA a particulièrement mis en exergue l'influence, de plus en plus importante, des compagnies privées dans le domaine public et la nécessité de repenser les voies de la responsabilisation des acteurs privés à l'ère des algorithmes.
Ces nouvelles technologies ont le pouvoir énorme d'amplifier les préjudices existants et d'en créer de nouveaux d'une manière que nous ne pouvons pas encore imaginer. Par exemple, l'IA générative peut aider à produire des documents efficaces pour les campagnes de propagande à une échelle beaucoup plus rapide et avec un niveau de précision plus élevé que ce qui était possible auparavant. En outre, les modèles renvoient souvent des réponses erronées en toute confiance, citant même des documents "inexistants" ou d'autres documents de référence qui existent sans garde-fous empiriques. L'intégration des modèles génératifs dans les moteurs de recherche, l'assistance à la clientèle et d'autres outils essentiels utilisés par le public suscite des inquiétudes légitimes quant au tissu social de la confiance et de la démocratie. Le rythme de croissance et d'évolution de ces modèles est rapide. En lançant de nouveaux modèles, les entreprises brouillent la frontière entre "recherche" et "produit", tout en s'efforçant de trouver un équilibre entre transparence et sécurité. Etant donné que ces modèles sont formés à partir de données publiques, des voix s'élèvent aussi pour demander qu'ils soient exploités ouvertement et en tant que ressource publique. Cependant, les modèles à source ouverte - bien qu'ils soient ambitieux - peuvent réduire les capacités à freiner les acteurs malveillants. Pour permettre une transparence responsable, les modèles de "recherche ouverte" doivent tenir compte des risques d'utilisation malveillante. Les législateurs sont aux prises avec la réglementation de ces systèmes dans un environnement réglementaire de l'IA naissant. De nombreuses réglementations naissantes et possibles s'appuient sur l'audit technique et l'accès aux données en tant que mécanisme de transparence clé pour garantir la responsabilité. Toutefois, pour que ces mécanismes constituent un outil de responsabilisation efficace, nous devons mieux comprendre ce qui a changé (le cas échéant) avec les progrès de l'IA générative, où se situent les compromis entre transparence et sécurité, et quelles sont les capacités techniques nécessaires en dehors de l'industrie pour mettre en œuvre une surveillance technique efficace.
Stephen Hawking disait : «Notre avenir est une course entre le pouvoir croissant de la technologie et la sagesse avec laquelle nous l'utilisons». L'innovation ne peut fleurir que dans un espace de libertés, mais il nous appartient d'avoir la sagesse d'en faire bon usage.
Maledh Marrakchi
Universitaire, spécialiste en IA


Cliquez ici pour lire l'article depuis sa source.