Mercedes-Benz Tunisie sacrée marque premium n°1 : une victoire portée par les équipes locales    Terres rares : de quoi parle-t-on exactement ?    Habib Tounsi: Les systèmes de management intégrés à l'heure de la transition bas carbone    Tunisie : des mesures strictes attendent les bureaux de change en infraction    L'Ecole nationale d'ingénieurs de Tunis abrite la finale de la troisième édition du concours UTM Innov    Choc démographique : un pays africain dépasse toutes les naissances européennes    Où suivre en direct le match Tunisie – Cap-Vert à la CAN de handball ?    Alerte : La maintenance du canal Méjerdah perturbe l'approvisionnement en eau dans plusieurs régions    Espagne remporte la finale du Mondial 2030 !    Difficultés d'apprentissage : qu'est-ce que c'est et comment savoir si votre enfant en souffre ?    Météo en Tunisie : temps nuageux, températures en légère hausse    Concours – Tunisie : recrutement de 726 enseignants d'éducation physique dans le secondaire    Le cirque Paparouni s'installe à Carthage durant les vacances scolaires et présente Jungle Book    D'où vient un trésor historique découvert à Houaria ?    Tunis : lancement de la campagne pour les cartes d'identité des futurs bacheliers    Séparation du gaz domestique et du gaz industriel : quelle est la nouvelle stratégie d'''Agil'' ?    Tunisie triomphe à Casablanca : 9 médailles et une fierté nationale pour le judo    Fender Play arrive sur les téléviseurs Samsung pour apprendre la guitare sur grand écran    Forum Chawki Gaddes pour les droits numériques - Journée d'étude sur la protection des données personnelles : Mercredi 28 janvier 2026, faculté des sciences juridiques, politiques et sociales de Tunis    Les judokas Tunisiens remportent 5 médailles dont 2 en or à l'Open international seniors de judo à Casablanca    LG Electronics repense l'expérience de la laverie en résidence universitaire avec Laundry Lounge    Météo en Tunisie : temps froid, pluies au nord à temporairement orageuses à l'extrême nord ouest    Drame au Mexique : 11 victimes d'une attaque armée    France : vers l'interdiction des réseaux sociaux pour les moins de 15 ans    Décès d'une star du football, Mahfoudh Benzarti : une carrière singulière    Inondations : Kaïs Saïed appelle à des mesures concrètes et à une mobilisation nationale    Vagues géantes à Nabeul : des vestiges antiques dévoilés après les tempêtes    Baker Ben Fredj revient avec l'exposition 'Le Reste' à la galerie Archivart après 20 ans d'absence    Kais Saied reçoit l'ambassadrice de Pologne à l'occasion de la fin de sa mission en Tunisie    The Tunisian Stambeli Collective invite le jazzman autrichien Nikolaus Holler pour un concert unique à Carthage    Intempéries : fermeture temporaire du Palais Ennejma Ezzahra    Justice : trois ans et demi de prison pour Borhan Bsaies et Mourad Zeghidi    Document – Le discours-évènement du Premier ministre canadien Mark Carney à Davos : privilégier les valeurs, face à la domination    Cinq ans après son décès : Moncer Rouissi, son héritage, sa vision (Album photos)    Tahar Bekri: Saule majeur    Penser le futur par le passé: Carthage antique et le boomerang colonial dans la géopolitique du Groenland    Quand la terre change de souveraineté : histoire longue des ventes de territoires, de l'Empire romain au Groenland    Abdellaziz Ben-Jebria – Mes périples et maisons : lieux en souvenir    Bien plus que du soleil : Pourquoi les expatriés succombent au charme de la Tunisie    Professeur Amor Toumi: Père de la pharmacie et du médicament en Tunisie    Programme Ceinture Verte en Tunisie : reboisement pour lutter contre la dégradation des sols et la désertification    Match Maroc vs Sénégal : où regarder la finale de la CAN Maroc 2025 du 18 janvier ?    Khadija Taoufik Moalla: Mourad Wahba, le philosophe qui voulait réconcilier raison, foi et humanité    USA: La suspension de la délivrance de visas affecte-t-elle un visa en cours de validité et s'applique-t-elle aux visas de tourisme ? Voici la réponse    Secousse tellurique en Tunisie, au nord de Béja ressentie par les habitants    L'Université de Sousse et le Centre Universitaire de Maghnia (Algérie) scellent un partenariat stratégique    La Fédération tunisienne de football se sépare à l'amiable de l'ensemble du staff technique de la sélection nationale de football    Tunisie–Mali (1-1, tab. 2-3): Une élimination frustrante    







Merci d'avoir signalé!
Cette image sera automatiquement bloquée après qu'elle soit signalée par plusieurs personnes.



Kaspersky plaide pour plus de transparence dans l'utilisation de l'intelligence artificielle
Publié dans La Presse de Tunisie le 28 - 07 - 2025

L'IA est une arme à double tranchant : si elle permet des gains d'efficacité significatifs et offre de nouvelles opportunités pour les entreprises comme pour les particuliers, elle peut aussi être utilisée à mauvais escient par les cybercriminels pour, entre autres, faciliter la création de logiciels malveillants. Selon une récente étude Kaspersky, 52 % des entreprises dans le monde craignent une perte de confiance de leurs clients si elles n'améliorent pas leur protection contre les cyberattaques utilisant l'IA. Parallèlement, 41 % déclarent ne pas disposer de l'expertise nécessaire en matière de menaces externes pour se protéger efficacement contre de tels scénarios. Avec ses « Recommandations pour le développement et le déploiement sécurisés des systèmes d'IA », Kaspersky propose des conseils spécifiques que les entreprises peuvent utiliser pour déployer l'IA de manière sécurisée et responsable. En complément, le livret « Principes d'utilisation éthique des systèmes d'IA en cybersécurité » complète ces lignes directrices avec des principes éthiques pour le développement et l'utilisation de l'IA dans la cybersécurité.
L'intelligence artificielle se développe rapidement et, bien que son potentiel soit bénéfique pour les entreprises et les particuliers, des cybercriminels mal intentionnés l'utilisent déjà pour étendre leurs capacités de nuisance.
Une récente enquête Kaspersky révèle que la plupart des entreprises sont conscientes de ces dangers : 58 % des entreprises mondiales craignent une perte de données confidentielles et 52 % une perte de confiance, ainsi que des dommages financiers (52 %), si elles n'améliorent pas leur protection contre les attaques basées sur l'IA. Cependant, les connaissances nécessaires font souvent défaut : 41 % des personnes interrogées déclarent ne pas disposer d'informations pertinentes de la part d'experts externes sur les attaques basées sur l'IA.
Kaspersky prône donc des recommandations claires pour le développement et l'utilisation éthiques de l'IA afin de prévenir efficacement toute manipulation et tout abus. En 2024, Kaspersky a signé le Pacte sur l'IA de la Commission européenne, une initiative visant à préparer les organisations à la mise en œuvre de la loi sur l'IA – le premier cadre juridique global sur l'IA au monde, adopté par l'Union européenne (UE). En décembre de la même année, Kaspersky a également présenté ses lignes directrices pour le développement et le déploiement sécurisés des systèmes d'IA lors d'un atelier organisé au Forum sur la gouvernance de l'Internet (FGI) 2024 à Riyad. La transparence, la sécurité, le contrôle humain et la protection des données constituent les principes fondamentaux de cette démarche.
« L'IA éthique est la base de la confiance, de la conformité et de la réussite durable des entreprises. Elle permet aux entreprises de minimiser efficacement les risques de violations de données et de menaces liées à l'IA, tout en respectant scrupuleusement les exigences réglementaires telles que la loi européenne sur l'IA. Dans un monde de plus en plus numérisé, l'utilisation responsable de l'IA n'est pas seulement une question technologique, mais aussi une question d'intégrité et de pérennité pour les entreprises. Nos conseils pour le développement et le déploiement sécurisés de l'intelligence artificielle, ainsi que nos principes pour l'utilisation éthique des systèmes d'IA en cybersécurité, permettent aux entreprises de l'utiliser de manière responsable et sûre, en se protégeant des potentielles menaces sans sacrifier les avantages offerts par la technologie », commente Jochen Michels, Directeur des Affaires Publiques Europe chez Kaspersky.
« L'intelligence artificielle est de plus en plus utilisée pour renforcer la cybersécurité, de la détection des menaces à la prédiction des attaques. Mais qui décide du périmètre d'utilisation de ces outils ? En cas de faille de sécurité, les dommages sont souvent plus importants pour les individus et les groupes vulnérables, que pour les grandes organisations. Nous avons besoin de systèmes non seulement efficaces, mais aussi sécurisés et éthiques, garantissant un partage équitable du pouvoir, des responsabilités et des préjudices dans notre monde numérique », déclare Liliana Acosta, fondatrice et PDG de Thinker Soul, un cabinet de conseil basé sur l'éthique, la pensée critique et la philosophie pour accompagner les entreprises dans leur transformation numérique.
Clément Domingo partage ses réflexions et son expérience de spécialiste de la cybersécurité : « Ces derniers mois, j'ai été témoin de l'utilisation massive de l'IA par les cybercriminels. Ils en ont pleinement conscience et l'utilisent déjà avec succès pour optimiser leurs attaques. Il est donc primordial que les entreprises intègrent dès maintenant l'IA à leurs stratégies de défense afin de renforcer leurs mesures de sécurité globales. Pour ce faire, il est crucial de comprendre les méthodes des cybercriminels – parfois même de se mettre à leur place – afin de mieux les combattre. À cet égard, l'IA peut être un outil puissant, utilisé avec discernement et responsabilité, pour protéger les données précieuses, les infrastructures, la vie privée et les entreprises dans leur ensemble. »
La transparence, la sécurité, le contrôle et la protection des données comme pierres angulaires d'une utilisation éthique de l'IA
Pour soutenir l'adoption d'une IA éthique, Kaspersky a développé des recommandations et des principes pour son utilisation responsable.
Les recommandations pour le développement et le déploiement sécurisés des systèmes d'IA abordent les aspects clés du développement, du déploiement et de l'exploitation des systèmes d'IA, notamment la conception, les bonnes pratiques de sécurité et l'intégration, sans se concentrer sur le développement de modèles fondamentaux.
Parmi ces aspects figurent :
● Sensibilisation et formation à la cybersécurité : Kaspersky met l'accent sur l'accompagnement de la direction et la formation spécialisée des employés. Ils doivent comprendre les menaces liées à l'IA grâce à des formations régulièrement mises à jour et adaptées aux nouveaux risques.
● Modélisation des menaces et évaluation des risques : La modélisation proactive des menaces (par exemple, STRIDE, OWASP) permet d'identifier les vulnérabilités en amont. Kaspersky souligne l'importance d'évaluer les risques tels que l'empoisonnement des données et l'utilisation abusive des modèles.
● Sécurité de l'infrastructure (cloud) : Une sécurité cloud renforcée est essentielle. Kaspersky recommande le chiffrement, la segmentation du réseau, le principe de Zero trust et l'application régulière de correctifs pour prévenir les failles.
● Sécurité de la supply chain et des données : Les outils d'IA tiers présentent des risques pour les données et la confidentialité. Kaspersky recommande des audits stricts, l'utilisation de capteurs de sécurité et des politiques de confidentialité strictes pour prévenir les abus.
● Tests et validation : La validation continue des modèles détecte les problèmes tels que la dérive des données et les attaques adverses. Kaspersky recommande la surveillance, le partitionnement des jeux de données et la révision de la logique de décision.
● Défense contre les attaques spécifiques au Machine Learning : Pour se prémunir contre les attaques telles que l'injection de prompt ou les entrées adversariales, Kaspersky suggère un entraînement avec des exemples adversariaux, la détection des anomalies et la distillation des modèles.
● Mises à jour de sécurité et maintenance régulières : La mise à jour fréquente des outils d'IA et la participation à des programmes de bug bounty (chasse aux failles) permettent de corriger les vulnérabilités et de renforcer la résilience des systèmes.
● Conformité aux normes internationales : Kaspersky insiste sur le respect des standards mondiaux (par exemple le RGPD, l'AI Act européen) ainsi que sur la réalisation d'audits réguliers afin de garantir la conformité légale, éthique et en matière de protection de la vie privée.
Les « Principes d'utilisation éthique des systèmes d'IA en cybersécurité » préconisent une meilleure éducation et des normes claires axées sur la transparence, la sécurité, le contrôle humain et la protection des données, afin de prévenir efficacement la manipulation et l'utilisation abusive des applications d'IA.
Ces principes incluent :
● Transparence : Informer les clients de l'utilisation de l'IA et du Machine Learning ; expliquer leur fonctionnement ; développer des systèmes aussi interprétables que possible ; et mettre en place des mécanismes de contrôle pour garantir des résultats valides.
● Sécurité : Prioriser la sécurité tout au long du développement et du déploiement ; effectuer des contrôles de cybersécurité spécifiques ; minimiser la dépendance aux données d'apprentissage externes ; mettre en œuvre des stratégies de protection multicouches ; et privilégier les solutions cloud dotées de garanties appropriées.
● Contrôle humain : Assurer la supervision humaine de tous les systèmes d'IA/ML ; assurer une surveillance continue par des spécialistes ; et combiner algorithmes et expertise humaine.
● Protection des données : Respecter la confidentialité des données personnelles ; limiter et réduire le traitement des données ; pseudonymisation ou anonymisation ; garantir l'intégrité des données ; et appliquer des mesures techniques et organisationnelles pour protéger la confidentialité.
D'après Communiqué


Cliquez ici pour lire l'article depuis sa source.