Tennis challenger Saint Tropez: Moez Chargui en finale    L'Italie adopte une loi pionnière sur l'intelligence artificielle    Un ancien ministre allemand des Affaires étrangères : L'Europe contrainte de négocier avec la Tunisie sur la question migratoire    Un Tunisien victime d'un AVC toutes les demi-heures... conseils pour sauver votre vie !    Foot -Coupe de la CAF : L'Etoile du Sahel chute au Soudan    Etats-Unis - Le Pentagone veut verrouiller l'information, la presse s'insurge    Le procès de l'homme d'affaires Ridha Charfeddine reporté au 10 octobre prochain    Fatma Mseddi appelle à la création d'un front citoyen pour sauver le processus du 25-Juillet    Le courant ne passe plus monsieur le président !    Tunisie : Moins d'accidents, mais plus de morts sur les routes en 2025    Rome : Un Tunisien expulsé pour mariage fictif afin d'obtenir un titre de séjour !    Coupe de la CAF – Entrée en lice de l'ESS face à Ahli Wad Madani à l'Azam Complex Stadium (14h00) : Se rassurer dès l'aller    Le ciel en spectacle : éclipse solaire partielle ce 21 septembre    Plus de vingt grossistes et intermédiaires arrêtés lors d'une campagne contre la spéculation    Alerte météo : un puissant changement attendu en Tunisie dès la semaine prochaine    Cinéma : Dorra Zarrouk et Mokhtar Ladjimi sous les projecteurs du Festival de Port-Saïd    Le Portugal reconnaîtra officiellement la Palestine ce dimanche    Les Etats-Unis pourraient percevoir des milliards de dollars dans le cadre d'un accord sur TikTok    Pourquoi le dinar tunisien continue de se déprécier face à l'euro, malgré la croissance ?    Commentaire : Le pouvoir au peuple, non aux marionnettistes de coulisses    Mustapha Mnif: Vivre pour autrui    Tunisie-Chine : inauguration d'un Centre de Formation en Médecine Traditionnelle Chinoise    Ahmed Ounaies : la décision marocaine sur les visas est «naturelle» et liée à la sécurité    Mise à niveau industrielle : 110 MD investis dans quatre secteurs    Météo : Pluies isolées au Sud-Est et températures stables ce samedi !    Plus de 400 000 élèves bénéficient d'une aide financière    Tunis accueille la 3e conférence internationale sur la pharmacie en oncologie    Washington impose 100 000 dollars de frais pour le visa de travail H-1B    Boubaker Bethabet reçoit les félicitations d'Anas Hmaïdi pour son élection au bâtonnat    La pièce de théâtre tunisienne « Faux » triomphe en Jordanie et remporte 3 prix majeurs    Hôpital Mongi Slim : inauguration d'un centre de formation en médecine traditionnelle chinoise et 7 unités de soin    L'huile d'olive tunisienne : les prix s'effondrent malgré la hausse des exportations    Liste des collèges et des lycées secondaires privés autorisés en Tunisie pour l'année scolaire 2025-2026    Youssef Belaïli absent : La raison dévoilée !    Travaux dans le sud de la capitale : prolongation de la déviation nocturne à Ben Arous    Coupe du monde 2026 : l'Afrique du Sud menacée d'une lourde sanction !    USMO : fin de l'aventure pour Victor Musa    Kais Saied dénonce les coupures intentionnelles d'eau et d'électricité et critique la gestion administrative    La Société ''El Fouladh'' lance un concours externe pour embaucher 60 agents    Kaïs Saïed dénonce une « guerre acharnée » contre l'Etat tunisien    Open de Saint-Tropez : Moez Echargui qualifié pour les quarts de finale    La Tunisie gagne des places dans le classement de la FIFA    Sfax célèbre l'humour à l'hôtel ibis avec ibis Comedy Club    La Bibliothèque nationale de Tunisie accueille des fonds de personnalités Tunisiennes marquantes    Fadhel Jaziri: L'audace et la norme    "The Voice Of Hind Rajab » film d'ouverture du Festival du film de Doha    Mois du cinéma documentaire en Tunisie : une vitrine sur le cinéma indépendant et alternatif    Fadhel Jaziri - Abdelwahab Meddeb: Disparition de deux amis qui nous ont tant appris    







Merci d'avoir signalé!
Cette image sera automatiquement bloquée après qu'elle soit signalée par plusieurs personnes.



Kaspersky plaide pour plus de transparence dans l'utilisation de l'intelligence artificielle
Publié dans La Presse de Tunisie le 28 - 07 - 2025

L'IA est une arme à double tranchant : si elle permet des gains d'efficacité significatifs et offre de nouvelles opportunités pour les entreprises comme pour les particuliers, elle peut aussi être utilisée à mauvais escient par les cybercriminels pour, entre autres, faciliter la création de logiciels malveillants. Selon une récente étude Kaspersky, 52 % des entreprises dans le monde craignent une perte de confiance de leurs clients si elles n'améliorent pas leur protection contre les cyberattaques utilisant l'IA. Parallèlement, 41 % déclarent ne pas disposer de l'expertise nécessaire en matière de menaces externes pour se protéger efficacement contre de tels scénarios. Avec ses « Recommandations pour le développement et le déploiement sécurisés des systèmes d'IA », Kaspersky propose des conseils spécifiques que les entreprises peuvent utiliser pour déployer l'IA de manière sécurisée et responsable. En complément, le livret « Principes d'utilisation éthique des systèmes d'IA en cybersécurité » complète ces lignes directrices avec des principes éthiques pour le développement et l'utilisation de l'IA dans la cybersécurité.
L'intelligence artificielle se développe rapidement et, bien que son potentiel soit bénéfique pour les entreprises et les particuliers, des cybercriminels mal intentionnés l'utilisent déjà pour étendre leurs capacités de nuisance.
Une récente enquête Kaspersky révèle que la plupart des entreprises sont conscientes de ces dangers : 58 % des entreprises mondiales craignent une perte de données confidentielles et 52 % une perte de confiance, ainsi que des dommages financiers (52 %), si elles n'améliorent pas leur protection contre les attaques basées sur l'IA. Cependant, les connaissances nécessaires font souvent défaut : 41 % des personnes interrogées déclarent ne pas disposer d'informations pertinentes de la part d'experts externes sur les attaques basées sur l'IA.
Kaspersky prône donc des recommandations claires pour le développement et l'utilisation éthiques de l'IA afin de prévenir efficacement toute manipulation et tout abus. En 2024, Kaspersky a signé le Pacte sur l'IA de la Commission européenne, une initiative visant à préparer les organisations à la mise en œuvre de la loi sur l'IA – le premier cadre juridique global sur l'IA au monde, adopté par l'Union européenne (UE). En décembre de la même année, Kaspersky a également présenté ses lignes directrices pour le développement et le déploiement sécurisés des systèmes d'IA lors d'un atelier organisé au Forum sur la gouvernance de l'Internet (FGI) 2024 à Riyad. La transparence, la sécurité, le contrôle humain et la protection des données constituent les principes fondamentaux de cette démarche.
« L'IA éthique est la base de la confiance, de la conformité et de la réussite durable des entreprises. Elle permet aux entreprises de minimiser efficacement les risques de violations de données et de menaces liées à l'IA, tout en respectant scrupuleusement les exigences réglementaires telles que la loi européenne sur l'IA. Dans un monde de plus en plus numérisé, l'utilisation responsable de l'IA n'est pas seulement une question technologique, mais aussi une question d'intégrité et de pérennité pour les entreprises. Nos conseils pour le développement et le déploiement sécurisés de l'intelligence artificielle, ainsi que nos principes pour l'utilisation éthique des systèmes d'IA en cybersécurité, permettent aux entreprises de l'utiliser de manière responsable et sûre, en se protégeant des potentielles menaces sans sacrifier les avantages offerts par la technologie », commente Jochen Michels, Directeur des Affaires Publiques Europe chez Kaspersky.
« L'intelligence artificielle est de plus en plus utilisée pour renforcer la cybersécurité, de la détection des menaces à la prédiction des attaques. Mais qui décide du périmètre d'utilisation de ces outils ? En cas de faille de sécurité, les dommages sont souvent plus importants pour les individus et les groupes vulnérables, que pour les grandes organisations. Nous avons besoin de systèmes non seulement efficaces, mais aussi sécurisés et éthiques, garantissant un partage équitable du pouvoir, des responsabilités et des préjudices dans notre monde numérique », déclare Liliana Acosta, fondatrice et PDG de Thinker Soul, un cabinet de conseil basé sur l'éthique, la pensée critique et la philosophie pour accompagner les entreprises dans leur transformation numérique.
Clément Domingo partage ses réflexions et son expérience de spécialiste de la cybersécurité : « Ces derniers mois, j'ai été témoin de l'utilisation massive de l'IA par les cybercriminels. Ils en ont pleinement conscience et l'utilisent déjà avec succès pour optimiser leurs attaques. Il est donc primordial que les entreprises intègrent dès maintenant l'IA à leurs stratégies de défense afin de renforcer leurs mesures de sécurité globales. Pour ce faire, il est crucial de comprendre les méthodes des cybercriminels – parfois même de se mettre à leur place – afin de mieux les combattre. À cet égard, l'IA peut être un outil puissant, utilisé avec discernement et responsabilité, pour protéger les données précieuses, les infrastructures, la vie privée et les entreprises dans leur ensemble. »
La transparence, la sécurité, le contrôle et la protection des données comme pierres angulaires d'une utilisation éthique de l'IA
Pour soutenir l'adoption d'une IA éthique, Kaspersky a développé des recommandations et des principes pour son utilisation responsable.
Les recommandations pour le développement et le déploiement sécurisés des systèmes d'IA abordent les aspects clés du développement, du déploiement et de l'exploitation des systèmes d'IA, notamment la conception, les bonnes pratiques de sécurité et l'intégration, sans se concentrer sur le développement de modèles fondamentaux.
Parmi ces aspects figurent :
● Sensibilisation et formation à la cybersécurité : Kaspersky met l'accent sur l'accompagnement de la direction et la formation spécialisée des employés. Ils doivent comprendre les menaces liées à l'IA grâce à des formations régulièrement mises à jour et adaptées aux nouveaux risques.
● Modélisation des menaces et évaluation des risques : La modélisation proactive des menaces (par exemple, STRIDE, OWASP) permet d'identifier les vulnérabilités en amont. Kaspersky souligne l'importance d'évaluer les risques tels que l'empoisonnement des données et l'utilisation abusive des modèles.
● Sécurité de l'infrastructure (cloud) : Une sécurité cloud renforcée est essentielle. Kaspersky recommande le chiffrement, la segmentation du réseau, le principe de Zero trust et l'application régulière de correctifs pour prévenir les failles.
● Sécurité de la supply chain et des données : Les outils d'IA tiers présentent des risques pour les données et la confidentialité. Kaspersky recommande des audits stricts, l'utilisation de capteurs de sécurité et des politiques de confidentialité strictes pour prévenir les abus.
● Tests et validation : La validation continue des modèles détecte les problèmes tels que la dérive des données et les attaques adverses. Kaspersky recommande la surveillance, le partitionnement des jeux de données et la révision de la logique de décision.
● Défense contre les attaques spécifiques au Machine Learning : Pour se prémunir contre les attaques telles que l'injection de prompt ou les entrées adversariales, Kaspersky suggère un entraînement avec des exemples adversariaux, la détection des anomalies et la distillation des modèles.
● Mises à jour de sécurité et maintenance régulières : La mise à jour fréquente des outils d'IA et la participation à des programmes de bug bounty (chasse aux failles) permettent de corriger les vulnérabilités et de renforcer la résilience des systèmes.
● Conformité aux normes internationales : Kaspersky insiste sur le respect des standards mondiaux (par exemple le RGPD, l'AI Act européen) ainsi que sur la réalisation d'audits réguliers afin de garantir la conformité légale, éthique et en matière de protection de la vie privée.
Les « Principes d'utilisation éthique des systèmes d'IA en cybersécurité » préconisent une meilleure éducation et des normes claires axées sur la transparence, la sécurité, le contrôle humain et la protection des données, afin de prévenir efficacement la manipulation et l'utilisation abusive des applications d'IA.
Ces principes incluent :
● Transparence : Informer les clients de l'utilisation de l'IA et du Machine Learning ; expliquer leur fonctionnement ; développer des systèmes aussi interprétables que possible ; et mettre en place des mécanismes de contrôle pour garantir des résultats valides.
● Sécurité : Prioriser la sécurité tout au long du développement et du déploiement ; effectuer des contrôles de cybersécurité spécifiques ; minimiser la dépendance aux données d'apprentissage externes ; mettre en œuvre des stratégies de protection multicouches ; et privilégier les solutions cloud dotées de garanties appropriées.
● Contrôle humain : Assurer la supervision humaine de tous les systèmes d'IA/ML ; assurer une surveillance continue par des spécialistes ; et combiner algorithmes et expertise humaine.
● Protection des données : Respecter la confidentialité des données personnelles ; limiter et réduire le traitement des données ; pseudonymisation ou anonymisation ; garantir l'intégrité des données ; et appliquer des mesures techniques et organisationnelles pour protéger la confidentialité.
D'après Communiqué


Cliquez ici pour lire l'article depuis sa source.