- Réglementations et législations
-
État de réflexion (11/09/2025)
L’Union européenne (UE) a adopté l’AI Act, qui établit un cadre juridique basé sur le niveau de risque des systèmes d’IA. Ce texte a été suivi par la Convention-cadre du Conseil de l’Europe sur l’intelligence artificielle, les droits de l’homme, la démocratie et l’État de droit, premier instrument international juridiquement contraignant dans ce domaine, ouvert à la signature le 5 septembre 2024.
Plus récemment, le Code de bonnes pratiques de l’IA à usage général (10 juillet 2025) a été publié afin d’aider l’industrie à se conformer aux règles relatives à l’IA à usage général, prévues par la législation européenne et qui entreront en vigueur le 2 aout 2025 (actuellement en cours de validation par les États membres). La Suisse, de son côté, s’est engagée à ratifier cette convention du Conseil de l’Europe et à adapter sa législation nationale en conséquence. Globalement, l’UE privilégie une approche visant à minimiser les risques pour les droits fondamentaux. Les États-Unis comme l’Angleterre privilégient une approche sectorielle et axée sur les enjeux de sécurité nationale comme de concurrence. Actuellement, les débats récents se concentrent sur la question de la responsabilité légale en cas de dommages causés par une IA.
Quelques ressources
Commission Européenne. (2025/07/10). Le code de bonnes pratiques de l’IA à usage général est désormais disponible.
Conseil de l’Europe (2024). La Convention-cadre sur l’intelligence artificielle.
Conseil fédéral (2025/02/12). Réglementation de l’IA : le Conseil fédéral veut ratifier la Convention du Conseil de l’Europe.
Département fédéral de l’environnement, des transports, de l’énergie et de la communication (DETEC). (2025/02/12). État des lieux sur la réglementation de l’intelligence artificielle.
Matthias Kulla. (2024). La responsabilité juridique des dommages causés par l’IA : une législation bien intentionnée, mais mal conçue. CEP
Parlement Européen. (2023/09/06) Loi sur l’IA de l’UE : première réglementation de l’intelligence artificielle.
Susanna Bagdasarova, et al. (2023/12/14). Recent Developments in Artificial Intelligence Governance. The Natural Law Review.
Union Européenne (2024). Artificial Intelligence Act.
- Protection des données
-
État de réflexion (11/09/2025)
La protection des données est un sujet majeur à l’ère de l’IA. Cette question est abordée dans différents cadres légaux tels que l’AI Act européen et la Convention-cadre du Conseil de l’Europe sur l’intelligence artificielle, les droits de l’homme, la démocratie et l’État de droit. Elle est au centre de nombreuses études et conférences en complément du règlement général sur la protection des données (RGPD).
En Suisse, la nouvelle Loi sur la protection des données (nLPD), en vigueur depuis septembre 2023, s’applique directement à l’IA. Le Conseil fédéral suisse prépare également un projet de loi pour l’encadrer.
Les thèmes clés de la protection des données dans le contexte de l’IA :
Transparence : le « problème de la boîte noire » de l’IA est difficile à comprendre, ce qui rend plus difficile l’exercice du droit à la protection des données et du droit de contestation (cf. site noyb.eu)
Devoir d’information : la collecte de toutes les données personnelles doit faire l’objet d’une information préalable pour la personne concernée.
Principes de « Privacy by Design » (protection des données dès la conception) et de « Privacy by Default » (protection des données activée par défaut, c’est-à-dire sans intervention des utilisateurs et utilisatrices) doivent être intégrés dès la conception des systèmes.
À noter que l’entreprise Proton a lancé un assistant d’intelligence artificielle « Lumo » axé sur la confidentialité. Chaque interaction est chiffrée de bout en bout, sans exploitation des requêtes à des fins commerciales ou d’entrainement de l’IA.
Quelques ressources
Commission européenne (2016). Le règlement général sur la protection des données (RGPD).
Conseil de l’Europe (2024/10/17). Intelligence artificielle et protection des données.
Digicomp. (2025/01/27). IA, protection des données en Suisse : LPD vs RGPD et AI Act. Digicomp.
Le monde (2025/09/09). IA générative Anthropic paiera 1.5 millaird de dollars.
Le Temps (2024/01/25). Que vaut Lumo, l’intelligence artificielle ultra-confidentielle de Proton ?
Noyb (2024/04/29). ChatGPT fournit de fausses informations sur les personnes, et OpenAI ne peut pas les corriger. European Center for Digital Rights.
Préposé fédéral à la protection des données et à la transparence (PFPDT). (2024/08/05). Mise à jour de la loi actuelle applicable à l’IA.
- Propriété intellectuelle
-
État de réflexion (11/09/2025)
L’essor de l’intelligence artificielle pose d’importants défis en matière de propriété intellectuelle. La question centrale est de savoir si l’apprentissage, l’utilisation et les résultats des outils d’IA constituent une atteinte aux droits d’auteur, et la réponse varie considérablement d’une juridiction à l’autre.
Des mesures sont prises pour encadrer ce domaine, notamment avec le Règlement européen sur l’IA (AI Act). En vigueur dès aout 2024, il impose aux fournisseurs de systèmes d’IA des obligations de transparence. Ces derniers doivent notamment publier des résumés détaillés des contenus protégés par le droit d’auteur qui ont servi à l’entrainement de leurs modèles.
Parallèlement, le débat se poursuit autour des exceptions au droit d’auteur, telles que la fouille de textes et de données (text and data mining) ou encore la question de savoir si l’entrainement des modèles peut être qualifié de « fair use » (utilisation équitable).
La protection des œuvres générées par l’IA soulève la question de la contribution humaine tant pour les droits d’auteur que pour les brevets. À l’échelle internationale, l’Organisation mondiale de la propriété intellectuelle (OMPI) mène des discussions pour harmoniser les législations, un enjeu crucial pour les pays qui n’ont pas encore de cadre juridique clair.
Pour sa part, la Suisse réfléchit à l’adaptation de sa loi sur le droit d’auteur (LDA). Les discussions se concentrent sur la clarification des exceptions et la protection des contenus utilisés pour l’entrainement des modèles.
Enfin, un nouveau concept d’IA comme « co-créateur » est également exploré. Plutôt que de rejeter la protection, des discussions proposent un régime de propriété intellectuelle hybride, qui reconnaîtrait à la fois la contribution humaine et celle de l’IA.
Quelques ressources
Gillieron Avocat. (2025/03/02). Réglementation suisse de l’IA 2025 : le pragmatisme prévaut.
iActualités. (2024/08/07). Le procès du New York Times contre OpenAI et Microsoft pour violation de droits d’auteur progresse.
SSA. (2024/03/12). Intelligence artificielle et droit d’auteur : Quels défis ? SSA.
SUISA. (2024/03/01). Communiqué de presse SUISA.
Watson. (2024/08/09). L’IA considérée comme inventrice : un tribunal suisse tranche.
WIPO. (2024). Generative AI : Navigating Intellectual Property. WIPO.
- Cybersécurité
-
État de réflexion (11/09/2025)
L’IA est devenue une arme à double tranchant dans le domaine de la cybersécurité.
D’un côté, elle est utilisée pour renforcer la sécurité, notamment en automatisant la détection des menaces, en analysant de grands volumes de données en temps réel pour identifier des comportements suspects. De l’autre, les cybercriminels exploitent également les capacités de l’IA générative pour créer des attaques plus sophistiquées (exemples : création de courriels d’hameçonnage (phishing), de fausses vidéos (deepfakes) ou encore de rançongiciels (ransomwares)), mais aussi en utilisant des « GhostGPT » (modèles génératifs sans éthique ni sécurité, utilisés pour générer des phishing, des logiciels malveillants polymorphes et des instructions d’attaque tout en garantissant l’anonymat des auteurs).
Aujourd’hui, l’IA représente un enjeu majeur en cybersécurité, à la fois comme outil de menace (via GPT malveillants, attaques automatisées, deepfakes, etc.) et comme instrument de défense (détections automatisées, simulations, etc.).
Quelques ressources
Le Temps (2025). Prudence : DeepSeek est une super IA, mais qui comporte d’énormes failles de sécurité.
Next Digital. (2024/08/05). GhostGPT, l’intelligence artificielle, nouveau complice des cybercriminels.
Office fédérale de la cyber sécurité (OFCS).
Watson. (2024/08/12). Trump publie un deepfake montrant l’arrestation d’Obama.
Winder, D. (2025/01/23). Introducing GhostGPT: The new cybercrime AI used by hackers. Forbes