Pour que l’IA ne serve pas uniquement la tech américaine et le régime chinois, il faut des règles claires. Car l’IA est omniprésente : des écoles aux diagnostics médicaux en passant par le flux TikTok. Le Conseil fédéral doit imposer plus de transparence et une protection efficace contre les discriminations.
Gerhard Andrey, conseiller national FR

Le Conseil fédéral a présenté aujourd’hui son état des lieux et sa décision de principe quant à une réglementation sur l’IA. Or, les approches réglementaires esquissées sont à la fois hésitantes et inopérantes. En effet, le Conseil fédéral ne veut pas de réglementations législatives sur l’IA avant 2030. Déjà fortement marqué par les technologies de l’IA, le monde actuel a rapidement besoin de règles et d’obligations claires : évaluations des risques, transparence sur l’utilisation de l’IA par les autorités ou les entreprises et protection efficace contre les discriminations, comme les VERT-E-S le requièrent dans une motion interpartis.

Il est clair pour les VERT-E-S que la Suisse doit fermement s’engager pour les applications de l’IA bénéfiques pour la collectivité et l’environnement et respectant nos valeurs de démocratie, durabilité et droits humains. Il s’agit notamment de renforcer la recherche suisse pour qu’elle élabore des alternatives. En revanche, des applications à haut risque, telles que l’évaluation du comportement social ou la reconnaissance faciale biométrique dans l’espace public n’ont ici pas leur place. De plus, la Suisse doit se doter d’une réglementation efficace des réseaux sociaux, afin qu’ils ne puissent plus servir d’arme contre notre démocratie.