L’IA, une nécessité, un atout
Pour 52 % des salariés répondants, et 74 % s’ils sont déjà utilisateurs, l’IA joue un rôle important ou très important dans le développement et le rayonnement d’un pays. D’autant plus qu’ils considèrent que jusqu’à présent la France et l’Union européenne sont distancées, loin derrière les États-Unis et la Chine. 44 %, et 66 % s’ils l’utilisent, voient l’IA comme un facteur d’efficacité dans le travail, pour 39 % elle permet de meilleures décisions, 56 % s’ils s’en servent déjà. De plus pour 3 sur 10 cela aide à consommer moins de ressources.
Les risques liés à l’IA
Cela ne les empêche pas de pointer des risques liés à l’IA. Pour :
- 41 %, un impact sur les emplois ;
- 33 %, les risques de confidentialité des données ;
- 31 %, une dépendance excessive ;
- 24 %, une non-conformité aux réglementations et un manque de transparence.
Certains citent aussi le risque d’amplification des stéréotypes, ceux de l’uniformisation du travail, et l’impact environnemental.
La nécessité d’une régulation
Aussi, pour les ¾ d’entre eux (74 %), et 85 % de ceux qui l’utilisent, une régulation est nécessaire. Ils insistent sur :
- La nécessité de trouver un équilibre entre innovation, sécurité et responsabilité ;
- Celle de privilégier les principes éthiques.
- Alors que 10 % seulement priorisent la seule innovation.
Quelle régulation ? Leurs avis se partagent : une régulation internationale pour 30 %, par État pour 25 %, par l’Union européenne pour 19 %, en sachant qu’ils considèrent, à 57 % et 75 % des utilisateurs, que l’AI Act que vient de prendre l’UE et qui crée une régulation en fonction des niveaux de risque est une bonne chose ou même une très bonne chose.
Les facteurs d’une IA responsable
Très sensibles, à 63 % et à 83 % des utilisateurs, au concept d’IA responsable et éthique, ils en définissent les éléments :
- La protection des données personnelles pour 36 % ;
- Tout ce qui concerne le respect de l’être humain pour 8 sur 10, dont le respect des droits fondamentaux (27 %), la prééminence de l’humain (24 %), le respect de la santé humaine (20 %) et l’amélioration du bien-être humain (25 %) ;
- Ils citent aussi la garantie de la transparence, la prise en compte de l’impact environnemental, des choix explicables et la réduction des biais des algorithmes.
Où en sont les entreprises ?
C’est une question à laquelle beaucoup ne peuvent pas répondre car 63 % ignorent si leur entreprise a entrepris des démarches pour se mettre dans le cadre d’une IA responsable. 9 % seulement citent l’existence d’une charte éthique et autant un interlocuteur ou un comité d’éthique de l’IA. Aussi les salariés accordent la note moyenne de 4,1 sur 10 seulement pour la mise en place d’une intelligence artificielle responsable dans leur entreprise. Un peu plus à 5,6 sur 10 pour ceux qui la pratiquent, plus positifs sur les compétences existant en interne, la formation et la sensibilisation aux enjeux, la motivation au changement, le leadership présent et les budgets alloués pour une IA responsable.
Des freins existent pour d’autres, en particulier des manques de compétences pour 30 %, une complexité technique (26 %). Mais certains identifient aussi les coûts, une résistance au changement, parfois un manque d’engagement de la direction. De plus la sensibilisation est encore limitée à l’usage de l’intelligence artificielle dans la vie professionnelle à 28 % des salariés seulement et concerne surtout les cadres, les jeunes de moins de 35 ans et le secteur des services.
Les demandes des salariés vont donc au développement de procédures pour gérer les risques (60 %), à des formations de sensibilisation (55 %), à l’évaluation des impacts éthiques et des risques et à la création d’une gouvernance dédiée.
Ainsi les salariés voient de façon positive le développement de l’intelligence artificielle, tout particulièrement ceux qui la pratiquent déjà, au travail ou personnellement. Mais ils veulent une IA responsable, au profit de l’humain et régulée. Il y a donc grand besoin du développement d’un dialogue social autour de ces questions pour répondre au souci des salariés que l’usage de l’IA soit développé de façon responsable, éthique et privilégiant l’humain.

Source
- Observatoire de l’IA responsable en entreprise – janvier 2025 – Étude Viavoice–GCF pour Impact AI :
https://www.impact-ai.fr/fr/2025/01/14/observatoire-ia-responsable-2025/