Trouver

L’IA s’impose sur le lieu de travail, malgré plusieurs obstacles

Depuis le lancement de ChatGPT, Copilot et Gemini, les expérimentations avec l’IA générative vont bon train dans les entreprises belges : rédaction de contenus, analyses de données, traduction de textes… Mais quel est l’impact réel au travail et jusqu’où peut-on aller sur le plan éthique et juridique ? « Les entreprises qui investissent dans la formation et l’utilisation réfléchie de l’IA vont rapidement en tirer un avantage concurrentiel. » (Dries Van Damme)

Près de la moitié des mille travailleurs interrogés par l’UGent@Work déclarent utiliser de temps en temps des outils d’IA générative au travail. ChatGPT arrive largement en tête (76% des utilisateurs), suivi de Microsoft Copilot (32%). Plus de deux tiers des participants déclarent travailler plus vite, et près de la moitié d’entre eux se sentent plus productifs grâce à l’IA.

Pourtant, de nombreuses entreprises voient davantage l’IA générative comme un « moteur de recherche plus intelligent » plutôt que comme un copilote capable de soutenir la prise de décision ou l’automatisation. « Le réel potentiel réside dans l’utilisation avancée », explique Amy Van Looy, professeure d’informatique décisionnelle à l’Université de Gand. « L’IA englobe aussi la robotique, l’automatisation des processus et l’analyse de données, par exemple les bots qui exécutent les tâches répétitives ou les algorithmes capables de prédire les risques. »

Maîtrise de l’IA

Afin d’exploiter ce potentiel, il est crucial que les collaborateurs maîtrisent l’IA. « Connaître la technologie, savoir rédiger un prompt efficace et rester critique face aux réponses générées : ces trois éléments sont cruciaux. » Le dernier s’avère même indispensable : les travailleurs se donnent un score de 4,9 sur 10 pour leurs compétences en IA et seuls 13% ont déjà suivi une formation à l’IA. Bien que la réglementation européenne en matière d’IA oblige les entreprises à promouvoir la littératie en IA, une enquête d’Acerta révèle que sept Belges sur dix estiment qu’il n’existe toujours pas de directives claires sur l’usage de l’IA au travail.

Une opportunité ratée selon Amy Van Looy : « La Belgique n’est pas mauvaise élève concernant l’adoption de l’IA, et nos compétences numériques sont dans la moyenne européenne. Mais nos voisins s’en sortent souvent mieux, car leurs entreprises et citoyens sont plus ouverts à l’innovation. » Cette attitude n’est pas un obstacle en soi. « L’inclusion et la formation de tous les travailleurs constituent un plus grand point d’attention », précise Amy Van Looy. « Sinon l’IA risque peu à peu de créer une nouvelle fracture numérique, puisqu’elle est la compétence numérique fondamentale de demain. »

L’humain reste central

L’IA peut se charger des tâches répétitives et soulager les travailleurs, mais il ne faut pas lui accorder une confiance aveugle. « L’IA générative n’est pas un moteur de recherche », prévient Katrien Meuwis du Sirris, le centre collectif de l'industrie technologique belge. « Elle crée du contenu qui semble juste, mais qui ne l’est pas toujours. Posez trois fois la même question à l’IA, et vous obtiendrez trois réponses différentes. Les grands modèles s’améliorent de jour en jour, mais le contrôle humain reste nécessaire. »

Amy Van Looy insiste également : « L’IA peut aider, mais ne fait pas tout. Elle peut automatiser des tâches répétitives, afin que l’humain puisse se concentrer sur la création, l’empathie ou le leadership. Les décisions qui requièrent des considérations contextuelles ou morales restent du ressort de l’humain. On ne peut faire confiance à l’IA que si l’on peut se fier aux données sur lesquelles elle a été entraînée et, aujourd’hui, cette transparence n’est pas toujours garantie. »

Zone d’ombre

Outre les questions de confiance, des obstacles juridiques se profilent. À qui appartient un texte ou une image générés par l’IA ? Qui détient les droits d’auteur ? « Il y a une différence entre les deux », explique Katrien Meuwis. « Pour qu’une œuvre soit protégée, le contenu doit faire preuve de créativité humaine. Les œuvres générées par l’IA sans intervention humaine (ou AI-generated content) ne sont donc pas concernées. » Les œuvres assistées par l’IA (AI-assisted content) peuvent bénéficier d’une protection si elles comportent une contribution humaine et créative, par exemple dans le prompt ou la finition. « La limite reste floue. Le débat est mené, mais aucune modification de la loi n’est attendue : le droit d’auteur repose toujours sur l’apport créatif humain. »

Au-delà du droit d’auteur, le droit d’utiliser ou d’exploiter les résultats générés par l’IA dépend aussi considérablement des conditions d’utilisation des outils. Les versions payantes cèdent généralement les droits à l’utilisateur, mais certains outils les conservent. « Les entreprises doivent lire attentivement ces conditions », insiste Katrien Meuwis. « Parfois, le fournisseur peut réutiliser le contenu, par exemple pour entraîner son modèle. »

Confidentialité

Souvent, les conditions déterminent aussi qui est responsable lorsque l’IA copie des contenus protégés. « Si votre prompt demande explicitement de créer du contenu qui ressemble à une œuvre protégée, la responsabilité d’infraction aux droits d’auteur peut vous incomber selon ces conditions », explique Katrien Meuwis. La confidentialité est un point d’attention supplémentaire. « De nombreux outils d’IA générative se réservent le droit d’analyser ou de stocker les données saisies. Les entreprises qui traitent des données sensibles doivent donc vérifier si l’outil propose une version avec des clauses de confidentialité plus strictes. »

Étant donné le flou juridique, les experts conseillent aux entreprises de se protéger contractuellement. « Vous pouvez mentionner l’utilisation d’outils d’IA dans les contrats que vous signez avec vos clients », explique Katrien Meuwis. « Cette clause de transparence n’exclut pas la responsabilité, mais montre que l’entreprise agit avec diligence. En s’accordant sur les responsabilités en cas d’erreur ou de violation, on peut arriver à des arrangements corrects. » La clarté des dispositions est importante, tant envers les clients que le fournisseur d’IA. « En bref, utiliser l’IA sans contrôle légal est tout aussi risqué que d’installer un logiciel sans lire les conditions de licence. »

Nouvelles obligations

La loi européenne sur l'IA n'impose pas de nouvelles règles en matière de propriété intellectuelle, mais bien de transparence, de gestion des risques et de documentation. Les fournisseurs de systèmes d’IA générative devront montrer comment fonctionnent leurs modèles et quelles sont les données utilisées. « La loi sur l'IA oblige les utilisateurs à être prudents », explique Katrien Meuwis. « Les entreprises qui autorisent l’IA dans des processus importants doivent s’assurer que leurs collaborateurs soient conscients des données qu’ils peuvent ou ne peuvent pas saisir dans un outil d’IA : aucune donnée personnelle, aucune information client confidentielle et aucune donnée de tiers. » Elles restent ainsi en règle avec le RGPD et les autres obligations de confidentialité.

La transformation du travail

Bien que l’IA s’impose de plus en plus dans les entreprises belges, des différences subsistent selon la taille des entreprises. Selon Katrien Meuwis, interdire l’IA n’est pas une solution. « L’arrivée de l’open source a montré qu’interdire ne fonctionne pas. Il est essentiel d’avoir une politique claire en matière d’IA, qui définit les outils autorisés, les objectifs poursuivis et détermine à qui incombe la responsabilité finale. » « En ignorant l’IA, on s’exclut du marché », ajoute Amy Van Looy. « Mais une utilisation imprudente comporte des risques : mauvaises décisions, fuite de données ou réputation entachée. Une utilisation critique et informée est indispensable. »

L’UGent@Work indique que seulement 38% des travailleurs font confiance aux informations fournies par l’IA générative et que 37% craignent que l’IA entraîne un contrôle accru au travail. Pourtant Amy Van Looy est optimiste : « Dans les années à venir, l’IA sera de plus en plus intégrée dans la gestion d’entreprise. Mais le contrôle humain reste crucial. Tout l’art consiste à avoir des attentes réalistes et à utiliser l’IA de manière stratégique, et pas seulement parce que c’est tendance. Les entreprises qui investissent aujourd’hui dans la formation et l’utilisation réfléchie de l’IA vont rapidement en tirer un avantage concurrentiel. »

Retour
Infothèque
E-mails frauduleux se faisant passer pour l’ONSS

Prudence face aux e-mails frauduleux se faisant passer pour l’ONSS
 

Le plus grand nombre de malades des cinq dernières années 

Les mois de septembre et d’octobre ont enregistré le plus grand nombre de malades de ces cinq dernières années 

Guide des salaires 2025

Guide des salaires 2025 (Bright Plus)