Depuis l’entrée fulgurante de l’Intelligence Artificielle dans nos vies, tout s’est très vite enchaîné. Nous avons à peine eu le temps de comprendre à quel point l’intelligence artificielle était révolutionnaire, que nous nous sommes rués sur des outils comme Chat GPT, Midjourney ou Dall-e pour expérimenter cette nouvelle technologie et comprendre les opportunités qu’elle pouvait nous offrir.
À l’instar du digital, l’IA s’est rapidemeny introduite dans notre vie professionnelle avec des outils comme Copilot de Microsoft. En outre, l’IA s’est également immiscée dans de nombreux outils que l’on utilise au quotidien : smartphones, outils de bureautique, applications de production assistée par ordinateur, etc.
La révolution IA est lancée et semble faciliter le quotidien de tout le monde au travail, même des plus septiques.
Mais devant cette euphorie collective, ne faudrait-il pas prendre un peu de recul et se poser des questions sur les conséquences de notre utilisation de l’IA, notamment l’impact sur la protection des données utilisées ?
C’est une question épineuse sur laquelle nous avons cherché des réponses en partenariat avec Matthieu Corthésy, spécialiste de l’intelligence artificielle et auteur du livre « ChatGPT en entreprise ».
Les usages sont multiples et les possibilités sont infinies. C’est ce qui rend l’intelligence artificielle vraiment impressionnante ! Elle trouve sa place dans tous les secteurs d’activité et permet d’automatiser et de faciliter de nombreuses tâches. C’est une innovation qui nous fait gagner du temps et de la productivité !
Pour mieux comprendre comment l’Intelligence Artificielle accompagne les collaborateurs des entreprises, voici quelques exemples concrets d’utilisations :
Et la liste est loin d’être exhaustive ! L’IA est à la fois un assistant, une aide à la décision, un outil de traduction automatique et bien plus encore.
Une intelligence artificielle “apprend” en analysant des quantités massives de données. Par exemple, pour qu’une IA soit en capacité de reconnaître des images de chats, on lui montre des milliers d’images de chats et d’autres objets. Pendant son apprentissage, elle comprend comment distinguer les caractéristiques qui définissent un chat (forme des oreilles, des yeux, etc.).
L’IA traite ensuite ces données en utilisant des algorithmes qui permettent de répondre aux demandes et de créer une véritable communication avec son interlocuteur. L’IA connaît alors une phase d’entraînement dans laquelle elle peut faire des erreurs. Il faut également savoir que lorsqu’une IA n’a pas une réponse, il arrive qu’elle l’invente (oui, l’IA aussi a des hallucinations). C’est pourquoi il est important de toujours vérifier l’information communiquée par l’IA et d’améliorer le contenu qu’elle nous propose.
L’intelligence artificielle se perfectionne au fil du temps et gagne en performance en utilisant les nouvelles données, fournies par les utilisateurs dans leurs requêtes.
Cette grande quantité de données collectées par l’IA soulève une question cruciale : comment sont-elles protégées et qui peut y avoir accès ? Peuvent-elles être dévoilées auprès d’autres utilisateurs ou tomber dans les mains de cybercriminels ?
Lorsqu’on reprend les exemples d’utilisations de l’intelligence artificielle ci-dessus, on constate que nous fournissons beaucoup de data aux IA. Par exemple, si un RH fournit des CV à Chat GPT pour qu’il l’aide à trier les profils par pertinences, toutes les données des candidats figurant sur les CV sont exposées !
De même pour un responsable marketing ou un directeur financier qui va demander à Copilot d’analyser des données business, ces données seront exposées et si ce sont des données sensibles alors il y a un risque pour l’entreprise.
En communiquant des données sensibles à une intelligence artificielle, le risque de fuite de données augmente. Ces données sont ainsi exposées à une utilisation malveillante : cyberattaque, usurpation d’identité, vol de données, rançongiciel, etc.
Pour bien utiliser l’IA en toute sécurité, la solution est d’apprendre à la maîtriser d’un point de vue technique, mais aussi de comprendre les enjeux et les risques auxquels les utilisateurs sont exposés. C’est pourquoi, il est primordial de sensibiliser les collaborateurs qui utilisent l’IA dans leur entreprise aux dangers potentiels et à l’éthique des données personnelles.
En février 2024, l’Union Européenne a voté l’IA Act, une loi qui encadre l’utilisation de l’intelligence artificielle. Suite au vote de cette loi, 23% des organisations ont mis en place des actions pour sensibiliser leurs salariés aux nouvelles réglementations.
En Suisse, la confédération prévoit également une proposition d’approche suisse sur la réglementation de l’IA d’ici fin 2024.
Vous l’avez compris, l’IA a bouleversé notre manière de travailler. C’est un outil puissant qui nous permet de travailler plus efficacement. Utiliser l’IA, c’est aujourd’hui une nouvelle compétence qu’il faut intégrer dans son expertise. Or, il est important d’être conscient des conséquences d’une utilisation mal avisée.
C’est pourquoi eSkills, notre agence de digital learning à Genève a conçu une formation sur étagère, entièrement dédiée à l’Intelligence Artificielle et à la sécurité des données. L’objectif est de transmettre des premières pistes de réflexions aux apprenants pour qu’ils puissent ensuite développer leur utilisation de l’IA.
Cette formation en ligne propose une exploration ludique et interactive adaptée à des apprenants qui utilisent l’IA.
Nous avons conçu cet elearning pour sensibiliser un grand nombre de collaborateurs en leur fournissant la bonne méthode pour utiliser l’IA en toute sérénité via un module interactif et complet d’une durée de vingt minutes.
Pour découvrir notre formation digitale,
c’est par ici !