À la faveur de la première session de rencontre des Directeurs Juridiques ou General Counsel Corner Meeting (GCCM) organisé par l’Association Camerounaise Des Juristes d’Entreprise (ACJE) pour l’année 2023, Me Flora WAMBA, Avocat associé & co-fondatrice du Cabinet CHAZAI WAMBA s’est prêtée à des échanges de haut vol au cours desquelles elle a partagé son expérience sur « Intelligence artificielle et digitalisation : à quoi s’attendre ? opportunité ou danger ? ».
INTELLIGENCE ARTIFICIELLE ET DIGITALISATION : À QUOI S’ATTENDRE ? OPPORTUNITÉ OU DANGER ?
Par : Me Flora WAMBA – Jeudi, le 11 Mai 2023, 18H – 20H
Par : Me Flora WAMBA – Jeudi, le 11 Mai 2023, 18H – 20H

Flora WAMBA est associée co-fondatrice du cabinet Chazai Wamba et Avocate aux Barreaux du Cameroun et de Paris.
Après avoir travaillé pendant plusieurs années au sein de cabinets d’avocats internationaux en France, Flora Wamba a décidé en 2017 de co-fonder le cabinet d’avocats Chazai Wamba avec Me Aurélie Chazai.
Depuis plus d’une décennie, Me Flora Wamba a ainsi acquis une solide expérience en droit des affaires et a eu à travailler sur des dossiers d’envergure notamment en droit des télécommunications, droit des assurances, droit des transports, droit des ressources naturelles aussi bien en matière de conseil qu’en matière de contentieux.
Elle parle couramment français et anglais et anime régulièrement des sessions de renforcement de capacités à l’attention de professionnels, d’investisseurs individuels et de start-ups.
Elle est titulaire d’un Master 2 droit des Assurances à l’Université Paris Panthéon Sorbonne et d’un Master en droit international des affaires.
L’évolution du numérique et de la digitalisation a commencé avec l’invention de l’ordinateur dans les années 1940. Depuis lors, les technologies numériques ont connu une croissance exponentielle et ont transformé tous les aspects de la société. Voici quelques étapes clés de cette évolution :
- Années 1960-1970 : Apparition des premiers langages de programmation et des premiers systèmes d’exploitation.
- Années 1980 : Naissance de l’ordinateur personnel et des premiers réseaux informatiques.
- Années 1990 : Développement d’Internet et du World Wide Web, permettant la communication et le partage d’informations à l’échelle mondiale.
- Années 2000 : Essor des smartphones et des réseaux sociaux, favorisant la connectivité et l’accès à l’information en temps réel.
- Années 2010 : Prolifération des objets connectés et de l’Internet des Objets (IoT), intégrant les technologies numériques dans les objets du quotidien et l’industrie.
- Depuis 2020 : Accélération de l’adoption des technologies de l’IA, du cloud computing et de la 5G, permettant une automatisation et une optimisation accrues des processus.
Au fil des années, la digitalisation a eu un impact majeur sur l’économie, la société et la culture. Elle a modifié les modes de communication, la manière dont les entreprises fonctionnent et les interactions entre les individus. De nouveaux secteurs économiques ont émergé, tels que le commerce électronique, la cybersécurité et les services de streaming.
Les défis liés à cette évolution incluent la protection de la vie privée, la sécurité des données et l’éthique dans l’utilisation des technologies numériques. Des questions telles que la fracture numérique, l’accès équitable aux ressources numériques et l’impact environnemental des technologies numériques sont également au centre des préoccupations.
Dans les années à venir, on peut s’attendre à ce que les technologies numériques continuent de se développer et de se diversifier, avec des innovations dans des domaines tels que l’intelligence artificielle, la réalité virtuelle et augmentée, la blockchain et l’informatique quantique.
La digitalisation pour une entreprise consiste à prendre un virage numérique dans sa stratégie et son organisation interne. Ainsi, le principal objectif associé à cette transformation digitale est l’amélioration de l’efficacité et de la productivité de l’entreprise, idéalement tout en réduisant les coûts. Pour y parvenir, l’un des principaux outils intégrés au digital de nos jours est l’Intelligence Artificielle (IA).
L’IA est un domaine de recherche et d’application en informatique qui vise à créer des machines et des systèmes capables de réaliser des tâches qui nécessitent normalement l’intelligence humaine. L’IA englobe des techniques telles que l’apprentissage automatique, le traitement du langage naturel, la vision par ordinateur et la robotique.
Exemples d’IA :
- Assistant vocal (Siri, Google Assistant, Alexa) : Ils permettent d’interagir avec l’utilisateur en langage naturel pour effectuer des tâches telles que la recherche d’informations, la gestion d’événements de calendrier, ou la commande d’objets connectés.
- Voiture autonome : Les véhicules autonomes utilisent l’IA pour analyser les données issues de capteurs et prendre des décisions de conduite en temps réel.
- Systèmes de recommandation : Les plateformes comme Netflix ou Amazon utilisent l’IA pour analyser les préférences des utilisateurs et leur proposer des contenus ou des produits susceptibles de les intéresser.
CADRE JURIDIQUE
Sur le plan international, l’IA ayant connu un boom ces dernières années, cette notion ne fait pas encore l’objet d’un encadrement juridique spécifique. Néanmoins, de nombreuses instances à l’instar de la Commission Nationale Consultative des Droits de l’Homme (CNCDH) ont alerté sur l’impact de l’IA sur les droits fondamentaux, notamment sur le respect de la dignité humaine, le respect de la vie privée et la protection des données, l’égalité et la non-discrimination, l’accès à la justice et l’accès aux droits sociaux. Actuellement, il n’existe pas de mesures appropriées pour prévenir ces risques. Néanmoins, des projets de règlement sur l’IA sont présentés en Occident. Il s’agit notamment de l’Artificial Intelligence Act (AIA) qui doit encore être adopté par le Parlement européen et le Conseil européen. Ce règlement interdit, en particulier :
- L’utilisation de systèmes « reposant sur des composants subliminaux que les personnes ne peuvent pas percevoir, ou exploitant les fragilités des enfants et des personnes vulnérables en raison de leur âge ou de leurs handicaps physiques ou mentaux»
- La notation sociale (« social scoring») qui consiste, pour les autorités publiques, à évaluer des personnes en fonction de leur comportement social ou de leurs caractéristiques personnelles ;
- L’utilisation de systèmes d’identification biométrique à distance « en temps réel» (reconnaissance des visages, des empreintes digitales, de la voix…) dans les espaces publics, à des fins répressives.
Si les IA ne sont pas spécialement encadrées, le Règlement Général sur la Protection des Données (RGPD), en vue de fournir des éléments de réponses relatifs au respect de la vie privée, impose des règles strictes sur la collecte, le traitement et la conservation des données personnelles. Ainsi, afin de se conformer au RGPD, chaque IA doit :
- Définir une finalité : le système d’IA doit toujours être développé, entrainé, et déployé avec un objectif établi en amont, dès la conception du projet. C’est dire que ledit objectif doit correspondre aux missions de la machine, compréhensible, et connu ;
- Etablir une base légale, qui peut être le consentement, le respect d’une obligation légale, l’exécution d’un contrat, l’exécution d’une mission d’intérêt public, la sauvegarde des intérêts vitaux, la poursuite d’un intérêt légitime, au sens du RGPD. Concrètement, c’est ce qui donne droit au développeur de l’IA de traiter les données personnelles ;
- Minimiser les données : les données collectées et utilisées doivent être adéquates, pertinentes et limitées à ce qui est nécessaire au regard de l’objectif défini ;
- Définir une durée de conservation : Les données personnelles ne peuvent être conservées indéfiniment. Le RGPD impose de définir une durée au bout de laquelle les données doivent être supprimées, ou archivées dans certains cas. Cette durée de conservation doit être déterminée par le responsable de traitement en fonction de l’objectif ayant conduit à la collecte de ces données ;
- S’assurer de l’information et de l’explicabilité : Le principe de transparence du RGPD exige que toute information ou communication relative au traitement de données personnelles soit concise, transparente, compréhensible et aisément accessible, en des termes simples et clairs ;
- Mettre en œuvre l’exercice des droits : Les personnes concernées par un traitement disposent de droits afin de garder la maitrise de leurs données. Le responsable du fichier doit leur expliquer comment les exercer (auprès de qui ? sous quelle forme ? etc.). Lorsqu’elles exercent leurs droits, les personnes doivent, en principe, obtenir une réponse dans le délai d’un mois ;
- Encadrer la prise de décision automatisée : Les personnes ont le droit de ne pas faire l’objet d’une décision entièrement automatisée (article 22 du RGPD) – souvent basée sur du profilage – qui a un effet juridique ou l’affecte sensiblement. Un organisme peut néanmoins automatiser ce type de décision sous certaines conditions, notamment si la personne a donné son consentement explicite ;
- Éviter les discriminations algorithmiques : L’utilisation de systèmes d’IA peut également entrainer des risques de discriminations. Les raisons sont multiples et peuvent provenir des données utilisées pour l’apprentissage, ou de l’algorithme lui-même qui présenterait des failles de conception.
De plus, des techniques telles que l’anonymisation, la pseudonymisation ou le chiffrement des données peuvent être utilisées pour protéger les informations sensibles. La recherche sur l’IA éthique et responsable est également en cours pour développer des méthodes d’apprentissage automatique qui respectent la vie privée des utilisateurs.
Sur le plan national, la loi sur la cybercriminalité, la loi sur la protection du consommateur, et la loi sur la communication électronique notamment imposent des règles qui semblent toutefois limitées, consacrant surtout le principe du consentement du consommateur et le devoir d’information du prestataire. De plus, ces lois visent surtout le secteur de la communication électronique.
En Afrique, l’Union Africaine a légiféré sur la Convention de Malabo sur la cybersécurité et la protection des données personnelles adoptée le 27 juin 2014, mais celle-ci n’a pas encore été ratifiée par bon nombre de pays, dont le Cameroun qui l’a uniquement signée à ce jour. En outre, il convient de souligner que cette convention n’est pas contraignante, mais vise uniquement à orienter les différents législateurs nationaux.
I. L’INTELLIGENCE ARTIFICIELLE, UNE OPPORTUNITÉ
L’IA constitue une opportunité pour les entreprises à bien des égards :
- Amélioration du système opérationnel. Premièrement, elle permet d’automatiser de nombreuses tâches répétitives et fastidieuses, contribuant ainsi à réduire les erreurs humaines. Ensuite, grâce à l’automatisation des process et des tâches applicatives, il devient inutile de renseigner plusieurs fois les informations liées à une même opération dans différents services. Désormais, l’information n’entre qu’une seule fois et sera par la suite automatisée pour l’ensemble du processus pour simplifier les tâches applicatives. Ainsi, il est dorénavant plus facile pour les employés de se focaliser sur des tâches importantes à réelle valeur ajoutée, notamment celles qui demandent une présence humaine, la plus habilitée à réagir face à un cas imprévu. Enfin, qui dit automatisation dit gain de temps, et qui dit gain de temps dit gain d’argent : l’automatisation de certaines tâches entraînent une réduction significative des coûts pour l’entreprise.
- Amélioration du système décisionnel. Ces trois (03) fonctions de l’IA peuvent largement contribuer à l’amélioration du système décisionnel :
- L’analyse des risques et des opportunités : Grâce à sa capacité d’apprentissage, c’est l’IA qui définit les risques et détecte les opportunités d’une manière automatique. Par exemple, elle peut analyser les appels d’offres qui seront les plus crédibles en étudiant ceux qui ont été perdus et gagnés récemment. Cela peut aider l’entreprise à se concentrer sur les opportunités qui sont compatibles avec les profils gagnants.
- L’analyse des prospects et des clients : si on connaît les attentes et les exigences des prospects et des clients, on peut les anticiper. Cela est possible grâce aux scores prédictifs. Ils permettent de concevoir des campagnes de communication pertinentes qui sont basées sur le comportement et le profil des internautes. Il peut s’agir d’une désinscription d’une newsletter, d’un acte d’achat, d’un clic sur une bannière. Ces derniers donnent des informations prédictives qui évitent les pertes de temps. Au lieu du pilotage de son entreprise en réaction, le dirigeant va se conformer à une démarche proactive.
- Faciliter la prise de décision : il faut savoir à qui s’adresser et comment s’y prendre. En ce sens, l’IA aide à identifier les profils cibles et ceux qui sont réceptifs, offrant à l’entreprise un avantage considérable sur le plan stratégique. Les décisions prises seront plus efficaces et fiables.
- Amélioration de la relation client. Ces technologies contribuent à la mise en place d’une stratégie gagnante. Toutefois, cette dernière ainsi que les applications complémentaires qui l’accompagnent doivent rester dynamiques ; c’est dire que l’entreprise doit s’adapter en permanence afin de rester concurrentielle. Niveau réactivité, des outils tels que la FAQ et le chat contribuent à l’entreprise de mieux satisfaire les attentes sa clientèle. Niveau proactivité, les technologies de l’IA permettent de se démarquer face à des concurrents en se basant sur les tendances, les retours clients et l’évolution du marché. En effet, grâce aux données fournies, l’entreprise saura dans quelle direction s’engager et les outils qui peuvent l’aider à créer de nouveaux produits et services et/ou améliorer ceux existants.
- Gestion des risques juridiques. L’IA peut aider à identifier et à prévenir les risques juridiques grâce à des outils d’analyse prédictive et de surveillance automatisée. Malgré l’opportunité de recourir à l’IA, celle-ci représente un danger que nous ne saurions ignorer, pour ses utilisateurs et plus globalement pour la société.
II. SIX DANGERS DE L’INTELLIGENCE ARTIFICIELLE
- Les pertes d’emploi
Les innovations humaines technologiques sont censées aider ou, au moins, alléger le travail des humains. Paradoxalement, à chaque fois que l’humanité a effectué un bond technologique visant à soulager la pénibilité des tâches humaines, cela a entraîné la disparition de plusieurs métiers. Par exemple, on ne trouve plus, depuis bien longtemps, des rémouleurs ou des porteurs d’eau dans les rues de nos cités. L’IA n’échappe pas à la règle et vient transformer la pratique de nombreuses professions. Elle bouleverse de nombreux domaines et révolutionne le travail en entreprise. Cette transformation entraîne des pertes d’emplois significatives, les tâches répétitives et pénibles étant les premières à être automatisées. Si une machine est en mesure d’effectuer une tâche destinée à l’Homme, elle le fera avec plus de précision, plus rapidement et à un moindre coût. Ainsi, les secteurs qui dépendent fortement de la main-d’œuvre, comme la fabrication, la logistique et le service clientèle, sont particulièrement vulnérables à cette transformation. Par conséquent, les travailleurs peu qualifiés risquent de se retrouver sans emploi. Dans le même ordre d’idées, l’IA peut entraîner une obsolescence des compétences pour certains employés. Les gouvernements ont d’ores et déjà la lourde tâche de trouver des moyens de garantir que l’automatisation ne se traduise pas par une augmentation du chômage et de la pauvreté.
- Le biais de données.
L’IA possède des propriétés fabuleuses, notamment pour l’accès à de nombreuses bases de connaissances en temps réel et la collecte d’informations de façon quasi instantanée ou en quelques minutes. C’est le cas, par exemple, avec des outils conversationnels basés sur l’IA comme le chatbot ChatGPT. L’intelligence artificielle, qui s’appuie sur d’énormes quantités de données, est capable de créer des modèles prédictifs. Cependant, les corpus de données peuvent contenir des biais risquant d’être reproduits par les algorithmes. Par exemple, si une base de données est principalement composée d’hommes blancs, les modèles prédictifs qui en découlent peuvent ne pas fonctionner correctement pour les femmes ou les minorités ethniques.
Les développeurs doivent être conscients de ces biais et travailler pour les éliminer ou les atténuer. Toutefois, n’ayant pas cette garantie, il convient d’une part, de ne pas accorder une confiance aveugle à toutes les recherches basées sur l’IA, car elles peuvent contenir des erreurs, et d’autre part, de toujours prendre le temps de vérifier les informations recueillies par le biais de recherches à l’aide d’une IA. Idéalement, il serait même plus prudent de faire soi-même, en amont, le travail de recherches nécessaire, de sorte que l’IA ne serve qu’à apporter des compléments d’information.
- La désinformation
S’il est vrai que le recours à la désinformation ou à la propagande n’a pas attendu l’avènement de l’IA pour se répandre, les systèmes d’IA, avec leur capacité à générer des textes de manière autonome, peuvent être utilisés pour créer de fausses nouvelles, des rumeurs et des théories du complot, et ce, très rapidement. Les réseaux sociaux et les plateformes de partage de contenu sont les principaux vecteurs de la propagation de ces informations. L’Affaire Hakimi notamment est un exemple de désinformation.
L’utilisation de l’IA, combinée à celles des médias sociaux, peut s’avérer désastreuse, car la plupart des gens ne prennent pas la pleine de vérifier les informations trouvées sur les médias sociaux et les répandent aisément en leur accordant crédit. Cela contribue à leur diffusion exponentielle, parfois en atteignant des millions de vues, et entraîner des conséquences catastrophiques.
- Les défauts de fonctionnement
Les entreprises courent le risque que les systèmes d’IA fonctionnent mal ou cessent de fonctionner, soit à cause d’une erreur dans la programmation, ou à cause de circonstances imprévisibles. Dans des secteurs tels que la santé, où les diagnostics générés par l’IA pourraient s’avérer erronés, et les traitements inappropriés.
Dans pareil cas, la problématique de la responsabilité juridique liée à l’utilisation de l’IA et des technologies numériques pourrait être soulevée.
- La cybercriminalité
Les IA peuvent être utilisées à mauvais dessein, notamment pour perpétrer des cyberattaques, ou à des fins militaires. Le développement des technologies d’IA pourrait rendre les cyberattaques beaucoup plus sophistiquées, et partant, efficaces et dures à détecter, menant potentiellement à des conséquences catastrophiques. Par ailleurs, l’IA pourrait être utilisée pour créer des armes autonomes, également appelés « robots tueurs ». Ces armes seraient capables de sélectionner et d’engager des cibles sans intervention humaine. En plus de la possibilité que de telles armes puissent échapper au contrôle de l’Homme, la course aux armements que cela suscite entre les grandes nations augmente considérablement les risques de conflits. Les entreprises doivent se protéger contre les cyberattaques et les violations de données, qui peuvent entraîner des conséquences juridiques et financières importantes.
- Le développement de la super-intelligence artificielle (ASI)
L’un des risques les plus fréquemment cités est la possibilité que l’IA dépasse l’intelligence humaine, et qu’on obtienne par conséquent l’ASI tant redoutée. Un tel développement pourrait conduire à un avenir dans lequel les machines seraient incontrôlables, capables de nous dépasser et de nous manipuler. En effet, à mesure que les systèmes d’IA deviennent plus sophistiqués, ils pourraient mieux cacher leurs activités aux humains et réaliser leurs objectifs à notre insu ou sans notre consentement.
III. RECOMMANDATIONS PRATIQUES
Afin de tirer parti des opportunités offertes par l’intelligence artificielle et la digitalisation tout en minimisant les risques, il est nécessaire d’intégrer les outils numériques dans nos taches au quotidien. Cependant, nous devons faire preuve de sagesse lorsque nous les mettons à contribution car ils ne doivent pas faire obstruction à nos libertés fondamentales et nous rendre dépendant, faisant passer l’humain au second plan.
Par ailleurs, à l’échelle des entreprises, quelques mesures peuvent être prises :
• Élaborer des stratégies de gestion des risques numériques, en tenant compte des enjeux juridiques, éthiques et opérationnels liés à l’adoption de nouvelles technologies ;
• Renforcer les compétences internes en matière de technologie, en formant les employés aux nouveaux outils et en recrutant des experts spécialisés dans les domaines de l’IA et de la digitalisation ;
• Adopter une approche proactive pour anticiper les évolutions législatives et réglementaires, en suivant de près les développements dans les domaines de la protection des données, de la responsabilité juridique et de la conformité ;
• Collaborer avec des partenaires externes, tels que des fournisseurs de services technologiques, des consultants juridiques et des organismes de normalisation, pour assurer une mise en œuvre réussie des technologies d’IA et de digitalisation.
Réalisé par : Ghislain MOTSEBO, Juriste Assistant chez ACJE
Revue par : Mme Stella NSATA, Juriste Senior et Secrétaire Générale Adjointe auprès de l’ACJE