Si, aujourd’hui, seules quelques entreprises peuvent véritablement être qualifiées d’entreprises spécialisées dans l’intelligence artificielle (IA), à l’avenir, chaque entreprise devra mettre au point une stratégie en la matière, car l’intelligence artificielle va devenir omniprésente, que ce soit sous la forme de systèmes d’exploitation ou de robots intégrés aux voitures, aux systèmes de soins à domicile ou de divertissement.
Une entreprise pourra voir sa réputation considérablement ternie si elle prend de mauvaises décisions quant à l’utilisation de l’IA. Il est donc important de réfléchir dès maintenant aux divers mécanismes de réglementation et de gouvernance nécessaires.
Kay Firth-Butterfield
Actuellement, les entreprises n’investissent pas autant dans la recherche-développement et l’IA qu’elles le devraient probablement. Cela s’explique principalement par trois facteurs : le manque de compréhension des technologies concernées et de leurs capacités, le caractère encore embryonnaire et peu utile de certaines technologies, et la méconnaissance du processus d’élaboration de la réglementation et des innovations qui seront visées par celle-ci. Il en résulte que certaines entreprises tournées vers l’avenir essaient d’utiliser l’IA là où elle n’est vraiment pas nécessaire (citons l’exemple de la reconnaissance faciale pour la climatisation) tandis que d’autres attendent de voir sur quel terrain se placera l’innovation et comment les pouvoirs publics pourraient la financer.
De nombreuses entreprises craignent également qu’une utilisation non maîtrisée de l’IA n’entraîne des pertes d’emplois importantes à court terme. Les entreprises qui se préoccupent des questions sociales souhaitent trouver un moyen de réduire les incidences négatives de ce bouleversement sur leur personnel et sur la stabilité politique de la région. Dans de nombreuses régions du monde, les suppressions de postes qui n’ont pas été accompagnées de mesures de reconversion ont entraîné des changements géopolitiques et une instabilité des marchés qui, en général, ne profite pas aux entreprises. Certaines ont commencé à utiliser l’IA dans le secteur des ressources humaines. D’où la nécessité pour les entreprises d’être conscientes des problèmes que pourrait poser l’utilisation de l’IA, entre autres, dans ce domaine. Les difficultés se répartissent en quatre grandes catégories : la partialité, la transparence, la responsabilité et la protection de la vie privée.
Une entreprise pourra voir sa réputation considérablement ternie si elle prend de mauvaises décisions quant à l’utilisation de l’IA. Il est donc important de réfléchir dès maintenant aux divers mécanismes de réglementation et de gouvernance nécessaires car l’évolution rapide de cette technologie ne permet pas l’atermoiement.
Les domaines où l’IA sera la plus déstabilisante et ceux où elle aura la plus grande incidence ne sont pas nécessairement les mêmes. Et cette incidence peut être positive ou négative. Je vais illustrer cela par deux exemples :
1) Utilisation de l’IA dans les jouets – nos enfants travailleront de plus en plus avec des robots. Ainsi, on pourrait dire que le fait de disposer d’un ou de plusieurs jouets dotés d’une IA dès le plus jeune âge pourrait constituer une excellente préparation de la main-d’œuvre. De même, les avantages d’une éducation personnalisée pour les enfants du monde entier sont énormes. Toutefois, plusieurs problèmes fondamentaux doivent tout d’abord être réglés. Comment gérerons-nous la protection de la vie privée? Si les mots et les pensées des enfants sont recueillis dès qu’ils commencent à parler et si leurs styles d’apprentissage sont analysés, comment protégerons-nous ces données? À qui appartiennent ces données et peuvent-elles être valorisées financièrement? Si le jouet “écoute” le foyer, il ne recueille pas uniquement des données sur les enfants. Si l’enfant a beaucoup d’appareils qui l’écoutent et que d’autres enfants apportent leurs appareils, la question de la vie privée est encore plus importante. Le risque d’abus de la part de l’État ou de ceux qui tentent d’influencer la population, lors d’élections, par exemple, est énorme et menace l’autonomie humaine. Comment les parents choisissent-ils le programme scolaire que suivra leur enfant? La plupart essaient de choisir une école, mais pour l’instant, cela ne signifie pas qu’ils choisissent un enseignement dispensé par une IA. Dans de nombreux pays, la publicité pour les enfants est interdite, mais si un jouet doté d’une IA déclare avoir froid et que l’enfant demande ensuite un manteau pour son jouet, est-ce de la publicité? En quoi le fait de ne pas devoir inventer des histoires concernant leurs jouets, mais de disposer d’histoires préétablies, influe-t-il sur la créativité de nos enfants? Si notre ami invisible nous répond, nous n’utilisons pas notre imagination pour le faire parler. Cela va-t-il modifier non seulement notre autonomie, mais aussi notre façon de penser? Comment les enfants élevés avec de nombreux amis dotés d’une IA se comporteront-ils avec leurs pairs? Aurons-nous autant besoin des autres si nous disposons d’appareils qui répondent à nos besoins et ne nous contredisent jamais? Le jouet doté d’une IA est-il l’outil d’influence par excellence? Le Forum économique mondial, en partenariat avec l’UNICEF, divers organismes de réglementation nationaux, des universités, la société civile et des entreprises a lancé un projet qui vise à répondre à ces questions et à bien d’autres encore.
2) Utilisation de l’IA dans les voitures – dans les films comme Star Wars et Star Trek, les êtres humains “conduisent” encore des vaisseaux spatiaux. Pourtant, la voiture autonome n’aura plus besoin de conducteur et l’IA nous dispensera tous d’apprendre à conduire. L’IA calculera mieux que nous la distance, la vitesse et la destination. C’est pourquoi il est logique que les êtres humains abandonnent au profit de l’IA leurs compétences en matière de conduite. Toutefois, cela soulève des questions quant à la protection de la vie privée puisque la société fournissant l’IA devra disposer de données de localisation et pourrait dès lors faire en sorte que votre voiture passe devant des établissements ayant payé pour ce service pour encourager les usagers à faire leurs achats chez eux. De même, des données sur les automobilistes seront collectées au moyen de dispositifs embarqués : comment préserverons-nous notre vie privée? L’Allemagne a commencé à se pencher sur cet aspect et a décrété que les données provenant des conversations échangées dans la voiture devaient appartenir à l’utilisateur et non au constructeur automobile ou à la société d’IA. En outre, il est probable que le recours à des véhicules autonomes entraîne d’importantes pertes d’emplois; selon McKinsey, jusqu’à 25 000 chauffeurs routiers par semaine pourraient être touchés. De même, la diminution du nombre de propriétaires de voitures due à l’augmentation du nombre de locataires occasionnels pourrait avoir des répercussions importantes sur le secteur de la construction automobile et les services auxiliaires. En revanche, les effets positifs des voitures autonomes sur l’environnement sont immenses et la réduction du nombre de victimes sur les routes est importante.
Le contrôle que l’on peut exercer sur une intelligence artificielle générale (ou forte) ou une superintelligence est une question qui suscite de vives inquiétudes, et c’est à juste titre que des travaux sont menés dans ce domaine. Par ailleurs, il convient également de se pencher sur l’IA spécialisée (ou faible) et sur les questions de partialité, de protection de la vie privée, de responsabilité et de transparence. Ces quatre domaines problématiques reviennent constamment en ce qui concerne l’utilisation de l’IA spécialisée, que ce soit pour la police et la justice prédictives ou l’obtention d’un emploi ou d’un prêt. L’augmentation du nombre d’objets dotés d’une IA présents sur le marché, tels que les voitures et les robots, multipliera se type de problèmes. C’est pourquoi une réflexion sur la gouvernance s’impose à ce stade.
Il existe de nombreuses formes de gouvernance et la réglementation par l’État n’en est qu’une parmi d’autres. Très souvent, ce type de réglementation prend du retard par rapport aux technologies qui évoluent rapidement telles que l’intelligence artificielle, en raison du temps nécessaire à leur élaboration, surtout dans les pays démocratiques.
Au Forum économique mondial, nous savons que la réglementation est nécessaire dans certains cas, mais nous pensons que le meilleur moyen de parvenir à gérer l’IA est de recourir à des mesures de gouvernance souples. Citons notamment l’élaboration et l’utilisation de normes (protocoles de l’IEEE et du Forum économique mondial), l’émergence de normes sociales qui restreignent ou appuient l’usage, les systèmes incitatifs privés, la certification, la surveillance par des organismes professionnels, les conventions et politiques industrielles appliquées volontairement par les organisations ou au moyen de contrats avec les concurrents, les fournisseurs, les partenaires et les clients. Les travaux de l’Initiative mondiale sur les questions d’éthique dans l’intelligence artificielle et les systèmes autonomes sont cruciaux dans le cadre de ces initiatives de gouvernance souple.
Plusieurs de nos projets illustrent cette approche. L’un d’eux concerne le déploiement de l’IA dans le secteur public. Nous avons constaté que l’intelligence artificielle était susceptible d’améliorer considérablement le fonctionnement des administrations et de répondre aux besoins des citoyens par de nouveaux moyens, depuis la gestion de la circulation automobile jusqu’au traitement des formulaires fiscaux en passant par la prestation de soins médicaux. Pourtant, de nombreuses institutions publiques hésitent à exploiter cette technologie puissante en raison d’inquiétudes liées à la partialité, à la protection de la vie privée, à la responsabilité, à la transparence et à la complexité générale du sujet. De nouveaux cas apparaissent, qui montrent les conséquences négatives de l’utilisation de l’IA dans des domaines tels que l’imposition de sanctions pénales, l’application de la loi et même la recherche d’emploi. Les pouvoirs publics n’ont pas les moyens d’utiliser les algorithmes impénétrables de type “boîte noire” qui caractérisent de plus en plus les IA déployées par le secteur privé. Alors que les citoyens réclament de plus en plus de leurs services publics qu’ils leur offrent le même niveau de service que les entreprises innovantes du secteur privé, les pouvoirs publics devront faire le point sur les avantages spécifiques que cette technologie complexe peut apporter et comprendre les inconvénients des outils créés à l’aide de l’IA.
Le projet réunit des parties prenantes de tous les secteurs pour leur permettre d’élaborer ensemble des lignes directrices qui permettront aux gouvernements de se doter de l’IA en toute confiance et de manière responsable et d’orienter le développement interne des technologies qui l’utilisent. Plusieurs pays se sont engagés à tester ces lignes directrices pour vérifier les hypothèses concernant leur efficacité et leur incidence, puis à les adapter et à en diffuser publiquement les versions mises à jour pour encourager leur adoption sur la scène internationale. Compte tenu des contraintes budgétaires et de la difficulté que rencontrent souvent les pouvoirs publics à faire la part des choses entre battage médiatique et intérêt réel pour ce qui est des nouveaux produits d’IA, ce projet permettra également de recueillir des commentaires et de fournir des conseils quant aux meilleurs usages possibles de l’IA par les pouvoirs publics ainsi que des exemples de situations dans lesquelles cet usage est prématuré, non éprouvé, incertain ou risqué.
Ces lignes directrices permettront aux États de déployer et de concevoir de façon responsable des technologies d’IA au profit des citoyens. En outre, l’important pouvoir d’achat de l’État peut inciter le secteur privé à adopter ces normes, y compris pour les produits vendus à des clients autres que l’État. Tandis que les entreprises du secteur réfléchissent à l’instauration de leurs propres normes en la matière, l’autorité morale et la crédibilité de l’État peuvent servir de base pour la conduite de cette réflexion. Ces méthodes d’influence indirectes de la trajectoire de l’IA constituent une alternative plus souple à la réglementation, particulièrement nécessaire dans un contexte où les mesures de gouvernance traditionnelles sont trop lentes face aux mutations technologiques rapides, notamment dans le domaine de l’IA. Bien que les entreprises se méfient généralement lorsque des règles plus strictes sont adoptées pour les marchés publics, ce projet s’appuie sur de nombreuses études de cas dans lesquels la mise en place d’un cadre fondé sur le bon sens peut aider les États à surmonter leur réticence à acquérir de nouvelles technologies complexes et même ouvrir de nouveaux marchés aux entreprises.
Nous pensons qu’en travaillant avec les entreprises, les pouvoirs publics, la société civile, les organisations intergouvernementales et les universités, le Forum pourra contribuer à la création en commun de mécanismes de gouvernance de l’IA, ce qui évitera un nivellement par le bas. De nombreux pays à travers le monde souhaitent collaborer avec le Forum qui possède des bureaux de C4IR (commandement, contrôle, communication, informatique, renseignement et reconnaissance) à San Francisco, en Chine, à Tokyo et en Inde, et prévoit d’en ouvrir sept autres dans le monde en 2019. La gouvernance de l’IA est une question que nous devons aborder ensemble afin de pouvoir tirer parti des avantages de l’IA et en atténuer les inconvénients.
Le Forum économique mondial mène un projet qui vise à aider les entreprises à se pencher sur la question de la gouvernance de l’IA : la boîte à outils en matière d’IA du conseil d’administration.
L’intelligence artificielle étant de plus en plus incontournable dans les modèles d’affaires de tous les secteurs d’activité, les dirigeants d’entreprise devront recenser les avantages spécifiques que cette technologie complexe peut apporter à leurs activités ainsi que les enjeux liés à sa conception, son développement et son déploiement de manière responsable. Les entreprises qui parviendront à trouver le juste équilibre seront les entreprises viables de la quatrième révolution industrielle, mais celles qui ne réussiront pas à concevoir, développer et utiliser l’IA de manière responsable risquent de voir leur réputation se ternir et de subir un rejet de la part de leur clientèle.
Les membres du conseil d’administration de toutes les sociétés doivent accompagner leur entreprise pendant cette période de changement technologique sans précédent et l’aider à faire face aux bouleversements sociétaux qui en découlent. Un ensemble d’outils pratiques peut permettre aux membres du conseil de se poser les bonnes questions, de comprendre quels sont les principaux arbitrages à opérer et de répondre aux besoins des différentes parties prenantes, ainsi que leur donner les clés pour envisager et optimiser les méthodes à mettre en œuvre comme la désignation d’un responsable des valeurs, d’un responsable en matière d’IA ou d’un comité consultatif en matière d’éthique dans le domaine de l’IA.
Cette boîte à outils en matière d’IA du conseil d’administration reposera sur quatre piliers : les incidences de l’IA sur le plan technique, sur la réputation, en matière de gouvernance et au niveau organisationnel, chacun offrant une perspective éthique sur la question de la création, de la commercialisation et de la pérennité de l’IA. La boîte à outils aidera également les entreprises à décider si et comment adopter certaines méthodes et à comprendre en quoi la technologie constitue un instrument puissant pour faire progresser leur entreprise.
La boîte à outils sera conçue par des experts en IA en collaboration avec les membres du conseil d’administration et les principales parties prenantes de diverses entreprises et de divers secteurs pour veiller à ce qu’elle réponde aux besoins spécifiques des dirigeants d’entreprise et puisse mener à des actions pratiques ayant une incidence concrète.