Rapport sur la gouvernance 2023 : L’intelligence artificielle et la gouvernance

1 L’intelligence artificielle et la gouvernance : principales questions d’intérêt pour les conseils d’administration avisés Le 30 novembre 2022, OpenAI a lancé ChatGPT – un dialogueur utilisant l’intelligence artificielle (l’« IA ») générative développé à partir des grands modèles de langage d’OpenAI –, sans doute à l’origine de la nouvelle vague d’intérêt pour l’IA. Cette montée de l’intérêt pour l’IA a stimulé la concurrence et les investissements dans le secteur de l’IA à l’échelle mondiale (ceux-ci devraient atteindre 200 milliards de dollars américains d’ici 2025), en plus de souligner l’urgence de se pencher sur l’utilisation et la réglementation de l’IA. Les technologies génératives de contenu, comme les outils ChatGPT, d’OpenAI, Bard, de Google, et Claude, d’Anthropic, qui ont le potentiel de stimuler l’innovation, d’accroître l’efficience et d’améliorer les processus décisionnels, sont reconnues par leurs partisans comme des technologies transformatrices, des catalyseurs de pouvoir et des niveleurs de compétences. À l’inverse, les critiques de ces technologies ont déploré les perturbations que l’IA générative pourrait avoir sur l’éducation, l’intelligence humaine et le marché du travail. Le fait que l’IA soit, de par son essence même, une technologie puissante, d’une accessibilité et d’un potentiel déstabilisant inégalés, est à l’origine de bon nombre de ces débats. Comme l’a écrit Mustafa Suleyman, cofondateur de Google DeepMind (entreprise spécialisée en IA), [TRADUCTION] « l’IA est une technologie différente (...) aucune technologie d’une telle puissance n’est devenue aussi largement accessible aussi rapidement ». L’ampleur et la rapidité de l’adoption des systèmes d’IA générative et l’intérêt toujours plus grand du marché pour les technologies d’IA témoignent de ce fait. On dit souvent que les sociétés qui accueillent l’innovation seront le mieux placées pour profiter des avantages concurrentiels offerts par l’IA générative. Si les équipes commerciales peuvent être motivées à appuyer l’adoption rapide des nouvelles technologies liées à l’IA, les administrateurs de sociétés, qui ont l’obligation de veiller à la gestion des risques, pourraient vouloir se montrer plus prudents. Les avancées technologiques, y compris l’essor de l’IA générative, ne modifient en rien les obligations fiduciaires fondamentales qu’ont ces derniers de prendre de bonne foi des décisions éclairées avec intégrité et prudence. Pour réellement tirer parti des possibilités offertes par les technologies tout en gérant les risques qu’elles comportent, les équipes de direction, les conseils d’administration et leurs conseillers doivent i) être résolument engagés à apprendre les utilisations actuelles et potentielles de l’IA au sein de leur société et pouvoir définir clairement les objectifs que vise la société en ayant recours à l’IA, ii) se tenir informés des risques associés à l’utilisation de l’IA par la société, et iii) élaborer une stratégie de gouvernance rigoureuse en matière d’IA. Dans le présent chapitre, nous examinons ces trois exigences et présentons des éléments d’appréciation pratiques à l’intention des conseils d’administration et de leurs conseillers. L’intelligence artificielle et la gouvernance : principales questions d’intérêt pour les conseils d’administration avisés dwpv.com RAPPORT SUR LA GOUVERNANCE 2023

Pleins feux : Survol de l’évolution de l’IA et de l’IA générative L’intelligence artificielle se définit comme [TRADUCTION] « la science et l’ingénierie employées à la fabrication de machines intelligentes » — John McCarthy, l’un des pères de la discipline L’expression « intelligence artificielle », que John McCarthy a forgée en 1955, est utilisée de longue date en informatique, en science cognitive et en philosophie, alors il convient d’être prudent sur ce qui doit être pris en compte dans sa définition. Cela dit, on considère habituellement comme de l’IA toute technologie permettant aux ordinateurs d’exécuter ou d’imiter les fonctions cognitives que nous associons généralement à l’intelligence humaine. La recherche en matière d’intelligence artificielle précède d’ailleurs l’invention de ce terme. Alan Turing a publié en 1950 son étude fondatrice intitulée « Computing Machinery and Intelligence » (en anglais seulement), et Warren McCulloch et Walter Pitts ont développé en 1943 les premiers modèles précurseurs en matière de réseaux neuronaux artificiels (lien en anglais seulement). Créé en 1955, le premier programme d’IA opérationnel, appelé Logic Theorist, arrivait à prouver des théories de logique mathématique complexes. Depuis lors, l’IA a transformé notre façon d’apprendre à l’école, de retoucher les photographies, de faire l’épicerie, d’utiliser les cartes routières, de réserver des voyages, de faire des recherches, de regarder des films et d’écouter de la musique. Bon nombre des applications d’IA que nous utilisons fréquemment reposent sur des technologies conçues pour effectuer une seule tâche ou un ensemble relativement limité de tâches connexes. C’est ce qu’on appelle l’« IA faible ». À l’autre bout du spectre se trouve l’« IA forte », parfois appelée « intelligence artificielle générale » (l’« IA générale »). La plupart d’entre nous utilisent tous les jours une forme quelconque d’IA faible. En fait, presque toute l’IA développée jusqu’à tout récemment peut être qualifiée d’IA faible. Au cours des 15 dernières années, le développement et l’utilisation d’un type particulier de technologie d’IA, l’apprentissage automatique, ont connu un essor considérable. La technologie de l’apprentissage automatique utilise des algorithmes statistiques pour repérer les schémas de données et pour optimiser ce repérage en fonction des données absorbées. Ce processus, appelé Rapport sur la gouvernance 2023 2 Davies | dwpv.com

3 l’entraînement de modèle, produit un modèle qui peut ensuite être déployé pour traiter de nouvelles données. Les technologies d’IA générative, comme ChatGPT, reposent sur des modèles de fondation, c’est-à-dire de vastes modèles d’apprentissage automatique entraînés à grande échelle à partir d’un énorme volume de données. En général, l’entraînement de ces modèles se fait à partir de divers points de données et d’informations portant sur un vaste éventail de sujets. L’IA générative fonctionne en établissant des liens entre les données en langage naturel fournies par l’utilisateur et les unités lexicales contenues dans l’ensemble de données pertinent. Elle crée des associations entre les mots et génère ensuite une réponse en langage naturel, des images ou d’autres contenus en fonction de ces associations. Les systèmes d’IA générative actuels diffèrent des technologies d’IA précédentes à plusieurs égards. D’abord, les systèmes d’IA générative sont conçus pour tenir compte d’une vaste gamme de cas d’utilisation. L’IA générative n’est pas une forme d’IA générale, mais sa souplesse relative la démarque du spectre IA faible–IA forte. Même si cette souplesse présente certainement des inconvénients, les modèles de fondation incroyablement polyvalents de l’IA générative ont la capacité de remplir de multiples fonctions au sein d’une société donnée. D’un point de vue organisationnel, cette capacité signifie que la société peut employer un seul système d’IA pour de multiples cas d’utilisation, à l’échelle globale de l’entreprise et au sein de ses unités d’exploitation. Ensuite, ces modèles peuvent produire efficacement de nouveaux contenus sous diverses formes (audio, image, code, texte). Cette capacité de production est extrêmement utile pour de nombreuses sociétés, car, lorsque mise en œuvre adéquatement, elle permet d’améliorer l’efficacité à l’échelle de la société et de réduire les coûts. Enfin, ces systèmes sont dotés d’interfaces conviviales capables de traiter et de comprendre le langage humain naturel. Pour de nombreuses sociétés, cette capacité est l’aspect le plus important, car la facilité d’utilisation des outils d’IA générative permet aux sociétés de bénéficier rapidement des avantages de l’IA et aux utilisateurs individuels d’atteindre rapidement leur vitesse de croisière. L’intelligence artificielle et la gouvernance : principales questions d’intérêt pour les conseils d’administration avisés

4 Davies | dwpv.com Rapport sur la gouvernance 2023 Comprendre les cas d’utilisation de l’IA au sein de la société Certains administrateurs pourraient ne pas se sentir à l’aise avec l’idée d’être responsables de la surveillance de l’utilisation de technologies nouvelles qui ne leur sont pas familières et qui sont en constante évolution. Toutefois, à mesure que les sociétés envisageront de nouvelles utilisations possibles de l’IA générative et augmenteront leur utilisation quotidienne de l’IA, les conseils d’administration devront inévitablement assumer des responsabilités à cet égard. En effet, bon nombre des cadres réglementaires en matière d’IA, qui sont en pleine évolution, mettent bien en évidence la nécessité de mettre en place des structures de gouvernance solides tenant compte des risques associés à l’utilisation de l’IA. Même si l’on n’attend pas des administrateurs qu’ils deviennent des experts en IA, le devoir de diligence qui leur est imposé par la loi nécessite qu’ils fassent les efforts nécessaires pour apprendre sur l’IA, et pour analyser et examiner les technologies d’IA avec autant de soin que toute autre personne le ferait dans une situation semblable. Il est donc important que les administrateurs acquièrent des connaissances suffisantes des technologies d’IA pour être en mesure d’évaluer les coûts et les avantages de l’adoption de nouveaux systèmes d’intelligence artificielle. À cette fin, les administrateurs pourraient envisager de procéder comme suit : – Définir l’IA. Pour pouvoir délimiter les discussions internes et orienter l’élaboration d’un cadre de gouvernance qui soit rigoureux et directement applicable à l’utilisation de l’IA au sein de la société, le conseil pourrait envisager d’établir, avec le concours de la direction, une définition interne pratique de l’IA et un énoncé clair des objectifs que vise la société en ayant recours à celle ci. – Accroître les connaissances du conseil en matière d’IA. Le conseil pourrait envisager d’organiser des séances de formation sur l’IA et l’IA générative à l’intention de ses membres, et tirer parti de ressources internes et externes pour améliorer la compréhension des technologies de l’IA et de l’IA générative par les administrateurs et de leur utilisation dans l’ensemble de la société. – Examiner les cas d’utilisation existants. Il est probable que la société emploie couramment l’IA depuis des années. Le conseil pourrait donc envisager d’examiner avec la direction l’utilisation actuelle de l’IA par la société, les répercussions possibles des progrès technologiques récents sur cette utilisation, et l’utilisation de l’IA que font (ou que feront probablement) les concurrents de la société et d’autres entreprises de son secteur d’activité. – Examiner les possibilités stratégiques et les principaux risques. Le conseil pourrait envisager de travailler avec la direction à déterminer les façons dont les risques potentiels que comporte l’utilisation des technologies d’IA évoluées pourraient être atténués sans pour autant décourager l’innovation, et à évaluer les possibilités d’exploiter le potentiel de l’IA au sein de la société afin d’atteindre les objectifs que celle ci s’est fixés. Surveiller les risques en matière de conformité associés à l’utilisation de l’IA par la société Le recours à l’IA, et particulièrement à l’IA générative, soulève d’importantes questions de conformité pour les conseils d’administration de sociétés et leurs conseillers. À l’heure actuelle, les autorités de réglementation à l’échelle mondiale travaillent à l’élaboration de cadres et de principes réglementaires rigoureux en matière d’IA qui visent à prendre en compte les risques les plus urgents posés par l’IA sans toutefois freiner l’innovation. Certains de ces cadres réglementaires traitent d’ailleurs expressément

5 L’intelligence artificielle et la gouvernance : principales questions d’intérêt pour les conseils d’administration avisés de l’IA générative. Tous soumettent le développement et l’utilisation des technologies d’IA à des exigences strictes qui visent à répondre aux préoccupations en matière de protection de la vie privée, de sécurité, de confidentialité et de biais. – Réagissant à la croissance rapide de l’IA et aux faits récents dans ce domaine, le gouvernement du Canada a présenté au Parlement la Loi sur l’intelligence artificielle et les données (la « LIAD »), qui propose un cadre réglementaire établi en fonction des risques. En vertu de la LIAD, les entreprises seront tenues responsables des activités d’IA qui sont sous leur contrôle, quelle que soit leur position dans la chaîne de valeur de l’IA (que ce soit l’étape de la conception, du développement, de la fourniture ou de l’exploitation). Elles auront l’obligation de mettre en place de nouveaux mécanismes et politiques de gouvernance tenant compte des risques associés à leurs systèmes d’IA et de donner aux utilisateurs suffisamment de renseignements pour qu’ils puissent prendre des décisions éclairées (voir aussi le document complémentaire se rapportant à la LIAD, qui donne des précisions sur l’approche du gouvernement du Canada à l’égard de la réglementation des systèmes d’IA). De plus, le 27 septembre 2023, le gouvernement du Canada a publié le Code de conduite volontaire visant un développement et une gestion responsables des systèmes d’IA générative avancés. Ce code énonce les mesures que les sociétés sont encouragées à appliquer volontairement à leurs activités de développement et de gestion de systèmes d’IA générative ayant des capacités générales. Ces mesures reposent sur les six objectifs suivants : la responsabilisation, la sécurité, la surveillance humaine, la justice et l’équité, la transparence, et la validité et la fiabilité. De plus, le gouvernement souligne que même s’il n’existe actuellement pas de cadre juridique global pour l’IA, nombre de lois existantes s’appliquent aux systèmes d’IA, notamment la Loi sur la protection des renseignements personnels et les documents électroniques (la « LPRPDE »). On trouvera de plus amples renseignements sur la LPRPDE dans le Rapport de Davies sur la gouvernance 2018. – En outre, dans le cadre du même projet de loi que la LIAD, le gouvernement du Canada a proposé des modifications au cadre législatif fédéral régissant la protection de la vie privée dans le secteur privé qui imposeraient des obligations de transparence aux sociétés ayant recours à des systèmes d’IA pour effectuer des prédictions, formuler des recommandations ou prendre des décisions concernant des particuliers qui pourraient avoir une incidence importante sur ceux ci. – Au Québec, des modifications récemment apportées à la législation provinciale en matière de protection des renseignements personnels ont imposé des obligations de transparence aux sociétés tout en conférant de nouveaux droits aux particuliers en lien avec l’utilisation de systèmes d’IA qui emploient des renseignements personnels pour prendre des décisions sans intervention humaine. – La Loi sur l’intelligence artificielle (la « LIA ») de l’Union européenne impose des obligations aux fournisseurs et aux utilisateurs de technologies d’IA, en fonction du niveau de risque que posent celles ci pour la santé et la sécurité ou les droits fondamentaux des particuliers. La LIA, qui devrait entrer en vigueur en 2025, sera vraisemblablement le premier cadre législatif global visant l’IA à l’échelle mondiale. La LIA établit quatre niveaux de risque – inacceptable, élevé, limité et minimal – et impose des obligations aux fournisseurs et aux utilisateurs de technologies d’IA, qui s’appliquent même si ceux ci sont situés à l’extérieur de l’Union européenne s’il est prévu que le produit généré par le système d’IA sera utilisé à l’intérieur de l’Union européenne. Toutes les parties qui prennent part au développement, à l’utilisation, à l’importation, à la distribution ou à la fabrication de systèmes d’IA seront donc tenues responsables en vertu de la LIA.

6 Davies | dwpv.com Rapport sur la gouvernance 2023 – De plus, le 31 mai 2023, l’Union européenne et les États Unis ont annoncé qu’ils collaboraient à l’élaboration d’un code de conduite volontaire pour l’IA, dans le but d’établir des normes internationales non contraignantes en matière d’évaluation des risques associés à l’IA et de transparence, ainsi que d’autres exigences. L’idée de définir un cadre réglementaire pour les modèles de fondation sous jacents aux systèmes d’IA générative comme ChatGPT suscite un élan considérable en Europe. Les législateurs de l’Union européenne travaillent à inclure dans la LIA des obligations spécifiques pour les développeurs de modèles de fondation, indépendamment de l’utilisation prévue de ceux ci, y compris l’obligation de soumettre les modèles à des tests effectués par des tiers spécialistes indépendants. La France, l’Allemagne et l’Italie ont proposé une autre version de ces obligations dans un document commun diffusé le 19 novembre 2023, dans lequel les trois pays ont annoncé avoir convenu d’imposer l’autoréglementation obligatoire, fondée sur un code de conduite, aux développeurs de modèles de fondation. – Le 30 octobre 2023, le président des États Unis, Joe Biden, a promulgué le décret présidentiel intitulé Safe, Secure, and Trustworthy Artificial Intelligence (en anglais seulement), qui fixe de nouvelles normes de sécurité en matière d’IA. Le décret énonce des obligations d’information et d’autres exigences applicables à l’ensemble du secteur des systèmes d’IA, et donne au terme « AI systems » une définition large qui comprend [TRADUCTION] « tout système de données, logiciel, matériel, application, outil ou utilitaire fonctionnant en totalité ou en partie à l’aide de l’IA ». Comme les autorités canadiennes, les autorités de réglementation des États Unis ont noté que de nombreux règlements existants s’appliquent à l’utilisation de l’IA, malgré l’absence à l’heure actuelle d’un cadre réglementaire global. Même s’il est prévu qu’aucun des cadres réglementaires susmentionnés n’entrera en vigueur avant 2025, il importe que les conseils d’administration comprennent et prévoient les répercussions que cette réglementation changeante pourrait avoir sur les politiques et les pratiques de gouvernance existantes des sociétés en matière d’IA. De plus, comme nous l’avons souligné dans le Rapport sur la gouvernance 2020 de Davies, les parties prenantes attendent de plus en plus des conseils qu’ils incluent le suivi actif des risques d’entreprise dans leurs responsabilités de surveillance. Il pourrait être utile pour les sociétés et leur conseil de comparer leur cadre de gestion des risques associés à l’IA à celui du National Institute of Standards and Technology (le « NIST ») du département du Commerce des États Unis, intitulé IA Risk Management Framework (en anglais seulement). Ce cadre du NIST, qui décrit les étapes à suivre pour repérer, hiérarchiser et gérer les risques associés à l’IA, peut aider les conseils à établir leurs propres principes de base et à se préparer à l’adoption éventuelle de directives par d’autres organismes ou autorités de réglementation américains. Les conseils pourraient en outre faire ce qui suit : – mener et surveiller l’évaluation des principaux effets et incidences des cadres réglementaires changeants, à l’échelle nationale et internationale, sur la société et sur l’utilisation qu’elle fait des systèmes d’IA; – envisager de tenir des rencontres avec leurs conseillers et la direction afin de déterminer si le développement ou l’utilisation de systèmes d’IA par la société est conforme aux exigences réglementaires proposées; – déterminer les modifications qu’il peut être ou pourrait devenir nécessaire d’apporter aux politiques de gouvernance applicables à l’IA et aux programmes de gestion des risques existants de la société en vue de les actualiser; – envisager de créer un comité comprenant des membres possédant les compétences spécialisées nécessaires, qui serait chargé de surveiller les risques associés à l’utilisation et à la gestion par la société de systèmes d’IA et d’IA générative et de rendre compte au conseil à ce sujet;

7 L’intelligence artificielle et la gouvernance : principales questions d’intérêt pour les conseils d’administration avisés – déterminer si tous les outils et systèmes d’IA utilisés à l’échelle de la société et de ses diverses unités d’exploitation, s’il y a lieu, seront régis par le même ensemble de règles; – demander aux conseillers de les tenir au courant de l’évolution du cadre réglementaire et de leur confirmer qu’ils mettent en œuvre les plus récentes pratiques exemplaires en matière de surveillance des questions liées à l’IA et de conformité à la réglementation; – examiner les changements à la réglementation concernant l’IA en tenant compte des obligations de conformité existantes de la société et superviser l’élaboration et la mise en place des systèmes, politiques et contrôles appropriés; – réfléchir à la meilleure façon d’informer le conseil sur les risques auxquels est exposée la société en lien avec son utilisation de l’IA, par exemple en tenant des séances d’information sur les incidents et les enquêtes d’importance liés à l’IA ou sur les utilisations essentielles que la société fait de l’IA et les risques de nature réglementaire, financière, opérationnelle ou réputationnelle qui y sont associés. Formuler une stratégie de gouvernance rigoureuse pour l’IA Les dernières technologies d’IA générative et d’autres technologies d’IA fondées sur l’apprentissage automatique sont le fruit d’une avancée technologique majeure. La rapidité avec laquelle ces technologies ont été adoptées par un vaste éventail de secteurs d’activité et de sociétés et par des personnes qui les utilisent au quotidien en fait foi. De nombreuses sociétés se sont mises à recourir à des systèmes d’IA plus évolués et à accroître leur utilisation de l’IA en raison de l’attrait grandissant et du pouvoir de transformation de l’IA générative. Toutefois, les applications de l’IA peuvent également soulever des préoccupations particulières au chapitre de la sécurité des données, des droits de la personne, des droits civils, de l’intégrité de l’information, des droits de propriété intellectuelle, des biais ou de la discrimination. Aujourd’hui peut être plus que jamais, une entreprise citoyenne se doit d’utiliser, de développer et de gérer l’intelligence artificielle de manière responsable. Tandis que les autorités de réglementation s’efforcent de suivre le rythme de l’adoption de l’IA générative et du développement des systèmes d’IA évolués (ayant un potentiel de risque élevé), les conseils d’administration et les équipes de direction des sociétés se trouvent déjà aux prises avec les répercussions de l’IA sur les personnes, les processus et les secteurs d’activité. Il importe que les administrateurs s’efforcent de bonne foi de mettre en place des contrôles de surveillance de l’IA, même si cette tâche s’avère difficile en l’absence de directives réglementaires claires et exhaustives. Afin d’élaborer une stratégie de surveillance de l’IA rigoureuse, les conseils pourraient tenir compte des facteurs suivants : – Sécurité. Vérifier si les systèmes d’IA existants font régulièrement l’objet d’évaluations des risques et de contrôles en matière de cybersécurité. Poser les questions suivantes à la direction pour vérifier les protocoles de cybersécurité : > À quelle fréquence les politiques en matière d’IA et de cybersécurité sont elles évaluées et révisées? > À quelle fréquence les contrôles de la cybersécurité sont ils réalisés?

8 Davies | dwpv.com Rapport sur la gouvernance 2023 > À quand remonte la dernière vérification de la police d’assurance cybersécurité de la société? > L’évolution de l’utilisation de l’IA par la société a-t-elle causé une augmentation des incidents de cybersécurité? > Quelles mesures ont été prises en amont des risques émergents, particulièrement les risques en lien avec la cybersécurité et la confidentialité des données? > Quels plans ont été mis en place pour que la société puisse continuer d’exercer ses activités en cas de perturbation ou d’incident de cybersécurité majeur? À quelle fréquence les plans sont ils mis à l’essai et mis à jour pour tenir compte de l’évolution des risques et des circonstances? > En cas d’incident de cybersécurité, comment l’équipe d’intervention communiquera t elle avec le reste des membres de la société? – Gestion des risques. Vérifier si la direction a instauré des systèmes de gestion des risques appropriés. Se renseigner auprès de la direction au sujet des procédures internes établies pour repérer et atténuer tous nouveaux risques ou risques émergents en matière d’IA ou de cybersécurité que comporte l’utilisation par la société de nouveaux systèmes d’IA ou d’IA générative : > Quels sont les principaux risques repérés par la direction et quelles sont les stratégies d’atténuation des risques ou les ressources déjà existantes ou en cours d’élaboration? > Qui est principalement responsable de la surveillance de la conformité et de l’atténuation des risques en matière d’IA? > À quelle fréquence sont effectuées les évaluations de risques internes? > Comment le retour d’information et les observations des employés à différents échelons de la société sont ils pris en compte dans le système interne de gestion des risques et quels sont les mécanismes employés pour favoriser une culture de sensibilisation aux risques et de signalement des risques? > Étant donné le contexte actuel de progrès technologiques rapides et les changements qui en résultent pour les sociétés, le cadre de gestion des risques existant est il suffisamment adaptable? – Surveillance efficace. Vérifier les systèmes qui ont été créés pour surveiller les résultats et les répercussions des technologies d’IA générative et des nouveaux systèmes d’IA adoptés par la société. Se renseigner auprès de la direction sur les structures existantes ou en cours d’élaboration : > Que souhaite accomplir la société en adoptant ces technologies d’IA générative et nouveaux systèmes d’IA? > La société a-t-elle établi des politiques et des procédures de réponse aux signalements des lanceurs d’alerte concernant des questions ou de graves incidents liés à l’IA ou des enjeux associés aux fournisseurs d’IA de la société? > Des procédures ont elles été prévues pour que le conseil dispose de toute l’information nécessaire à ses activités de surveillance de l’IA? > Y a-t-il des risques propres aux activités de la société qui sont créés ou aggravés par l’utilisation que celle ci fait de technologies d’IA générative ou de nouveaux systèmes d’IA? > Comment mesure-t-on le succès de l’utilisation, de l’intégration et de la surveillance des technologies d’IA générative? > Qui est le principal responsable de chacun des systèmes d’IA les plus importants de la société – Communication avec les parties prenantes. Communiquer régulièrement avec les principaux actionnaires, clients et fournisseurs de la société, ainsi que les collectivités dans lesquelles elle exerce ses activités. Se renseigner auprès de la direction sur les procédures qui ont été mises place pour favoriser le dialogue avec les principaux actionnaires et les autres parties prenantes :

> La société est-elle à l’écoute des attentes des clients à l’égard de l’utilisation de leurs données aux fins de l’entraînement et de l’exploitation de ses systèmes d’IA? > La société porte-t-elle attention et répond-elle, lorsqu’il y a lieu de le faire, aux préoccupations des membres de la collectivité concernant les abus potentiels et les conséquences négatives de l’utilisation de l’IA par la société qui se répercutent sur ses employés, ses principales parties prenantes et ses clients ou sur l’environnement? > Comment la société communique-t-elle l’information pertinente concernant l’IA, comme ses cas d’utilisation actuels de l’IA et les possibilités stratégiques que représente l’IA pour elle? > Les communications avec les parties prenantes se font-elles seulement en réaction à une crise ou des moyens ont-ils été mis en œuvre pour permettre à la société de communiquer en tout temps avec ses parties prenantes, sur lesquels le conseil reçoit des comptes rendus réguliers? Pour conclure Dans des numéros précédents du Rapport sur la gouvernance de Davies, nous avons examiné comment les conseils d’administration et la haute direction de sociétés peuvent s’adapter à l’évolution constante du contexte dans lequel leur société exerce ses activités. Nous avons postulé que la transformation d’une société en une « organisation à gouvernance de prochaine génération » peut constituer un moyen d’en assurer la résilience, l’agilité et la capacité d’innover dans un tel contexte changeant. Nous avons défini l’« organisation à gouvernance de prochaine génération » comme une société qui garde le cap sur sa stratégie, est centrée sur les personnes et interagit de façon proactive avec les actionnaires et les autres parties prenantes. Les nouvelles technologies d’IA transformatrices et la création d’organisations de gouvernance de prochaine génération semblent aller de pair. Le contexte peut différer, mais les principes restent les mêmes. De plus en plus, l’IA générative est jugée nécessaire pour les sociétés qui mettent en œuvre une stratégie de création de valeur tournée vers l’avenir. Les conseils de ces sociétés devront continuer de se mobiliser pour faire face aux changements associés aux nouvelles technologies d’IA. Dans le présent chapitre du Rapport sur la gouvernance 2023 de Davies, nous ajoutons le principe suivant à notre définition d’« organisation de gouvernance de prochaine génération » : l’organisation de gouvernance de prochaine génération est dirigée par une équipe de direction et un conseil d’administration qui demeurent résolument engagés à apprendre. Pour les administrateurs, dans le contexte actuel, cet engagement signifie concrètement qu’il leur faut apprendre comment l’IA est actuellement utilisée par leur société, se tenir au courant des risques associés à l’utilisation de l’IA par la société et élaborer une stratégie de gouvernance rigoureuse en matière d’IA.

10 Davies | dwpv.com Principales personnes-ressources Patricia L. Olasker 416.863.5551 polasker@dwpv.com Aaron J. Atkinson 416.367.6907 aatkinson@dwpv.com Brett Seifred 416.863.5531 bseifred@dwpv.com Toronto Franziska Ruf 514.841.6480 fruf@dwpv.com Montréal Jeffrey Nadler 212.588.5505 jnadler@dwpv.com New York La rédaction du présent rapport et les recherches préalables sont un projet de Davies Ward Phillips & Vineberg S.E.N.C.R.L., s.r.l., et non des travaux exécutés pour un client ou tout autre tiers. On ne doit pas considérer l’information contenue dans le présent rapport comme un conseil juridique. Collaborateurs Aaron Atkinson (Activisme) Jesany Michel (IA) Ivana Gotzeva (IA) Alexander Max Jarvie (IA) Patricia Olasker (Activisme) Brandon Orr (Activisme) Alexandria Pike (ESG) Sarah Powell (ESG) Brett Seifred (Diversité) Matthew Sherman (Diversité) Ghaith Sibai (Activisme) Zachary Silver (ESG) Mathieu Taschereau (Activisme)

11 L’intelligence artificielle et la gouvernance : principales questions d’intérêt pour les conseils d’administration avisés À propos de Davies Davies est un cabinet d’avocats spécialistes des enjeux cruciaux. Déterminés à produire des résultats supérieurs pour nos clients, nous tenons systématiquement un rôle de premier plan dans leurs opérations et leurs dossiers les plus complexes. Depuis nos bureaux de Montréal, de Toronto et de New York, nous déployons notre savoir-faire avec aisance et efficacité sur tous les continents. Veuillez communiquer avec l’un de nos avocats pour parler avec nous de votre situation. Vous pouvez consulter notre site Web au dwpv.com La rédaction du présent rapport et les recherches préalables sont un projet de Davies Ward Phillips & Vineberg S.E.N.C.R.L., s.r.l., et non des travaux exécutés pour un client ou tout autre tiers. On ne doit pas considérer l’information contenue dans le présent rapport comme un conseil juridique.

TORONTO 155 Wellington Street West Toronto ON Canada M5V 3J7 416.863.0900 MONTRÉAL 1501 avenue McGill College Montréal QC Canada H3A 3N9 514.841.6400 NEW YORK 900 Third Avenue New York NY U.S.A. 10022 212.588.5500 DAVIES WARD PHILLIPS & VINEBERG s.e.n.c.r.l., s.r.l.

RkJQdWJsaXNoZXIy OTg4NzYz