Logo mobile 1

L’intelligence artificielle est-elle aussi dangereuse qu’on veut bien le croire?

Par Richard Beaudoin, responsable du Groupe sciences.

Introduction

Depuis quelques années, je m’intéresse à l’intelligence artificielle (IA) en bénéficiant, notamment, de l’expertise de l’un de mes amis qui oeuvre dans ce domaine. J’ai lu plusieurs ouvrages sur ce sujet et j’ai assisté à une série de conférences à Montréal; ces occasions m'ont permis de prendre conscience de l’importance qu’occupera prochainement l’IA dans notre quotidien. Mes préoccupations sur l’IA m’ont d’ailleurs conduit à traiter de celle-ci auprès des membres de notre Groupe sciences du Collectif 55+ à l’automne 2020. À la suite de cette présentation, je me suis posé la question suivante : l’intelligence artificielle est-elle aussi dangereuse qu’on veut bien le croire? 

Avant de tomber dans le vif du sujet et afin de mettre le tout en perspective, je ferai, dans un premier temps, un très rapide survol de l’évolution de l’intelligence humaine.

Note : Pour ceux qui s’intéressent à l’histoire de l’intelligence artificielle, le fonctionnement d’un réseau de neurones et l’apprentissage profond (Deep Learning) ainsi que l’apprentissage par renforcement, la lecture de l'annexe (à la toute fin de cette page) s'impose. De plus, un texte sur la panne mondiale que Google a connu le14 décembre dernier est joint sous le titre « Les Canadiens devraient-ils faire confiance à la technologie chinoise? ».

Brève synthèse de l’histoire de l’intelligence humaine

Certains se sont amusés à reproduire l’âge de la terre sur une période de 24 heures et sont arrivés aux conclusions suivantes :

  • à 23 h 26 minutes, un astéroïde (il y a 65 millions d’années) détruisait une partie de la vie sur terre;
  • à 23 h 58 minutes apparaissait le chimpanzé; 
  • à 23 h 59 minutes, 23 secondes, surgissait l’homme; 
  • à 23 h 59 minutes, 58 secondes, se développait le langage.

De plus, soulignons qu’il y a 2 millions d’années, le cerveau de l’homo habilis était de 600 cm3; tandis que celui de l’homo erectus passait de 700 à 1 000 cm3 pendant une période d’un million d’années, comparativement à celui de l’homme de Neandertal, apparu il y a 350 000 ans, qui était de 1 500 cm3, et à celui de l’homme d’aujourd’hui qui est de 1 300 cm3. L’évolution d’un espace intérieur crânien suffisant était absolument indispensable pour permettre aux réseaux de neurones de se développer.

L’évolution de la vie a engendré une multitude d’êtres différents de plus en plus complexes, disposant de capacités différentes, dont l’intelligence, laquelle a permis à l’homo sapiens de progresser plus vite que les autres. Une adaptation continuelle à ses milieux de vie, la création ininterrompue d’outils sans cesse plus complexes et le fait de toujours vivre dans un environnement socioculturel ont contribué à faire de l’intelligence son axe de développement.

Avec l’arrivée de l’homo sapiens, tout s’est accéléré : fabrication d’outils, élaboration du langage, développement des relations sociales complexes, sédentarisation, domestication d’animaux, construction de temples et de palais, invention de l’écriture, de l’imprimerie, du véhicule automobile, de l’ordinateur, de l’imagerie par résonance magnétique permettant d’observer le cerveau en action, et de l’intelligence artificielle.

Au cours de son évolution, l’animal humain a fait une découverte géniale qui a multiplié ses capacités : la représentation symbolique. Celle-ci permet d’illustrer avec seulement quelques lettres tout ce qui peut être écrit avec des chiffres et de calculer tout ce qui peut l’être. Autre exemple, l’invention de l’écriture qui n’a pas seulement conduit à une transformation mentale, mais qui nous a permis de projeter nos pensées, de les stocker dans une mémoire externe, et de les retrouver après des années ou même des siècles.

L’Église qui voyait l’intelligence comme une concurrente de la foi freina grandement le développement des sciences, dont, implicitement, les connaissances concernant l’intelligence. La faiblesse de l’évolution des outils de calcul y fut aussi pour beaucoup. Même si, au XIXe et XXe siècles, on ne se préoccupait pas vraiment de l’âme, les connaissances réellement scientifiques associées à l’intelligence n’ont pas progressé beaucoup, malgré l’apport continuel des scientifiques sur d’autres sujets. Dans les faits, bien que le cerveau ait finalement été identifié comme le siège de l’intelligence, un grand mystère demeurait toutefois : le monde des neurones et ses milliards de milliards de
connexions! Ce n’est qu’avec le développement de l'imagerie par résonance magnétique (IRM) au cours des années 1970, bien que les premières images du cerveau n’aient été obtenues qu’en 1992, que l’on a pu vraiment analyser l’architecture du cerveau et ainsi comprendre la spécificité de l’intelligence humaine.

Applications de l’intelligence artificielle sur l’ensemble de la planète

Les géants privés du numérique qui financent l’IA, soit Google, Amazon, Facebook, Apple et Microsoft (GAFAM) aux États-Unis, Baidu, Alibaba, Tencent et Xiaomi (BATX) en Chine, par l’Internet et l’Internet des objets (IdO), collectent des milliards d’informations personnelles sur leurs utilisateurs. Ces informations obtenues à partir d’algorithmes conçus par ces mêmes compagnies sont traitées afin de connaître nos habitudes de consommation, nos relations sociales, nos opinions politiques, etc. L’IA permet ainsi à ces compagnies de profiler des millions de personnes, pour ne pas dire des milliards d’individus, à des fins de marketing personnalisé, d’obtention de renseignements ainsi que de surveillance et de contrôle des populations.

En bref, l’IA affectera en profondeur le développement universel de toutes les branches de l’industrie et modifiera les multiples aspects de la vie privée des citoyens. Grâce aux données numériques omniprésentes (téléphone cellulaire, Internet et IdO, réseaux sociaux, mise en application de l’utilisation des drones, reconnaissance faciale et véhicule autonome, etc., l’IA sera en mesure de bouleverser à peu près toutes les tâches manuelles et intellectuelles au cours de son développement. En voici quelques exemples :

On ne sait pas quels effets aura l’IA sur la diminution du nombre de travailleurs dans le monde, mais on sait que cette dernière peut remplacer plusieurs corps de métiers. Le « challenge » de tout métier, intellectuel ou autre sera de se reconfigurer pour tirer parti de l’énorme potentiel de développement qu’apporte l’IA. Toutefois, l’éthique, le respect de la vie privée, la liberté et la correction des inégalités sont susceptibles de freiner l’essor de l’IA dans les pays occidentaux, mais qu’en est-il dans les pays sous régime dictatorial, par exemple la Chine?

Voici une vidéo qui nous renseigne sur le futur de la robotique soutenue par l’IA. Bien que cette vidéo en anglais provienne d’une entreprise qui recommande des placements, je vous la suggère parce qu’il est très bien faite et qu’elle nous montre les progrès très rapides de cette discipline. Durée d’environ 30 minutes.

Applications particulières de l’intelligence artificielle en Chine

Conformément au plan de développement de la nouvelle génération d’IA adopté par la Chine en juillet 2017, les entreprises privées chinoises de haute technologie, les universités, l’armée, les administrations municipales, les gouvernements provinciaux et les différents ministères se sont impliqués dans les domaines du Big Data et de l’IA.

À titre d’exemple, mentionnons que le gouvernement chinois est devenu le principal actionnaire de la société Hikvision à Hangzhou. Cette entreprise est issue d’un institut de recherche d’État. Elle est aujourd’hui le plus grand fabricant au monde de systèmes de surveillance vidéo présents dans plus de 150 pays, dont la Grande-Bretagne et les États-Unis. Certains soupçonnent même cette compagnie d’avoir pourvu sa technologie
d’une « backdoor » permettant à l’État chinois d’accéder aux caméras reliées à l’Internet et de récupérer leurs données.

À propos des caméras, soulignons qu’un algorithme peut supporter le fonctionnement de réseaux comptant 50 000 à 100 0000 caméras de surveillance, lesquelles suivent à la trace une personne passant devant une caméra à l’autre. Ce type d’algorithme est également capable de prédire les mouvements de masse. La précision des nouvelles caméras a grandement bénéficié de la combinaison de la reconnaissance faciale et de la reconnaissance de la marche.

Notons également que Xueliang est le nom d’un projet de jumelage instauré à l’échelle du pays entre les caméras de surveillance et les banques de données. Le maillage de toutes les caméras du pays est ainsi surnommé « le réseau céleste ». Dans les faits, la Chine est parvenue à mettre au pas, non seulement, les principaux acteurs du web, mais également les principaux acteurs de l’IA, et ce, afin que le Parti communiste chinois (PCC) arrive à ses fins.

En s’appuyant sur l’utilisation et la disponibilité des données, les applications WeChat (Tencent) et Alpay (Alibaba) sont parvenus à dominer le marché du paiement électronique chinois. Selon Sinovation Venture, les Chinois effectuent désormais cinquante fois plus de paiements avec leur téléphone mobile que les Américains. Ils génèrent également un volume de livraison de repas 10 fois supérieur à celui des Américains. L’entreprise Mobike a également annoncé en 2018, que ses 8 millions de vélos en libre-service produisaient 30 térabytes de données quotidiennes, lesquelles données sont partagées avec le gouvernement.

Finalement, eu égard à la reconnaissance faciale, dont les applications sont présentes un peu partout en Chine (métros, classes, universités, etc.), mentionnons que la Chine
a développé l’un des plus puissants instruments de surveillance de masse, une plateforme qui utilise une application permettant aux policiers de comparer directement le visage et l’identité des passants avec les données de leur banque centrale. Par exemple, à Guangzhou ou à Wuhan, uniquement les personnes qui acceptent que leur visage soit numérisé et comparé aux informations conservées dans la banque de données de la police ont accès à certains services.

Mais l’endroit en Chine où le PCC a mis en pratique l’utilisation de l’IA comme moyen extrême de surveillance, c’est dans le Xinjiang, province des Ouïghours. En effet, tout détenteur d’un téléphone portable a l’obligation d’y installer l’application Jingwang, cette dernière donnant accès au contenu de l’appareil. Depuis décembre 2019, on n’obtient pas de cartes SIM pour son portable sans s’être auparavant enregistré par reconnaissance faciale. De plus, le « cloud » policier, y rassemble, depuis quelques années, toutes les données disponibles concernant des centaines de millions de Chinois, tels que les dossiers de maladie, les commandes de repas, le recours aux méthodes contraceptives, les comportements en ligne, les tendances religieuses, les visages, les voix, les empreintes digitales, l’ADN, etc.

Finalement, notons que Baidu, entreprise Internet chinoise, tente de se réinventer en entreprise d’IA, sur le modèle de Google, et avec le soutien de l’État.
Pour de plus amples informations relatives à l’effort démontré par le gouvernement chinois quant à l’utilisation de masse de l’IA et aux applications qui y sont développées,
un regard sur les es cités ci-dessous s’impose :

Shenzhen, la nouvelle destination des entrepreneurs et Tout savoir du « Made in China 2025 »

Un constat implacable et inquiétant s’impose : la Chine est maintenant en mesure de surveiller son peuple dans ses moindres gestes et déplacements, mettant fin à toute liberté et à tout respect de la vie privée.

Dangers quant à l’utilisation de l’intelligence artificielle

Parmi les dangers associés à l’utilisation de l’IA, citons les 6 ci-dessous.
 

Syndrome de la boîte noire

Le nombre de couches de neurones qu’un réseau possède, son degré d'apprentissage au fur et à mesure des essais et sa bidirectionnalité empêchent les spécialistes de retracer les bases de raisonnement d’un réseau. De plus,
l’impossibilité de décortiquer la pondération accordée aux connexions neuronales rend imprévisible l’IA. Le fait de faire appel à des programmes empiriques ainsi qu’à des probabilités rend celle-ci également faillible. Finalement, l’IA peut être fortement influencée par la vision du concepteur sur le sujet et la qualité des banques de données. Aussi, la pertinence du jugement des IA est fortement corrélée à la qualité (diversité, variété, représentativité…) des bases de données utilisées pour leur apprentissage.

Respect de la vie privée

Les cartes de crédit, les téléphones cellulaires, l’Internet, les réseaux sociaux, etc., compromettent déjà le respect de la vie privée. Une collecte massive de données, 24 heures par jour, grâce à l’IdO ne fera qu’accentuer cet état de choses. De plus, la mise en application de l’utilisation des drones, de la reconnaissance faciale et de l’automobile autonome, qui nécessitera une utilisation exponentielle de l’IdO, supprimera tout respect de la vie privée. Par exemple, en Chine, la mise en application de toute cette panoplie de technologies, qui de surcroît s’associe à un système dit de « crédit social » (projet du gouvernement chinois visant à mettre en place un système national de réputation des
citoyens et des entreprises), élimine tout respect de vie privée.

Désinformation

À cet égard, notons tout simplement que grâce à de nouvelles générations de l’IA, changer un visage ou faire prononcer un faux discours par quelqu’un est désormais à la portée de tous (deepfakes). Ajoutons que, selon un spécialiste de la question, le nombre de vidéos truquées visibles sur Internet augmente sans cesse (+84 % entre 2018 et 2019), et, selon certains experts, d’ici 5 ans, nous ne pourrons plus faire confiance à la vidéo!

Robots-soldats

Aux drones intelligents dont l’action finale est toujours dépendante de la décision humaine, s’ajoute le robot-soldat capable de choisir ses cibles et de les éliminer. À cet effet, notons que la Russie envisage de robotiser le tiers de ses armements d’ici 2025, et que la Chine, selon le Secrétaire à la défense américaine, vend déjà des drones capables d’une autonomie entière. Actuellement, les drones aériens, marins et terrestres sont supervisés par des humains; s’ils devenaient uniquement régis par des « algorithmes-soldats » dépourvus de conscience, d’intelligence sociale, d’émotion, de raisonnement et d'éthique, ils risqueraient de provoquer de graves carnages chez les soldats et les civils. Les difficultés de compréhension du fonctionnement d’un réseau de neurones (Deep Learning) et la facilité de pirater un « algorithme-soldat » en zone ennemie ne constituent pas des perspectives rassurantes!

Consommation énergétique à outrance

Le fonctionnement de l’IA, Big Data et superordinateur, implique une très forte consommation d’énergie. En effet, même si l’IA peut optimiser le bilan énergétique des bâtiments, des transports, des réseaux électriques, etc., de nombreux scientifiques craignent que le bilan soit négatif, surtout si, de surcroît, on ajoute à cela la consommation gargantuesque des technologies associées aux blockchains. Le numérique consomme et pollue massivement, et l’IA y contribue largement, ce qui fait dire à un expert de l’IA qu’en 2040, l’énergie requise pour les besoins en calcul devrait dépasser la production énergétique mondiale. Notons que près de la moitié de l’énergie consommée par les « Data Centers » sert à leur refroidissement, d’où le projet prototype de Microsoft d’installer des Data Centers en eau froide.

Pertes d’emplois massives

Selon l’Université d’Oxford, 47 % des emplois disparaîtront d'ici 2025 alors que l’OCDE prévoit une baisse de seulement 9 %. Peu importe l’écart estimé, un consensus se dégage voulant que toute technologie détruise à la fois certains emplois et en crée d’autres. Toutefois, l’enjeu réel est de savoir si les nouveaux emplois seront aussi nombreux que ceux qui seront supprimés. Cette fois-ci, l’intelligence artificielle s’attaque à une caractéristique propre à l’humain, soit son intelligence!

Dans les faits, l’IA, portant en elle-même des gains de productivité colossaux, est susceptible d’avoir un effet négatif sur le nombre d’emplois présents dans la majorité des secteurs. Nous n’en sommes qu’aux balbutiements du développement de l’IA dont l’évolution connaîtra une croissance fulgurante grâce, entre autres, aux sommes considérables qui y sont investies.

L’intelligence artificielle à travers le monde

En 2019, les principaux pays à la pointe du secteur de l’IA étaient, par ordre de priorité,les États-Unis, la Chine, Israël, le Royaume-Uni, le Canada, le Japon, la France, l’Allemagne et l’Inde. D’ores et déjà, nous pouvons dire que la guerre de l’IA se jouera entre les États-Unis et la Chine puisque la majorité des start-ups en IA sont achetées dans le monde par les géants privés (GAFAM et BATX), ainsi que par les autres compagnies du numérique de ces deux pays. Selon la télévision française, en 2017, la Chine et les États-Unis ont dépensé respectivement 31 G$ et 22 G$ pour l’acquisition de start-ups en IA. On peut facilement imaginer les sommes importantes investies par les compagnies du numérique de ces deux pays en acquisition de start-ups au cours des trois dernières années.

Dans l'ouvrage écrit en 2018 par Kai-Fu-Lee « AI Super Powers – China, Silicon Valley, and the New World Order », ce dernier souligne que les États-Unis et la Chine ont pris tellement d’avance en IA, que l’on assistera dans ce domaine, à un monde bipolaire dominé par les États-Unis et la Chine. Il mentionne également que le Royaume-Uni, la France et le Canada ont de très bons centres de recherches et d’excellents scientifiques, mais le manque de capital important et surtout l’insuffisance des données, coeur de l’intelligence artificielle, les empêcheront de prendre part à ce monde bipolaire. Kai-Fu-Lee précise finalement que les États-Unis sont la première puissance en ce qui concerne la recherche. Toutefois, la Chine les rejoindrait d’ici peu de temps, d’autant plus que ce pays est actuellement en avance au plan de l’implantation des applications de l’IA et dans le domaine de la fabrication des objets connectés à l’Internet.

En complément d’information, je vous invite à consulter :

Intelligence artificielle : les dires…

Voici quelques citations de personnalités célèbres :

  •  Le développement d’une IA complète pourrait mettre fin à la race humaine. (Stephen Hawking, décembre 2014). 
  • Celui qui deviendra leader dans ce domaine sera le maître du monde. (Vladimir Poutine, septembre 2017). 
  • Je pense que l’IA est plus dangereuse que l’arme nucléaire. (Elon Musk, mars 2018). 
  • Il est nécessaire d’explorer l’utilisation de l’IA dans la collecte, la production, la distribution, la réception et le retour d’informations afin d’améliorer de manière globale la capacité à guider l’opinion publique. (Xi Jinping, janvier 2019). 
  • Le maintien du leadership américain en IA revêt une importance capitale pour le maintien de la sécurité économique et nationale des États-Unis. (Donald Trump, février 2019).
  • Il n’existe pas tant de technologies dans le monde qui soient à la fois aussi prometteuses et aussi dangereuses. (Bill Gates, mars 2019).

Conclusion

Vous aurez sans doute compris que d’ici très peu de temps, les géants du numérique susmentionnés auront accès à la quasi-totalité de nos données personnelles, et connaîtront tout de nos habitudes, de nos déplacements… , et ce, en temps réel, grâce, entre autres, à l’Internet des objets, la reconnaissance faciale et la 5G. Évidemment, la croissante exponentielle des données, la performance en hausse des ordinateurs et l’élaboration d’algorithmes diversifiés de plus en plus performants assureront à ces géants l’accès à cette mine d’information.

Grâce aux données obtenues de diverses sources, notre assistant intelligent sera ainsi en mesure de nous proposer des choix adaptés à notre personnalité. 

Par ailleurs, l’émulation pour accéder aux bénéfices de l’IA ne se jouera réellement qu’entre les États-Unis et la Chine. La majorité des autres pays, plus particulièrement les pays d’Afrique, de l’Asie Centrale et de l’Asie du Sud-Est ainsi que ceux de l’Amérique latine devront faire un choix entre ces deux puissances.

Notons qu’aux États-Unis, le « Patriot Act » impose à toutes les entreprises nationales et étrangères oeuvrant dans ce pays ainsi qu’à leurs filiales à travers le monde, de livrer aux services de renseignement des États-Unis leurs données, sans autorisation requise, sans l’aval d’un tribunal et sans notification des clients. D’autre part, en Chine, le PCC s’est assuré d’être la seule autorité nationale à avoir l’accès à l’universalité des informations du Big Data concernant le peuple chinois.

En se basant sur le développement et l’utilisation connus de l’IA en Chine, il nous apparaît évident que l’IA peut désormais assurer aux 32,3 % des gouvernements mondiaux autoritaires un contrôle et une surveillance étroite de leurs sujets. À cet égard, la Chine a conclu un accord avec le gouvernement du Zimbabwe en 2018.

L’IA pourrait même aider à faire basculer certains pays dotés de régimes hybrides en des régimes autoritaires.

En somme, les États-Unis devront redoubler d’efforts s’ils veulent établir leur hégémonie mondiale dans le domaine de l’IA. D’autant plus, que les États-Unis comme la plupart des pays occidentaux et quelques autres pays devront tenir compte de principes tel le respect de la vie privée, le sens commun et l’éthique dans le développement de l’IA, contrairement à la Chine qui n’a aucun intérêt à travailler en ce sens.

L’intelligence artificielle est-elle aussi dangereuse qu’on veut bien le croire? Démocratie en péril? Poser ces questions, c’est d’y répondre!

En complément d’information, vous êtes invités à consulter les références ci-dessous. Celles-ci illustrent l’expansion tentaculaire de la Chine au niveau planétaire. Elles attestent également des contraintes légales, financières et géopolitiques auxquelles les États-Unis sont confrontés dans leur défense des valeurs occidentales, et ce, dans un environnement où la Chine semble disposer de ressources financières et techniques illimitées, et affranchies de toute préoccupation morale dans le développement de l’IA.

Références

Annexe : historique de l'intelligence artificielle, fonctionnement d'un réseau de neurones et apprentissage profond et apprentissage par renforcement

Historique de l’IA

Bien que l’homme ait essayé de créer des machines à calculer ou autres objets, par exemple, la machine à calculer « la Pascaline » de Blaise Pascal en 1642, des automates comme ceux d’un horloger suisse (entre 1767 et 1774) qui élabora l’écrivain, le dessinateur, et la musicienne, les spécialistes du domaine considèrent toutefois que les balbutiements de l’histoire de l’IA ont débuté vers la fin des années 1930, avec un scientifique du nom d’Alan Turing. En effet, sans être le père de l’IA, bien qu’on le considère comme le père de l’informatique, Alan Turing a influencé les études et les recherches faites sur l’IA, grâce à deux de ses concepts: la machine de Turing (1936) et
le test de Turing.

La machine de Turing est un ordinateur abstrait capable de reproduire tout type de raisonnement à partir d’un algorithme (procédure de règles à suivre), donc de mécaniser le fonctionnement de la pensée. Dans les faits, voir si les processus de déduction, de décision, de résolution de problème, etc., propres à la pensée humaine, pouvaient être décrits rigoureusement et être résolus par un programme informatique. Tandis que le test de Turing, bien que ce test soit contesté aujourd’hui, suggérait que si une machine pouvait tromper un homme en lui faisant croire qu’elle était aussi humaine, le logiciel de l’ordinateur avait passé le test avec brio. On se rappellera que ce même Alan Turing
décrypta le code secret de la machine Énigma utilisée par l’armée allemande durant la Seconde Guerre mondiale. Par la suite, soit en 1948, le premier ordinateur était créé.

Au cours d’un demi-siècle (1955-2005) de recherches sur l’IA, deux écoles de pensée se sont fait concurrence : l’école symbolique ou l’école basée sur des règles et l’école reposant sur les réseaux de neurones.

L’idée de l’école symbolique était de créer de la pensée artificielle en enseignant aux ordinateurs à penser, en leur insérant une série de règles logiques, sous forme de code numérique, que maîtrise un être humain.

C’est en 1956 que Marvin Minsky, père co-fondateur de l’IA, du MIT et ses collègues fondent un centre de recherche sur l’IA. En 1963, on assiste à la création d’Éliza, premier agent conversationnel, grand-père de Siri, tandis que de 1973 à 1982, apparaît la première hibernation de l’IAi. En 1982, on relance l’IA avec les systèmes experts, dont le but est de rassembler dans des bases de données toutes les connaissances des experts d’une discipline et d’expliciter les règles de raisonnement. C’est également en 1982 que l’apprentissage par renforcement fait son apparition, lequel apprentissage consiste à étudier les gestes à poser à partir d’expériences, sur la basse de récompenses et punitions, de façon à optimiser une récompense quantitative dans le temps. De 1987 à 1993, on assiste à une seconde hibernation de l’IA puis à sa relance grâce aux progrès informatiques. À ce propos, soulignons que cette école de pensée de l’IA a toujours évolué en parallèle avec l’informatique.

Par ailleurs, l’idée de l’école fondée sur les réseaux de neurones consistait à imiter l’architecture interne du cerveau, en superposant des couches de neurones artificielles qui peuvent recevoir et transmettre de l’information dans une structure semblable à nos réseaux de neurones biologiques.

En 1943, Walter Pitts, pionnier des réseaux de neurones, et Warrent McCulloch inventent le neurone artificiel élaboré sur la base d’un neurone biologique. Dans le cas du neurone artificiel, on fait une sommation pondérée des entrées en tenant compte de leurs coefficients respectifs et on déclenche un signal de sortie (Nous avons assisté à 2 hibernations de l’IA en raison de la pauvreté des moyens de calcul, d’une absence de champs d’application, d’où la difficulté d’obtenir des fonds).

En 1957, Frank Rosenblatt, premier concepteur d’un réseau de neurones, crée le Perceptron, grosse machine comportant beaucoup de câbles interreliés aux neurones (transistors) et des potentiomètres à réglage automatique dont le but est de donner un coefficient synaptique entre les neurones. À cela s’ajoute un appareil photo pour permettre à la machine de classer des images via un programme faisant varier les potentiomètres qui lui indiquent la bonne réponse. Après 50 essais, les poids synaptiques sont calibrés et la machine peut classer de nouvelles images qui ne lui auront pas été présentées durant l’entraînement (pour plus d’explications, voir la partie suivante sur le fonctionnement d’un réseau de neurones).

En 1969 surgissent de violentes critiques des réseaux de neurones, formulées, entre autres, par Marvin Lee Minsky.

En 2003, Yoshua Bengio, Geoffrey Hinton et Yann LeCun relancent les réseaux de neurones tandis qu’en 2006, on assiste à la naissance de l’apprentissage profond (Deep Learning, pour plus d'explications, voir plus bas la section sur l'apprentissage profond et l'apprentissage par renforcement.

En 2012, à un concours de reconnaissance d’images, ImageNet, un premier réseau de neurones à plusieurs couches (Deep Learning) bat tous les autres types d’IA.

Finalement, en mars 2016, la victoire au jeu du GO (10 aux 171 combinaisons possibles) par le programme AlphaGo développé par DeepMind représente une avancée historique de l’intelligence artificielle. Pour concevoir leur algorithme, les fabricants d’AlphaGo avaient utilisé deux réseaux de neurones artificiels qui s’entraînaient mutuellement. Au début, ils l’avaient alimenté avec 30 millions de coups de joueurs expérimentés, puis ils avaient fait jouer, à des versions différentes de la machine, des millions de parties contre elle-même. Le logiciel avait ainsi appris de nouvelles stratégies inconnues de l’être humain.

En réalité, contrairement à la première école, les concepteurs de réseaux de neurones ne leur donnent pas de règle eu égard au processus décisionnel, mais les alimentent plutôt de beaucoup, beaucoup d’exemples d’un phénomène donné et laissent les réseaux eux-mêmes identifier le bon choix à même les données présentées. Moins il y a d’interférences humaines, mieux c’est. Ce qui a retardé considérablement le développement des réseaux de neurones, c’est que ces derniers exigeaient une quantité phénoménale de données et de puissance de traitement. Par exemple, la puissance actuelle de calcul de nos téléphones intelligents est des millions de fois supérieures à celle des ordinateurs de la NASA en 1969. Enfin, l’Internet a abouti à une explosion de données numériques.

Fonctionnement d’un réseau de neurones

Comme mentionné précédemment, l’idée d’un réseau de neurones est de mimer ou répliquer le fonctionnement des neurones biologiques. En effet, lorsqu'un neurone biologique reçoit une information par une de ses dendrites, il s'y propage un tout petit courant électrique, appelé potentiel local. Ce courant électrique se rend jusqu'au corps cellulaire, pour l'inciter à son tour à en envoyer un. Si c'est le cas, un potentiel d'action sur l'axone et ses liens synaptiques sera déclenché par le corps cellulaire pour se connecter à d’autres neurones. Dans le cas des neurones composant un réseau de neurones, chaque neurone est susceptible de recevoir des données issues de plusieurs autres neurones de la couche précédente, ou de neurones voisins, avec lesquels il est connecté par des synapses. Le neurone traite alors les données reçues et, si la somme pondérée de ces signaux dépasse un seuil défini au préalable, il déclenche alors à son tour un signal vers des neurones de la couche suivante, ou des neurones voisins. Plus un neurone reçoit un signal d’un autre neurone, et plus le poids de ce signal devient important dans le calcul de son seuil de déclenchement (pondération synaptique).

En somme, un réseau de neurones est un algorithme composé d’une succession de petites boîtes de calculs (neurones) qui accomplissent des fonctions mathématiques élémentaires. Ces neurones sont organisés en couches successives et reliés par des liaisons appelées synapses. L’architecture d’un réseau de neurones artificiels définit la façon dont ses divers neurones sont placés ou disposés l’un par rapport à l’autre. Le nombre de couches, la quantité de neurones et la richesse des liaisons augmentent rapidement la complexité du système. Il y a différents types d'application d’un réseau de neurones :

  • reconnaissance de formes, ce qui permet aux camions, aux drones, aux automobiles de s’autopiloter;
  • traitements de signaux, prévisions financières, prise de décision, jeux vidéo, etc.

À titre d’exemple, en reconnaissance faciale, on expose la couche d'entrée à des milliers, voire des millions d’images (visages humains) de formes diverses et sous des angles de vue variés, pour éduquer le réseau de neurones. Ce dernier va ainsi pouvoir, de couche en couche, apprendre à reconnaître et à filtrer des combinaisons de pixels de plus en plus complexes (du simple pixel pour la première couche, au visage entier pour la dernière). Les liaisons entre les neurones sont initialement dotées de poids aléatoires et le réseau va lui-même ajuster les poids synaptiques reliant les neurones entre eux, de façon à ce que les neurones de sortie donnent la bonne réponse. Le réseau est ensuite exposé à des images non apprises et non étiquetées qu'il doit reconnaître comme des visages humains. Quand il se trompe, on le lui signale, afin qu'il réajuste ses poids synaptiques, par rétropropagation de couche en couche, de la sortie vers l’entrée. Il minimise ceux qui l’ont induit en erreur, et maximise ceux qui conduisent à une bonne réponse. Dans le cas de Google, on peut avoir 1 000 000 d’images à l’entrée, et l’algorithme peut avoir entre 1 500 et 2 000 couches!

Nous distinguons trois types d’apprentissages de réseaux de neurones :

  1. l’apprentissage supervisé, c’est-à-dire des exemples d’échantillons de données déjà classés sont présentés à l’algorithme qui s’ajuste afin de classer les nouvelles données entrantes dans des classes similaires;
  2. l’apprentissage non supervisé, c’est-à-dire sans étiquetage à l’avance, le réseau de neurones devant donc faire des regroupements par lui-même, par exemple ce qui est similaire, ou encore des algorithmes de « clustering »; 
  3. l’apprentissage par renforcement, qui est une forme d’apprentissage supervisé dans laquelle l’algorithme n’est pas informé de la classe de chaque échantillon d’apprentissage, mais de la justesse (récompense) ou de l’erreur (punition) de la classification, ce qui lui permet d’optimiser une récompense quantitative au cours du temps.

Apprentissage profond (Deep Learning) et apprentissage par renforcement

Soulignons tout d’abord que le Deep Learning permet à la machine d’améliorer elle-même sa capacité d’analyse des données pour accomplir une tâche. On y traite très souvent des données non structurées : des images, du son, du texte. Les algorithmes de Deep Learning nécessitent également un réseau de neurones doté de plusieurs couches, des données en quantités industrielles et de la puissance de calcul. C’est d’ailleurs pour ces raisons, qu’à partir de 2012, grâce à la puissance des ordinateurs et à la multitude des données, que l’IA a pu s’attaquer à des problèmes extrêmement complexes, tels que déchiffrer la parole humaine, traduire des documents, reconnaître des images, prédire le comportement des consommateurs, identifier des fraudes, analyser des prêts, aider des robots à voir et même à conduire une automobile. Données disponibles en grande quantité constituant le coeur de l’intelligence artificielle, apparition d’une puissance de calcul inégalée et implication de concepteurs talentueux sont toutes des variables qui ont été appliquées à de multiples champs d'intervention, d’où la mobilisation d’une somme de fonds faramineuse.

Le potentiel de la combinaison du Deep Learning et de l’apprentissage par renforcement est absolument énorme dans l’IA. De la même manière que nous pouvons tous contribuer à la connaissance mondiale en alimentant Wikipédia, nous allons tous participer à l’entraînement de l’IA en lui donnant de nouvelles tâches à exécuter, qu’elle sera ensuite en mesure de réaliser sans nous.

Les Canadiens devraient-ils faire confiance à la technologie chinoise?

Lundi, le 14 décembre dernier, Google, la deuxième plus grande entreprise de « Cloud Computing » au monde a vécu durant deux heures une panne mondiale de son système d’authentification et éprouvé un problème de quota de stockage interne pour gérer ses logiciels. Dans les faits, tout produit ou service de Google qui obligeait un utilisateur à s’authentifier s’est complètement arrêté, ce qui a impliqué qu’il n’était plus possible de discuter en ligne, de se connecter à notre messagerie, d’utiliser nos agendas, d’accéder à nos présentations ou à YouTube, de contrôler les thermostats, les lumières, les caméras de sécurité, etc.

Ce problème technique a mis en évidence à quel point Google est devenu omniprésent dans nos vies. Cette entreprise est parvenue à amasser une quantité magistrale de données sur ses usagers et leurs proches. Elle revend les informations ainsi recueillies à divers clients travaillant dans le monde de la publicité, de la recherche, de la fabrication ou appartenant à divers organismes publics et privés.

Compte tenu de l’ampleur de la panne émanant des serveurs de Google, il nous apparaît logique de nous interroger sur les dangers que nous aurions encourus si les géants du numérique chinois connus sous l’acronyme BATX (Baidu, Alibaba, Tencent, Xiaomi) avaient occupé la place détenue présentement par les entreprises du GAFAM (Apple, Google, Facebook, Amazon, Microsoft).  Aurions-nous connu cette panne mondiale ?  Les conséquences de celle-ci auraient-elles été davantage néfastes?

Juste pour illustrer l’importance des entreprises chinoises, rappelons l’utilisation sensible de la technologie numérique par les dirigeants chinois pour contrôler les Ouïgours, les Hongkongais ou les Tibétains.  Soulignons également le désir d’expansion des dirigeants chinois qui n’hésitent pas à faire des pressions indues sur les gouvernements étrangers. À cet effet, citons l’emprisonnement des Canadiens Michael Kovrig et Michael Spavor.

Lors de la panne planétaire du 14 décembre 2020, si la prédominance exercée par Google dans le monde numérique l’avait été par Baidu, cette dernière aurait-elle agi de la même façon que Google ou en aurait-elle profité pour en tirer divers avantages additionnels ? Compte tenu des visées hégémoniques de la Chine, il nous apparaît évident que les représentants du Parti communiste chinois auraient trouvé une astuce pour exploiter cette panne afin de promouvoir leur idéologie expansionniste. Toutefois, étant donné les faibles enjeux alors en cause (courriels, conversations, GPS, ou autres), nous estimons que les dégâts auraient été sans impact majeur, même en situation de négociations ardues avec la Chine.

Mais en sera-t-il autrement lorsque toutes les pièces du « puzzle » associant le développement de l’intelligence artificielle, de l’Internet des objets, de la reconnaissance faciale, de la technologie 5G, etc., seront rassemblées et interagiront ensemble ?  Dans ce futur, les géants du numérique et autres entreprises similaires auront accès à la quasi-totalité des données générées par les entreprises et les individus.  Nos activités, nos habitudes, nos déplacements seront enregistrés en temps réel alors que probablement plusieurs d’entre nous vivront dans des villes dites semi-intelligentes ou intelligentes (de telles villes existent déjà en Corée du Sud et à Singapour).

Afin de progresser rapidement vers ce futur numérique, les gouvernements ont commencé à adopter une réglementation propice à la protection de leurs intérêts et de ceux de leurs géants numériques nationaux. C’est ainsi qu’aux États-Unis, le Patriot Act impose à toutes les entreprises nationales et étrangères œuvrant dans ce pays, ainsi qu’à leurs filiales à travers le monde, de transmettre aux services de renseignement des États-Unis leurs données, et ce, sans autorisation préalable, sans l’aval d’un tribunal et sans notification à leurs clients. De même, en Chine, le Parti communiste chinois (PCC) est la seule autorité́ nationale à avoir accès à l’universalité́ des informations en provenance du « Big Data » concernant ses concitoyens.  En conséquence, les entreprises étrangères n’ont pas le droit de recueillir des informations sur les Chinois. Par ailleurs, grâce aux BATX, la Chine ne se gêne pas pour récolter de multiples données sur les populations étrangères, notamment en Afrique, dans les anciennes Républiques socialistes soviétiques, en Amérique latine et dans plusieurs pays occidentaux où, dans ce dernier cas, elle fait parfois face à une forte opposition.

En se basant sur le comportement observé chez les dirigeants chinois au fil des dernières années, il nous apparaît évident que nous serions en très fâcheuse situation si les géants du numérique chinois parvenaient à avoir accès à l’entièreté des données canadiennes (cueillette, stockage, traitement et diffusion).

Une panne comme celle du 14 décembre dernier n’aurait rien de tragique, comme mentionné précédemment, mais une panne intervenant dans le contexte du « puzzle » susmentionné aurait des conséquences beaucoup plus néfastes sur les citoyens, et ce, même si les géants américains du numérique étaient aux commandes.

Je n’ose imaginer les conséquences catastrophiques d’une telle panne dans un environnement qui serait totalement dominé par les BATX sous la tutelle du PCC !  Mais ce qui serait encore plus inquiétant, c’est une situation où les géants numériques chinois décideraient délibérément de créer une telle panne et prendraient le contrôle de nos institutions. N’oublions pas, qu’en matière d’intelligence artificielle, on peut presque tout contrôler grâce aux algorithmes alimentés par le Big Data et de là, les mesures protectrices prises récemment par le gouvernement américain afin de freiner l’expansion de Huawei ainsi que de plusieurs autres entreprises chinoises. À cet égard, des représentants du gouvernement américain ont récemment recommandé d’envisager l’achat de toutes les installations de Huawei, y incluant les tours de transmission.

En bref, nous n’avons pas le droit à l’erreur quant au choix des entreprises numériques autorisées à œuvrer au Canada. Texte aussi publié dans Le Soleil, 6 janvier 2021.

Aucune note. Soyez le premier à attribuer une note !

Date de dernière mise à jour : 11/01/2021