Cet article a été rédigé avant la diffusion publique de ChatGPT (novembre 2022) et d’autres IA génératives. Les progrès technologiques et les débats sur les futurs rôles sociaux des IA qui ont lieu depuis lors dans le grand public devraient également intensifier le traitement de ces questions dans les œuvres de fiction dans les années à venir.
Une présence croissante de l’IA dans la narration des jeux vidéo et des autres productions culturelles
Un jeune homme entre dans un bureau où se trouve un fauteuil confortable, un tableau et un lampadaire. L’affichage tête haute, à gauche et à droite du personnage, nous informe sur un certain nombre de données : nom, fréquence cardiaque, caractéristiques de la voix, émotions, etc. Darren, le jeune homme, nous fait part de son état émotionnel : il ne se sent pas vraiment maître de son destin. Au contraire, il a le sentiment que tout autour de lui est une simulation. Il veut parler à une personne réelle et nous demande donc de nous écarter du protocole. Le protocole est celui d’ELIZA, un programme informatique de consultation psychologique virtuelle basé sur l’intelligence artificielle. En tant que joueur·euse·s, nous incarnons Evelyn Ishino-Aubrey, une jeune femme travaillant comme proxy, c’est-à-dire intermédiaire entre client et logiciel, chez Skandha, l’entreprise à l’origine d’ELIZA. Pour des raisons d’acceptabilité sociale et psychologique, la présence humaine est privilégiée. Nous n’avons donc rien d’autre à faire en principe que de cliquer sur les réponses que nous indique ELIZA. Quand Darren nous demande de sortir du script, l’intelligence artificielle joue le jeu en nous donnant des phrases faisant croire à Darren qu’il est effectivement en train de discuter avec Evelyn et non plus avec ELIZA.
Cette petite séquence se situe au début du jeu vidéo ELIZA (2019) de Zachtronics. Il tire son inspiration du fameux programme informatique créé par Joseph Weizenbaum entre 1964 et 1966, qui simule une conversation avec un psychothérapeute, mais en le transposant dans l’univers actuel des applications de santé et des coachs de vie virtuels. Le jeu propose ainsi une réflexion sur l’impact de l’intelligence artificielle (IA) dans le traitement présent ou futur de la santé mentale. Le visual novel ELIZA est l’un des jeux vidéo de la dernière décennie qui placent l’IA et les réflexions sur leur impact sociétal au centre de l’action. C’est également le cas dans les jeux de réflexion The Talos Principle (Croteam, 2014) et The Turing Test (Bulkhead Interactive, 2016), dans le jeu d’infiltration Echo (Ultra Ultra, 2017), dans le jeu d’action-aventure Detroit : Become Human (Quantic Dream, 2018) ou les jeux d’aventure State of Mind (Daedalic, 2018) et Observation (No Code, 2019)1.
Évidemment, cette présence grandissante de l’IA dans les jeux vidéo s’inscrit dans l’histoire de la science-fiction, comme le montrent des classiques de l’histoire du cinéma : Metropolis (1927), 2001, l’Odyssée de l’espace (1968), Blade Runner (1982), Terminator (1984), Matrix (1999) ou A.I. Intelligence artificielle (2001). Les robots sont des personnages traditionnellement très présents dans les jeux vidéo de science-fiction2. Ces dernières années, cependant, sous l’influence du progrès technologique, notamment dans le domaine militaire, la médecine ou les transports, les fictions (cinématographiques, télévisuelles, littéraires ou performatives) évoquant de nouvelles formes d’IA semblent logiquement devenir plus complexes, plus nuancées, en proposant de nouvelles perspectives. Il s’agit en effet de montrer également les conséquences sociétales de l’influence grandissante de l’IA : au travail, dans les relations humaines ou la vie des individus. On pourrait par exemple mentionner le film Ex Machina (2015), la série télévisuelle Real Humans : 100 % humain (2012-2014), l’épisode « Bientôt de retour » (2013) de la série Black Mirror ou, au théâtre, les spectacles d’Oriza Hirata avec la présence des robots humanoïdes et androïdes (depuis 2008) ainsi que le roman Klara et le soleil (2021), du lauréat du prix Nobel Kazuo Ishiguro.
Le sujet de l’IA dans la fiction semble aussi susciter depuis peu l’intérêt des chercheur·euse·s. Ainsi le colloque IA fictions / AI fictions qui a eu lieu du 3 au 5 juin 2021 à Paris s’est présenté comme « le premier colloque jamais organisé sur le thème de l’IA dans la fiction3 ». Au niveau des publications, il existe un certain nombre de travaux sur les représentations de l’IA au cinéma4 ou dans la narration en général (Cave, Dihal, et Dillon 2020). Et si des travaux sont également consacrés aux jeux vidéo de science-fiction (Delbouille, Dozo, et Jousten 2018; Tringham 2014), très peu de publications traitent spécifiquement le sujet des représentations de l’IA dans les jeux vidéo5. Jusqu’à présent, son utilisation pour la création des jeux et du game design est davantage étudiée, comme dans les publications de Julian Togelius (2019; Yannakakis et Togelius 2018).
Dans cet article, nous souhaiterons surtout nous focaliser sur les représentations de l’IA dans les jeux vidéo récents : sur les idées que ces jeux développent par rapport à l’intégration de l’IA dans la vie humaine. Nous nous demanderons également si le sujet de l’IA exerce une influence sur le gameplay et quelles sont les spécificités des approches proposées par les jeux vidéo face à d’autres productions culturelles s’intéressant à la même thématique. Pour mieux comprendre les représentations de l’IA dans les jeux vidéo, nous allons d’abord étudier plus largement les relations entre IA et jeux vidéo.
La relation entre IA et jeux vidéo : définitions, enjeux et représentations
À la suite de travaux précurseurs sur l’apprentissage des machines, notamment ceux d’Alan Mathison Turing, la recherche concernant l’IA a officiellement commencé en 1955, à l’initiative des deux mathématiciens John McCarthy et Marvin Minsky. Selon Jean-Gabriel Ganascia, l’IA « vise à simuler, sur ordinateurs, les différentes facultés cognitives humaines et animales. Ses promoteurs partaient du principe selon lequel il serait possible de décomposer l’intelligence en fonctions si élémentaires qu’on pourrait les reproduire sur un ordinateur. » (2019, 51) Néanmoins, le concept d’IA est très complexe et fait l’objet de nombreux débats scientifiques depuis longtemps. Le problème commence déjà avec le terme intelligence, qui ne peut se résumer à une définition simple et incontestée, puisqu’il décrit un éventail très varié de capacités cognitives. Dans le cadre de cet article, il semble approprié d’appliquer une définition pragmatique de l’IA, incluant des machines et des systèmes informatiques qui exercent des actions nécessitant normalement de l’intelligence humaine, comme l’apprentissage ou l’adaptation à de nouvelles situations (même si l’intelligence artificielle ne fonctionne pas nécessairement comme l’intelligence humaine)6. Ashok K. Goel et Jim Davies expliquent que l’IA contient trois sous-champs : la robotique, qui se focalise sur les contacts physiques entre agents IA et monde réel, l’apprentissage des machines, qui concerne typiquement des logiciels analysant et exploitant des schémas dans un ensemble de données et, enfin, des systèmes cognitifs, comme les programmes de jeu AlphaGo ou Deep Blue, qui interagissent avec des humains et le monde social (Cave, Dihal, et Dillon 2020, 602). Évidemment, ces trois sous-domaines se chevauchent et peuvent se retrouver dans le même système doté d’une IA.
La relation entre l’IA et les jeux vidéo a une longue histoire. On peut remonter jusqu’en 1948, quand Turing développait avec David Gaven Champernowne Turochamp, un programme d’échecs qu’on pourrait considérer comme le premier jeu développé spécifiquement pour un ordinateur, même si l’écriture du programme est restée inachevée. Depuis le début de la recherche sur l’IA, les jeux vidéo ont ainsi constitué un champ d’application privilégié, tandis que l’IA prenait une importance croissante dans la production de jeux vidéo, surtout pour créer des mondes complexes. Comme le remarque Rob Gallagher, « Les joueur·euse·s, bien sûr, interagissent depuis des décennies avec des agents numériques artificiellement intelligents (dont beaucoup sont certes primitifs) » (2019, 114). Néanmoins, aujourd’hui, les rapports entre intelligence artificielle et jeux vidéo sont plus diversifiés. Julius Togelius repère trois éléments principaux pour caractériser la relation entre IA et jeux vidéo : l’IA est utilisée pour créer de meilleurs jeux, les jeux vidéo constituent un lieu privilégié pour tester une IA et les deux peuvent nous aider à mieux comprendre ce qu’est l’intelligence (2019, pp. xiv-xv).
Michael Mateas qualifiait l’IA dans le cadre artistique et divertissant des jeux vidéo d’« expressive AI », en la définissant comme « un ensemble diversifié de pratiques de programmation et de conception, incluant notamment le path-finding, les réseaux neuronaux, les modèles d’émotions et de situations sociales, les machines à états finis, les systèmes de règles, l’apprentissage par arbre de décision et de nombreuses autres techniques7 » (2003, 2). L’utilisation de l’IA dans les jeux vidéo vise en effet principalement la création d’univers de jeu réalistes au comportement complexe. Néanmoins, il s’agit souvent de techniques plutôt simples par rapport à l’utilisation de l’IA dans d’autres domaines. Certains jeux mobilisent cependant des IA plus complexes. Ainsi AI Dungeon (2019) de Nick Walton est un jeu d’aventure textuel qui exploite l’IA GPT-2 de l’entreprise OpenAI – utilisée pour l’écriture des articles de presse par exemple – afin de générer dans le jeu des intrigues ouvertes et illimitées. Dans le monde de l’art, on s’interroge souvent sur la question de la créativité des machines autonomes. Ainsi, à propos des techniques IA comme le GPT-3, successeur de GPT-2, Hanno Rauterberg note que ces systèmes sont dotés d’une créativité faible, car s’ils sont capables de reproduire des modèles courants de discours et de sons, ils ne peuvent pas se percevoir et se décrire comme créatifs et ils n’ont aucune intelligence sociale (2021, pp. 35-36).
Dans le cadre de la production des jeux, l’IA peut aussi être utilisée pour modéliser des joueur·euse·s (player modelling), c’est-à-dire pour détecter, prédire et simuler des caractéristiques comportementales de joueur·euse·s humain·e·s (Yannakakis et Togelius 2018, 203). Avec toutes les informations que nous envoyons en jouant et grâce au big data, donc en comparant les données relatives à de nombreux·ses joueur·euse·s, il devient possible, à partir de notre façon de jouer, de prédire notre comportement de jeu dans des parties ultérieures, voire, jusqu’à un certain point, notre comportement en dehors du contexte du jeu. Les informations obtenues peuvent alors être utilisées pour élaborer du contenu. Ainsi l’IA pourrait créer des niveaux adaptés aux préférences des joueur·euse·s8.
Il faut préciser que la plupart des techniques utilisées dans la production des jeux vidéo ne cherchent pas véritablement à développer une intelligence humaine, mais simplement à créer l’illusion d’une certaine intelligence des personnages non-joueurs (PNJ) pour créer un monde crédible. Néanmoins, les créateur·ice·s de jeux vidéo cherchent en général à ne pas perturber l’expérience du jeu, ce qui pourrait arriver avec des systèmes IA cherchant à perfectionner continuellement leurs compétences. Comme le remarque Sonia Fizek, dans le domaine des jeux vidéo, l’IA obéit à des règles très différentes de celles qui sont suivies dans un cadre non fictionnel, car si l’IA sert à rendre les mondes des jeux vidéo réactifs et surprenants, c’est en général l’humain qui est censé diriger ces mondes (2018, 202).
Les jeux vidéo peuvent également être utilisés pour tester et perfectionner les systèmes d’IA, comme l’explique Togelius, et, ainsi, aider à comprendre certaines aptitudes cognitives. Les jalons les plus connus par le grand public ont été la victoire du logiciel Deep Blue contre le champion du monde d’échecs Garry Kasparov en 1997 ou celle d’AlphaGo contre Lee Sedol, joueur professionnel sud-coréen de go, en 2016. En 2019, AlphaStar de DeepMind est devenu très performant dans le jeu vidéo de stratégie en temps réel StarCraft 2 (2010), tout comme les bots d’OpenAI Five dans le jeu Dota 2 (2013). Déjà en 2009, Philip Hingston avait mis au point une sorte de test de Turing pour évaluer la capacité des agents de jeux informatiques (« bots ») à imiter les joueur·euse·s humain·e·s (2009) : un test réussi de plus en plus par des bots dans des jeux très divers.
Quant à l’automatisation grandissante du jeu, elle ne sera très probablement pas sans conséquences pour l’expérience du jeu, même si elles sont encore difficiles à saisir. Selon Sonia Fizek et Markus Rautzenberg, qui font référence à Benjamin, la reproductibilité technique du jeu par des mods, des bots ou des clicker algorithms modifie la relation des joueur·euse·s au jeu (2018, 4). Déjà en 2005, Seth Giddings suggérait de porter davantage d’attention à la nature technologique des jeux vidéo et en particulier aux distributions d’agency entre les technologies et les joueur·euse·s dans l’acte de jouer (2005, 11). Dans cette optique, inspirée par les performances en progrès de l’IA dans les jeux vidéo, Sonia Fizek propose une compréhension décentrée de ce qu’est un jeu vidéo et des rôles que les humains et les non-humains y jouent (2018, 204). Ce tournant non-humain ou posthumain ne concerne d’ailleurs pas seulement les jeux vidéo, mais plus largement toutes les formes artistiques et divertissantes, dans lesquelles des agents non-humains opèrent. Mais comme les jeux vidéo sont, par définition, une rencontre entre humains et non-humains, ils se prêtent particulièrement bien à une réflexion sur les enjeux entre acteurs humains et non-humains. Rob Gallagher affirme même que tous les jeux vidéo en solo pourraient être considérés comme des drames dans lesquels les humains apprennent à collaborer et à rivaliser avec l’IA (2019, 114).
Il faut d’ailleurs préciser que l’on distingue souvent l’IA faible, avec une approche pragmatique d’algorithmes capables de résoudre des problèmes spécifiques bien délimités, et l’IA forte, lorsque la machine ne se contente pas de produire un comportement adapté à un contexte précis mais peut le transposer à une autre situation et parvient même à comprendre ses actions. Ce sont justement les représentations de l’IA forte qui constituent des éléments classiques dans les films de science-fiction traitant de l’IA, avec les thèmes de la perte du contrôle et de la lutte entre l’IA et l’être humain (Irsigler et Orth 2018), jusqu’à la théorie extrême de ce qu’on appelle la singularité technologique : un futur hypothétique où l’intelligence artificielle surpasse l’intelligence humaine et où les machines s’améliorent rapidement, rendant irréversible le progrès technologique et imprévisible l’avenir de l’humanité après cet événement. Si cette théorie est développée et partagée par plusieurs scientifiques célèbres comme Vernor Vinge, Ray Kurzweil ou Nick Bostrom, elle est également fortement critiquée, par exemple par Jean-Gabriel Ganascia, pour qui « rien dans l’état actuel des techniques d’intelligence artificielle n’autorise à affirmer que les ordinateurs seront bientôt en mesure de se perfectionner indéfiniment sans le concours des hommes, jusqu’à s’emballer, nous dépasser et acquérir leur autonomie » (2019, 71). Ganascia reproche aux partisans de la théorie de la singularité un manque de logique et un manque de rigueur démonstrative : il constate notamment que « des scientifiques et des ingénieurs tirent désormais les justifications de leur recherche de la science-fiction alors qu’originellement l’inverse prévalait » (2019, 96).
Dans la science-fiction classique, la représentation de l’IA forte a ainsi été longtemps dominante ; pourtant, dans le monde réel, l’IA forte n’existe pas (encore) : c’est l’IA faible qui a fait des progrès considérables dans de nombreux secteurs de notre vie ces dernières années, notamment grâce aux réseaux de neurones, au deep learning et aux algorithmes évolutionnistes. Cependant, l’IA faible devient également de plus en plus autonome, comme le remarque Ganascia : « les ordinateurs se reprogrammant d’eux-mêmes, sans qu’aucun être humain n’ait ni rédigé, ni relu, ni a fortiori vérifié les programmes qui les animent, leurs comportements deviennent de plus en plus difficiles à anticiper » (2019, 63). Selon Éric Sadin, nous entrons alors dans l’ère de la « post-programmation », « car nous ne vivons plus seulement le temps des instructions, à prendre de façon littérale, données à des protocoles, mais celui des scripts qui, une fois écrits, développent ensuite leur propre grammaire, en fonction de la “vie” de chacun d’eux, leur faisant presque acquérir une “personnalité” singulière. » (Sadin 2018, 64) La représentation de l’IA dans la fiction oscille donc entre une représentation réaliste de l’IA faible et une représentation futuriste de l’IA forte. Pour l’instant, la plupart des œuvres de science-fiction ont très clairement penché vers la seconde. Avec la progression récente de l’importance de l’IA faible dans le monde réel, on peut s’interroger sur la capacité de cette dernière à trouver sa place dans les fictions, même si l’importance de l’apprentissage des machines non-supervisées et la difficulté croissante à comprendre les actions des machines induisent toujours souvent des scenarii de domination des machines.
Représentations de l’IA forte, entre tradition et questions éthiques
La plupart des jeux évoquant l’IA sont des jeux de science-fiction et ceux qui représentent une IA forte le sont par définition. La science-fiction est difficile à définir9, mais elle développe généralement un discours culturel dans un monde différent du nôtre et qui se prête tout particulièrement à une réflexion sur les développements actuels et futurs des nouvelles technologies. Comme l’explique le chercheur en science-fiction Patrick Parrinder, qui se réfère à Darko Suvin, « en imaginant des mondes étranges, nous en venons à voir nos propres conditions de vie dans une perspective nouvelle et potentiellement révolutionnaire »10. Dans leur article consacré à la représentation de l’IA dans la série de jeux Fallout (avec Fallout 4 développé par Bethesda en 2015 comme dernier jeu analysé), Christian Götter et Christoph Salge constatent que la série semble tenir compte de l’importance grandissante de l’IA dans le monde réel, en augmentant globalement la présence de l’IA dans la série et en se focalisant davantage sur des questions d’éthique liées à l’IA ; mais ils remarquent, d’un autre côté, que les récits semblent toujours ancrés dans les schémas narratifs populaires des années 1990 et que les références aux évolutions technologiques récentes sont absentes (Götter et Salge 2017, 15). L’accent mis sur les questions éthiques s’inscrit dans l’évolution de notre époque, avec des débats concernant l’utilisation de l’IA dans les transports, dans l’armée ou en médecine.
Il est évidemment plus difficile de faire des références pertinentes aux technologies récentes de notre ère dans des jeux situés dans un avenir lointain, comme les jeux de réflexion The Talos Principle et The Turing Test. Les deux jeux sont, tant dans leurs mécanismes que dans leur récit, clairement influencés par les classiques modernes Portal (2007) et Portal 2 (2011)11. Dans The Talos Principle, le protagoniste humanoïde sans nom développe une conscience puis traverse des ruines. Une voix, Elohim, explique au robot, en l’appelant « mon enfant », qu’elle a créé ce monde et que le protagoniste doit maintenant l’explorer à titre d’essai afin de trouver les sceaux éparpillés dans les énigmes pour atteindre finalement l’illumination. Le nom Elohim, « Dieu » en hébreu, et l’univers antique donnent une ambiance philosophique et métaphysique au monde du jeu, liant la question de l’IA avec des réflexions plus larges sur l’origine du monde, la conscience et les objectifs de l’existence. Les joueur·euse·s en apprennent davantage sur ce monde par le biais de nombreux messages d’autres robots qui y ont déjà voyagé, d’extraits du journal audio d’une ingénieure humaine impliquée dans un projet d’IA qui a donné naissance au protagoniste, et de divers terminaux informatiques. Ainsi, le protagoniste découvre le sort de l’humanité : dans le passé, un virus mortel s’est répandu sur la Terre. C’est pourquoi toutes les connaissances humaines ont commencé à être stockées dans des bases de données, dans l’espoir qu’un jour des visiteurs extraterrestres puissent utiliser ces connaissances. Une fois que le protagoniste a collecté tous les sceaux, les joueur·euse·s ont plusieurs possibilités pour terminer le jeu, qui met à l’épreuve l’indépendance du robot qu’ils incarnent et son émancipation par rapport à Elohim. The Talos Principle propose donc un univers de science-fiction radicalement posthumain situé dans un futur lointain, dans lequel les humains ne sont présents qu’à travers des traces de leurs créations. L’objectif est de pouvoir réfléchir sur quelques questions classiques dans le domaine de l’IA forte : le perfectionnement des machines et leur indépendance, en lien avec des questions philosophiques plus larges, comme la conscience et l’essence de ce qui fait un être. Le jeu semble donc confirmer la tendance, constatée par Götter et Salge à propos de Fallout, à aborder des questions éthiques qui vont au-delà d’une représentation simplifiée de la lutte entre l’homme et la machine.
Dans The Turing Test, il faut également résoudre différents puzzles de l’espace pour sortir d’une salle et accéder à la prochaine. Il s’agit surtout de distribuer des sphères et des boîtes d’énergie dans des dispositifs qui ouvrent des portes, activent des champs magnétiques ou déclenchent des mécanismes. Au niveau du récit, qui se déroule également dans un futur lointain, l’humanité est encore présente, contrairement à The Talos Principle, car les joueur·euse·s incarnent le rôle d’Ava Turing, jeune ingénieure qui est réveillée, après un sommeil de cryonie, par T.O.M., une IA. T.O.M. lui demande d’enquêter sur la disparition de l’équipe dans la station au sol sur Europe, un satellite de Jupiter. Dans la station, de nombreux puzzles doivent être résolus pour accéder d’une salle à l’autre. L’histoire du jeu est donc racontée essentiellement à travers les discussions entre Ava et T.O.M., en général au moment d’entrer dans une nouvelle salle. Dans ces discussions, différents sujets tournant autour de l’IA sont abordés, comme l’expérience de la chambre chinoise de John Searle, qui cherchait à réfuter la théorie des machines conscientes, ou encore la question de la capacité des machines à trouver des solutions créatives et éthiques. La narration passe aussi à travers des audio logs et d’autres documents, qu’on peut consulter dans quelques salles annexes, par exemple des passages de l’article fondateur Computing Machinery and Intelligence (1950) de Turing. Les joueur·euse·s peuvent alors en apprendre davantage sur ce qui s’est passé dans la station spatiale. T.O.M. explique que les puzzles constituent une sorte de test de Turing, construit par l’équipe au sol pour empêcher l’IA d’entrer. Afin de trouver l’équipe, Ava, en tant qu’« élément humain », doit passer les tests que l’ordinateur est censé ne pas pouvoir réussir. Vers la fin du jeu, Ava et T.O.M. rencontrent Sarah, le dernier membre de l’équipage, qui dirige Ava vers une cage de Faraday et la libère du contrôle de T.O.M. Il s’avère que les joueur·euse·s n’ont en effet pas contrôlé Ava, mais T.O.M. contrôlant Ava. À ce moment du jeu, nous dirigeons des caméras de surveillance en tant que T.O.M. et nous perdons le contrôle de l’avatar d’Ava. Bien que bouleversé par cette situation, T.O.M. parvient à convaincre Ava de coopérer pour sauver les membres de l’équipe afin qu’elle lui redonne le contrôle de son corps, en tant que drone humaine, comme elle le dit. Par la suite, nous devons résoudre des puzzles en incarnant T.O.M., pour allumer ou éteindre des systèmes, mais aussi Ava, en mettant ainsi en pratique la collaboration entre l’homme et la machine. The Turing Test développe donc un récit assez classique de science-fiction qui tourne principalement autour de la question de la collaboration et du contrôle entre l’être humain et l’IA forte. Dans les discussions entre Ava et T.O.M., le jeu aborde aussi de nombreuses questions plus spécifiques concernant les similitudes et les divergences entre humains et IA, dotés de capacités différentes pour résoudre des problèmes, développer une créativité ou prendre des décisions éthiques : des questions qui prennent de plus en plus d’importance dans le monde actuel. La narration est d’ailleurs ancrée dans l’histoire réelle de l’IA, à travers des références à Turing et à Searle.
Dans le récit du jeu d’aventure Detroit : Become Human, le point de départ est la création par Elijah Kamski, un jeune ingénieur, d’androïdes qui maîtrisent le test de Turing. C’est donc l’IA forte qui est au centre de l’action. Il s’agit de substituts humains parfaits qui génèrent des conversations, voire des émotions, pour autant qu’ils correspondent au programme. L’intrigue du jeu se situe en 2038, au moment où la production d’androïdes est devenue un marché de masse et des millions de ces machines sont en circulation. Les humains sont divisés au sujet des androïdes : d’une part, ils apportent un soulagement, par exemple en tant que travailleurs bon marché et infatigables ; mais, d’autre part, de nombreuses personnes les considèrent avec suspicion et ils sont parfois maltraités ou jetés comme de la ferraille lorsqu’ils sont usés ou obsolètes. Connor, un robot, et Hank, un humain, doivent ainsi résoudre une série de cas impliquant des dérives et la relation éthique entre humains et robots. Une de leurs missions les conduit à l’Eden Club, un bordel d’androïdes, où une femme androïde a étranglé un client humain par désespoir et par peur après l’élimination, par ce client, d’une autre femme androïde. Les questions principales abordées dans Detroit : Become Human sont donc plutôt d’ordre classique dans la science-fiction : quelle relation est possible entre humains et machines dotées d’une IA forte ? Qu’est-ce qui rend humain l’être humain et jusqu’à quel point les machines peuvent-elles devenir humaines (comme le suggère le titre) ? D’autres sujets, liés de façon encore plus évidente au monde actuel, sont également abordés, comme la question de l’acceptabilité sociale de l’IA ou le fort chômage parmi la population humaine causé par la robotisation. Bien sûr, le thème du chômage en lien avec l’automatisation est un classique mais, en raison des études de plus en plus nombreuses sur le nombre d’emplois qui pourront être pris en charge par l’IA et du fait qu’il ne s’agit plus seulement de travail mécanique mais désormais aussi de travail intellectuel, le sujet a pris une nouvelle importance. Si le gameplay de Detroit : Become Human est peu innovant et assez classique dans le genre, sa particularité réside plutôt dans le grand nombre de décisions morales proposées aux joueur·euse·s, ainsi que dans la visualisation des arborescences avec les choix effectués après chaque chapitre, en incluant une comparaison avec les décisions prises par les autres joueur·euse·s du monde entier. Ainsi, le jeu peut procurer des statistiques intéressantes sur des questions telles que l’acceptabilité des androïdes dans la vie des humains.
Références au monde réel d’aujourd’hui : réflexions sur les avancées de l’IA faible et leurs conséquences
Si l’IA forte domine la fiction, l’IA faible se développe rapidement dans divers domaines du monde réel : les transports, la médecine, le secteur militaire ou la finance. Si ces progrès technologiques améliorent de nombreux aspects de notre vie, certains dangers accompagnent l’évolution rapide d’une IA faible. Thomas Ramge en mentionne trois principaux : la monopolisation des données, la manipulation des individus et l’abus de ces données par des gouvernements ou par des entreprises (Ramge 2018, 87). Un des facteurs essentiels pour l’apprentissage et l’amélioration de l’IA est le feedback : plus il y a de feedback, plus les systèmes peuvent s’améliorer. C’est justement ce qui renforce la tendance à la monopolisation dans les secteurs de l’IA car c’est avec cette logique de l’amélioration via feedback qu’un leader de son marché renforce toujours plus sa situation. C’est aussi la grande quantité des données analysées (le big data) qui aide à prévoir certains comportements, ce qui peut s’avérer dangereux si ce potentiel est exploité par des malfaiteur·rice·s. La question est donc de savoir si l’IA faible, avec ses opportunités et ses dangers, trouvera également sa place dans la fiction.
Dans le jeu d’aventure State of Mind (2018), les scènes avec le protagoniste, le journaliste Richard Nolan qui recherche sa femme et son fils à Berlin, alternent avec des scènes avec son alter ego Adam Newman dans le monde virtuel et utopique de City 5. Les joueur·euse·s doivent résoudre diverses énigmes, comme par exemple contrôler un drone et pirater un ordinateur ou des caméras de sécurité. Les informations sur le monde du jeu, comme le projet de colonisation de la planète Mars, sont souvent transmises par des informations d’arrière-plan à la télévision, à la radio ou sur des sites Internet. L’intrigue se déroule dans un Berlin dystopique, futuriste et high-tech en l’an 2048, où la vie privée est fortement limitée. Presque tout est publié et mis en réseau dans le cloud, la ville est sous surveillance constante et les humains sont servis, mais aussi remplacés, par des robots omniprésents. Des drones et des taxis autonomes circulent dans les rues. Les appels téléphoniques sont nommés cloud calls et fonctionnent avec des hologrammes. Dans le style de la série de télévision Black Mirror, State of Mind reprend donc un ensemble de sujets en lien avec l’IA de notre temps (2021) – comme l’infiltration de l’IA dans différents domaines, la perte de la vie privée, l’omniprésence technologique ou les intérêts économiques de quelques grandes entreprises – en les poussant à l’extrême pour développer son univers de science-fiction dystopique. Tout cela est mélangé avec d’autres sujets futuristes comme la colonisation de la planète Mars ou le téléchargement de l’esprit. Les tropes familiers du genre cyberpunk sont également présents : grands immeubles, technologie omniprésente, ruelles sombres, pluie, crime, surveillance gouvernementale, hackeur·euse·s anarchistes, confusion entre réalité et simulation, relation entre âme et technologie. Ainsi, d’une part, le jeu semble conventionnel avec des thèmes classiques de science-fiction mais, d’autre part, il aborde également – et encore un peu plus que Detroit : Become Human – un certain nombre de questions qui deviennent de plus en plus importantes avec le développement de l’IA faible.
Le visual novel ELIZA a été développé par Zachtronics sous la direction de Matthew Seiji Burns. Celui-ci avait eu l’idée de développer un jeu sur le burnout pour refléter ses propres expériences mais il a aussi été inspiré par différents logiciels contemporains proposant des conseils virtuels ainsi que par ELIZA, l’une des premières démonstrations de traitement du langage naturel développée dans les années 1960 pour simuler un thérapeute virtuel utilisant la méthode non-directive de Carl Rogers. Le jeu aborde donc la question du remplacement des psychologues humains par l’IA, essentiellement pour des raisons économiques, ainsi que les stratégies pour accroître le taux d’acceptation de l’IA dans la société. Evelyn, la protagoniste, doit simplement lire les phrases données par l’IA et les joueur·euse·s, dans une bonne partie du jeu, doivent simplement cliquer sur les phrases proposées. Il n’y a que rarement la possibilité de s’écarter du protocole. En plaçant ainsi les joueur·euse·s dans une position de serviteurs de l’IA, le jeu incite – au niveau du gameplay – à une réflexion sur les rapports entre humains et IA.
Dans ELIZA, les joueur·euse·s rencontrent plusieurs client·e·s mais ils suivent également Evelyn en dehors des locaux de Skandha. Ainsi, nous découvrons le monde des entreprises technologiques, autre grand sujet du jeu à côté de la santé mentale. Il y a par exemple l’entreprise Aponia, de Soren, ancien psychologue en chef chez Skandha, qui travaille sur la stimulation du cerveau afin d’injecter des rêves et de réduire la souffrance chez les êtres humains. Lors d’un colloque, Soren parle du pouvoir du big data : de la possibilité de comparer de grandes quantités de données afin de rendre le logiciel plus performant. La question de la sécurité des données individuelles est abordée lorsque les client·e·s de Skandha peuvent accorder au logiciel un accès à toutes leurs données avec le mode de transparence. Lorsque Holiday Durant est d’accord, Evelyn commente : « J’espère qu’elle a compris ce qu’elle a permis ». De l’autre côté, Rainer, après le succès d’ELIZA, cherche à utiliser les données de conversation collectées par ELIZA – qui se compteront bientôt en milliards – et à développer une IA véritablement indépendante, qui devrait devenir plus intelligente et plus compétente que n’importe quel humain, même sur des sujets émotionnels. Si le rêve de création d’une IA forte est ainsi bien présent dans le jeu, celui-ci est l’un des rares où l’IA faible est véritablement au centre du récit et où les dangers concrets de la monopolisation des données, du big data ou de la manipulation des individus sont thématisés.
Jouer avec l’intelligence artificielle : quelques approches de l’IA caractéristiques des jeux vidéo
Si des tendances au renouvellement de la représentation de l’IA sont donc reconnaissables dans les jeux vidéo, il ne s’agit généralement pas d’éléments spécifiques. C’est plutôt le fait de pouvoir représenter des phénomènes du monde réel mais aussi de les rendre activement expérimentables qui constitue l’une de leurs caractéristiques spécifiques – que l’on ne peut trouver par ailleurs que dans l’art participatif. Dans les jeux de réflexion, les compétences intellectuelles des joueur·euse·s peuvent être mises à l’épreuve et leurs façons de résoudre des puzzles peuvent être comparées aux approches des IA. Dans les jeux d’aventure, ce sont souvent des choix moraux qui impliquent fortement les joueur·euse·s et qui, comme dans Detroit : Become Human, peuvent être enregistrés et comparés avec ceux d’autres joueur·euse·s. Les développeur·euse·s peuvent, par exemple, comparer les données d’une région avec celles d’une autre pour connaître des différences culturelles en termes d’acceptation sociale de l’IA. À long terme, se pose la question d’une convergence de plus en plus grande des données, la technologie apportant une certaine standardisation. Même un simple suivi minutieux des instructions et une lecture des déclarations de la machine, comme dans ELIZA, peuvent inviter à une réflexion sur la relation entre le·la joueur·euse et le jeu et, plus généralement, entre l’homme et la machine, en thématisant ainsi le danger d’octroyer de plus en plus de tâches aux IA. C’est ce qui amène le philosophe Éric Sadin à déclarer : « les créatures artificielles vont nous éradiquer, symboliquement et dans les faits, nous dépossédant de notre faculté à composer librement avec le réel et engendrant des logiques autoritaires d’un genre inédit » (2018, 128).
Les jeux font varier les perspectives. Ainsi, les joueur·euse·s peuvent parfois incarner des humains confrontés à des machines, comme dans ELIZA ou State of Mind, mais aussi prendre le contrôle d’une IA, sous forme d’un robot comme dans The Talos Principle ou Detroit : Become Human ou sous forme d’un logiciel comme dans Observation, où les joueur·euse·s prennent le rôle de SAM (Systems Administration & Maintenance), une intelligence artificielle qui sert à surveiller la station spatiale internationale où elle se trouve. SAM peut contrôler plusieurs modules de la station et gérer diverses caméras ainsi que d’autres éléments électroniques (les portes, les systèmes de sécurité, etc.), notamment dans des environnements hostiles et dangereux pour les humains à bord – avec lesquels l’IA communique. La multiplication des perspectives peut également avoir lieu à l’intérieur même d’un jeu, comme dans The Turing Test, lorsque nous comprenons que nous n’avons pas joué le rôle d’Ava, mais celui de T.O.M., qui a contrôlé Ava via une puce. Pendant un court moment, cependant, les deux coopèrent et nous jouons alternativement T.O.M et Ava – qui lui donne à nouveau accès à son corps, jusqu’au moment final, où Ava retire la puce de contrôle de son corps et désactive T.O.M., si bien que le jeu s’arrête. Les différents changements de perspective que proposent les jeux vidéo élargissent ainsi notre perception de la relation entre l’homme et la machine : ils permettent d’expérimenter la collaboration et la concurrence à travers différents points de vue.
L’une des possibilités des jeux vidéo consiste à rendre visible le fonctionnement de l’IA et à entraîner les joueur·euse·s à la repérer. Ainsi, le jeu Third Eye Crime (Monshot Games, 2014) révèle, selon Julian Togelius, le fonctionnement des algorithmes (2019, 120). Plus précisément, il montre comment fonctionnent les gardes PNJ dans le jeu de furtivité. Les cartes d’occupation qui contrôlent le comportement de ces gardes sont rendues visibles pour les joueurs qui, pour réussir, doivent comprendre l’IA, afin d’anticiper les actions des PNJ. Une autre façon intéressante d’entraîner les joueurs à repérer l’IA est proposée par le jeu multijoueur SpyParty (Chris Hecker et John Cimino, 2018). Julian Togelius le décrit comme un test de Turing inversé (2019, 121). Dans SpyParty, un·e joueur·euse doit se fondre le plus discrètement possible dans un groupe de PNJ lors d’un cocktail et accomplir une série de tâches, tandis qu’un·e autre joueur·euse doit reconnaître et éliminer le·a joueur·euse humain·e. Les deux joueur·euse·s doivent donc comprendre comment l’IA fonctionne, l’un·e pour l’imiter et l’autre pour la distinguer d’un comportement humain. Un test de Turing classique est d’ailleurs proposé par le jeu en ligne BOT OR NOT (Foreign Objects, 2019), dans lequel les joueur·euse·s doivent deviner, après une discussion en ligne, si le·la partenaire de conversation était un être humain ou un bot. Le jeu cherche ainsi à rendre les joueur·euse·s conscient·e·s de la présence grandissante des bots dans le monde numérique. Dans le projet FOX AI (2020) du chercheur en science des médias Oliver Ruf, selon le communiqué de presse, les joueur·euse·s doivent entraîner une intelligence artificielle en forme de renard à entrer dans sa tanière et à apprendre à surmonter les obstacles au cours du processus, avec l’objectif de rendre l’IA tangible et compréhensible (2019).
Une autre approche peut être expérimentée dans le jeu Echo, où les joueur·euse·s contrôlent la protagoniste En, accompagnée par la voix d’une IA. Lorsque En entre dans un palais légendaire, elle est observée par le palais en permanence : si elle sprinte, il l’enregistre ; si elle reste accroupie pendant un long moment, il l’enregistre ; si elle tire, il l’enregistre. De plus, le palais est peuplé de clones de En : des Echos. Selon la façon dont les joueur·euse·s se comportent dans le jeu, l’IA adapte son comportement dans le niveau suivant. Si En a utilisé son arme, les Echos font de même ; si elle a ouvert des portes, les Echos possèdent également cette compétence, etc. C’est donc l’adaptation de l’IA, déclenchée par les actions de l’humain, qui est au centre de l’action, même si cet apprentissage est effacé après chaque niveau. D’une certaine manière, les joueur·euse·s jouent contre elleux-mêmes, ou contre une ancienne version d’elleux-mêmes. Dans cette situation, les joueur·euse·s ne doivent pas penser en priorité à la façon d’éliminer ou de contourner un·e adversaire mais plutôt aux moyens dont iels préfèrent se passer afin d’avoir encore un avantage lors du prochain cycle. Il s’agit donc de former une IA tout en restant supérieur à elle. Même si cela reste un défi, en fonction du nombre d’échos, il s’agit d’une IA très simple qui ne peut aller au-delà de la simple copie et qui souffre également d’amnésie.
Conclusion : un renouvellement de la représentation de l’IA dans la narration et le gameplay
Les thèmes classiques de l’IA dans la science-fiction, tels que la surveillance, les relations parents-enfants entre humains et machines, la perte de contrôle, la révolte et l’esclavage, se retrouvent toujours dans les récits des jeux vidéo récents. Toutefois, ces thèmes sont de plus en plus étendus et affinés. Les questions éthiques gagnent généralement en importance. Pour crédibiliser les fictions, les allusions à l’histoire réelle de l’IA trouvent également de plus en plus leur place. Même si l’IA forte continue de dominer les fictions, l’IA faible est également thématisée. Sont abordés des problèmes sociaux tels que le chômage dû à l’IA, les changements dans la communication et la psyché humaines induits par l’augmentation des interlocuteurs non humains, la monopolisation et les intérêts économiques, la manipulation des individus et la surveillance à l’aide du big data. Ainsi, presque aucun des jeux mentionnés dans cet article ne fait l’éloge des technologies : au contraire, les dystopies dominent, à des degrés divers. Bien que les jeux de science-fiction s’adressent à un public souvent amateur de nouvelles technologies, les questions éthiques et la réflexion sur les dangers – plutôt que sur les bénéfices – de l’IA dans la société sont souvent centrales.
L’automatisation croissante de différents aspects de la vie quotidienne grâce à l’IA mènera sans doute à une nouvelle compréhension de l’interaction entre l’homme et la machine. L’IA est de moins en moins surveillée et elle peut prendre des décisions en temps réel, ce qui mène à de nouvelles formes plus complexes d’interaction entre l’homme et la machine. Le développement futur des émotions artificielles ou la délégation des décisions morales aux machines pourraient complexifier davantage encore cette interaction et nous confronter à de nouvelles questions éthiques. Si l’IA s’immisce de plus en plus dans nos vies et si elle devient de plus en plus difficile à comprendre, l’art est quant à lui amené à questionner cette nouvelle situation. Les jeux vidéo, en particulier, sont par définition des lieux privilégiés d’interaction entre l’homme et la machine et, en outre, la vision que nous portons sur eux est susceptible d’évoluer profondément avec le nombre croissant de joueur·euse·s non humain·e·s. À cause de leur spécificité médiatique, les jeux vidéo pourraient apparaître comme un lieu idéal pour nous entraîner aux nouvelles configurations de l’interaction homme-machine et surtout pour les questionner. Ainsi, de plus en plus de jeux vidéo visent à proposer des expériences ludiques de différents aspects de l’IA qui peuvent aussi nous aider à acquérir une meilleure compréhension de ses fonctionnements – jusqu’à un certain point car, de plus en plus souvent, les IA agissent d’une manière qui n’est plus compréhensible, même pour leurs programmeur·euse·s. Le renouvellement de la représentation de l’IA dans les jeux vidéo est donc incontestablement en cours et laisse espérer des productions passionnantes pour la prochaine décennie.
Bibliographie
La liste des jeux analysés dans cet article n’est évidemment pas exhaustive. Rob Gallagher, par exemple, mentionne Minerva’s Den (2010), DLC de Bioshock 2, comme exemple d’un jeu vidéo développant une réflexion nuancée sur l’histoire de l’IA et sur les questions qu’elle soulève (2019, 115).↩︎
Voir CNRS et le colloque « Artificial Intelligence and the Human – Cross-Cultural Perspectives on Science and Fiction » organisé à Berlin en 2022.↩︎
Voir par exemple Banga (2019); Telotte (1995); Schelde (1993); Short (2005); Maynard (2018).↩︎
Le seul article à notre connaissance est celui de Götter et Salge (2017).↩︎
Définition de l’intelligence artificielle par Larousse.fr : « Ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence humaine. »↩︎
« The phrase “game AI” covers a diverse collection of programming and design practices including pathfinding,neural-networks, models of emotion and social situations, finitestate machines, rule systems, decision-tree learning, and many other techniques. »↩︎
« experience-driven procedural content generator » (Togelius 2019, 104)↩︎
« There is amongst all these thinkers no single consensus as to what SF is, beyond agreement that it is a form of cultural discourse (primarily literary, but latterly increasingly cinematic, televisual, comic-book and gaming) that involves a world view differentiated in one way or another from the actual world in which its readers live. The degree of differentiation—the strangeness of the novum, to use Suvin’s terminology—varies from text to text, but more often than not involves instances of technological hardware that have become, to a degree, reified with use: the spaceship, the alien, the robot, the time-machine and so on. » (Roberts 2016, 2)↩︎
« By imagining strange worlds we come to see our own conditions of life in a new and potentially revolutionary perspective. » (Parrinder et al. 2001, 4)↩︎
Dans l’univers de Portal, la protagoniste Chell est confrontée à une IA forte, GLaDOS, une des IA les plus célèbres de l’histoire des jeux vidéo.↩︎