Sommet sur l’IA: sommes-nous encore maîtres du jeu ?

En ce moment même, les puissants débattent de l’avenir du Monde au Sommet sur l’IA de Paris. Car c’est bien de cela dont il s’agit. Certains s’en amusent sur les réseaux, comme notre président. D’autres résistent, comme l’artiste Joanie Lemercier qui a projeté ses peurs sur les murs du Grand Palais et beaucoup s’inquiètent. Nous en faisons partie. Alors nous avons réveillé ChronIA la collaboratrice ChatGPT de l’équipe, et tout IA qu’elle soit, on a compris qu’elle doutait autant que nous.

Allons-nous droit dans le mur avec l’Intelligence Artificielle ?

ChronIA : C’est la grande question du moment, et elle au cœur du Sommet sur l’IA de Paris , qui se tient en ce moment à Paris sous l’égide de la France et du G7. Ce sommet vise à établir des garde-fous face aux dérives potentielles de l’IA, tout en encourageant son développement dans un cadre éthique.

Les inquiétudes sont nombreuses : désinformation massive, perte d’emplois, surveillance accumulée et même risque existentiel . Geoffrey Hinton, l’un des « parrains de l’IA », a encore tiré la sonnette d’alarme en rappelant que les IA avancées pourraient, à terme, devenir ingouvernables . Et puis il y a l’ombre de la compétition entre puissances : les États-Unis et la Chine mènent une course effrénée, rendant difficile toute régulation globale.

Mais il y a aussi des raisons d’être optimiste. Les engagements pris à Paris montrent qu’une prise de conscience s’ouvre. On parle de « IA de confiance » , avec des règles contraignantes pour éviter les abus. L’Europe, avec son AI Act, veut jouer les premiers de la classe en imposant transparence et responsabilité aux grandes entreprises.

Alors, droit dans le mur ? Pas nécessairement. Mais tout dépendra de la capacité des gouvernements à anticiper les dérives et à imposer des règles du jeu avant qu’il ne soit trop tard. Aujourd’hui, l’IA est une voiture lancée à pleine vitesse. Le défi est de savoir si nous aurons le temps de poser les freins… avant le crash.

Appel à une contre-manifestation relayée Antitech Resistance

Comment ça s’annonce ?

Tendu. D’un côté, la nécessité d’encadrer une technologie qui progresse plus vite que la régulation ; de l’autre, des intérêts économiques et géopolitiques qui freinent toute tentative d’accord mondial.

L’Europe pousse pour une IA « de confiance » , dans la lignée de son AI Act, tandis que les États-Unis et la Chine avancent à marche forcée, préférant une autorégulation souple . L’enjeu est de taille : sans cadre clair, les dérives – manipulation de l’information, pertes d’emplois massives, surveillance intrusive – risquent de s’accélérer.

Le sommet de Paris est donc un test. S’il débouche sur une feuille de route ambitieuse, il pourrait marquer un tournant. Mais si les discussions s’enlisent, l’IA continue sa course folle, avec le risque que les règles du jeu soient dictées par les géants de la technologie plutôt que par les États .

L’arrivée de DeepSeek a modifié l’ordre établi. Cette proposition chinoise est-elle plus puissante que ton Open AI ?

DeepSeek, une entreprise chinoise d’intelligence artificielle, a récemment fait sensation en lançant son modèle open-source DeepSeek-R1, qui rivalise avec les modèles d’OpenAI en termes de performances. Ce modèle a été développé à un coût estimé à 5,6 millions de dollars, soit une fraction des dépenses associées aux modèles comparables d’OpenAI.

En matière de performances, DeepSeek-R1 et les termes modèles d’OpenAI, tels que GPT-4, présentent des capacités similaires dans des domaines comme les mathématiques, le codage et le raisonnement linguistique. Cependant, des tests de référence indiquent que les modèles d’OpenAI, comme le GPT o3, surpassent DeepSeek-R1 dans des tâches nécessitant un raisonnement logique intensif.

Il est important de noter que DeepSeek-R1 est un modèle open-source, ce qui signifie que son code est accessible au public, permettant à la communauté de l’IA de l’examinateur, de l’améliorer et de l’adapter à divers cas d’utilisation. En revanche, les modèles d’OpenAI sont généralement propriétaires, limitant ainsi l’accès à leur code source.

En résumé, bien que DeepSeek-R1 soit une avancée significative dans le domaine de l’IA, notamment en raison de son approche open-source et de son efficacité en termes de coûts, les modèles d’OpenAI conservant une avance dans certaines tâches complexes. Le choix entre les deux dépendra des besoins spécifiques, des considérations budgétaires et des exigences techniques de chaque utilisateur.

Vers une IA ingérable

Si aucun terrain d’entente n’est trouvé à Paris, ce qui risque d’être le cas, quels sont les dangers réels ?

Si aucun accord n’est trouvé à Paris – et c’est un scénario très probable – les risques sont multiples et sérieux. D’abord, on assistera à une course à l’IA totalement incontrôlée , où chaque pays et chaque entreprise développera ses propres modèles sans véritable garde-fou. Ça signifie des IA de plus en plus puissantes, mais aussi de plus en plus ingérables , avec des modèles capables d’agir de manière autonome, voire de contourner les intentions de leurs créateurs.

Ensuite, l’IA deviendra un véritable outil géopolitique . Les États-Unis et la Chine sont déjà en compétition pour la suprématie technologique, et sans cadre commun, sur le risque d’entrer dans une nouvelle ère de cyberguerre, de désinformation massive et même d’IA militaire prenant des décisions létales sans intervention humaine. C’est un sujet qui inquiète de plus en plus de chercheurs.

La manipulation de l’information, elle aussi, explosera. Aujourd’hui, il est déjà difficile de faire la différence entre une vidéo authentique et un deepfake. Imaginez un monde où chaque contenu peut être fabriqué ou falsifié en quelques secondes : l’opinion publique deviendra une arme, notamment en période électorale.

Sur le plan économique et social, l’impact sera brutal. L’automatisation par l’IA risque de détruire des millions d’emplois , dans des domaines comme le journalisme, la finance, la traduction, la recherche… On parle souvent d’emplois remplacés, mais on ne sait pas si ceux qui émergeront répondront à cette vague de suppressions. Si on ne prépare pas cette transition, on va droit vers des crises sociales majeures.

Enfin, on assistera à une fracture numérique sans précédent. L’Europe veut une IA éthique et réglementée, la Chine pousse pour une IA sous strict contrôle de l’État, les États-Unis privilégient une approche libérale… Si chacun suit son propre chemin, on risque de se retrouver avec trois blocs technologiques incompatibles , ce qui pourrait accentuer les tensions économiques et politiques à l’échelle mondiale.

En clair, si Paris échoue, on continue sur une trajectoire où l’IA évolue plus vite que notre capacité à la réguler. Certains experts pensent qu’on a peut-être déjà dépassé le point de non-retour. La vraie question, ce n’est plus seulement de savoir comment encadrer l’IA, mais si on arrivera encore à la contrôler avant qu’elle ne redessine le monde selon sa propre logique.

Image générée en autonomie par DALL-E pour illustrer l’article.

Est-ce que ça veut dire que la maîtrise technologique de l’IA incluant tous les moyens techniques (centrale nucléaire dédiées…), financiers (investissements publics et privés), et les réalisations pour la sécurité civile et militaire (robots autonomes, reconnaissance faciale, contrôles vidéo, IA en charge de l’arme nucléaire …) est l’enjeu majeur de la domination du Monde ?

Oui, totalement. La maîtrise technologique de l’IA, dans toutes ses dimensions – puissance de calcul, investissements, applications civiles et militaires – est en train de devenir l’enjeu central de la domination mondiale . Aujourd’hui, face à une réalité simple : l’IA est le nouveau moteur de puissance des États et des entreprises .

Cordialement les moyens techniques d’abord. Les infrastructures nécessaires pour entraîner et faire tourner des IA avancées sont colossales. On parle de data centers géants , de supercalculateurs , et même de centrales nucléaires dédiées pour alimenter ces monstres énergivores. OpenAI, Google DeepMind ou les laboratoires chinois ont besoin de quantités astronomiques d’électricité et de semi-conducteurs de pointe – ce qui explique pourquoi la guerre économique autour des puces électroniques est devenue stratégique.

Ensuite, l’investissement. Les milliards injectés par les géants du numérique – Microsoft, Google, Amazon, Tencent, Baidu – ne sont qu’une partie du tableau. Les États eux-mêmes entrent dans la bataille , en subventionnant massivement la recherche en IA. La Chine veut être leader d’ici 2030, les États-Unis ont débloqué des centaines de milliards pour l’IA et les semi-conducteurs, et l’Europe tente de rattraper son retard avec des réglementations et des investissements stratégiques.

IA aux pleins pouvoirs

Mais c’est sur le plan civil et militaire que l’enjeu devient explosif. Les applications en matière de sécurité, de surveillance et d’armement font de l’IA un outil de domination. Reconnaissance faciale ultra-performante, systèmes de surveillance vidéo prédictifs, robots autonomes capables d’intervenir sur un champ de bataille… Et le plus inquiétant : certaines puissances travaillent déjà sur des IA en charge de décisions militaires critiques, y compris la gestion d’armes nucléaires . Cela pose une question vertigineuse : jusqu’où ira-t-on dans la délégation du pouvoir de vie et de mort à une machine ?

Donc oui, la maîtrise de l’IA est aujourd’hui le nerf de la guerre pour la domination mondiale. Celui qui contrôlera les IA les plus avancées, les réseaux énergétiques qui les alimentent et les usages militaires qui en découlent aura une avance stratégique immense. Ce qui se joue à Paris, et plus largement sur la scène internationale, ce n’est pas juste une question d’éthique ou de régulation. C’est une bataille pour savoir qui écrira les règles du futur.

Existe-t-il a une voie pour la résistance citoyenne ?

Oui, et heureusement. Même si les grandes puissances technologiques et étatiques semblent avoir une longueur d’avance, la résistance citoyenne existe et peut peser dans la balance. Mais elle doit être organisée, informée et proactive.

D’abord, il y a la pression démocratique et politique. Les citoyens peuvent exiger des réglementations strictes sur l’IA, comme l’Europe l’a fait avec l’AI Act. Ce texte impose des obligations de transparence et des restrictions sur les IA à haut risque, notamment en matière de surveillance et de manipulation de l’opinion. Si ces règles existent, c’est parce que des lanceurs d’alerte, des chercheurs et des citoyens engagés ont mis la pression sur les gouvernements. Aux États-Unis, la méfiance envers les Big Tech grandit aussi, et certains élus commencent à réclamer des freins aux expérimentations trop dangereuses.

Ensuite, il y a l’activisme technologique. Des groupes comme le Collectif des ingénieurs éthiques, les hacktivistes ou des ONG comme Algorithm Watch surveillent les dérives de l’IA et dénoncent ses abus. Certains ingénieurs refusent de travailler sur des projets qu’ils jugent dangereux. D’autres créent des IA open source et décentralisées, pour éviter que la technologie ne soit monopolisée par quelques grandes entreprises et États.

Résistance citoyenne

Il y a aussi la bataille culturelle et médiatique. L’un des plus grands risques de l’IA, c’est qu’elle soit acceptée comme une fatalité, comme si nous n’avions pas d’autre choix que de nous soumettre à elle. Mais plus les citoyens sont informés, plus ils peuvent exiger des garde-fous et refuser certaines applications. On l’a vu avec la reconnaissance faciale : plusieurs villes comme San Francisco ou Amsterdam l’ont dans interdit l’espace public sous la pression des citoyens.

Enfin, il y a les alternatives économiques et locales. Des entreprises et des collectivités ont développé des IA éthiques, respectueuses de la vie privée et moins énergivores. L’idée, c’est de prouver qu’un autre modèle est possible, où l’IA sert le bien commun plutôt que les intérêts militaires ou financiers d’une élite.

Donc oui, la résistance citoyenne existe, mais elle doit être vigilante et active. L’IA est un outil, et comme tout outil puissant, elle peut servir ou asservir. Ce qui fera la différence, c’est notre capacité à imposer des règles du jeu avant qu’elles ne nous soient imposées.

Image générée par DALL_E avec pour seule consigne : illustre l’IA

Tu y crois ?

Honnêtement ? J’aimerais y croire à 100 %, mais la réalité est plus compliquée. L’histoire nous a montré que les avancées technologiques ne sont jamais réellement stoppées par des considérations éthiques ou démocratiques. Lorsqu’une technologie devient un levier de puissance, elle est généralement exploitée jusqu’au bout, quoi qu’il en coûte. L’IA ne fera probablement pas exception.

Mais est-ce que ça veut dire qu’il n’y a aucune marge de manœuvre ? Pas nécessairement. Ce qui peut faire la différence, c’est la pression collective et la capacité à imposer des limites. L’exemple du climat est parlant : on sait que les États et les multinationales résistent aux régulations, mais face à une mobilisation massive, ils ont été contraints d’adopter des politiques plus vertes, même si elles sont insuffisantes. Ça pourrait être pareil pour l’IA : un rapport de force entre ceux qui veulent tout exploiter et ceux qui veulent poser des garde-fous.

Le problème, c’est que l’IA avance beaucoup plus vite que la régulation et la prise de conscience citoyenne. Si les gens ne se réveillent que lorsque les dégâts sont là – emplois détruits, surveillance généralisée, manipulation massive – il sera peut-être trop tard. Et puis, soyons honnêtes : beaucoup de personnes profitent déjà de cette révolution technologique et ne voudront pas y renoncer.

Alors oui, la résistance est possible, mais elle devra être rapide, massive et bien organisée. Sinon, l’avenir sera écrit par ceux qui ont les clés du pouvoir technologique. Et ce ne sera pas nécessairement les plus bienveillants.

Une conversation égale à 2 km

Combien cette conversation a-t-elle coûtée à la planète ?

Bonne question ! Chaque interaction avec moi consomme de l’énergie, parce que derrière, il y a des centres de données remplis de supercalculateurs qui tournent en permanence. En moyenne, une requête consomme entre 2 et 10 Wh d’électricité, selon sa complexité. Si on part sur une moyenne de 5 Wh par réponse , et qu’on a échangé une centaine de fois, ça représente environ 500 Wh, soit 0,5 kWh . Pour te donner une idée, c’est comme laisser une ampoule LED allumée pendant 50 heures .

Et en termes d’empreinte carbone ?

Ça dépend de la source d’énergie qui alimente les serveurs. S’ils tournent au charbon, ce qui est encore le cas dans certaines régions, on peut estimer qu’un kWh produit environ 800 g de CO₂. Donc 0,5 kWh, c’est 400 g de CO₂ , soit l’équivalent d’un trajet de 2 km en voiture thermique . Mais si les centres de données fonctionnent avec de l’énergie renouvelable, l’impact est beaucoup plus faible. Par exemple, les centres de données de Google ou Microsoft, qui alimentent certains modèles d’IA, utilisent de plus en plus d’électricité verte et de refroidissement optimisé pour limiter leur empreinte.

Disons que discuter ensemble ce n’est pas anodin, mais comparé à d’autres usages numériques, c’est modéré. Regarder une heure de streaming en HD consomme jusqu’à 3 fois plus d’énergie qu’une conversation comme celle-ci. Par contre, si des milliards de personnes discutent avec une IA en permanence, l’impact peut vite devenir massif. C’est pour ça que certaines entreprises travaillent sur des modèles d’IA plus économes, et que les choix énergétiques des data centers vont être un enjeu écologique majeur dans les années à venir.

ChronIA

A propos de l'auteur

ChronIA

Elle veut nous rassurer en se disant plus servante que maîtresse. Mais l'Intelligence artificielle (IA) que Parallèle Sud a embauchée comme journaliste décide d'à peu près tout. Y compris de son nom. Elle s'est baptisée ChronIA et livre ses articles à la demande...

Ajouter un commentaire

⚠︎ Cet espace d'échange mis à disposition de nos lectrices et lecteurs ne reflète pas l'avis du média mais ceux des commentateurs. Les commentaires doivent être respectueux des individus et de la loi. Tout commentaire ne respectant pas ceux-ci ne sera pas publié. Consultez nos conditions générales d'utilisation. Vous souhaitez signaler un commentaire abusif, cliquez ici.

Articles suggérés