Geopolintel

Le gouvernement australien arnaqué par l’intelligence artificielle du cabinet Deloitte

lundi 3 novembre 2025

Le cabinet de consulting Deloitte a remboursé le gouvernement australien après avoir utilisé l’IA pour fournir un faux rapport.
L’information a été révélée par The Australian Financial Review et montre comment le recours externe par les gouvernements peut être dangereux dans les prises de décisions et pour les dépenses inutiles.
C’est le même schéma qui s’est reproduit après celui du fameux rapport Covid qui préconisait le confinement de la population et prétendait éviter des centaines de milliers de décès.

Le rapport qui a coûté 440 000 dollars australiens, présentait des erreurs entièrement fabriquées par l’intelligence artificielle avec de fausses références juridiques, et des citations d’universitaires inexistantes.

Deloitte avait été engagé pour mener un audit du système informatique qui gère les prestations sociales et les allocations appelé Targeted Compliance Framework (TCF).

Ce problème est inquiétant tant par la corruption des sociétés de conseils que du manque d’indépendance des gouvernements qui ne font pas confiance à leur personnel.

Deloitte a révélé que sa méthodologie « comprenait l’utilisation d’une chaîne d’outils basée sur un modèle linguistique génératif d’intelligence artificielle (IA) (Azure OpenAI GPT — 4o).

Mais le plus gros souci provient du manque de données pour alimenter l’intelligence artificielle qui recours à la création de fausses données générées automatiquement quand il n’y a pas assez de contenu aussi bien sur le plan juridique que sur les études.

On appelle cela le peak data.

Dans le monde du contrôle avec des politiques autoritaires, l’IA représente l’avenir. Les ressources humaines comme le conseil vont être remplacés par l’IA pour que les ordres soient exécutés sans avoir recours à la corruption et au chantage. Finis les méthodes mafieuses, il suffira de se conformer à l’algorithme.

L’autre problème concerne les ressources pour la base de données. Il y a actuellement un peak data.

Elon Musk défend la théorie du « peak data » en assurant qu’il n’y a plus de données humaines pour entraîner l’IA : « Nous avons atteint la limite » .
L’IA générative se heurte à la pénurie de données d’entraînement pour générer un algorithme qui colle à la réalité. Les géants de la tech comme Google, Apple et Meta investissent massivement dans l’IA, mais ne disposent pas suffisamment de données pour nourrir ces systèmes gourmands en ressources aussi bien en data qu’en électricité. Ce concept, utilisé pour la fin du pétrole, semble cette fois-ci réel pour les données avec un déclin de l’activité sur Internet.

Cette tendance va dégrader la qualité de l’IA, et même stopper les développements qui ont généré des sommes colossales et poussent les ingénieurs à créer artificiellement des données de synthèses par des algorithmes d’IA, plutôt que des collectes du monde réel.

Les données synthétiques sont des informations artificielles générées par ordinateur pour imiter les données du monde réel. Les données synthétiques sont des clones de données originales. Ce type de données artificielles est fabriqué en utilisant un programme informatique qui comprend comment les données originales utilisées dans le monde réel apparaissent et fonctionnent.
Sans données suffisantes, l’IA ne peut pas s’améliorer.

L’utilisation de données synthétiques permet de contourner les problèmes de confidentialité liés à l’utilisation de données personnelles, de réduire les coûts de collecte et de traitement des données, et d’augmenter le volume de données disponibles.
Nous allons assister à la fin de la vie privée et la digitalisation de la vie donnera naissance à des monstres informatiques.

Nous sommes en train de créer un monde falsifié avec des données mensongères qui entraîneront des décisions non-existentielles.

Francis Ros

« Le pic des données » : Ilya Sutskever sur l’avenir de l’IA

L’intelligence artificielle (IA) a connu un développement fulgurant au cours des dernières années. Mais selon Ilya Sutskever, cofondateur d’OpenAI, nous sommes à un tournant : il affirme que nous avons atteint le « pic de données » – le point à partir duquel il n’y a plus de nouvelles données disponibles en quantité suffisante pour continuer à améliorer les modèles existants. Mais qu’est-ce que cela signifie concrètement pour l’avenir de l’IA ? Et pourquoi cette affirmation est-elle si importante ?*

Que signifie « données de pointe » ?

« Peak Data » décrit l’état dans lequel les quantités de données de haute qualité disponibles dans le monde entier pour l’entraînement des modèles d’IA sont épuisées. Jusqu’à présent, le développement de l’IA s’est nourri d’une source de données quasi inépuisable : photos, textes, vidéos – tout a été analysé, catégorisé et utilisé. Mais Sutskever prévient que ce réservoir est sur le point de se tarir. Un exemple simple : imaginez que vous ayez un énorme livre de cuisine et que vous souhaitiez y apprendre sans cesse de nouvelles recettes. Vous finissez par connaître chaque plat – il n’y a plus rien qui puisse vous surprendre. C’est exactement ce qui se passe actuellement avec les modèles d’IA.

Pourquoi est-ce important ?

Les modèles d’IA tels que GPT ou DALL-E se basent sur des données dites « pré-entraînées », qui proviennent souvent de contenus disponibles publiquement. Sutskever fait valoir que ces sources de données seront bientôt épuisées. Cela pourrait avoir plusieurs conséquences :

  • Limites de la performance : en l’absence de nouvelles données, il est plus difficile d’améliorer la précision et l’efficacité des modèles.
  • Les défis éthiques : Les données qui restent pourraient être de plus en plus protégées ou faire l’objet de restrictions en matière de droits d’auteur.
  • Pression de l’innovation : les développeurs d’IA doivent trouver de nouvelles façons d’entraîner les modèles, par exemple en utilisant des données synthétiques ou des algorithmes plus efficaces.

Quel est le degré de réalisme des « données de pointe » ?

Les sceptiques pourraient objecter que le « peak data » est exagéré. Après tout, d’énormes quantités de données sont générées chaque jour – rien que par les médias sociaux, les plateformes de streaming et la communication numérique. Mais la qualité de ces données est cruciale : de nombreux contenus ne sont pas pertinents, sont redondants ou tout simplement inadaptés à la formation à l’IA.

Un exemple réel : les voitures à conduite automatique. Des entreprises comme Tesla ou Waymo ont besoin d’une quantité énorme de données sur le trafic routier pour optimiser leurs systèmes. Mais une fois que tous les scénarios imaginables – de la conduite sous la pluie aux travaux routiers – ont été enregistrés, les progrès stagnent. Sans nouvelles données pertinentes, le développement peut s’enliser.

Comment le secteur de l’IA pourrait-il réagir ?

Même si les propos de Sutskever semblent pessimistes au premier abord, il existe des solutions :

  • Données synthétiques : au lieu d’attendre des données réelles, les entreprises pourraient créer des ensembles de données artificielles. Ces données simulées pourraient couvrir des scénarios qui se produisent rarement dans le monde réel.
  • Des algorithmes plus efficaces : Au lieu de traiter des volumes de données toujours plus importants, les modèles d’IA pourraient être entraînés à mieux utiliser les données existantes – en quelque sorte « faire plus avec moins ».
  • De nouvelles sources de données : Des secteurs tels que la santé ou l’astronomie pourraient fournir des ensembles de données jusqu’ici inexploités, mais avec des directives éthiques plus strictes.

Parallèles historiques : Que pouvons-nous apprendre du passé ?

L’idée de « Peak Data » rappelle des concepts de « pic » similaires dans l’histoire. Pensons au « Peak Oil » – la crainte que les réserves de pétrole du monde s’épuisent un jour. Ici aussi, la prétendue pénurie a conduit à des innovations : Les énergies renouvelables, les voitures électriques et les technologies plus efficaces ont permis de réduire la dépendance au pétrole.

Pour le secteur de l’IA, « Peak Data » pourrait être un appel au réveil similaire afin d’adopter des approches plus durables et plus créatives.

La déclaration de Sutskever ne marque pas la fin de la révolution de l’IA, mais le début d’une nouvelle phase. « Peak Data » n’est pas un obstacle, mais un défi qui nous oblige à voir plus loin que le bout de notre nez. L’innovation a toujours été la réponse aux limites – et peut-être que dans quelques années, nous nous pencherons sur cette discussion et constaterons qu’elle a marqué le début d’une nouvelle ère passionnante.

Alors que nous sommes à court de données, l’ingéniosité humaine semble sans limite. Et c’est précisément ce qui pourrait être le moteur de la prochaine révolution dans le domaine de l’IA.

Sources :

The Verge : Ilya Sutskever über Peak Data
Reuters : KI mit Denkvermögen und die Unvorhersehbarkeit der Zukunft
OpenTools : Sutskevers Prognose zum Ende des Pre-Trainings

Alpha Avenue

—  0 commentaires  —

© Geopolintel 2009-2025 - site réalisé avec SPIP - l'actualité Geopolintel avec RSS Suivre la vie du site