L’IA fait ce qu’on lui dit. C’est sa force et sa limite.

Elle comble l’ecart technique – entre l’instruction et l’execution – elle optimise, accelere, fiabilise. Mais l’ecart politique – savoir quand une regle est absurde, quand il faut la contourner – elle ne le voit pas.

Elle ne triche pas. Elle ne peut pas tricher. Et on ne peut pas le lui apprendre, parce que tricher n’est pas une regle qu’on encode. C’est un jugement sur les regles.

Un agent IA gere des demandes clients. Il suit la procedure. Un cas limite arrive, le genre ou un humain dirait “techniquement non, mais la on fait une exception.” L’IA ne fait pas l’exception. Il lui manque l’instinct, la memoire de cas similaires, l’intuition que “si on perd celui-la, on en perd dix.”

On pourrait penser qu’il suffit d’encoder les exceptions. Mais c’est une regression infinie. La realite est inepuisable. Et transformer une exception en regle tue l’exception – le jugement situe disparait dans la procedure.

Alors qui va tricher ?

Si l’IA ne peut pas, quelqu’un doit le faire a sa place. Ce quelqu’un n’est plus le collectif de travail. C’est celui qui configure. Celui qui prompte. La triche ne disparait pas. Elle remonte vers ceux qui parlent a la machine.

Avant, la deliberation sur les regles du metier appartenait a ceux qui faisaient le travail. L’equipe decidait de ce qui etait acceptable. Elle negociait l’ecart entre le prescrit et le reel.

Maintenant, cette deliberation appartient a ceux qui concoivent l’agent. Les choix sont faits en amont, encodes, invisibles. Le collectif de travail n’a plus prise sur les normes de son propre travail.

Il ne decide plus. Il utilise.