Quand la langue s'est remise à compter : pourquoi les littéraires sont les nouveaux atouts de l'IA

#ia
#conseils

Et si la compétence la plus stratégique des développeurs à l’ère de l’IA n’était plus le code, mais la maîtrise du langage, de l’écriture et de la problématisation ?

(Le jeu de mot de ce titre était gratuit, profitez-en.)

Littéraires de tous les pays, unissez vous

Si je devais entrer dans 2026 avec un seul bilan, ça serait sans aucune hésitation celui d’à quel point l’IA a changé mon travail en 2025 et comment j’ai vu le métier de développeur et son écosysteme muter profondément, et incroyablement rapidement.

Je crois que tout cela n’est pas que mon sentiment : la réflexion que je vous propose ici est tirée de mon expérience de ces derniers mois et de mon ressenti, mais elle s’appuie surtout sur les nombreuses études que j’ai potassées pour comprendre qu’est-ce qu’il était en train de se passer (j’en profite au passage pour remercier la recherche universitaire, big up les anciens collègues, grâce à vous on peut prendre du recul et comprendre).

2025 : un point d’inflexion réel pour les dev

Les chiffres parlent d’eux-mêmes : en 2025, l’usage d’assistants IA est devenu quasi systématique dans les workflows de développement. Pour moi, on est passé du gadget (le moment “wow c’est trop cool”) à l’outil (le moment “c’est tellement utile qu’on ne sert plus à rien”) et de l’outil au système (le moment où ça redéfinit nos structures). Des rapports comme le HackerRank Developer Skills Report montrent que l’IA n’est plus un outil expérimental mais une infrastructure cognitive du travail logiciel.

"Contemporary human-AI interaction research overlooks how AI systems fundamentally reshape human cognition pre-consciously, a critical blind spot for understanding distributed cognition. […] to reconceptualize AI as "cognitive infrastructures": foundational, often invisible systems conditioning what is knowable and actionable in digital societies".

— Giuseppe Riva, Invisible Architectures of Thought: Toward a New Science of AI as Cognitive Infrastructure, 27/08/2025.

Alors l’IA n’a pas remplacé nôtre travail, mais elle en a profondément changé la nature. Le travail quotidien s’est déplacé et je pense que ça, on l’a tous souligné/remarqué : bye, bye les dev “boites postales” qui exécutent mécaniquement des tickets, bonjour les compétences de “challenger le produit”, “architecturer”, etc, etc.

On passe maintenant moins de temps à coder qu’à expliquer ce qu’on veut, à interpréter ce que l’IA produit, à détecter ses erreurs. Coder ? Oui. Mais surtout formuler, écrire, guider, corriger. En un mot : du langage. Et pas celui des ordinateurs. Le notre. Enfin, on a l’impression….

L’IA est un outil de langage, et la langue compte

Moi je suis une (ancienne) littéraire : j’ai fait du latin et du grec, puis de la philologie classique, puis des études de sciences humaines, puis j’ai appris l’arabe, le coréen... Bref, j’aime bien apprendre les langues. Mais ce qui me plait dans le fait d’apprendre des langues, ce n’est pas vraiment de pouvoir commander une bière à Séoul : c’est de comprendre le sens des mots, de comprendre comment interpréter une phrase, de savoir quels étaient les choix que j’avais pour pouvoir décrire telle situation…. J’adore lire, et j’adore écrire (quelque chose que vous savez bien si vous êtes sur ce blog ;). J’ai aussi enseigné à l’Université dans ces matières, et, franchement, durant mon parcours, je ne me suis pas du tout sentie encouragée dans l’acquisition de ces compétences.

Je me souviens de mon prof de math (bonjour Monsieur Quinodoz si vous passez par là) qui disait “A quoi ça sert de savoir quand écrire “tous” ou “tout”, demain on aura tous des correcteurs orthographiques”. Ou de proches qui pensaient bien trop fort que “Problématiser ? Mais problématiser quoi ? A quoi ça va te servir de problématiser, quand tu vas devoir chercher un travail ?” “Super de savoir lire un texte en latin, ça va vachement te servir pour gagner ta vie, tu veux pas faire option économie plutôt ?” (coucou, maman).

Asseyez-vous confortablement, ça va être marrant.

Le grand Switch : quand "savoir écrire" s’est remis à compter

Car on a un problème majeur quand il s'agit d'utiliser l'IA et toute personne qui a déjà prompté le sait : les réponses des IA ne sont pas toujours... comment dire... fiables ? Et les dev le savent bien : dans le Stack Overflow Developer Survey 2025, 84 % des développeurs disent utiliser des outils IA mais près de la moitié reconnaît ne pas totalement faire confiance aux résultats, notamment à cause de bugs, de code impropre ou d’erreurs contextuelles dues à des problème de compréhension de leur prompt par l’IA.

Effectivement, quand on parle d’IA aujourd’hui, on parle de modèles de langage. Et les modèles de langage ne « comprennent » pas le monde : ils manipulent des structures linguistiques que nous avons nous-mêmes créées.

Cela a une conséquence directe et qui est aujourd’hui bien mesurée par la recherche scientifique : la qualité du langage utilisé avec l’IA influence la qualité des réponses générées.

Une étude universitaire récente sur l’évaluation des réponses de LLM le formule clairement :

“LLM performance is highly sensitive to prompt clarity, structure, and linguistic precision; poorly formulated prompts systematically lead to lower factual accuracy.”

— Cao, Cai & al., On the Worst Prompt Performance of Large Language Models, 30/10/2024.

Vous l’avez sûrement deja expérimenté et vous avez même peut-être lu et potassé les guides des bon “prompt engineer” : demander à Claude de “fix ce bug” ça ne vous aidera pas beaucoup. Bien écrire un prompt est devenu une compétence majeure de nos activités aujourd’hui, et cela peu importe la quantité d’IA qu’on utilise dans notre travail.

Autrement dit : un prompt flou, mal structuré ou linguistiquement pauvre produit des réponses moins fiables. Et je ne parle pas de dire “bonjour” ou “merci”. Ce n’est pas une question de politesse ou de style, mais de capacité à formuler une intention précise, à poser un problème clairement et à l’écrire correctement.

En résumé, la langue n’est pas qu’une interface avec l’IA : c’est devenu une compétence métier pour les dev qui doivent structurer des requêtes textuelles cohérentes et efficaces.

Et ce n’est même pas qu’une question de problématisation ou de structuration de la pensée : c’est aussi une question d’orthographe et de précision. Faire des fautes d’orthographe ou des typos réduirait la fiabilité des réponses générées par IA en moyenne de 9%.

Le + de Dre Drey

Ca veut dire que pour avoir des bons résultats avec des IA, il faut un skill set particulier que les littéraires ont passé des années à perfectionner:

a) Structurer une problématique

  • Les LLMs ne savent pas comprendre ou raisonner comme un humain : ils répondent à partir de patterns de langage appris. Cela exige des développeurs de formuler précisément le problème à résoudre — une habileté que les formations littéraires et humaines enseignent (analyse, clarté, structuration logique).

Franchement, je pense que le commentaire que j’ai le plus écrit sur les devoirs d’étudiants dans ma vie ça a été “Précisez votre problématique”. Car, bonne nouvelle, ça s’apprend.

b) Penser en termes de contexte

c) Analyse critique

  • Comme l’IA peut se tromper ou halluciner, le développeur doit vérifier et mettre en perspective les sorties générées, une compétence qui relève plus de l’esprit critique et de la lecture analytique que du calcul pur. Ça demande de connaitre son corpus de base pour savoir qu’est-ce qui existe, ou l’IA a pu se documenter, sur quels points elle pourrait se tromper.

C’est aussi pour ça que l’IA ne remplacera jamais les dev.

d) La précision sémantique

Connaitre le sens des mots. Ne pas se méprendre sur ce qu’ils englobent sémantiquement, symboliquement, dans leurs usages et leurs contextes, pour pouvoir utiliser les bons mots : ceux qui correspondent aux sens partagés entre l’IA et moi.

Ce n'est pas pinailler. Revenons à "tous" et "tout" : la plupart des correcteurs orthographiques savent les corriger. La plupart des humains comprennent ce que vous vouliez dire, et à l'oral ? Aucune différence. Mais pour un modèle de langage, ces mots ne sont pas interchangeables.

"Tous” et “tout” n’encodent pas la même structure. Le modèle ne « devine » pas votre intention : il suit le signal linguistique que vous lui avez donné.

Autrement dit, une erreur qui semble mineure pour un lecteur humain peut modifier le cadre sémantique du problème pour une IA et réduire la précision de la réponse générée.

Donc oui : l’orthographe compte.

e) Et faire tout ça rapidement et le plus succinctement possible

On pourrait se dire que si on n’a pas ces compétences ce n’est pas très grave, car avec l’IA, on peut itérer. Ok, on n’a pas bien posé le problème au départ, pas grave : on affine.

Sauf que de récentes études sur la fiabilité et la précision des IA montrent que les réponses se dégradent au fil des itérations dans une même conversation :

Un papier présenté à ACL 2025 parle d’un effet “téléphone" :

“When language models repeatedly generate content based on their own outputs, information progressively drifts away from the original intent and factual grounding.”

— Maria Paz Olivia et al., The Illusion of a Perfect Metric: Why Evaluating AI’s Words Is Harder than it looks, 08/09/2025)

Plus on enchaîne les reformulations sans cadre clair, plus la réponse peut devenir incohérente ou factuellement fragile. Une autre étude de l'ICML (l'International Conference on Machine Learning) montre même que l’itération naïve peut réduire la véracité des réponses au lieu de l’améliorer (ICML'24: Proceedings of the 41st International Conference on Machine Learning).

Là encore, le rôle humain est central : savoir re-poser le problème, réinjecter du contexte, restructurer la demande. Trouver quelle a été la faille, l’imprécision dans la demande. Interroger son prompt et pas la réponse. Recommencer si on voit que ça par en vrille.

Pas calculer.

Écrire.

Et surtout le faire bien, dès le premier prompt.

Les dev comme analystes du langage

Ce que l’IA valorise aujourd’hui chez les dev, ce sont donc des compétences longtemps considérées comme « non techniques », pire, carrément littéraires : formuler pas écrit une problématique claire, structurer une demande complexe, analyser un texte généré de façon critique, détecter les incohérences ou les glissements de sens, comprendre l’usage des mots, soigner son orthographe…

Et, point bonus : dans la bonne langue, puisque l'efficacité d'un modèle IA dépend aussi de la langue utilisée et de la richesse de son corpus d’entraînement. La compétence linguistique dans le prompt affecte directement la qualité et la précision du code généré.

Alors oui, on a tous déjà entendu qu’un bon dev, c’est pas celui qui sait coder, c’est celui qui sait résoudre des problèmes, poser des questions, blabla. Que maitriser l'abstraction, c'était ça la clé. Sauf qu'aujourd’hui, vraiment, je trouve que c’est non seulement extrêmement tangible, ultra concret, mais surtout ultra nécessaire et ce dès le DÉBUT de sa pratique pro. Car ça s’est infiltré dans le quotidien de TOUS les dev : pas uniquement les seniors à qui on demandait déjà d’avoir des compétences plus globales et pas uniquement techniques. Ces compétences sont devenues nécessaires dès le début, car aujourd’hui toute notre échelle de productivité et de vitesse de production est calquée sur ce qu’on peut produire avec l’IA, même en tant que junior : si on galère, on perd des heures, voire des jours, et ça se voit tout de suite.

Toute ces compétences s’acquierent en lisant, en écrivant, en argumentant et en se formant (car je le redis : ça s’apprend). Bref, dans un rapport profond au langage et qui ne vient ni de manière innée ni forcément avec la séniorité : une étude publiée en 2025 a montré que des développeurs expérimentés ont parfois été moins productifs avec des outils IA, notamment parce qu’ils passaient beaucoup de temps à reformuler des prompts ou à corriger les sorties.

Ce que ça change concrètement pour les dev

Moi je vois quelques champs dans lesquels ça pourrait, voire ça devrait, avoir un impact.

Formation : moins d’algorithmes, plus de problématisation

Cela ne signifie pas que les compétences techniques disparaissent. Mais elles ne suffisent plus. Savoir expliquer un besoin, découper un problème, expliciter des contraintes, analyser une réponse générée sont devenues des compétences nécessaires dès le jour 1. Et ce sont exactement les compétences que j’enseignais à l’université en littérature et en sciences humaines. Des compétences du coup que mes élèves sont censée avoir appris dans ces cours (j’espère que j’étais quand meme pas une si mauvaise prof).

En 2025, apprendre à coder sans apprendre à penser et à écrire clairement, c’est former des dev incomplets.

Recrutement : de nouveaux signaux à observer

Côté recrutement, cela pose une vraie question : qu’évalue-t-on et comment ?

Je pense que c’est un sujet en soi, et je n’ai pas assez de compétences en recrutement et de connaissances du marché actuel pour saisir vraiment les enjeux et surtout ce qui est possible/souhaitable. Je ne me lance pas dans le sujet des tests algorithmiques, des livecoding, et autres délires que j’ai découvert en faisant ma reconversion, sinon on est encore la demain, mais je pense qu’il y a une grande reconfiguration à opérer dans le recrutement des dev et que l’IA va peut-être y participer.

Hiérarchie des rôles et des compétences

On peut être un excellent dev mais ne pas savoir prompter. Ou l’inverse. Bref, je trouve que le set des compétences (la boite à outils comme disait mon directeur de thèse) du dev devient très grosse et ça me questionne sur ce qu’est aujourd’hui un “dev senior”, ou “expérimenté”.

On avait déjà bien requestionné les équilibres de compétences et l’hybridation des profils avec la vague de reconversion post covid, mais je trouve que là, on passe encore une étape supplémentaire dans la reconfiguration des compétences nécessaire au “bon dev”.

Et ça, ça pose une autre question (mais que je traiterai dans un autre article) : est-il possible de maitriser tout ce qu’on nous demande de savoir maitriser aujourd’hui ?

Attention, selon moi, toutes ces compétences ont pris énormément d’importance mais elles n’éclipsent pour autant pas les compétences techniques qui restent nécessaires, en tout cas à un certain niveau : impossible de formuler quelque chose correctement si on ne connait pas ses bases.

Selon moi, le développeur n’a pas cessé d’être technique. Mais il est devenu, qu’il le veuille ou non, un professionnel de son propre langage, avant celui des machines.

Ps: Alors Monsieur Quinodoz, on essaye d’apprendre la différence entre “tous” et “tout” maintenant ?

📬 Rejoignez la newsletter

Recevez chaque semaine un condensé des dernières tendances, outils et ressources dev directement dans votre boîte mail.

Découvrir une édition de la newsletter en ligne.