L'article GitHub Copilot Gets Smarter With Context Engineering Techniques est paru sur BitcoinEthereumNews.com. Peter Zhang 12 jan. 2026 23:03 GitHub révèleL'article GitHub Copilot Gets Smarter With Context Engineering Techniques est paru sur BitcoinEthereumNews.com. Peter Zhang 12 jan. 2026 23:03 GitHub révèle

GitHub Copilot Devient Plus Intelligent Grâce aux Techniques d'Ingénierie de Contexte



Peter Zhang
12 jan 2026 23h03

GitHub révèle trois méthodes pratiques permettant aux développeurs d'améliorer les résultats de codage IA grâce à des instructions personnalisées, des prompts réutilisables et des agents spécialisés.

GitHub pousse les développeurs à aller au-delà du prompting basique avec un nouveau cadre qu'il appelle l'ingénierie de contexte—une approche systématique pour fournir aux assistants de codage IA les bonnes informations au bon moment. Le guide, publié le 12 janvier 2026, décrit trois techniques spécifiques pour obtenir de meilleurs résultats avec GitHub Copilot.

Le concept représente ce que le PDG de Braintrust, Ankur Goyal, décrit comme apporter "les bonnes informations (dans le bon format) au LLM." Il s'agit moins de formulation astucieuse que de livraison de données structurées.

Trois techniques qui fonctionnent réellement

Harald Kirschner, chef de produit principal chez Microsoft avec une expertise approfondie de VS Code et Copilot, a présenté l'approche lors de GitHub Universe l'automne dernier. Les trois méthodes :

Les instructions personnalisées permettent aux équipes de définir des conventions de codage, des normes de nommage et des styles de documentation que Copilot suit automatiquement. Celles-ci se trouvent dans les fichiers .github/copilot-instructions.md ou les paramètres VS Code. Pensez : comment les composants React doivent être structurés, comment les erreurs sont gérées dans les services Node, ou les règles de formatage de la documentation API.

Les prompts réutilisables transforment les tâches fréquentes en commandes standardisées. Stockés dans .github/prompts/*.prompts.md, ils peuvent être déclenchés via des commandes slash comme /create-react-form. Les équipes les utilisent pour les revues de code, la génération de tests et la structure de projet—même exécution à chaque fois.

Les agents personnalisés créent des personas IA spécialisés avec des responsabilités définies. Un agent de conception API examine les interfaces. Un agent de sécurité gère l'analyse statique. Un agent de documentation réécrit les commentaires. Chacun peut inclure ses propres outils, contraintes et modèles de comportement, avec une capacité de transfert entre agents pour les flux de travail complexes.

Pourquoi c'est important maintenant

L'ingénierie de contexte a gagné une traction significative dans l'industrie de l'IA au début de 2026, avec de multiples discussions axées sur l'entreprise émergeant la même semaine que le guide de GitHub. La discipline aborde une limitation fondamentale : les LLM fonctionnent nettement mieux lorsqu'ils reçoivent des informations de contexte structurées et pertinentes plutôt que des requêtes brutes.

La génération augmentée par récupération (RAG), les systèmes de mémoire et l'orchestration d'outils relèvent tous de cette catégorie. L'objectif n'est pas seulement un meilleur résultat de code—c'est de réduire les allers-retours de prompting qui tuent le flux des développeurs.

Pour les équipes utilisant déjà Copilot, l'avantage pratique est la cohérence entre les dépôts et une intégration plus rapide. Les nouveaux développeurs héritent de la configuration d'ingénierie de contexte plutôt que d'apprendre les connaissances tribales sur "comment prompter Copilot correctement".

La documentation de GitHub inclut des guides de configuration pour chaque technique, suggérant que l'entreprise considère l'ingénierie de contexte comme une compétence essentielle pour le développement assisté par l'IA à l'avenir.

Source de l'image : Shutterstock

Source : https://blockchain.news/news/github-copilot-context-engineering-techniques

Opportunité de marché
Logo de Sleepless AI
Cours Sleepless AI(AI)
$0.04029
$0.04029$0.04029
+1.79%
USD
Graphique du prix de Sleepless AI (AI) en temps réel
Clause de non-responsabilité : les articles republiés sur ce site proviennent de plateformes publiques et sont fournis à titre informatif uniquement. Ils ne reflètent pas nécessairement les opinions de MEXC. Tous les droits restent la propriété des auteurs d'origine. Si vous estimez qu'un contenu porte atteinte aux droits d'un tiers, veuillez contacter [email protected] pour demander sa suppression. MEXC ne garantit ni l'exactitude, ni l'exhaustivité, ni l'actualité des contenus, et décline toute responsabilité quant aux actions entreprises sur la base des informations fournies. Ces contenus ne constituent pas des conseils financiers, juridiques ou professionnels, et ne doivent pas être interprétés comme une recommandation ou une approbation de la part de MEXC.

Vous aimerez peut-être aussi

Vitalik dénonce la manipulation de l'algorithme X : Les stablecoins se dirigent-ils vers la catastrophe ?

Vitalik dénonce la manipulation de l'algorithme X : Les stablecoins se dirigent-ils vers la catastrophe ?

Vitalik Buterin remet en question la transparence des algorithmes utilisés par X, mais il identifie trois menaces graves pour les stablecoins décentralisés sur les marchés crypto aujourd'hui
Partager
LiveBitcoinNews2026/01/13 15:00
Sam Altman affirme que les préoccupations concernant son expansion de 850 milliards de dollars d'OpenAI sont valides

Sam Altman affirme que les préoccupations concernant son expansion de 850 milliards de dollars d'OpenAI sont valides

L'article Sam Altman affirme que les préoccupations concernant son expansion d'OpenAI à 850 milliards de dollars sont valides est apparu sur BitcoinEthereumNews.com. Sam Altman déclare que les gens ont raison de s'inquiéter de l'ampleur de la nouvelle expansion d'OpenAI, mais il ne recule pas. S'exprimant depuis un chantier de construction à Abilene, au Texas, où OpenAI construit son premier méga centre de données, le PDG a déclaré aux journalistes mardi que le déploiement d'infrastructures de 850 milliards de dollars est nécessaire. "Les gens sont inquiets. Je comprends tout à fait," a déclaré Sam. "Nous croissons plus rapidement que n'importe quelle entreprise dont j'ai entendu parler auparavant." Comme l'a rapporté Cryptopolitan, OpenAI s'est engagé à construire des centres de données alimentés par 17 gigawatts d'énergie, soit à peu près la même production que 17 centrales nucléaires ou neuf barrages Hoover. La charge électrique seule pourrait alimenter plus de 13 millions de foyers américains. Chaque site coûte environ 50 milliards de dollars, et au total, la construction représente presque la moitié des 2 billions de dollars d'infrastructures IA mondiales prévues par HSBC. Sam a expliqué que cette échelle n'est qu'une réponse à une énorme hausse de la demande. Au cours des 18 derniers mois, l'utilisation de ChatGPT a été multipliée par 10. Pour y faire face, Sam a déclaré qu'OpenAI a besoin d'un réseau entier de sites de supercalcul. "C'est ce qu'il faut pour fournir l'IA," a-t-il dit. "Contrairement aux versions antérieures d'internet, cela nécessite une infrastructure massive. Et ce n'est qu'une fraction de celle-ci." Les partenaires sécurisent le financement, l'énergie et le leadership pour répondre à la demande d'IA Le plus gros problème n'est pas l'argent ou les puces, selon Sam, mais l'énergie. "L'électricité est la contrainte," a-t-il déclaré. Il a dirigé une levée de fonds de 500 millions de dollars pour Helion Energy, une entreprise de fusion construisant un réacteur d'essai, et a également aidé à rendre publique la startup de fission Oklo via son propre SPAC. Tout le monde n'est pas convaincu. Les critiques disent que toute cette configuration sent la bulle. Les entreprises liées à OpenAI, comme Nvidia, Oracle, Microsoft et Broadcom, ont vu des billions de valeur ajoutée. Nvidia et Microsoft à eux seuls valent maintenant...
Partager
BitcoinEthereumNews2025/09/24 14:51
Les plateformes de paris décentralisées transforment les paris sportifs

Les plateformes de paris décentralisées transforment les paris sportifs

Les plateformes de paris décentralisées transforment les paris sportifs grâce à la transparence basée sur la blockchain, la sécurité et l'automatisation par contrats intelligents.
Partager
Blockchainreporter2026/01/13 16:12