AWS re:Invent 2025 : Amazon Nova 2, Trainium 3 et l'ère des agents frontière
Du 1er au 5 décembre 2025, Las Vegas a accueilli AWS re:Invent, la conférence annuelle d'Amazon Web Services. Cette édition marque un tournant : AWS positionne clairement l'IA agentique comme la prochaine révolution du cloud computing. Entre la nouvelle génération de puces Trainium, les modèles Amazon Nova 2 et des innovations majeures en bases de données, voici les annonces qui vont façonner l'écosystème cloud en 2026.
Les agents frontière : l'IA qui travaille en autonomie
Le message central de re:Invent 2025 tient en une phrase du CEO Matt Garman : "Les assistants IA cèdent la place aux agents IA capables d'exécuter des tâches et d'automatiser pour vous. C'est là que nous commençons à voir des retours business matériels de vos investissements IA."
AWS introduit le concept d'agents frontière (frontier agents) : des systèmes IA plus intuitifs, autonomes et puissants que les agents classiques. Swami Sivasubramanian, VP Agentic AI chez AWS, résume la vision : "Pour la première fois dans l'histoire, nous pouvons décrire ce que nous voulons accomplir en langage naturel, et les agents génèrent le plan. Ils écrivent le code, appellent les outils nécessaires et exécutent la solution complète."
Ces agents frontière peuvent désormais travailler de manière autonome pendant plusieurs jours, gérant des workflows complexes sans intervention humaine constante.
Amazon Nova 2 : la nouvelle génération de modèles

AWS étend significativement sa famille de modèles propriétaires avec le lancement d'Amazon Nova 2.
Nova 2 Lite
Modèle rapide et économique pour les tâches quotidiennes :
- Optimisé pour les chatbots de service client
- Fenêtre de contexte d'un million de tokens
- Focus sur le raisonnement pour les tâches courantes
Nova 2 Pro
Le modèle le plus intelligent d'AWS, disponible en preview :
- Conçu pour les tâches agentiques complexes multi-étapes
- Capacités de raisonnement vidéo
- Adapté aux migrations logicielles et workflows sophistiqués
Nova 2 Sonic
Nouveau modèle speech-to-speech pour l'IA conversationnelle :
- Conversations multilingues
- Contrôle dynamique de la parole
- Entrées crossmodales
- Intégration téléphonie améliorée
Nova 2 Omni (à venir)
Option multimodale excellant en raisonnement et génération d'images, ciblant les marketeurs et créatifs.
Nova Forge : l'entraînement ouvert
Innovation majeure, Nova Forge permet aux organisations de construire leurs propres modèles frontière propriétaires en mélangeant leurs données avec les données d'entraînement et checkpoints de Nova. Ce service adresse le problème du "catastrophic forgetting" - le risque que les modèles oublient leurs capacités fondamentales après un fine-tuning.
Nova Act : automatisation browser
Amazon Nova Act est désormais disponible en GA. Ce service aide les développeurs à construire des agents IA automatisant les tâches navigateur :
- Remplissage de formulaires
- Recherche et extraction de données
- Shopping et réservations
- Tests QA automatisés
- Fiabilité de plus de 90% pour les déploiements enterprise
Trainium 3 : le silicium AWS nouvelle génération

AWS lance les Trainium3 UltraServers, propulsés par la puce Trainium3 gravée en 3 nanomètres par TSMC.
Spécifications techniques
- 2.52 PFLOPs de calcul FP8 par puce
- 144 GB de mémoire HBM3e intégrée
- 4.9 TB/s de bande passante mémoire
- Jusqu'à 144 puces Trainium3 par système UltraServer
Performances
Par rapport aux Trainium2 UltraServers :
- 4.4x plus de performance de calcul
- 4x meilleure efficacité énergétique
- Réduction des coûts d'entraînement et d'inférence jusqu'à 50%
Des clients comme Anthropic, Decart (vidéo générative temps réel), Metagenomi et Ricoh utilisent déjà Trainium pour optimiser leurs workloads IA.
Trainium 4 en préparation
AWS a également teasé Trainium4, déjà en développement. Point notable : Trainium4 supportera la technologie d'interconnexion NVIDIA NVLink Fusion, permettant une intégration transparente avec les puces Nvidia dans des racks MGX communs. Une stratégie hybride qui reconnaît la domination de Nvidia tout en positionnant AWS comme alternative crédible.
AWS AI Factories : l'IA souveraine on-premise

Pour répondre aux exigences de souveraineté des données et de conformité réglementaire, AWS introduit les AI Factories : une infrastructure dédiée déployée dans les datacenters des clients.
Composition
- Racks combinant Trainium3 et/ou GPU Nvidia Blackwell/GB300/B300
- Réseau haute vitesse AWS
- Stack stockage et sécurité AWS
- Services Bedrock et SageMaker intégrés
Modèle opérationnel
L'infrastructure est entièrement managée par AWS, mais alimentée, hébergée et connectée par le client. Cette approche permet aux organisations de :
- Exploiter l'espace et l'alimentation de leurs datacenters existants
- Respecter les exigences de souveraineté des données
- Bénéficier des services AWS sans envoyer de données vers le cloud public
Amazon Bedrock : démocratisation de la personnalisation
Reinforcement Fine Tuning (RFT)
La nouvelle fonctionnalité de fine-tuning par renforcement simplifie drastiquement la personnalisation des modèles :
- 66% de gain de précision en moyenne par rapport aux modèles de base
- Salesforce rapporte jusqu'à 73% d'amélioration de précision
Bedrock AgentCore
Nouvelles capacités pour déployer des agents IA de confiance :
- Évaluations de qualité automatisées
- Contrôles de politiques renforcés
- Mémoire améliorée pour les agents
- Capacités de conversation naturelle
Écosystème de modèles étendu
Bedrock donne désormais accès aux modèles de Google, Kimi AI, MiniMax AI, Mistral AI, NVIDIA, OpenAI et Qwen, incluant les nouveaux Mistral Large 3 et Ministral 3.
Amazon SageMaker AI : personnalisation serverless
Customisation accélérée
SageMaker AI supporte maintenant la personnalisation serverless des modèles, réduisant les cycles d'expérimentation de plusieurs mois à quelques jours. Collinear AI rapporte un passage de semaines à jours pour leurs cycles d'expérimentation.
Support multi-modèles
La nouvelle fonctionnalité de customisation (en preview) permet de tweaker et fine-tuner :
- Amazon Nova
- Llama
- DeepSeek
- Modèles tiers
Le déploiement s'effectue en quelques étapes seulement.
Checkpointless Training
Sur Amazon SageMaker HyperPod, le checkpointless training permet de récupérer l'entraînement après des pannes en quelques minutes, même sur des milliers d'accélérateurs IA.
Aurora DSQL : SQL distribué serverless
Amazon lance Aurora DSQL, une nouvelle base de données SQL distribuée serverless :
- Scaling horizontal effectivement illimité
- Scaling indépendant des lectures, écritures, calcul et stockage
- Création de cluster en quelques minutes via un simple appel API
- Compatible PostgreSQL (drivers, outils, transactions ACID, requêtes SQL, index secondaires, joins)
Intégrations
- Disponible nativement sur Vercel Marketplace et v0
- Connexion en secondes depuis le dashboard Vercel
- La technologie sous-jacente améliore également les DynamoDB global tables avec l'option de consistance forte
Kiro : l'outil de développement IA d'Amazon
AWS officialise Kiro, son outil de coding IA qui compte désormais "des centaines de milliers de développeurs" actifs mondialement. Kiro est devenu l'outil de développement officiel pour les équipes internes d'Amazon.
L'agent autonome Kiro agit comme "un autre membre de votre équipe", apprenant des processus et pratiques de l'équipe pour s'améliorer continuellement. Pour attirer les startups, Amazon offre un an de crédits Kiro Pro+ gratuits aux startups éligibles.
Lambda Durable Functions
AWS annonce les Lambda durable functions, permettant de créer des fonctions Lambda qui :
- Préservent leur progression malgré les interruptions
- Peuvent suspendre leur exécution jusqu'à un an
- Bénéficient d'une gestion d'erreurs intégrée et récupération automatique
Cette fonctionnalité ouvre Lambda aux applications long-running multi-étapes et aux workflows IA nécessitant une exécution fiable sur de longues périodes.
S3 Tables et intégrations zero-ETL
AWS annonce des plans pour davantage d'intégrations zero-ETL depuis Aurora et Redshift, traitant S3 Tables et S3 Vectors comme des extensions de stockage de première classe.
L'intégration planifiée entre PostgreSQL (via l'extension PGVector) et S3 Vectors représente la première étape de cette stratégie.
IAM Policy Autopilot
Nouvel outil open source utilisant le Model Context Protocol (MCP), IAM Policy Autopilot analyse le code pour générer automatiquement des politiques IAM valides. Il fournit aux assistants de coding IA une connaissance à jour des services AWS et des recommandations de permissions fiables.
Ce qu'il faut retenir
AWS re:Invent 2025 confirme la transition vers l'IA agentique comme paradigme dominant. Les annonces clés :
- Agents frontière capables de travailler en autonomie pendant des jours
- Nova 2 avec des modèles spécialisés (Lite, Pro, Sonic, Omni) et Nova Forge pour l'entraînement personnalisé
- Trainium 3 avec des performances 4x supérieures et une stratégie hybride avec Nvidia
- AI Factories pour l'IA souveraine on-premise
- Aurora DSQL : SQL distribué serverless compatible PostgreSQL
- Lambda durable functions pour les workflows IA long-running
La stratégie AWS est claire : fournir l'infrastructure complète - du silicium aux modèles - pour l'ère des agents autonomes, tout en restant ouvert à l'écosystème (Nvidia, modèles tiers sur Bedrock). Pour les développeurs et architectes cloud, 2026 s'annonce comme l'année où l'IA agentique passera de la démonstration à la production.