Newsletter Media & Entertainment du lundi 24 novembre 2025 au vendredi 5 décembre 2025
Innovations AWS : IA générative, performance Cloud et automatisation intelligente
#Media
#ApplicationIntegration
#CloudOps
#Compute
#K8s
#DB
#DevOps
#DeveloperTools
#GenAI
#ML
#Network
#Security
#Serverless
#Storage
Les dernières avancées AWS couvrent l'ensemble du spectre technologique, du streaming sportif optimisé par l'IA aux processeurs Graviton5 offrant 25% de performances supplémentaires, en passant par les agents autonomes qui automatisent la résolution d'incidents et le développement, les innovations en bases de données réduisant les coûts jusqu'à 86%, et les nouvelles capacités serverless, de stockage et de sécurité qui simplifient les architectures tout en renforçant la résilience et l'efficacité opérationnelle.
Media, Sport and Video
LOGIC et Skyline déploient DataMiner en cloud natif sur AWS
LOGIC media solutions et Skyline Communications s'associent pour offrir DataMiner en tant que service managé sur AWS, combinant leurs expertises respectives pour une solution Cloud native destinée aux professionnels des médias.
Media, Sport and Video
AWS Elemental MediaTailor prend désormais en charge les interstitiels HLS pour les streams en direct
AWS Elemental MediaTailor prend désormais en charge les HLS Interstitials pour les streams en direct, permettant aux diffuseurs d'insérer des publicités personnalisées de manière transparente dans leurs contenus live grâce à la spécification RFC 8216, avec des transitions précises image par image et une compatibilité native avec les lecteurs vidéo modernes.
Media, Sport and Video
Du canapé à la ligne de touche : les Prime Insights d'Amazon alimentés par l'IA plongent les fans au cœur du jeu
Amazon utilise des modèles d'IA personnalisés pour fournir des analyses en temps réel et des statistiques expertes aux téléspectateurs de Thursday Night Football, NASCAR et NBA via Prime Insights.
Media, Sport and Video
Disney+ Hotstar a atteint 53 millions de spectateurs simultanés pour la CWC 2023 avec AWS | Amazon Web Services
Disney+ Hotstar et AWS expliquent comment ils ont géré 53 millions de spectateurs simultanés lors de la Coupe du Monde de Cricket 2023, établissant de nouveaux records de streaming tout en garantissant une diffusion fiable et de haute qualité pour des millions de fans en Inde.
Media, Sport and Video
AWS Unified Operations alimente le streaming sportif mondial de Prime Video | Amazon Web Services
AWS Unified Operations for Media permet à Prime Video de diffuser des événements sportifs en direct à des millions de spectateurs simultanés dans le monde entier, avec des fonctionnalités innovantes comme Prime Vision, le streaming à ultra-faible latence et la diffusion publicitaire précise à l'image.
Application Integration
Amazon API Gateway ajoute la prise en charge du proxy MCP
Amazon API Gateway prend désormais en charge le proxy Model Context Protocol (MCP), permettant de transformer vos API REST existantes en endpoints compatibles MCP pour les rendre accessibles aux agents IA et clients MCP, avec traduction de protocole, double authentification et recherche sémantique intelligente via l'intégration avec Amazon Bedrock AgentCore Gateway.
Cloud Operation
Le PDG d'Amazon Andy Jassy sur la construction de quelque chose de remarquable : La résilience est la clé
Andy Jassy, PDG d'Amazon, partage comment la résilience et la concentration sur les éléments contrôlables ont été essentielles au succès d'AWS, en privilégiant une vision à long terme plutôt que des résultats immédiats.
Compute
AWS re:Invent 2025 - Keynote avec Peter DeSantis et Dave Brown
Peter DeSantis et Dave Brown présentent les innovations technologiques d'AWS, de la conception des puces jusqu'aux services Cloud, avec notamment le lancement des instances Amazon EC2 M9g basées sur AWS Graviton5.
Compute
Annonce des nouvelles instances Amazon EC2 M9g propulsées par les processeurs AWS Graviton5 (Aperçu)
Les nouvelles instances Amazon EC2 M9g, propulsées par les processeurs AWS Graviton5, offrent jusqu'à 25% de meilleures performances de calcul et des améliorations significatives pour les bases de données, les applications web et les workloads de machine learning par rapport aux instances M8g basées sur Graviton4.
Container and Kubernetes
Optimisation des coûts d'Amazon EKS basée sur les données : Un guide pratique pour l'analyse des workloads
Ce guide pratique démontre comment réduire les coûts Amazon EKS de manière significative en éliminant trois sources principales de gaspillage de ressources : les pods surdimensionnés qui réservent plus de ressources qu'ils n'en utilisent réellement, les workloads configurés avec des contraintes de résilience excessivement strictes qui empêchent la consolidation des nœuds, et les NodePools fragmentés qui créent des capacités isolées et sous-utilisées.
Database
AWS re:Invent 2025 - Utiliser des graphes sur votre data lake pour alimenter des applications Generative AI (DAT447)
Apprenez à exploiter les nouvelles capacités d'Amazon Neptune pour effectuer des analyses graphiques haute performance et des requêtes sur des data lakes, en combinant des algorithmes de graphes avec la recherche sémantique pour améliorer la précision et la fiabilité des réponses de vos applications Generative AI grâce aux graphes de connaissances.
Database
Annonce des Database Savings Plans avec jusqu'à 35 % d'économies
AWS lance Database Savings Plans, un modèle de tarification flexible offrant jusqu'à 35% d'économies sur les services de bases de données serverless et provisionnées en échange d'un engagement d'utilisation sur un an, avec application automatique sur différents moteurs, familles d'instances, régions et services incluant Aurora, RDS, DynamoDB, ElastiCache, DocumentDB, Neptune, Keyspaces, Timestream et DMS.
Database
Netflix consolide son infrastructure de base de données relationnelle sur Amazon Aurora, atteignant jusqu'à 75 % d'amélioration des performances
Netflix a migré son infrastructure de bases de données relationnelles vers Amazon Aurora PostgreSQL, obtenant jusqu'à 75% d'amélioration des performances et 28% de réduction des coûts tout en éliminant la complexité opérationnelle liée à la gestion de bases de données distribuées auto-hébergées sur Amazon EC2.
Database
Amazon Ads migre vers Amazon ElastiCache pour Valkey pour obtenir un débit supérieur de 12 % et réaliser plus de 45 % d'économies sur les coûts d'infrastructure
Amazon Ads a migré vers Amazon ElastiCache for Valkey en utilisant une architecture multi-cluster et une stratégie de migration sans interruption, permettant d'améliorer le débit de 12% tout en réduisant les coûts d'infrastructure de plus de 45% pour traiter des milliards d'impressions publicitaires par jour avec des latences p99 inférieures à 5ms.
Database
Réduire les coûts et la latence pour l'AI en utilisant Amazon ElastiCache comme cache sémantique avec Amazon Bedrock
Amazon ElastiCache for Valkey peut servir de cache sémantique pour les applications Generative AI basées sur Amazon Bedrock, réduisant les coûts d'inférence LLM jusqu'à 86% et la latence jusqu'à 88% en réutilisant les réponses pour des requêtes sémantiquement similaires grâce à la recherche vectorielle.
DevOps
Accélérez les résolutions d'incidents autonomes en utilisant le serveur MCP Datadog et l'agent AWS DevOps (en preview)
L'intégration entre Datadog MCP Server et AWS DevOps Agent (en préversion) permet aux ingénieurs de réduire le temps de résolution des incidents de plusieurs heures à quelques minutes en corrélant automatiquement les données de monitoring, logs et métriques à travers les services AWS et Datadog pour identifier les causes root et proposer des plans de mitigation.
DevOps
Présentation d'AWS DevOps Agent (Preview) | Amazon Web Services
AWS DevOps Agent (preview) est un agent intelligent qui résout et prévient de manière proactive les incidents en analysant vos ressources, en s'intégrant avec vos outils d'observabilité, repositories de code et pipelines CI/CD pour réduire le MTTR et améliorer l'excellence opérationnelle comme le ferait un ingénieur DevOps expérimenté.
Developer Tools
Votre guide de la piste Developer Tools à AWS re:Invent 2025
AWS re:Invent 2025's Developer Tools track offers developers over 75 sessions covering CI/CD pipelines, Infrastructure as Code, AI-powered coding agents, and full-stack development, plus hands-on experiences at the House of Kiro, AWS Village, Builders Loft, and interactive coding challenges like Kiro's Labyrinth and the Kiroween Hackathon.
Developer Tools
L'avenir d'AWS CodeCommit
AWS CodeCommit returns to full General Availability with new customer sign-ups reopened immediately, and upcoming features including Git LFS support in Q1 2026 and regional expansions starting Q3 2026, following customer feedback about its critical IAM integration, VPC endpoint support, and seamless AWS service connectivity.
Developer Tools
AWS re:Invent 2025 - Quoi de neuf dans le développement d'applications fullstack AWS (DVT204)
Cette session présente les dernières évolutions d'AWS Amplify pour permettre aux développeurs web de créer des applications sécurisées, fiables et scalables 10 fois plus rapidement grâce à des outils facilitant le démarrage, le déploiement et l'itération rapide.
Developer Tools
Le serveur AWS Knowledge MCP prend désormais en charge la recherche par sujet
AWS Knowledge MCP Server introduit une recherche par thème permettant aux agents IA et développeurs d'interroger des domaines spécifiques de documentation AWS (Troubleshooting, AWS Amplify, AWS CDK, CDK Constructs, AWS CloudFormation) pour obtenir des résultats plus précis et pertinents sans coût supplémentaire.
Developer Tools
AWS dévoile les agents frontier, une nouvelle classe d'agents IA qui fonctionnent comme une extension de votre équipe de développement logiciel
AWS lance Kiro, un agent autonome de nouvelle génération qui s'intègre aux outils de développement comme Jira, GitHub et Slack pour comprendre collectivement le code, les produits et les standards d'une équipe, s'améliorant continuellement grâce aux revues de code et décisions architecturales.
Generative AI
Claude Opus 4.5 désormais disponible dans Amazon Bedrock
Claude Opus 4.5, désormais disponible dans Amazon Bedrock, offre des performances supérieures pour le développement logiciel, les agents d'IA et les tâches d'entreprise complexes, avec des capacités avancées de tool search permettant aux agents de gérer des centaines d'outils tout en réduisant les coûts à un tiers par rapport aux offres précédentes de niveau Opus.
Generative AI
AWS re:Invent 2025 - Keynote avec le CEO Matt Garman
Le CEO d'AWS Matt Garman présente lors de la keynote AWS re:Invent 2025 les innovations majeures incluant les instances P6e-GB300, AWS Trainium 4, Amazon Nova 2.0, l'agent autonome Kiro, ainsi que de nombreuses améliorations pour EC2, Lambda, S3, RDS et les services de sécurité.
Generative AI
AWS re:Invent '25 re:Cap, partie 1
Enregistré depuis Las Vegas pendant AWS re:Invent 2025, cet épisode explore les annonces majeures de la conférence avec Mathieu Bonnet, notamment l'émergence d'Agent Core comme plateforme de référence pour les agents en production, les évolutions d'AWS Transform vers une approche agentique, les nouvelles capacités de Lambda incluant l'exécution sur EC2 et les fonctions durables, les modèles Amazon Nova 2 pour les conversations vocales, ainsi que les améliorations d'infrastructure comme AWS Interconnect Multicloud et les nouveaux serveurs MCP pour la génération automatique de politiques IAM.
Generative AI
Amazon Bedrock AgentCore Runtime prend désormais en charge le streaming bidirectionnel
Amazon Bedrock AgentCore Runtime prend désormais en charge le streaming bidirectionnel, permettant aux agents conversationnels de gérer les interruptions et les changements de contexte en temps réel pour créer des expériences vocales et textuelles plus naturelles, disponible dans neuf régions AWS sans coûts initiaux ni frais d'inactivité.
Generative AI
Amazon Bedrock AgentCore inclut désormais Policy, Evaluations (préversion) et plus encore
Amazon Bedrock AgentCore introduit Policy et Evaluations (preview) pour permettre aux équipes de déployer des agents à grande échelle avec des contrôles en temps réel via des politiques en langage naturel converties en Cedar, des évaluations continues de performance avec 13 évaluateurs intégrés, ainsi que des améliorations à AgentCore Memory (mémoire épisodique), AgentCore Runtime (streaming bidirectionnel) et AgentCore Identity (custom claims multi-tenant).
Generative AI
AWS re:Invent 2025 - Les agents IA réduisent les coûts de contenu du PGA TOUR tout en améliorant la couverture et la qualité -SPF204
Le PGA TOUR a transformé sa production de contenu grâce à un système multi-agents d'IA qui génère des articles complets en quelques minutes pour seulement 25 cents par article au lieu de milliers de dollars, tout en atteignant un nombre record de visites grâce à une publication quasi-instantanée après la fin des matchs.
Generative AI
Au-delà de la technologie : Les changements de main-d'œuvre pour l'IA
Les organisations qui intègrent l'IA doivent simultanément éliminer leur dette organisationnelle, adopter une prise de décision distribuée inspirée du modèle « octopus organization », et redéfinir les rôles managériaux pour transformer leurs équipes en résolveurs de problèmes plutôt qu'en exécutants de tâches routinières.
Generative AI
Annonce d'Amazon Nova 2 Sonic pour l'IA conversationnelle en temps réel
Amazon Nova 2 Sonic est un modèle speech-to-speech disponible dans Amazon Bedrock qui permet de créer des applications d'IA conversationnelle en temps réel avec une compréhension vocale robuste, des voix polyglottes natives dans plusieurs langues incluant le portugais et l'hindi, une fenêtre de contexte d'un million de tokens, et une intégration directe avec Amazon Connect et les principaux fournisseurs de téléphonie.
Generative AI
La nouvelle unité de livraison logicielle : le Workflow
Agentic AI shifts software architecture from application-centric to workflow-centric delivery, enabling IT departments and business users to automate end-to-end business processes as independent, testable units that align technical solutions directly with business value.
Generative AI
Amazon Bedrock introduit le tier Reserved Service
Amazon Bedrock lance un niveau de service Reserved qui permet de réserver une capacité de calcul garantie en tokens par minute avec des allocations flexibles pour les entrées et sorties, ciblant 99,5% de disponibilité et s'adaptant aux patterns d'utilisation asymétriques des workloads critiques.
Generative AI
Comment Condé Nast a accéléré le traitement des contrats et l'analyse des droits avec Amazon Bedrock
Condé Nast a transformé son processus de gestion des droits et d'analyse des contrats en réduisant le temps de traitement de plusieurs semaines à quelques heures grâce à une solution automatisée basée sur Amazon Bedrock et Anthropic's Claude, permettant l'extraction de métadonnées, la comparaison de templates et la détection de variations subtiles dans les contrats tout en maintenant une supervision humaine pour les cas complexes.
Generative AI
Récupération multimodale pour Bedrock Knowledge Bases désormais généralement disponible
AWS rend disponible la recherche multimodale dans Bedrock Knowledge Bases, permettant aux développeurs de créer des applications Generative AI qui recherchent et analysent simultanément du texte, des images, de l'audio et des vidéos à travers un workflow unifié et entièrement géré.
Machine Learning
Warner Bros. Discovery réalise 60 % d'économies de coûts et une inférence ML plus rapide avec AWS Graviton
Warner Bros. Discovery a réduit ses coûts d'inférence ML de 60% et amélioré la latence de 7% à 60% en migrant ses systèmes de recommandation vers des instances AWS Graviton sur Amazon SageMaker AI, servant ainsi plus de 125 millions d'utilisateurs à travers 100+ pays avec des recommandations de contenu personnalisées en temps réel.
Machine Learning
Amazon Bedrock ajoute le fine-tuning par renforcement, simplifiant la façon dont les développeurs construisent des modèles d'IA plus intelligents et plus précis
Amazon Bedrock introduit le reinforcement fine-tuning, une nouvelle capacité de personnalisation de modèles qui permet aux développeurs de créer des modèles d'IA plus précis et rentables en utilisant des retours d'information plutôt que de vastes ensembles de données étiquetées, offrant en moyenne 66% d'amélioration de la précision par rapport aux modèles de base tout en automatisant les workflows complexes et en maintenant les données dans un environnement AWS sécurisé.
Machine Learning
Nouvelle capacité serverless de personnalisation de modèles dans Amazon SageMaker AI
Amazon SageMaker AI introduit une nouvelle capacité de personnalisation de modèles serverless qui permet aux développeurs IA de personnaliser rapidement des modèles populaires comme Amazon Nova, Llama et DeepSeek avec leurs propres données, en utilisant le fine-tuning supervisé et l'apprentissage par renforcement, le tout via une interface simplifiée et entièrement serverless.
Machine Learning
Accédez directement à la scène de film que vous décrivez avec le lancement de la nouvelle fonctionnalité Alexa+ de Fire TV
La nouvelle fonctionnalité Alexa+ de Fire TV permet de trouver instantanément des films et séries en utilisant des descriptions conversationnelles naturelles, avec des recommandations personnalisées provenant de multiples services de streaming comme Prime Video, Netflix et HBO Max.
Machine Learning
Amazon Bedrock prend désormais en charge l'API Responses d'OpenAI
Amazon Bedrock prend désormais en charge l'API Responses d'OpenAI sur de nouveaux endpoints compatibles, permettant l'inférence asynchrone pour les workloads longue durée, la gestion automatique des conversations avec contexte, et le support de l'effort de raisonnement via Project Mantle, un nouveau moteur d'inférence distribué serverless.
Machine Learning
Déployez des modèles GPT-OSS avec Amazon Bedrock Custom Model Import
Amazon Bedrock Custom Model Import permet désormais de déployer les modèles GPT-OSS d'OpenAI (20 milliards et 120 milliards de paramètres) tout en préservant la compatibilité complète avec l'API OpenAI Chat Completions, offrant aux organisations la possibilité de migrer leurs applications existantes vers AWS avec une sécurité de niveau entreprise, un scaling automatique et un contrôle des coûts.
Machine Learning
Amazon OpenSearch Service ajoute des index vectoriels accélérés par GPU et auto-optimisés
Amazon OpenSearch Service introduit des index vectoriels accélérés par GPU et auto-optimisés, permettant de construire des bases de données vectorielles à l'échelle du milliard en moins d'une heure avec une réduction des coûts d'indexation de 75% et une optimisation automatique des compromis entre qualité de recherche, vitesse et coût.
Network
Comment AWS améliore la connectivité mondiale grâce à l'ingénierie du trafic automatisée
AWS a développé un système automatisé d'ingénierie du trafic entrant qui traite plus de 150 Exabytes de données annuelles, réduisant de 90% le temps de mitigation des incidents de connectivité grâce à des contrôleurs SDN qui équilibrent dynamiquement le trafic à travers plus de cinq mille réseaux pairs mondiaux, éliminant ainsi le besoin pour les utilisateurs de gérer eux-mêmes l'orchestration réseau complexe.
Network
AWS annonce la préversion d'AWS Interconnect - multicloud
AWS Interconnect - multicloud permet aux clients d'établir rapidement des connexions réseau privées, sécurisées et à haut débit avec bande passante dédiée entre leurs Amazon VPC et d'autres environnements Cloud comme Google Cloud et Microsoft Azure, simplifiant ainsi la gestion des architectures multicloud sans les complexités des approches traditionnelles.
Network
Présentation d'Amazon Route 53 Global Resolver pour la résolution DNS anycast sécurisée (préversion)
Amazon Route 53 Global Resolver offre une résolution DNS anycast sécurisée pour les clients autorisés avec résolution DNS split, protection contre l'exfiltration de données via des règles DNS Firewall, et haute disponibilité grâce au basculement automatique entre régions.
Network
Présentation d'AWS Network Firewall Proxy en préversion
AWS Network Firewall Proxy, désormais disponible en prévisualisation publique, permet aux organisations de contrôler centralement le trafic web sortant, de se protéger contre l'exfiltration de données et l'usurpation de domaine grâce à des contrôles d'accès granulaires, l'inspection TLS et des logs complets pour le monitoring.
Network
Snap Inc. utilise Amazon CloudFront Origin Shield pour améliorer la latence de téléchargement et de chargement
Snap Inc. a réduit la latence de téléchargement jusqu'à 30% et amélioré les performances de téléversement de 15% en activant Amazon CloudFront Origin Shield, une couche de mise en cache supplémentaire qui consolide les requêtes multiples, réutilise les connexions TCP persistantes et optimise la distribution de contenu pour les utilisateurs éloignés de l'origine Amazon S3 sans nécessiter de modifications architecturales ou de code.
Security
Amazon CloudFront annonce la prise en charge de l'authentification TLS mutuelle
Amazon CloudFront prend désormais en charge l'authentification mutuelle TLS (mTLS), permettant aux clients de valider l'identité des clients à l'aide de certificats X.509 directement aux emplacements périphériques, éliminant ainsi le besoin de solutions personnalisées de gestion des accès tout en bénéficiant des performances et de l'échelle de CloudFront pour les cas d'usage tels que les API B2B sécurisées et l'authentification des appareils IoT.
Security
AWS Security Agent (Preview) : agent IA pour la sécurité proactive des applications
AWS Security Agent est un agent IA en préversion qui automatise les revues de sécurité et les tests de pénétration tout au long du cycle de développement, validant en continu les exigences organisationnelles définies depuis la conception jusqu'au déploiement pour prévenir les vulnérabilités de manière proactive.
Serverless
AWS Lambda annonce les fonctions durables pour les applications multi-étapes et les workflows d'IA
AWS Lambda introduit les fonctions durables qui permettent aux développeurs de créer des applications multi-étapes et des workflows d'IA fiables en gérant automatiquement les points de contrôle, en suspendant l'exécution jusqu'à un an et en récupérant après des défaillances, sans infrastructure supplémentaire ni code personnalisé de gestion d'état.
Serverless
Amazon EMR Serverless élimine le provisionnement du stockage local pour les workloads Apache Spark
Amazon EMR Serverless introduit un stockage serverless géré qui élimine le provisionnement de disques locaux pour les workloads Apache Spark, réduisant les coûts de traitement des données jusqu'à 20% tout en prévenant les échecs dus aux contraintes de capacité disque.
Storage
Amazon S3 Tables prend désormais en charge la réplication automatique des tables Apache Iceberg
Amazon S3 Tables permet désormais la réplication automatique des tables Apache Iceberg entre régions et comptes AWS, incluant snapshots et métadonnées, pour réduire la latence des requêtes et améliorer l'accessibilité des données pour les workloads d'analytique globaux.
Storage
Amazon S3 Tables propose désormais la classe de stockage Intelligent-Tiering
Amazon S3 Tables introduit la classe de stockage Intelligent-Tiering qui optimise automatiquement les coûts en fonction des modèles d'accès aux données, permettant des économies allant jusqu'à 80% grâce à des transitions automatiques entre trois niveaux d'accès sans impact sur les performances.
Storage
Amazon S3 Vectors est désormais disponible de manière générale avec une échelle 40 fois supérieure à la preview
Amazon S3 Vectors est désormais disponible de manière générale avec une capacité de stockage et d'interrogation allant jusqu'à deux milliards de vecteurs par index, offrant une réduction des coûts jusqu'à 90% pour les applications d'IA incluant RAG et la recherche sémantique, avec des latences inférieures à 100 millisecondes et une intégration native avec Amazon Bedrock Knowledge Bases.
Votre avis compte ! Partagez vos retours sur notre newsletter AWS en quelques clics :
Accéder au questionnaire de satisfaction