Quand la lumière traverse ta montre de poche en cristal et que tu vois un arc-en-ciel danser sur le mur, c'est la physique. Chaque photon a rebondi des milliers de fois : d'abord dans le vide, en haut de l'atmosphère (certains absorbs). Puis à travers le cristal (réfraction). Puis renvoyés par la paroi. Puis dans ton œil.
Le ray tracing et le path tracing, ce sont deux façons de simuler cela en temps réel sur un écran. Et c'est un calcul monumental.
Avant 2016, aucun jeu vidéo ne pouvait le faire. Les GPU disponibles étaient trop faibles. Puis NVIDIA a introduit les cartes RTX (Turing 2018, puis Ada 2023) avec cores spécialisés. Puis AMD a suivi avec RDNA. Maintenant, en 2026, ray tracing est courant. Path tracing (version hardcore) émerge enfin.
Ray tracing : concepts physiques de base
L'idée simple
Imagine une scène 3D avec des objets, des lumières, des matériaux (bois, métal, verre). Pour chaque pixel de l'écran, tu lances un rayon virtuel depuis la caméra, à travers le pixel, dans la scène.
- Ce rayon frappe un objet (ex: un mur)
- Tu calculs si ce point est illuminé (regarde-t-il une lumière ?)
- Tu colories le pixel selon : la texture du mur + la lumière + la réflexion de la lumière
Ça s'appelle shading. Pendant longtemps (1990s-2010s), c'était suffisant pour les jeux.
Puis : les rebonds
Mais la vraie lumière rebondit. Un rayon qui frappe un miroir se réfléchit. Tu peux lancer un rayon de réflexion : depuis le point d'impact, regarde où la lumière vient se refléter. Continue jusqu'à une lumière.
Résultat : réflexions fidèles. Un miroir reflet un paysage. Un chrome reflet autre chose.
Ou : un rayon fragppe du verre. Il se réfracte (déviation angle). Un rayon de réfraction traverse le verre, puis frappe l'objets derrière. Résultat : réfractions fidèles. Le verre dévie la lumière réalistement.
Limites du ray tracing simple
- Performance : chaque rebond double le calcul. Avec 5 rebonds par pixel et 2 mégapixels : du calcul exponentiel
- Ombres molles : les vraies ombres sont floues (pénombre). Ray tracing classique les fait nettes. Faut lancer pleins de rayons pour moyenniser
- Lumière globale : comment l'interdiffusion des matériaux affecte la lumière ? Ray tracing classique l'ignore
Path tracing : la simulation complète
Concept
Le path tracing simule chaque rayon individuellement, du tout début à la source lumineus, en acceptant les rebonds aléatoires. Au lieu de dire « rayon réfléchi à 45 degrés précis », tu dis « rayon parti aléatoirement, mais pondéré par la loi physique du matériau ».
Pour chaque pixel, tu lances pas 1 rayon mais 100, 1000, 10000 rayons. Chaque chemin est stochastique : aléatoire mais physiquement juste. Tu moyennises tous les résultats. Résultat : image photorealistic.
Pourquoi c'est meilleur et pire
Meilleur : tout est fidèle — réflexions, réfractions, ombres molles, lumière indirecte, subsurface scattering (lumière entrant dans la peau). C'est exactement ce que ferait la caméra réelle.
Pire : énormément plus lent. Tu dois lancer 1000 rayons par pixel par frame. À 60 FPS, 4K (8 millions pixels) : trillions de calculs par seconde.
GPU et accélération matérielle
NVIDIA RTX : les RT Cores
Depuis la génération Turing (2018, GTX 2080), NVIDIA ajoute des RT Cores : circuits spécialisés qui accélèrent le calcul d'intersection rayon-triangle (l'opération la plus coûteuse).
Chaque RT Core peut tester si un rayon frappe un triangle 1000x plus vite que la CPU.
Générations RTX :
- Turing (2018, RTX 20-series) : premiers RT Cores, performance modérée
- Ampere (2020, RTX 30-series) : 2ème gen, meilleure performance, moins puissance
- Ada Lovelace (2023, RTX 40-series) : 3ème gen, dual-issue capability, BVH traversal amélioré
- Blackwell (2025, RTX 50-series) : architecture encore plus puissante
Comme data point : RTX 4090 + Cyberpunk 2077 + path tracing + DLSS 3 = 103 FPS à 4K (avec super-sampling pour réduire le nombre de rayons par pixel).
AMD RDNA 3
AMD a tardé à la partie. RDNA 2 avait ray tracing accéléré mais faible. RDNA 3 (RX 7900 XTX, 2023) améliore considérablement :
- Nouvelle gestion du BVH traversal stack (la structure qui accélère la recherche d'intersections)
- Dual-issue capability : deux opérations parallèles au lieu d'une
- Cache amélioré
- Prédiction de branch meilleure
Performance RDNA 3 en path tracing : environ 70-80% du RTX 4080 équivalent (moins 6-8 TFLOPs spécialisés, mais architecture plus cohérente).
Point de données : RX 9070 XT (2025, RDNA 4) en Cyberpunk 2077 path tracing = environ 50 FPS à 1440p Ultra avec FSR 4 (upscaling Intel).
CPU ray tracing (Intel)
Intel propose Xe-HPG GPUs (Arc A770, A750) mais leur ray tracing est faible par rapport à NVIDIA/AMD. Aucun core spécialisé. Architecture générale.
Dans la chaîne hiérarchique performance ray tracing :
- NVIDIA RTX (meilleur)
- AMD RDNA 3+
- Intel Arc (très loin derrière)
Implémentation dans les moteurs
Unreal Engine 5 : Lumen
Epic Games a intégré Lumen : un système de lumière globale temps réel basé sur... path tracing optimisé. Au lieu de faire du vrai path tracing pixel par pixel (trop cher), Lumen utilise une grille 3D voxelisée et illumine avec un path tracing léger + denoiseur NVIDIA NRD (Real-Time Denoiser).
Résultat : lumière globale en temps réel, sans baking, sans lightmaps. Les ombres changent en temps réel quand un objet bouge. Incroyable.
Jeux Lumen : The Nanite, démos internes. Aucun AAA majeur ne l'utilise encore en full, trop cher en GPU pour les consoles actuelles.
Cyberpunk 2077 : ray tracing vs path tracing
CP2077 originellement sortit avec ray tracing classique : réflexions fidèles sur les vitrines Night City. Beau mais pas révolutionnaire.
En 2024, CD Projekt Red a ajouté Ray Tracing Overdrive Mode : essentiellement path tracing complet pour tous les pixels. C'est presque du vrai path tracing mais optimisé : certaines lumières sont importancé-échantillonnées (Lumps biaisés vers les sources).
Performances RTX 4090 + 4K :
- Réflexions ray tracing classique : 180 FPS
- Path tracing overdrive mode : 30 FPS
- Avec DLSS 3 frame generation : 103 FPS en effective (chaque deuxième frame généré par IA, pas rayonné)
Cyberpunk overdrive démontre que path tracing temps réel est arrivé, mais requiert des tokens importants : ultra haut-end GPU + DLSS 3 (IA upscaling/frame gen).
Autres moteurs
Cycles (Blender) : moteur path tracing complet, pas temps réel (rendu d'image statique). Rayons illimités jusqu'à convergence. Référence industrie pour la qualité.
RayGenesis (moteur interne Pixar) : path tracing GPU accéléré pour les films. Pas gaming.
Optimisations critiques pour le temps réel
Denoising (Denoisage)
Avec peu de rayons par pixel, l'image est bruitée (grain). Un denoiser IA (souvent NVIDIA NRD ou Open Image Denoise) analyse une ou plusieurs frames, supprime le bruit, reconstruit l'image. Peut réduire une image ray-tracée à 10 rayons/pixel en image propre.
Magie : l'IA apprend statistiquement où le bruit est acceptable et où il ne l'est pas. Résultat : gain 4-5x performance avec perte visuelle mineure.
Upscaling (DLSS, FSR)
Ray trace à 1440p, puis upscale à 4K avec IA. L'upscaling DLSS 3 de NVIDIA ajoute frame generation : l'IA génère des frames entièrement nouvelles entre frames rayonnées. Double la performance apparente.
Cyberpunk overdrive 103 FPS = 51 FPS réel rayonné + 52 FPS générés par IA.
Contrôversé : est-ce « vrai » 60 FPS ? Arguments des deux côtés. Perceptivement : motion fluide, aucune différence si implémentation est propre.
Importance sampling
Au lieu de lancer des rayons dans toutes directions uniformément, pondère vers les sources lumineuses (importance sampling). Si une lumière couvre 10% de la sphère, concentre 90% de tes rayons là-bas. Réduit variance, augmente convergence.
Comparaison : ray vs path
| Aspect | Ray Tracing | Path Tracing |
|---|---|---|
| Rebonds | 4-6 typiquement | Illimité (200+) |
| Rayons/pixel | 1-4 | 100-1000 |
| Temps de calcul/frame | 2-10ms (GPU haut-end) | 30-100ms (même GPU) |
| Qualité image | Bonne, manque nuances | Excellente, photorealistic |
| Ombres molles | Approximée | Exacte |
| Interréflexion | Limitée | Fidèle |
| Quand utilisé | Jeux AAA | Films, rendus haut-end |
| Nécessite DLSS/FSR ? | Non obligatoire | Quasi obligatoire pour temps réel |
Directions 2026 et au-delà
Quantum computing ?
Non, pas pour les jeux. Quantum n'aide pas le ray tracing classique. Hype marketing.
GPU spécialisé path tracing ?
Peut-être. Si path tracing devient norme jeu, les GPU auront des cores spécialisés comme RTX Core. Pas encore.
Hybrid path tracing + IA
Tendance certaine : 50% path tracing physique + 50% hallucination IA pour compléter. Réseau de neurones entraîné qui « apprend » comment terminer une image partiellement rayonnée.
Déjà testé en labs de recherche. Produit images très bonnes, moins de calcul.
Machine learning denoisers
Au lieu de dénoiser après coup, intégrer le dénoising dans le pipeline de rendu lui-même. Le moteur rend 5 rayons/pixel + denoise intégré, donc converge plus vite.
Conclusion
Ray tracing a tué le rendu pré-baked classique des années 2000-2020. Path tracing va tuer ray tracing. Mais path tracing 100% temps réel sans assistante IA/upscaling reste un rêve des 5 prochaines années, sauf pour les ultra haut-end.
Ce qu'on voit en 2026 : ray tracing mainstream + path tracing boutique + DLSS 3 upscaling ubiquitaire = visuels comparables aux films 2010s, en gameplay fluide.
La lumière a trouvé un nouvel ami : la GPU.



