Mocne jesu, ali nisu toliko mocne koliko se cini. Zapravo, GPU je vise puta slabiji od CPU-a, mada ima svoje prednosti kod grafike - posebno zbog toga sto je optimizovan za 3d. E sad, CUDA, koliko sam ja shvatio, nije bas namenjena renderingu, vec procesiranju brojeva bez opterecivanja CPU-a, i perspektiva za dalji razvoj Nvidijinog trzista u trenutku kada Intel pokusava da prebaci operacije za koje je sada zaduzen GPU na CPU. Zapravo, Nvidija to verovatno vidi kao dobar marketinski potez, obrnuti postupak. Koliko sam povrsno shvatio, osnovni problem je i dalje nativno 32-bitno floating point procesiranje koje je zastupljeno na GPU-u i u preciznosti se ne moze meriti sa preciznoscu CPU-a na 64 bita. Takodje, GPU nema razvijene algoritme za grananje poput CPU-a, te je dobar za sirovu obradu podataka, tj. DSP, ali ne i za obradu koja zahteva slozenu logiku grananja (if-for petlji). Takodje, koristenje ovakvih metoda bi znacilo da je potrebno ponovo napisati sve rendering aplikacije. Zato ovu tehnologiju vidim i dalje vise u game industriji - ona ce pomoci u pre-procesiranju nivoa za potrebe igara (prekalkulacija AO-a ili GI pri loadingu nivoa, generisanju proceduralnih textura, , surovo procesiranje arraya-lookup tabela i na kraju fizike u igricama).
Sa druge strane, izuzimajuci CUDA tehnologiju, mislim da postoji odrednjena buducnost u GPU renderingu, tj. odavno radim na tom polju i smatram da su potencijali GPU renderinga previse zapostavljeni.. donekle sa razlogom - jer je potrebna kompetencija da bi se radilo na nivou programiranja. Lakse je uzeti maxwell i cekati dan dok on ne izrenda sliku koja je realisticna, nego iskorititi pola dana i osvetliti (fejkovati) dobro osvetljenje, izmodelovati optimizirane modele koji izgledaju dobro itd.