Nvidia uvijek izračuna koliko im je dovoljno za svaku generaciju. Problem nastaje u budućnosti za 3-4 godine kao s GTX 1060 3GB koja je još uvijek ok grafička, ali je ubija VRAM.
NVIDIA, AMD i INTEL grafičke kartice
- Uređivano
PS2MASTER Sigurno je onda Ubisoft vise nesposobniji od njih.
Vrlo vjerojatno? Sve ubisoft igre postanu dobre tak nakon 250 updejtova. Evo ga igram watchdogs od drugog dana, svaki dan malo manje broken igra. Sad se barem mogu voziti po gradu. Prvi dan što sam igrao imao sam migrene i bol u očima. Razlika između high i ultra par posto fps duplo. Nema tu kaj više pričati.
PS2MASTER A ti si bolji?
vidim rezultate. 24 gb gddr6x je dovoljno za 8k60, 10 gb je dovoljno za 4k60. To što je godfall tehnički krš od igre kao i watch dogs legion ne znači da je nvidia u krivu. Oni su VRLO dobro izračunali potrebe za next gen igre.
- Uređivano
Kolko vidim, ekipa Godfalla je radila na zbilja dobrim naslovima u proslosti. A Godfall vec na "slabasnom" PS5 bi trebao ic u 4k/60 po njihovom. Pa ak su rekli tako za PS5, onda im bas vjerujem da za 4k teksture u 4k rezi ce trebat minimalno 12 GB RAM-a na PC-u, naravno, sa RT-em
- Uređivano
PS2MASTER
jel znaš što je sabirnica? ajd brzo izguglat.
10GB gddr6x je dovoljno za nadolazece naslove. Samo ih treba pricekati. Kao i ostatak techa koji je spreman.
Molio bi da ne idemo u ocjenjivanje devova u ovoj temi.
- Uređivano
Mislis da ce bandwidth od 760 GB/s na 3080 pomoc bez obzira na 2GB manjka da Godfall gura u 4k/60 sa 4k teksturama i RT?
- Uređivano
PS2MASTER da. ako ima DLSS gurat će.
- Uređivano
Ajmo linijom manjeg otpora, jel. Ajmo nativno.
PS2MASTER
pa ti si editirao svoje i dodao Raytracing ako ima podršku za raytracing vjerojato ima podršku za DLSS. količina podataka za output je ista.
- Uređivano
Naziv RTX se podrazumijev da ce imat RT, dodao ja to kasnije il ne
PS2MASTER sa time da je dokazano da rtx 3000 grafičke imaju bolji raytracing od nove amd serije (tj manje resursa oduzima) itekako će moći vrtit 4k60 ako to može i amd^^
- Uređivano
Je, spomenuo sam kasnije 4k teksture. Vostalom, ne spamam.
https://videocardz.com/newz/godfall-requires-12gb-of-vram-for-ultrahd-textures-at-4k-resolution
Vostalom, mozda je to samo reklama da se malo bocne 3080 jer ima samo 10 GB
Nisam ni reko da nece ic u 4k/60
- Uređivano
PS2MASTER radit će o sa 10 gb. kazem ti.
ja sam sa 8gigabajta na 1070 igrao igru (shadow of war) koja na ultra sa 4k teksturama treba preko 8 gb vrama. niti jednom mi se igra nije usporila ili srušila. Zato što je to okvirno. meni piše da mi treba 6 i pol giga vrama za moje postavke (wd:L). u windowsima piše da koristi 5 maksimalno u bilo kojem trenutku.
- Uređivano
PS2MASTER pa to je ok, svaki proizvodac ima nesto cime gura prodaju. Ne vidim problem da AMD nabije teksture u suradnji s devovima godfalla. Samo gas, neka im vram zvace to ako imaju resursa.
Medutim, suludo je govoriti o manjku vrama kod 3080, a jos ni jednu igru nismo isprobali osim current gena.
Dosta navlacis i ides u offtopic.
Slicna nepotrebna rasprava bi nastala da netko sad uleti i pocne pisati kako AMD nece u godfallu imati full ray tracing. Suludo je. AMD nema takav hw u odnosu na Nvidiju. Nije im to fokus ovu generaciju.
A i ovo sto je Fensi napisao. Okvirno i procjena. Sumnjam da je Nvidia falila
chono7 Dosta navlacis i ides u offtopic.
Slicna nepotrebna rasprava bi nastala da netko sad uleti i pocne pisati kako AMD nece u godfallu imati full ray tracing. Suludo je. AMD nema takav hw u odnosu na Nvidiju. Nije im to fokus ovu generaciju
Kakav offtopic. Ovo je tema o AMD i NV grafuljama. O tom sam i pisao i sve vezano uz njih.
E sad ces vidjet oftopic. Os da zaspamam temu o Intel grafickim cipovima koji su bolji od AMD i NVidie?
ako 2080ti bude imala 20gb onda znači da će gurati daleko više od 4k60. ta količina rama nije tu za igranje pikada, tu je da postigne rezultate.
da nepričamo kako će biti dobar pick za workstation.
PS2MASTER Os da zaspamam temu o Intel grafickim cipovima koji su bolji od AMD i NVidie?
Jesu li bolji?
- Uređivano
Jesu. Guglaj. Kad ste vi meni rekli da guglam, guglajte i vi. Sad bas idem offtopic jer se ne spominje Intel u naslovu, no