Legfontosabb Szerencsejáték NVIDIA vs AMD – Melyik GPU márka a legjobb jelenleg?

NVIDIA vs AMD – Melyik GPU márka a legjobb jelenleg?

Nvidia vs AMD – örök vita a technológia szerelmesei között. De tegyük félre a technikai részleteket egy pillanatra, és derítsük ki: melyik a legjobb?

ÁltalSamuel Stewart 2022. január 10 NVIDIA vs AMD GPU-k

A 2010-es évek nem voltak jó időszakok az AMD számára, az biztos.

Amellett, hogy az FX sorozatú CPU-ikkal küszködött, amelyek évekkel elmaradtak attól, amit az Intel értékesített, az AMD-nek nehézségei is voltak az Nvidiával való versenyben a GPU-piacon. A Team Green uralta a csúcskategóriát, az AMD pedig csak az alsó és középkategóriában tudott lépést tartani.

Az AMD csak 2017-ben tért vissza, kezdve a régóta várt megjelenésével Ryzen CPU-k amelyek manapság nagyon népszerűek a játékokhoz.

2019-ben az AMD piacra dobta 7 nm-es RDNA-alapú GPU-it, amelyeket most új RDNA2 modellek követnek.

Ebben az útmutatóban látni fogjuk, hogy az AMD mennyire képes felvenni a versenyt az Nvidiával 2022-ben, és végül melyik cég kínál jelenleg jobb játék GPU-kat .

TartalomjegyzékElőadás

Árképzés és teljesítmény

amd vs nvidia

Természetesen a fő kérdés, amikor a GPU-król beszélünk teljesítmény . Hogyan teljesít a benchmarkokban, és milyen teljesítményre képes különböző felbontásokban?

Nos, ebben a témában lehetetlen általánosítani, mivel a teljesítmény nyilvánvalóan vadul változik attól függően, hogy milyen modellt kap, és mennyi pénzt hajlandó egy GPU-ra költeni.

Az AMD pénztárcabarát GPU-i szinte folyamatosan felülmúlták azt, amit az Nvidia tudott ugyanazon az áron kínálni. Jelenleg azonban, ha összehasonlítjuk a legújabb költségvetési ajánlatok mindkét cégtől az Nvidia kissé előrébb húz. Ironikus módon azonban az AMD régi Polaris-alapú RX 500 kártyái közül néhány még mindig a legjobb választás, ha fillérekért csíp, mivel jó ár-érték arányt kínálnak.

Ami a Navit illeti, az RX 5500 XT kissé csalódást okozott. A kártya 4 GB-os (169 USD) és 8 GB-os (199 USD) változatai nagyjából megegyeztek az Nvidia GTX 1650 Super-jével (159 USD), és alig tudták megközelíteni a GTX 1660 Super-t (229 USD), amely végül az RX 5500 XT-t készítette. egy nagyon nem tetszetős kártya azok számára, akik a legjobb ár-érték arányt szeretnék elérni ebben az árkategóriában.

Mivel azonban a legújabb generációs RTX 3000 és RX 6000 olcsó modellek még nem jelentek meg, most nem ideális alkalom egy pénztárcabarát játék PC építésére , különösen, ha azt szeretné, hogy egy kicsit jövőbiztosabb legyen.

Eközben a középkategóriás , a verseny egy kicsit szorosabb volt, és az AMD erősebb, RDNA-alapú GPU-i több mint megállták a helyüket mind az Nvidia által jelenleg kínált GTX és RTX kártyákkal szemben.

Az RX 5600 XT (279 dollár) lényegesen jobban teljesített, mint a hasonló árú GTX 1660 Ti (279 dollár), miközben lépést tartott az eredeti RTX 2060-al (349 dollár). A továbbfejlesztett RTX 2060 Super (399 dollár) azonban enyhe fölényben volt, ráadásul sugárkövetéssel is rendelkezik. Az RX 5700 XT (399 USD) viszont továbbra is remek választás maradt ebben a tartományban, hogy felvegye a versenyt az észrevehetően drágább RTX 2070 Super-rel (499 USD).

Azonban az új RTX 3060 Ti (399 dollár) mindegyiket kizökkenti a vízből, mivel az utolsó generációs csúcsmodellekhez, például az RTX 2080 Superhez hasonló teljesítményt nyújt. Amíg az AMD nem áll elő egy RX 6700 XT-vel vagy valami mással, ami a fent említett áron versenyezhet, az RTX 3060 Ti továbbra is a legjobb középkategóriás kártya a piacon.

Amikor arra kerül sor csúcskategóriás , régen ugyanaz volt a történet – az Nvidiának itt nagyjából monopóliuma volt, hiszen az ő RTX 2070 Super, RTX 2080 Super és RTX 2080 Ti uralta a piacot. Míg az RX 5700 XT fel tudta venni a versenyt az RTX 2070 Super-szel, és nagyon jó ár-érték arányt kínált, az AMD-nek semmi sem volt, ami megkérdőjelezte volna az Nvidia zászlóshajó kártyáit.

Ez azonban megváltozott.

Az AMD új RX 6000 sorozatok bebizonyították, hogy több mint képesek megbirkózni az Nvidia csúcskategóriájával . Az RX 6800 (579 USD) a legtöbb játékban észrevehető különbséggel felülmúlja az RTX 3070-et (499 USD), így potenciálisan indokolja a kissé magasabb árat.

Eközben az RX 6800 XT (649 dollár) általában a drágábbak között mozog RTX 3080 (699 dollár), bár az Nvidia itt némi előnyt jelent. Az AMD GPU látszólag jobb ár-érték arányt kínál, de ha egy csúcskategóriás GPU-t céloz meg ebben az árkategóriában, akkor valószínű, hogy az 50 dolláros különbség nem számít sokat.

Végül megvan a legeslegjobb : a RX 6900 XT (999 dollár) és a RX 3090 (1499 USD), mindkettő nagyon réstermék, és nem valószínű, hogy vonzó lesz a szélesebb közönség számára.

Az RX 6900 XT teljesítményben kissé megelőzi az RTX 3080-at, de jelentős árprémiummal. A túl drága RTX 3090 24 GB GDDR6X memóriájával vonzóbb lesz professzionális felhasználók mint a játékosok.

Ne feledje, hogy az MSRP-árazást és az általános teljesítményt referenciaként használtuk, amikor a fent említett GPU-kkal kapcsolatban megjegyzéseket tettünk. A teljesítmény játékonként elkerülhetetlenül változik, és az ár a modelltől és a piaci feltételektől is függ.

Ha most vásárol egy új grafikus kártyát, érdemes megnéznie a mi választékunk 2022 legjobb grafikus kártyái . Ne feledje, hogy mindent megteszünk annak érdekében, hogy vásárlási útmutatóinkat naprakészen tartsuk, így ha elavult információkat észlel, az azt jelenti, hogy a cikk valószínűleg a közeljövőben frissítésre kerül.

Valós idejű sugárkövetés – megéri?

NVIDIA RTX vs GTX

A 2018-as Turing GPU-k leginkább forgalmazott újdonságai az övék voltak valós idejű sugárkövetés képességeit. Tehát mi a valós idejű sugárkövetés, és megéri-e 2022-ben?

Ahogy a neve is sugallja, a valós idejű sugárkövetéssel a játékon belüli világítás sokkal valósághűbben jeleníthető meg, mivel a GPU nyomon követi a virtuális fénysugarak útját, és így pontosabban szimulálja a környezet tárgyaival való interakcióját. A sugárkövetés előnyei természetesen akkor a legszembetűnőbbek, ha sok tükröződő felület van körülötte.

Az elmúlt két évben a sugárkövetés az Nvidia exkluzív funkciója volt, amelyet csak az RTX GPU-ikban találtak meg, bár az AMD most bevezette a sugárkövetés támogatását legújabb RX 6000 modelljeivel.

Tagadhatatlan, hogy a sugárkövetés fontos előrelépést jelent a folyamatban lévő több évtizedes kutatás terén. fotorealisztikus grafika . De ez most tényleg olyan nagy dolog?

Nos, több tényező is fékezi a sugárkövetési hírverést, ezek a következők:

Igényes a hardverre . Bekapcsolt állapotban a sugárkövetés nagy teljesítményt érhet el, néha egyenesen a felére csökkenti az FPS-t. Ez a teljesítmény ütés a gyengébb GPU-knál leginkább észrevehető, és játékonként is változik.

Az előnyök nem mindig nyilvánvalóak . Természetesen a technológiai demók és a sugárkövetés bemutatására tervezett szegmensek csodálatosan fognak kinézni, ha bekapcsoljuk ezt a funkciót, de ha nincsenek tükröződő felületek körülöttük, a sugárkövetés alig vagy egyáltalán nem fog észrevehető javulást nyújtani a látvány terén.

Nem minden játék támogatja . 2022-től több játék támogatja a sugárkövetést mint korábban, de még mindig messze van attól, hogy univerzális szolgáltatás legyen, még ha nagy AAA-címekről van szó.

Ezt érdemes megjegyezni Az Nvidia GPU-knak továbbra is megvan az előnye a sugárkövetési teljesítmény tekintetében , különösen azokban a játékokban, amelyek támogatják DLSS . Tehát, ha igazán törődik a sugárkövetéssel, az Nvidia valószínűleg jobb választás lenne, bár az új RX 6000 kártyák csodálatosan teljesítenek a játékon belüli általános teljesítmény és érték tekintetében.

A sugárkövetés határozottan egyre népszerűbb, amit mind a PlayStation 5 és a Xbox Series X hogy kompatibilisek vele. De mindenesetre, amint fentebb említettük, még mindig messze van attól, hogy a mainstream szolgáltatás legyen.

VRR – AMD FreeSync vs Nvidia G-Sync

freesync vs gsync

Míg a V-Sync elég jó lehet a 60 Hz-es monitorokhoz, egyszerűen nem életképes olyan monitoroknál, amelyek nagy frissítési gyakorisággal rendelkeznek, például 120 Hz, 144 Hz vagy 240 Hz.

Ennek az az oka, hogy a V-Sync megakadályozza a képernyő elszakadását azáltal, hogy korlátozza a GPU által kidobott képkockák számát, így biztosítva, hogy a képkocka és a monitor frissítési gyakorisága soha ne essen ki a szinkronból. Ennek azonban megvannak a maga hátrányai, mint pl dadogva és bemeneti késés .

Mondanom sem kell, ha nagy frissítési gyakoriságú monitort szeretne vásárolni, akkor az elkerülhetetlenül két technológia egyikével fog járni: AMD FreeSync vagy Nvidia G-Sync .

Alapvetően ezek a technológiák hasonló módon működnek – mindkettő hardvert használ annak biztosítására, hogy a monitor frissítési gyakorisága mindig megegyezzen a képfrissítéssel. Ez megakadályozza, hogy a kettő valaha is kiessen a szinkronból, függetlenül attól, hogy a képkockafrekvencia mennyire ingadozhat, így megszűnik a képernyő szakadása akadozás vagy beviteli késleltetés nélkül.

Freesync vs Gsync

Azonban mindennek van egy árnyoldala.

Az Nvidia G-Sync monitorok több okból is drágábbak. Első, Az Nvidia szigorú minőségellenőrzést végez , és minden G-Sync monitornak meg kell felelnie a szabványoknak a jóváhagyás előtt. Sőt, az OEM-eknek licencdíjat kell fizetniük a G-Sync használatáért, és a méretező modulokat közvetlenül az Nvidiától kell megvásárolniuk, mivel csak ők gyártják azokat.

A skálázó modul a monitorba épített hardver, amely lehetővé teszi a VRR-t. Míg az Nvidia alapvetően monopóliummal rendelkezik a G-Sync skálázókban, az AMD lehetővé teszi az OEM-ek számára, hogy harmadik féltől származó skálázó modulokat használjanak. és nem követelnek meg tőlük licencdíjat fizetni a technológia használatáért.

Ennek eredményeként FreeSync sokkal népszerűbb és könnyen elérhető olcsóbb monitorokban, de megvalósítása nem mindig hibátlan, és egyes monitorok csak egy meghatározott tartomány .

A jó oldalon sok van G-Sync kompatibilis monitorok kint vannak most, azaz olyan monitorok, amelyek nem használják az Nvidia skálázó moduljait, és nem estek át a tesztelési folyamatukon, de még mindig kompatibilisek a G-Sync-el. Azonban hiányzik belőlük néhány olyan funkció, amelyet a tanúsított G-Sync kijelzővel kaphat, mint például az ultra alacsony elmosódást, a túlhajtást vagy a változó túlhajtást.

Mi a Gsync és a Freesync

Kompatibilitás korábban szintén nagy probléma volt, mivel a FreeSync csak AMD GPU-kkal működött, a G-Sync pedig csak Nvidia GPU-kkal. De a helyzet már nem ilyen fekete-fehér. Például az Nvidia GPU-k most már FreeSync monitorokkal is működnek. Az AMD GPU-k még nem kompatibilisek a G-Sync-el, de ez is hamarosan megváltozik.

A nap végén mindkét technológia elvégzi a munkát, de A FreeSync nyilvánvalóan olcsó választás, míg a G-Sync a prémium választás . A G-Sync szabadalmaztatott jellege még mindig meglehetősen drágává teszi, de az Nvidia lassan áttér a liberálisabb megközelítésre. Szóval tényleg, ki tudja, mi történhet tovább az úton.

Következtetés

nvidia vs amd

Tehát mindent figyelembe véve melyik cég kínál jelenleg jobb GPU-kat, az Nvidia vagy az AMD?

A válasz se .

Miért?

Nos, egyszerűen azért, mert lehetetlen általánosítani az egyes GPU-modellek összehasonlítása nélkül. Mindkét cég más-más megoldást kínál különböző árkategóriákban amely megfelel az ügyfelek széles körének követelményeinek és költségvetési korlátainak. Ráadásul a helyzet folyamatosan drasztikusan változhat.

A verseny minden bizonnyal sokkal jobb, mint az elmúlt években volt, annyi bizonyos. Korábban az AMD volt a végső választás a pénztárcabarát és a középkategóriás konstrukcióknál, míg az Nvidia monopóliummal rendelkezett a csúcskategóriás termékek terén. Most a dolgok megváltoznak, mivel az Nvidia nagyobb versenyt kínál az alacsonyabb árkategóriákban, míg az AMD végre átveszi az Nvidiát a csúcskategóriás kategóriákban.

Összességében a kettő mostanra meglehetősen egyenlő viszonyban van. Végső soron minél jobban sikerül az AMD-nek bezárnia a szakadékot és megfelelő versenyt biztosítani a teljes árspektrumon, annál jobb lesz minden fogyasztó pénztárcájának.

Ezek is tetszhetnek neked