Új hozzászólás Aktív témák
-
Busterftw
nagyúr
"Mindegy a vonal, s képesek futtatni ugyanazt a workloadot"
Nem mindegy a vonal, mert az enterprise de meg a workstation sincs mindig consumer workloadra tervezve, optimalizalva."hát a nap végén igen, de ezt a poziciót meg is kell tartani"
Az Intel leult, az Nvidia pedig uti a vasat es folyamatosan innoval.
Koze nincs az Intel szituaciohoz, ezt mutatjak a szamok is es a technologia amit hoznak, legyen az szoftveres, vagy hardveres. -
hapakj
őstag
válasz
Busterftw #345 üzenetére
Azt mondtad, hogy vennek-e uj CPU-t...
- hja az egy feltételes kérdés volt, nem állítás.A nagyobb teljesitmenyu kartya mindig is dragabb volt.
- nah igen, így helyes. A nagyobb teljesítményű kártya drágább lehet, nem pedig fordítva.Hat most erre mit mondjak, igy van es igaz.
- Hát most mit mondjak, így van és nem igaz.
RTX Pro 4500 is drágább mint az RTX 5090, mégsem nagyobb teljesítményű. Mindegy a vonal, s képesek futtatni ugyanazt a workloadot, a drágább pedig nem éri el az olcsóbb teljesítményét, tehát állításod nem volt igaz.Az szamit a nap vegen, hogy osszessegeben ki mit vesz es hasznal.
- hát a nap végén igen, de ezt a poziciót meg is kell tartani. Intelnek is jól ment 10 éve, aztán jött a stagnálás és lejtmenet. -
Busterftw
nagyúr
"nem mondtam, hogy új hw kell venni, hanem hogy a meglévőből kihozni a maximumot."
Azt mondtad, hogy vennek-e uj CPU-t..."S mi van ha nincs gyártó ajánlás?"
Van gyartoi ajanlas, mert a gyarto kommunikalja milyen felbontasra szanja a kartyat.
Irja, hogy pl 1400p vagy high-refresh 1440p.
Aztan a jatekot fejleszto pedig minden esetben irja kovetelmenyeket."A te következtetésed hibás, hogy attól nagyobb teljesítményű egy kártya mert drágább."
Nem hibas, tenyszeruen igaz, de mondom, nezz ra egy ket generaciora es azok araira.
A nagyobb teljesitmenyu kartya mindig is dragabb volt."Akkor a enterprise / workstation kártyáknak kellene legerősebbnek lenniük"
Hat most erre mit mondjak, igy van es igaz.
Nvidia RTX Pro 6000 beats the RTX 5090 in gaming
De azt hittem egyertelmu, hogy consumer vonalon megy az osszehasonlitas, nem pedig enterprise, ahol teljesen mas a workload."Hát az SW stack már semmiképp sincs annyira a kezében, mint a CUDA-val."
Az szamit a nap vegen, hogy osszessegeben ki mit vesz es hasznal.
Marpedig a GPU gyorsitok piacanak kb 92%-at az Nvidia uralja. (ahogy a consumer gpu-ket is) -
hapakj
őstag
válasz
Busterftw #343 üzenetére
Pontosan ez a cel, nem kell uj hardvert venni, hanem ugy kell beallitani a jatekot hardverre, ahogy azt a gyarto/fejleszto ajanlotta.
- nem mondtam, hogy új hw kell venni, hanem hogy a meglévőből kihozni a maximumot. S mi van ha nincs gyártó ajánlás? Vagy pl a gyártió ajánlás szerint "1080p-s a kártya" (bármit is jelentsen ez), de a laptopban 1440p+ kijelző van?Szerintem meg az eddigi generaciok es az arazasok sokszorosan teged cafolnak.
- Nem cáfol engem semmi, sose állítottam, hogy a nagyobb teljesítményű kártyák drágábbak lehetnek. A te következtetésed hibás, hogy attól nagyobb teljesítményű egy kártya mert drágább. Akkor a enterprise / workstation kártyáknak kellene legerősebbnek lenniük, hiszen drágábban kb minden consumernél, közben ez egyáltalán nem igaz.Uhum, nagyon nehez terep.
- Nehezebb! nem nehéz. Szövegértés. Hát az SW stack már semmiképp sincs annyira a kezében, mint a CUDA-val. -
Busterftw
nagyúr
"valahogy sejtettem, hogy nem a szűk keresztmetszet meghatározása és a hw-ből való legtöbb lehetőség kiaknázása lenne a cél"
Pontosan ez a cel, nem kell uj hardvert venni, hanem ugy kell beallitani a jatekot hardverre, ahogy azt a gyarto/fejleszto ajanlotta. Persze hulye userek mindig is lesznek."Tény, nem a drága kártya gyorsabb"
Szerintem meg az eddigi generaciok es az arazasok sokszorosan teged cafolnak.
A "nem a drágább kártya gyorsabb" tenyszeruen nem igaz altalanossagban.A dragabb kartyak tobbsegeben mindig gyorsabbak. De nem kell nekem hinned, lapozz fel barmelyik generaciot. Senki nem kever semmit, nehezedre esik megerteni, hogy ket dolog lehet igaz egyszerre, es amit fennt irtal az egyszeruen nincs ugy.
"De már az AI is egy nehezebb terep az nVidiának"
Uhum, nagyon nehez terep. -
hapakj
őstag
válasz
Busterftw #341 üzenetére
Nem tudom itt a vramra gondoltál vagy ramra, de nem veszek erősebb CPU-t, hanem az ajánlott specifikációk szerint a hardverhez állítom be a játékot.
- valahogy sejtettem, hogy nem a szűk keresztmetszet meghatározása és a hw-ből való legtöbb lehetőség kiaknázása lenne a célIrreleváns, azt írtad "nem a drágább kártya gyorsabb", ami tényszerűen nem igaz az esetek többségében.
- Nem irreleváns. Tény, nem a drága kártya gyorsabb, hanem a gyorsabb hw-t adják drágábban. Az ok-okozati függések keverése nehezíti a világ megértését, vagy annak megértését, hogy egyes cégek, mit miért csinálnak.Jó
- engem nem érint. De már az AI is egy nehezebb terep az nVidiának, ahol nem direktbe CUDA-t használnak, hanem arra épülő frameworkoket. Utóbbiaknak, meg kinda mindegy min vannak implementálva.álmodozástvárakozást. -
Busterftw
nagyúr
"Amúgy ha valamihez kevés a RAM a gépedben, akkor feladod és veszel egy erősebb CPU-t?"
Nem tudom itt a vramra gondoltál vagy ramra, de nem veszek erősebb CPU-t, hanem az ajánlott specifikációk szerint a hardverhez állítom be a játékot.
Persze vannak hülye userek is." Nem attól lesz gyorsabb a kártya, mert drágább, hanem azért adják drágábban, mert gyorsabb"
Irreleváns, azt írtad "nem a drágább kártya gyorsabb", ami tényszerűen nem igaz az esetek többségében. Sőt generációkon át nem igaz."addig amíg a user/célközönség nem dolgozza le a tooling hátrányait"
Jóálmodozástvárakozást. -
hapakj
őstag
válasz
Busterftw #339 üzenetére
Csak hulye usernel fut ki max a vrambol, vagy otvar szar fejlesztes miatt
. - Amúgy ha valamihez kevés a RAM a gépedben, akkor feladod és veszel egy erősebb CPU-t?A 5080 dragabb es gyorsabb, mint az ez alatt levo SKU-k, es igy tovabb es igy tovabb, nem latom az ellentmondast.
- már megint kevered az ok-okozati összefüggéseket. Nem attól lesz gyorsabb a kártya, mert drágább, hanem azért adják drágábban, mert gyorsabb. De vannak kivételek, pl az 5060 Ti 16GB bizonyos esetekben gyorsabb, mint az 5070.Irrelevans, teljesen mindegy az user/celkozonseg szempontjabol, hogy a teljesitmeny miert szar a konkurencian.
- addig amíg a user/célközönség nem dolgozza le a tooling hátrányait. -
Busterftw
nagyúr
"Előnyös lenne általánosságban a több VRAM."
Van, rengeteg az opcio AI-ra, ha valakinek az kell. Es meg felar sincs a konkurenciahoz kepest."De az a kártya, ami meg kifut a VRAM-ból az hiába számolna, ha nincs mivel"
Tehat nincs arukapcsolas. Csak hulye usernel fut ki max a vrambol, vagy otvar szar fejlesztes miatt."nem a drágább kártya gyorsabb"
A 5090 fragabb es gyorsabb, mint barmi mas. A 5080 dragabb es gyorsabb, mint az ez alatt levo SKU-k, es igy tovabb es igy tovabb, nem latom az ellentmondast."igazából nem fogyasztanak egyáltalán rosszul."
Igazabol nem tudjuk, mert a konkurencianak nincs 5090 szintu, 32GB-os kartyaja."leginkább a toolinggal vannak problémák, nem a teljesítménnyel."
Irrelevans, teljesen mindegy az user/celkozonseg szempontjabol, hogy a teljesitmeny miert szar a konkurencian."3-ad áron adnak 24GB-t"
Tehat teljesen irrelevans, hogy mit adnak mennyiert. Ha AI-t nezunk szar a teljesitmeny a vram ellenere, ha jatekot akkor szinten nem szamit az extra vram. -
hapakj
őstag
válasz
Busterftw #337 üzenetére
Tobb vram, nagyobb modell
- így van, mindenki ezt mondja itt. Előnyös lenne általánosságban a több VRAM.hiaba van a 5060Ti-n is 16GB vram, a 5080 kb 60%-al gyorsabban vegez.
- talán mert nem a VRAM számol?Ezt azért illene tudni.
De az a kártya, ami meg kifut a VRAM-ból az hiába számolna, ha nincs mivel
A dragabb kartya gyorsabb is.
- nem a drágább kártya gyorsabb, hanem a nagyobb teljesítményű, de mindegymert a teljsitmeny is szamit, ahogy irtad a fogyasztast is melle
- igazából nem fogyasztanak egyáltalán rosszul.epp a teljesitmeny miatt a kutya nem hasznalja a konkurenciat AI-ra peldaul
. - leginkább a toolinggal vannak problémák, nem a teljesítménnyel.Mikozben ha jatekot nezunk, a 16GB 9070XT ujabb cimekben lekorozi a 24GB-os 7900XTX-et. Ujabb lyuk a narrativaba.
- nincs itt semmiféle lyuk, továbbra is a GPU számol, nem a VRAM. 16GB-be meg a konzolok miatt kényelmesen elférnek a játékok. -
Busterftw
nagyúr
"milyen előny adott oda-vissza?"
Tobb vram, nagyobb modell, nagyobb modell pedig potencialisan jobb modell, peldaul."véletlen sem árukapcsolás"
Nem az, peldaul itthon szoktam videokat generalni csaladi kepekbol a 5080-on, hiaba van a 5060Ti-n is 16GB vram, a 5080 kb 60%-al gyorsabban vegez.
A dragabb kartya gyorsabb is."3-ad áron adnak 24GB-t. A GPU teljesítmény, mint már írtam kevésbé releváns itt."
Nem irrelevans egyaltalan, mert a teljsitmeny is szamit, ahogy irtad a fogyasztast is melle.
Persze most hirtelen nem szamit, mert epp a teljesitmeny miatt a kutya nem hasznalja a konkurenciat AI-ra peldaul.
Mikozben ha jatekot nezunk, a 16GB 9070XT ujabb cimekben lekorozi a 24GB-os 7900XTX-et. Ujabb lyuk a narrativaba."Az AMD nem árulja ilyen jellegű designjait consumer piacon."
Tehat renezesre nem ugyanennyi. -
hapakj
őstag
válasz
Busterftw #335 üzenetére
Itt pedig oda-vissza adott az előny
- milyen előny adott oda-vissza?mert a nagyobb vramot nagyobb/jobb modell (szoftver) mehet.
- és érdekes mód megfelelő mennyiségű VRAM csak a legdrágább kártyán van. nahátvéletlen sem árukapcsolás
a konkurencia mennyiért adja a 5090 teljesítményű 32GB vrammal ellátott kártyáit?
- 3-ad áron adnak 24GB-t. A GPU teljesítmény, mint már írtam kevésbé releváns itt.Melyik kártya az, amelyik 5090 teljesítményt ad 32GB-al ugyanakkora fogyasztással?
- Az AMD nem árulja ilyen jellegű designjait consumer piacon.
Persze nem vitatom. Az nVidia jól csinálja. A selejt GPU-kból egyrészt presztízs és félprofesszionális terméket is farag, s sajnos arra is használhatja, hogy árukapcsolásként erre pakolja csak fel az extra vramot -
Busterftw
nagyúr
Felhívom a figyelmed, hogy itt az AI vonatkozásában jött be a szoftver. Itt pedig oda-vissza adott az előny, mert a nagyobb vramot nagyobb/jobb modell (szoftver) mehet.
"Az értéke fölött meg a felhasználók mondanak ítéletet és sokan nincsenek kibékülve az 1000$ felárral egy túlhajtott 600W-ot fogyasztó GPU-ért és extra 16GB VRAM-ért."
Nincs felár, a konkurencia mennyiért adja a 5090 teljesítményű 32GB vrammal ellátott kártyáit?" ránézésre kb ugyanennyi."
Melyik kártya az, amelyik 5090 teljesítményt ad 32GB-al ugyanakkora fogyasztással? -
hapakj
őstag
válasz
Busterftw #331 üzenetére
Irrelevans, mert arrol van szo, hogy egy termek arat nem az alkatreszek anyagara alkotjak.
Az ertekhez hozzatartozik a szoftver is, meg minden mas.
- semmilyen exklúzív szoftveres képessége nincs az 5090-nek. Ugyanazt a SW stacket megkapja a legkisebb teljesítményű kártya is. Az értéke fölött meg a felhasználók mondanak ítéletet és sokan nincsenek kibékülve az 1000$ felárral egy túlhajtott 600W-ot fogyasztó GPU-ért és extra 16GB VRAM-ért.Ráadásul ennek a méretnek extra költségei is vannak, mint pl megfelelő méretű szellőző ház / nagy teljesítményű tápegység, amikor egy jóval kisebb teljesítményű kártya is el tudná látni ugyanazt a feladatot extra VRAM-mal. Felesleges kiadások, felesleges árukapcsolás.
-
Abu85
HÁZIGAZDA
A Nuke CopyCat egy zárt szoftver, azt nem fogod átírni magad, de a Stable Diffusion / ComfyUI / A1111 tökéletesen működik nem NVIDIA hardveren is. Akár ZLUDA-val. Még a Fooocus is, a hétvégén próbáltam ki.
Ami nyílt forráskódú, arra már vannak megoldások. Nem is egy. Legalább fél tucat backend. Ha viszont nem akarod ezt, akkor fizessél 2000-2500 dollárral többet, és ugyanott vagy. Viszont ne a fejlesztők és a gyártók hibája legyen, hogy nem vagy hajlandó szétnézni a GitHubon.
-
Busterftw
nagyúr
"Az 5090 szoftveres képességekben pont ott van mint az összes több consumer kártya."
Irrelevans, mert arrol van szo, hogy egy termek arat nem az alkatreszek anyagara alkotjak.
Az ertekhez hozzatartozik a szoftver is, meg minden mas."Amit persze csak 600W fogyasztással tud elérni."
A konkurencia hany Watt fogyasztasbol tud ekkora teljesitmenyt elerni?"Itt mindenki megérti az nVidia üzletstratégiáját, de ez valamiért Busterftw-t bántja"
Engem aztan nem bant, a fenti peldak mutatjak, hogy teljesen rendben van az arazas, nincs felar. -
ben2
junior tag
Még egyszer: nem én ragaszkodom a CUDA kódhoz, hanem a fejlesztők.
Nuke CopyCat-et nem lehet Mac-en vagy AMD GPU-n futtatni, ha nem talál nvidia kártyát, akkor átvált CPU-ra.
(Amúgy a ZLUDA pl. nem támogatja a Mac-et.)
Érdekes a ChatGPT válasza is (tudom nem lehet készpénznek venni, de vannak jogos felvetései):
1. Nuke CopyCatCopyCat runs on PyTorch with CUDA backend.
PyTorch itself needs deep CUDA runtime + cuDNN libraries.
ZLUDA doesn’t support cuDNN or the full PyTorch CUDA stack yet → you cannot realistically run CopyCat training on AMD/Intel via ZLUDA.
You’d have to use a native PyTorch ROCm build on AMD instead (which is limited, buggy, and not integrated into Nuke).
👉 So: No, ZLUDA cannot replace CUDA for CopyCat.2. Stable Diffusion / ComfyUI / A1111
These rely on PyTorch CUDA builds.
In theory, ZLUDA could run some CUDA PyTorch code on AMD/Intel if the right kernels are translated.
But in practice:Many PyTorch CUDA kernels call cuDNN and cutensor, which ZLUDA doesn’t support.
Large tensor ops and attention kernels are either unimplemented or too slow.On AMD you’d use ROCm builds of PyTorch (better than ZLUDA, but still far behind CUDA).
👉 So: Currently no, ZLUDA is not a viable replacement for CUDA in Stable Diffusion.Összefoglalva: ahhoz, hogy a user ne legyen Nvidia-ra kényszerítve egy sor fejlesztőnek kellene leállnia a CUDA only megoldásokról.
Szvsz hasonló helyzet kezd kialakulni, mint a 90-es évek végén a windows-pc-vel, hogy egyetlen piaci szereplő a már elért piaci előnyét a piaci előnye további erősítésére tudja használni egyfajta önerősítő folyamatot hozva létre. Így a többiek vagy be sem szállnak a versenybe, vagy szépségtapaszként virítanak a de facto monopóliumon. Azért nem tartunk még itt, mert az egész consumer AI gyerekcipőben jár még, de az irány veszélyes.
-
Busterftw
nagyúr
En a te unified memory alapu peldaidra kerestem ra, ott van fenn, az Nvidia dupla aron dupla annyi vramot kinal, tehat nem ertem mi a problema?
Ha ehhez az "ipari sztenderd" CUDA koritest hozzavesszuk, nem latom a felarat."Hiába létezik hardver alternatíva, ha nincs mögötte szoftveres támogatás."
Ez meg ugye aligha az Nvidia sara, hanem a konkurenciae.
Tessek hozni jobbat. -
Abu85
HÁZIGAZDA
Van mögötte támogatás az Apple és az AMD oldalán is. De írtam, hogy ha ragaszkodsz a CUDA kódhoz, akkor futtathatod ZLUDA-ban. Viszont egyszerűbb a Hipify-t futtatni, de amúgy tényleg, a ZLUDA is működik. Ha nem lenne azok mögött a hardverek mögött szoftveres támogatás, akkor nem tudtak volna áttérni a szuperszámítógépek AMD-re, de nagyon egyszerű már megoldani a működést.
-
ben2
junior tag
válasz
Busterftw #315 üzenetére
Még egyszer: nem az NVIDIA üzleti modelljével van a baj, az teljesen érthető módon a jelenlegi piaci helyzet maximális kiaknázására épül.
Az AI fejlesztőknek kellene leszokniuk arról, hogy egy lábon álljanak és a fejlesztéseiket egyedül a CUDA-ra építsék.
Akkor szélesedne az AI-ra érdemben is használható hardverek száma, ez megváltoztatná a piaci környezetet és így az NVIDIA is más üzleti modellre kényszerülne.
Csak jelenleg consumer AI fronton megvan a veszélye egy "windows-pc" helyzet kialakulásának, azaz hogy a szabvány rákényszerít egy adott hardver használatára, a hardver piaci erőfölénye pedig rákényszeríti a fejlesztőket egy adott szabvány követésére, így hosszabb távon már nem a termék minősége, hanem a piaci erőfölény önmagában okozza a piaci erőfölény fennmaradását. -
Abu85
HÁZIGAZDA
De miért kellene átfedésbe kerülnie? Kínálnak megoldást, és kész. Ha nem tetszik az ára, akkor vegyél olcsóbbat. Iszonyat sok alternatíva van. Ott a Mac Mini kb. 2000-ért, már 1500-ért vihetsz Strix Halót, és mindegyik 128 GB-os. A te döntésed, hogy mennyit költesz, nem kényszerítik rád.
-
-
hapakj
őstag
válasz
Busterftw #317 üzenetére
Tobbszor leirtad, hogy mit varsz el az Nvidiatol.
- nem, én ezeket nem várom el az nVidiátólCsak megállapítások voltak, hogy technikailag lehetséges lenne.
ott a szoftveres korites meg minden mas, ami hozzaadott erteket kepvisel.
- az 5090 esetén pl nem tudok róla, hogy szoftveresen bármiben jobb lenne. -
Busterftw
nagyúr
Tobbszor leirtad, hogy mit varsz el az Nvidiatol.
"Neked meg az felel meg, hogy a pár dolláros alkatrészeket több száz dollár felárért adják, meg hogy pontosan megmondják, mire és hogyan használd a termékeiket."
Tehat te nem veszel a vilagon semmit, mert senki nem ad anyagaron egy termeket.
Arrol nem is beszelve, hogy egy termeket igy nem lehet nezni, mert az ar/ertek arany erosen szubjektiv mindenkinek, ott a szoftveres korites meg minden mas, ami hozzaadott erteket kepvisel. -
hapakj
őstag
válasz
Busterftw #315 üzenetére
Nagyon szórakoztató vagy, hogy személyeskedésbe burkolva próbálod beállítani, hogy én bármit is elvárok az nvidiától
Pusztán csak egy véleményem van mit miért csinál és kritikusan tekintek a termékskálájára.
Neked meg az felel meg, hogy a pár dolláros alkatrészeket több száz dollár felárért adják, meg hogy pontosan megmondják, mire és hogyan használd a termékeiket.
Ennyi a különbség.
-
Busterftw
nagyúr
Csak ugye itt arrol van szo, hogy AI-ra mennyi VRAM hasznalhato az unified rendszer eseteben, ami itt default 48GB es manualisan akar 56GB vramot is hasznalhat a GPU.
Szoval nem, nincs egyaltalan hianyossag az Nvidia termekpalettajan es a felarat sem latom sehol.
Lassan a logika az lesz nalad abszurdisztanban, hogy az Nvidia ket pusziert adjon sok VRAM-ot, mert csak, meg melle ingyen sort....
Es vissza is tertunk a kiinduloponthoz: nem, aki 64GB (45-56GB vram) akar, annak nem lesz draga a 2000 dollar, mert megterul neki.
-
Busterftw
nagyúr
"Az analógia pont azért ül"
Nem ertek teljesen egyet, hiszen nem ugyanazt kapod dragabban, hanem jobbat kapsz, dragabban. Sot, elmondasod szerint piacvezeto es piaci standard megoldast kapsz.
Ennek nyilvan felara van. Az Apple SSD-RAM upgradenel mar nem tudom ez megall, ha consumer szegmenst nezzuk, en nem adnek annyit erte.Viszont ha azt mondod egy 5090 a 32GB es CUDA miatt kiemelkedo consumer kartyakent AI-ra, az nyilvan felaras.
"Pl. egy 5090-es áráért már kapsz Mac Mini Pro-t 64GB rammal"
US honlapon 1TB SSD-vel es 64GB modell kb 2300 dollar, mig a 128GB DGX Spark 4300-4500 dollar.
Itt dupla-t kapsz duplaert, nem latom azt a hatalmas felarat. -
Busterftw
nagyúr
Teljesen mindegy, mert ket kulonbozo tudasu termek nem fogja hozni ugyanazt az eredmenyt. Ar, meret, fogyasztas, stb.
Az Nvidia nem magyarazkodik. Teljes a paletta, a kategoriak nem valtoztak.
Ha 1030 tudas kell, akkor ott a 1030. Ha ennel tobb kell, akkor ott a 5050 vagy az emlitettek. Ugyanaz viszont nem lesz, mert ket kulonbozo igenyrol van szo. -
ben2
junior tag
válasz
Busterftw #296 üzenetére
"Ezt max akkor tudom elfogadni, ha az Apple valami teljesen egyedit kinal a piacon, ahogy az Nvidia eseteben is irtad, hogy AI-ra a CUDA miatt (sarkitva) Nvidia kell."
Az analógia pont azért ül, mert az Apple a Macos ökoszisztéma miatt tudja magasan tartani a ram és ssd upgrade árait (macos szoftverhez mac hardver kell), azaz ugyanúgy piaci előnyét érvényesíti, mint az NVIDIA a CUDA-val.
"Tudom pontosan itt most jatek vagy mas fejlesztesrol irtal"
Pont nem játék fejlesztésről írtam, hanem olyan szoftverekről, amelyek felhasználói szinten AI inference-t használnak. Ehhez az kell, hogy a modell beleférjen a vramba. Kicsi vram: kicsi modell, nagy vram: nagy modell.
"Illetve megegyszer, az Nvidia konkretan ebben a generacioban dupla annyi vramot ad, mint a konkurencia."
Ha a gamer kártyákat nézed igen, de ha a unified memory rendszereket, akkor nagyon nem.
Pl. egy 5090-es áráért már kapsz Mac Mini Pro-t 64GB rammal, vagy Beelink GTR9 Pro-t 128GB rammal (96 GB elérhető vramként).
Ezek önmagukban ugyan lassabbak, mint egy NVIDIA GPU egészen addig, amíg a modell belefér a vramba, onnantól viszont a diszkrét GPU padlót fog. Azaz ha nem lenne egy csomó kritikus library ráfüggve a CUDA-ra, már rég ilyeneket használnának consumer szinten. Ha pedig az NVIDIA nem lép valamit, miközben a unified memory megoldások tovább fejlődnek, akkor a fejlesztőknek is meg fogja érni támogatni ezeket a rendszereket, így az NVIDIA saját maga dolgozza le a saját piaci előnyét.
Láttunk már ilyet a történelem során. Pl. a 80-as évek végén az IBM szándékosan nem frissítette a PC-it 386-ra, mert az konkurenciát jelentett volna a mini számítógépeinek, ezért megtette helyette a Compaq és a többi klón gyártó. Ezzel nem csak árban, de már teljesítményben is lenyomták az IBM-et. -
hapakj
őstag
válasz
Busterftw #307 üzenetére
Így van, pontosan erről van szó. Nem azért nem adnak ki bizonyos konfigurációkat, mert ne lenne értelmük (pl alacsony fogyasztású kis teljesítményű GPU, vagy esetleg extra VRAM-mal ellátott videókártya), ne lenne rá értelmes usecase, hanem azért, mert piacilag nem éri meg.
Nem a megvalósíthatóság a kérdéses, hanem nem tudják úgy árazni, hogy nekik megérje.
S ilyen magas piaci fölénnyel ezt meg is tehetik, s helyette bizony megy a magyarázkodás, hogy ezt és ezt bizony csak így és így használd.
-
Busterftw
nagyúr
Meglehetne, de nem eri meg, illetve csak dragabban.
A GTX 1000 idejeben 6-7000 dollar volt a wafer, a Blackwell idejeben meg 20-25ezer dollar.
Aztan mar 40ezerrol hallani. Es ez csak a gyartas, a chip design koltsegeirol nem is beszelve. (egyes talalgatasok szerint 1000 szerianal 40-60 millio dollar, Blackwellnel ez 400+ millio dollar)"Az RTX 5050 csak simán egy "nagy" dög ezekhez képest."
En epp mas konkluziokat olvasok, egy szar semmi, amire kar volt wafert pazarolni.
Egy draga, alacsony teljesitmenyu kartya.Pikari
A lenyege ez valamilyen szempontbol, a valosag meg teljesen mas.
Lasd a fenti arakat, plusz a chip tervezo koltsegei teljesen masok ezekre a node-kra.Illetve ne felejtsuk el, hogy azert az Nvidianak megvannak am a piaci szamok.
Ahogy mar irtak fentebb, a fejlettebb IGP-k miatt ez kb retegigeny lehet. -
hapakj
őstag
válasz
Busterftw #301 üzenetére
Ez nem igaz. Az 1030 azért volt kis fogyasztású, mert simán kevés végrehajtó egységet / cache-t pakoltak bele. Ezt mai is meglehetne csinálni. Az RTX 5050 csak simán egy "nagy" dög ezekhez képest.
Pl egyébként az AMD meg is csinálja, hogy a modern RDNA designokból az egyes CPU-k mellé kb minimális mennyiséget pakol, vagy a Samsung is használta GPU-nak az Exynosba.
-
Pikari
veterán
válasz
huskydog17 #299 üzenetére
Azért lenne szükség egyszerű multimédiás videókártyákra, mert vannak olyan processzorok, amikben nincs IGP, és olyan rendszerek is, amikben rendkívül elavult az igp, vagy egyszerűen elavult videókártya van benne.
Többek között ezt is felrótta hapakj, mivel az nvidia ezt a piacot nem szolgálja ki. (Ez hapakj számára személyesen is problémát jelent, hogy miért, annak elárulására nem vagyok felhatalmazva, ha akarja, leírja)
-
huskydog17
addikt
Az egykori GT 1030 kategória kihalóban van, mert annak egyszerűen már nincs értelme, ugyanis akkoriban a GT 1030 sokkal-sokkal gyorsabb volt, mint a legerősebb IGP-k és multimédia fronton is rendkívül erősnek számított. Mára az IGP-k olyan masszívan fejlődtek minden téren, hogy egy xx30-as kártyát nincs értelme kihozni, mert egyrészt semmivel nem lenne gyorsabb, mint egy modern IGP, másrészt multimédia fronton főleg semmivel nem adna többet.
Ha lenne is ilyen, az tökéletesen alkalmatlan lenne gaming-re, ahogy a GT1030-as sem gaming-re készült elsősorban.Az AMD sem csinál már ilyet, az RX6400 nevű borzalom mindenre alkalmatlan volt, leginkább oda, ahová még jó lett volna a kiherélt multimédia miatt, azaz az AMD-nél sem létezik ez a kategória, de náluk érthető, mert van erős IGP-jük, igaz, csak a méregdrága mobil gépekben (notebook).
Kizárólag az Intel képviseli még ezt a kategóriát, de ők is csak részben az Arc A310-el, ugyanis az A310 sem 30W, hanem 40 és 75 Watt között konfigurálható. A Sparkle csinált egy ECO változatot 50 Wattos TDP-vel. Ez tökéletesen alkalmatlan játékra, de multimédia fronton nagyon ki van gyúrva, nem is véletlen, hogy a Sparkle a multimédia képességeket reklámozza elsősorban.
Ugyan az A310 is borzalmasan gyenge, játékra nem is alkalmas, de így is kb. dupla olyan gyors, mint az egykori GT 1030 és sokkal fejlettebb multimédia képességekkel rendelkezik, így mondhatni az A310 lett a GT1030 utódja, csak éppen fogyasztásban 30 helyett 50 wattot kér.
Ez a kártya külföldön 100 euró a boltokban, itthon 40-50k környékén van.Régen ez a kategória hasznos volt, ma már nem az, több szempontból se (se gyakorlati, se üzleti szempontból nem éri meg).
Az NVIDIA-nak a legutóbbi ilyen próbálkozása a GTX 1630 volt, ami ugyanúgy értelmetlen volt, mint az RX 6400, hiszen nem csak a tempó volt iszonyatosan rossz, hanem multimédia fronton is már elavult volt piacra kerüléskor.
200 dollár alatt egyszerűen nem éri meg VGA-t kiadni. Mind AMD, mind NV oldalon a legutóbbi próbálkozások értelmetlenek hulladékok voltak, homokpazarlás.
A lényeg, hogy a xx30-as kategóriát ma már megkapod egy IGP-vel, legalábbis ami a multimédia képességeket jelenti, márpedig más területre nem volt értelme a 30-as kategóriának.
Elnézést, hogy beleszóltam a vitába!
-
Busterftw
nagyúr
"hát ebben marhára el vagy tévedve"
Forras? Mert eddig ez volt az altalanos szabaly, hogy aki profi szinten nyomul, azert is tudja megvenni a dragabb de jobb hardvert, mert az neki idovel es hamarabb megterul.Nalunk a video editorok meg a DTP-sek Pro (5000) Nvidiakkal es 5090-ekkel vannak.
Gyorsabb rendereles, kevesebb ido, tobb projekt, tobb love. -
Busterftw
nagyúr
"Ez ugyanaz, amit az Apple csinál a csillagászati ram és ssd upgrade áraival"
Ezt max akkor tudom elfogadni, ha az Apple valami teljesen egyedit kinal a piacon, ahogy az Nvidia eseteben is irtad, hogy AI-ra a CUDA miatt (sarkitva) Nvidia kell.Peldadnal maradva, tudsz venni olcsobban tobb TB SSD-t es RAM-ot, de ha nem kapod meg ugyanazt a teljesitmenyt, akkor hajadra kenheted.
"akkor idővel a fejlesztőknek kell a többi hardver felé fordulniuk"
Tudom pontosan itt most jatek vagy mas fejlesztesrol irtal, de valaszolok mindkettore.
Szerintem amig az userek ~90%-a Nvidiat vesz jatekra a fejlesztoknek ezt vigyelembe kell venni, mert csak magukat lonek labon.
Illetve megegyszer, az Nvidia konkretan ebben a generacioban dupla annyi vramot ad, mint a konkurencia.Ha pedig amugy jatek/AI stb fejlesztorol van szo, en szerintem ott nem fognak consumer-grade kartyakkal szorakozni, hanem a pro vonallal, mert nekik minden cent megterul.
-
Busterftw
nagyúr
Te irtad az elejen, hogy
"alacsony fogyasztású, legtöbbször passzív hűtési jó dekódolási képességekkel rendelkező dedikált videókártya"
es
"Félmagas, passzív, 30W TDP, HDMI, modern encode decode képességek."Aztan
itt consumer gamer szegmensrol beszelunk.
- "a GT 1030 a maga idejében miért ne lett volna consumer gaming kategória?"Tehat kiemelted az elejen, hogy media kepessegek, aztan amikor felhivtam a figyelmed arra, hogy consumer gaming piacrol van szo, mondod, hogy a 1030 is az, akkor el kellene donteni, hogy melyik.
Mert ha mindketto, akkor igen, uti a ketto egymast, mert teljesen mas beleposzintu teljesitmeny kell a mai jatekokhoz, mint 8 eve.
Es nagyobb teljesitmenyhez, jobb kepesseghez nem parosulhat 30W."te hozod fel ezt a media decoder kártyát"
Lol, a kutya nem beszelt rola, te hoztad ide."már többen leírták, hogy a piac vevő lenne rá."
Ezt melyik globalis statisztikabol vontad le?
Csak mert azt is mondtad, hogy az AMD tobb vramot ad es az milyen jo, a 5070 12GB-al meg gaz, aztan a piac azt mutatja, hogy a tulnyomo tobbsegnek a 5070 kell es nem a 16GB-os Radeon, abban a kategoriaban."Legyen olyan modern kártya ami olyan az 5080-hoz képest teljesítményben, mint az 1030 az 1080-ashoz képest. Az 5050 nem ilyen."
Melyik benchmarkban? Ha 1080p atlagot nezunk (TPU) az rtx 5080 161%-al gyorsabb, 4K-ban mar 260%-al gyorsabb.
A gtx 1080 mennyivel gyorsabb, mint a GT 1030? -
hapakj
őstag
válasz
Busterftw #293 üzenetére
Akkor döntsd már el, hogy mit akarsz?
- hogy hogy mit akarok. Már leírtam. te hozod fel ezt a media decoder kártyát, meg consumer gaming belépőszintet. Én ilyenekről nem is beszéltemMarha egyértelműen leírtam, hogy xx30-as kártyát, itt csak te értetlenkedsz
Csak ezt nem így hasraütve döntöd el, hanem a célpiac.
- már többen leírták, hogy a piac vevő lenne rá. Nagyon cuki, hogy azt gondolod, hogy nVidia csak a piacot akarja kiszolgálni véletlenül sem formálni azt. Bár te alapvetően elfogadod amit az nVidia diktál.Igen 8 vs 12.
- mekkora egy szar ez az nVidia, hogy 8 chipet még fel tud rakni, 12-t meg már nem -
Busterftw
nagyúr
"és? teljesen elvárt, hogy drágáb lesz, ahogy a 16GB 5060Ti is drágább mint a 8GB-s."
Csak ezt nem így hasraütve döntöd el, hanem a célpiac.
Megvan az a lélektani határ, amennyit a különböző szegmensben az userek pénzt adnak."Pro vonalon persze nem volt probléma megoldani"
A consumer vonal nem kerül annyiba, mint a pro.
De ezt is már kibeszéltük."én nem mondtam, hogy legyen dedikált media-decoder kártya."
Akkor döntsd már el, hogy mit akarsz?
Mert ha consumer gamingről van szó, a 1000 széria óta változott a játékok gépigénye, tehát változott a belépőszint hardvernél is."5070-nel ez mar joval tobb chip lenne"
Igen 8 vs 12. -
ben2
junior tag
válasz
Busterftw #283 üzenetére
"Es? Ha neked az az AI teljesitmeny kell, akkor ott van es ennyibe kerul, mert annyit er a piacon."
Pontosan. Ez ugyanaz, amit az Apple csinál a csillagászati ram és ssd upgrade áraival: vehetsz alapgépet versenyképes áron, de abban pont annyira limitálják a ramot és az SSDt, hogy ha bármi komolyabbra akarod használni, akkor kell a több ram és SSD és máris a brand gyártók árkategóriájában találod magad. A taktika teljesen érthető és nem is hibáztatom az NVIDIA-t érte, mert csak az üzleti érdekeit követi. A fejlesztőknek kellene észhez térniük és az elérhető hardverek nagyobb spektrumát támogatni.
"Tehat megint ott tartunk, hogy 1 ceg kinal ilyen megoldast/AI teljesitmenyt a piacon es akkor csodalkozunk, hogy miert ennyi, hiszen a tobbi sok vramos megoldas a piacon szart sem er AI-ra"
Nem csak egy cég kínál ilyen megoldást, de a library-k nagy része egy cég megoldására épül, ha tetszik, ha nem. Ezért mondtam, hogy ha az NVIDIA továbbra is a vrammal szopatja a piacot, akkor idővel a fejlesztőknek kell a többi hardver felé fordulniuk.
#287 Abu85:
Nem én ragaszkodom a CUDA-hoz, hanem a fejlesztők. Pl. Nuke-ban ha CopyCat-el akarsz saját modellt trainelni, akkor csak CUDA-val működik. -
hapakj
őstag
válasz
Busterftw #288 üzenetére
De az volt, viszont nem volt dedikalt consumer csak media-decoder kartya, amit te itt akarsz.
- én nem mondtam, hogy legyen dedikált media-decoder kártya. Megint olyanokat állítasz amit én nem mondtam. Legyen olyan modern kártya ami olyan az 5080-hoz képest teljesítményben, mint az 1030 az 1080-ashoz képest. Az 5050 nem ilyen. Egy alapvetően hasznos kategória eltűnt. -
hapakj
őstag
válasz
Busterftw #285 üzenetére
Nem, ezzel azt mondom, hogy ujabb bizonyitast nyert az, hogy a VRAM nem minden.
- soha senki sem mondta, hogy a VRAM minden. Ez egy olyan dolog, amit te akarsz mások szájába adniCsak nem ugyanannyiert, nem ekkora hutessel, nem ilyen PCB-vel.
- és? teljesen elvárt, hogy drágáb lesz, ahogy a 16GB 5060Ti is drágább mint a 8GB-s. Mondjuk nem 2x annyi, mint az 5090 a többihez képest5070-nel ez mar joval tobb chip lenne.
- jóval? Tehát extra 4 chip az még nem sok, de extra 6 már igen. Pro vonalon persze nem volt probléma megoldani -
Busterftw
nagyúr
"a GT 1030 a maga idejében miért ne lett volna consumer gaming kategória?"
De az volt, viszont nem volt dedikalt consumer csak media-decoder kartya, amit te itt akarsz. Epp errol van szo, hogy azota a beleposzintu gaming is valtozott, ezert valtozott a beleposzintu kartya is."most akkor mégsem ütik egymást a követelmények és az Intelnek sikerül megoldania?"
Dehogynem, ott az NVIDIA RTX A1000. Nezd meg milyen a gaming teljesitmeny vagy az Intelnel is. Uti egymast a ketto, amit akarsz a consumer gaming szegmensben. -
Abu85
HÁZIGAZDA
Éppenséggel már rengeteg alternatíva van. Vulkan Compute, DirectML, ROCm, MIOpen, oneAPI, SYCL, PlaidML, Apache TVM, MLIR+XLA ... és folytathatnám. De ha valamiért nagyon ragaszkodsz a CUDA-hoz, viszont nem akarsz GeForce-ot venni, akkor meg ott a ZLUDA. Az egy az egyben, a kód módosítása nélkül futtatja a CUDA kódokat az AI stacken ROCm környezetben. Az AI ebből a szempontból könnyű, mert nagyon kevés dolgot használ a hardverből, tehát nem kell hozzá nagyon sok funkciót portolni. A ZLUDA az AI-hoz szükséges funkciókat mind portolta. Gyakorlatilag nem volt olyan dolog, ami nem működött nekem ZLUDA-n, pedig próbáltam vagy két tucat dolgot. Persze lehet, hogy van, csak eddig minden ment vele, amit néztem.
-
hapakj
őstag
válasz
Busterftw #285 üzenetére
itt consumer gamer szegmensrol beszelunk.
- a GT 1030 a maga idejében miért ne lett volna consumer gaming kategória?Ilyen nincs, mert a ketto uti egymast.
- tehát a GT 1030 nem is létezett?Ott az Arc B50, 70W, modern encode-decode-dal.
- most akkor mégsem ütik egymást a követelmények és az Intelnek sikerül megoldania? -
Busterftw
nagyúr
"mert az RTX 5050 biztos nem az"
Persze hogy nem az, mert mert ugyanazt tudja. Ettol meg a kategoria belepo szint, mindket esetben. Ezert mondtam, ha 1030 tudas kell, akkor vedd meg a 1030-at.
Ha annal tobb kell, akkor vedd meg azt, ami tobbet tud, de nem lesz egyforma a ketto."Félmagas, passzív, 30W TDP, HDMI, modern encode decode képességek."
Ilyen nincs, mert a ketto uti egymast."nem, nem üti a teljesítmény és a fogyasztás üti egymást, nem pedig hogy milyen képességei vannak a kártyának."
De uti, mert itt consumer gamer szegmensrol beszelunk.Ott az Arc B50, 70W, modern encode-decode-dal.
"Ezzel azt akarod mondani, hogy nvidia szándékosan nem rak több RAM a többi kártyájára, hogy szándékosan terelje a vásárlókat a drágább megoldások felé?"
Nem, ezzel azt mondom, hogy ujabb bizonyitast nyert az, hogy a VRAM nem minden.
Egyeduli megoldast kinal egy ceg es csodalkoztok hogy az a piacon dragabb."de lehet 24GB-s is 2 x 2GB-s modulokkal. "
Csak nem ugyanannyiert, nem ekkora hutessel, nem ilyen PCB-vel.
Ez is ki lett fejtve, megint csak futod a koroket."Ezt az 5060 Ti esetén is sikerült meglépni, aminek van 16GB-s változata, annak ellenére, hogy csak 128bit-es a buszuk."
Mert ott csak 4 es 8 chip van, belefer a hutes/ar/design targetbe.
5070-nel ez mar joval tobb chip lenne. -
hapakj
őstag
válasz
Busterftw #283 üzenetére
Tehat megint ott tartunk, hogy 1 ceg kinal ilyen megoldast/AI teljesitmenyt a piacon es akkor csodalkozunk, hogy miert ennyi, hiszen a tobbi sok vramos megoldas a piacon szart sem er AI-ra
- Ezzel azt akarod mondani, hogy nvidia szándékosan nem rak több RAM a többi kártyájára, hogy szándékosan terelje a vásárlókat a drágább megoldások felé?Mert 192 bit-en tobb nem lehet a 3GB modulokkal.
- de lehet 24GB-s is 2 x 2GB-s modulokkal. Ezt az 5060 Ti esetén is sikerült meglépni, aminek van 16GB-s változata, annak ellenére, hogy csak 128bit-es a buszuk. -
Busterftw
nagyúr
"Én meg arról beszéltem, hogy az 1 millás 5090-en kívül az NVIDIA-nak jelenleg nincs AI-ra használható kártyája, mert minden másba csak 16GB vramot rak."
Es? Ha neked az az AI teljesitmeny kell, akkor ott van es ennyibe kerul, mert annyit er a piacon. Illetve most, hogy lett eleg 3GB chip, lesz 24Gb modell, ketto is a Superek erkezesevel."Még mindig nem értem, hogy a vram chipek mennyiségének mi köze ehhez?"
Mert ezzel novelheto ugy a vram meret az adott kartyaknal, hogy ne kelljen teljesen uj design, aminek biztos mas lett volna a piaci ara."Amúgy a legújabb hírek szerint az 5070 Super csak 18GB vrammal jön."
Mert 192 bit-en tobb nem lehet a 3GB modulokkal.
Nem ugyeles kerdese, hanem ez van. A 5070 nem AI-ra szantak, hanem jatekra, ahogy te is megvalaszoltad magadnak a nagy rejtvenyt.Mellesleg ha neked annyira kritikus az AI felhasznalas es lenne 750-800k egy 24GB-os kartyara, akkor menni fog a 1-1.1 millios is.
"mert az AI library-k jelentős része CUDA-ra épül"
Tehat megint ott tartunk, hogy 1 ceg kinal ilyen megoldast/AI teljesitmenyt a piacon es akkor csodalkozunk, hogy miert ennyi, hiszen a tobbi sok vramos megoldas a piacon szart sem er AI-ra -
hapakj
őstag
válasz
Busterftw #279 üzenetére
A termek neve irrelevans, a kategoria megmarad
- nekem mindegy, de itt konkrétan eltűnt a kategória, mert az RTX 5050 biztos nem azAz a 1050, 1650, etc leszármazottja.
Te irtad, ho gy 8 eve nem adott ki hasonlot. Most akkor mennyire hasonlorol van szo?
- imádom amikor játszod az értetlent, csak azért, hogy védd az nvidiát.
Félmagas, passzív, 30W TDP, HDMI, modern encode decode képességek.Mivel a ketto uti egymast.
- nem, nem üti a teljesítmény és a fogyasztás üti egymást, nem pedig hogy milyen képességei vannak a kártyának. -
ben2
junior tag
válasz
Busterftw #280 üzenetére
"En is arrol beszeltem. Ott a 5090, ha neked arra van szukseged."
Én meg arról beszéltem, hogy az 1 millás 5090-en kívül az NVIDIA-nak jelenleg nincs AI-ra használható kártyája, mert minden másba csak 16GB vramot rak.
"Nem fogja vissza, eppen most noveli megint, a Superek erkezesevel, mert van eleg 3GB vram chip."Még mindig nem értem, hogy a vram chipek mennyiségének mi köze ehhez?
Ha van az 5090 32GB-al 1 milláért, akkor egy 24GB-s kártya értelemszerűen annál csak olcsóbb lehet akármennyibe is kerüljön egy vram chip.
Amúgy a legújabb hírek szerint az 5070 Super csak 18GB vrammal jön. Mondom: az NVIDIA kínosan ügyel rá, hogy a középkategóriás gamer kártyáit még véletlenül se lehessen AI-ra használni."De ha 24GB a minimum miert nem veszel AMD 7900XTX-et? Ott az Intel B60 24GB-val."
Már többször is leírtam: mert az AI library-k jelentős része CUDA-ra épül.
Egy 5090-es áráért már lehet unified memory rendszereket is kapni: cpu, gpu, 128gb ram (ebből 96GB elérhető vramként), ssd, de a hajadra kenheted, ha nincs benne CUDA támogatás. -
Busterftw
nagyúr
"de inkább 32GB. És most a consumer kategóriáról beszélünk."
En is arrol beszeltem. Ott a 5090, ha neked arra van szukseged."Ha az NVIDIA továbbra is visszafogja a megfizethető árú kártyák vram mennyiségét"
Nem fogja vissza, eppen most noveli megint, a Superek erkezesevel, mert van eleg 3GB vram chip.
De ha 24GB a minimum miert nem veszel AMD 7900XTX-et? Ott az Intel B60 24GB-val. "Megfizetheto" -
Busterftw
nagyúr
A termek neve irrelevans, a kategoria megmarad, illetve a kategoriak sosem voltak fixek.
Lasd 5070-5070ti, ahol a 1440p kategorat fedik le. Az AMD is mar 5x atnevezte a kartyait, ettol fuggetlenul a kategoriak nem valtoztak, hiszen egy adott teljesitmenyt celoznak.Te irtad, ho gy 8 eve nem adott ki hasonlot. Most akkor mennyire hasonlorol van szo?
Ha az kell, amit a 1030 tudott, azt felesleges kiadni, hiszen megveheto, ha mas kell, akkor valassz masik kartyat."De fejlett képességű alacsony fogyasztású terméke nincs az nVidiának."
Mivel a ketto uti egymast.
Ez olyan mintha azt irnad, hogy a 5090 miert fogyaszt 450W-ot jatek alatt 4K 144Hz-en, bezzeg a 1080 elvolt 200W-al 1440p 60Hz-en."Még egy dolog, amiben az AMD az nVidia előtt jár "
Encode-decode-ban biztos nem. De masban sem nagyon.
Single digit market share rekord az megvan. -
ben2
junior tag
válasz
Busterftw #254 üzenetére
16GB vram nem elég AI-ra. 24GB a minimum, de inkább 32GB. És most a consumer kategóriáról beszélünk.
Aki komolyan csinálja, az a 96GB-os RTX 6000 Pro-val indít. (Kb. 4 millióért vesztegetik.)
Egy használt 3090 most 250 ezer körül van, a következő lépés az 5090, ami ötszörös árért 30% teljesítmény növekedést ad. A kettő között nincs semmi használható (a használt 4090-eket 750ezerért adják, miközben a vram mennyiség ugyanúgy 24GB ezért nem soroltam a használhatók közé).
Pontosabban lenne (unified memory megoldások), csak egy csomó library az NVIDIA zárt CUDA-jára épül.
Ha az NVIDIA továbbra is visszafogja a megfizethető árú kártyák vram mennyiségét, akkor csak annyit ér el, hogy a fejlesztők leszoknak a CUDA-ról és onnantól az NVIDIA-nak kell a többi szabvány után futnia. -
hapakj
őstag
válasz
Busterftw #275 üzenetére
Ott azt nem ídéztem, de egyértelműen jeleztem is, mivel nem volt idézőjelbe.
Esetetben is volt már olyan, hogy ferdítetted amit írtam.
A kategoria most is letezik, megveheted a GT 1030-at.
- nem. A GT 1030 egy termék, a kategória az xx30 lenne, amit már nem frissít.Miert adna ki megint a GT 1030-at? Megveheted most is.
- Jézusomegy szóval se írtam, hogy adja ki megint a GT 1030-at.
De fejlett képességű alacsony fogyasztású terméke nincs az nVidiának.
Egyébként tényleg. kinda az is gáz, hogy nvidia legmodernebb termékeiből csak 100W+-os megoldások vannak -
Busterftw
nagyúr
Amit te behaluztal es allitolag copy-pasteztel:
"Te állítod, hogy az nVidia milyen tökéletesen lefedi mindenki számára a termékeivel a piacot."Amit en valojaban irtam:
"Az Nvidia mindig is teljesen lefedte a piacot, mindenki valaszthat olyan teljesitmenyt, amilyet akar vagy amilyen jatekokkal, felbontassal/beallitasokkal akar jatszani.
A palettarol egyertelmuen szol az Nvidia es a jatekok fejlesztoi is megadjak, mihez mi ajanlott."Es nem ez az elso eset, hogy olyat adtal a szamba amit en nem irtam.
"Csak olyan termékkategóriáról ami létezett."
A kategoria most is letezik, megveheted a GT 1030-at.
Ha neked mas kategoriaju igenyed van, azt mas kategoriaban talalod meg. *shocker*"8 éve nem csinált hasonlót az nvidia."
Miert adna ki megint a GT 1030-at? Megveheted most is. -
hapakj
őstag
válasz
Busterftw #273 üzenetére
Igy vitazol, hogy olyanokat idezel tolem, amit en nem mondtam.
- továbbra sem vitázok, a copy paste meg nehezen változtatja meg amit írtál.En azt irtam, hogy az Nvidia eddig is lefedett mindent teljesitmenyszintet, eddig jatekrol beszeltunk, meg vramrol.
- hát ha erről van szó, itt is vannak esetek, amikor a kártya VRAM limitációba kerül.hát én tényleg olyan abszurd dolgokról mint fennt sose írtam. Csak olyan termékkategóriáról ami létezett.
A GT 1030 TDP-je sem 30W
- A GT 1030 TDP-je 30W és rengeteg félmagas passzív variánsa van. ma is kapható. 8 éve nem csinált hasonlót az nvidia.Azért tetszik, hogy kezd a legfőbb érved már csak a személykedés lenni
-
Busterftw
nagyúr
Ezek nem tenyek, hanem felremagyarazas, arrol en nem tehetek, hogy te idehozol teljesen irrelevans dolgokat, amirol szo nem volt es ezzel probalsz terelni.
Igy vitazol, hogy olyanokat idezel tolem, amit en nem mondtam."Te állítod, hogy annyira jók a kártyák, hogy mindenki megtalálja amit keres, s hogy minden kártyát csak úgy lehet nézni, hogy semmilyen limitációja nincs."
En azt irtam, hogy az Nvidia eddig is lefedett mindent teljesitmenyszintet, eddig jatekrol beszeltunk, meg vramrol.
Na most akkor ezt a ket-harom dolgot kosd ossze, nezd meg a kinalt palettat, talan sikerul.Ja bocs, igazad van, hiszen nincs szenszalas-arany otvozetu kartya, tehat ez mar egy limitacio, nem tokeletes. Konkretan ezt az abszurd narrativat es logikat tolod.
"RTX 5050-nek le lehet húzni a TDP-jét 30W-ra? Van passzív kivitel?"
A GT 1030 TDP-je sem 30W es azt irtad "legtobbszor passziv".
Megint abszurdisztan, tehat elvarsz egy teljesen mas kepesseget mint amit a regi kartya tudott, aztan csodalkozol, hogy az nincs ugyanazzal a TDP-vel.... -
hapakj
őstag
válasz
Busterftw #271 üzenetére
Nem irtam, hogy tokeletes, de mar megszoktuk, hogy igy vitazol
- én nem vitázok, mert igazából nincs miről. Én csak tényeket mondok, amiket valamiért neked nehéz elfogadni.Nem irtam, hogy tokeletes, de mar megszoktuk, hogy igy vitazol.
- Te állítod, hogy annyira jók a kártyák, hogy mindenki megtalálja amit keres, s hogy minden kártyát csak úgy lehet nézni, hogy semmilyen limitációja nincs.RTX 5050-nek le lehet húzni a TDP-jét 30W-ra? Van passzív kivitel? van félprofil kivitel? Miért nekem kelljen még babrálni a kártyát, amikor régebben erre kész megoldást adtak?
-
Busterftw
nagyúr
Nem irtam, hogy tokeletes, de mar megszoktuk, hogy igy vitazol.
"itt igazából te utazol át abszurdisztánba, mert szerinted ehhez 8 milliárd embert meg kell kérdezni, közben csak egy olyan kategóriát kell lefedni, amit régen pont ők is gyártottak."
Es mi az a kategoria? A nevezektan teljesen irrelavans, latod az AMD is ugy valtoztatja meg ahogy neki tetszik.Itt teljesitmenyrol beszeltunk es vram konfiguraciorol, jatekra.
Te hoztal ide egy teljesen mas dolgot."alacsony fogyasztású, legtöbbször passzív hűtési jó dekódolási képességekkel rendelkező dedikált videókártya."
RTX 5050. Leveszed a powerlimitet es kesz, ha a max TDP 130W neked tul sok.
Shroud levesz aztan mehet passzivban, bizonyos powerlimitnel. -
hapakj
őstag
válasz
Busterftw #267 üzenetére
Igen, mi az ellentmondas?
- ott, hogy te állítod, mennyire tökéletes az nvidia portfolói-ja közbe nem.Nyilvan 8 milliard embert nem fognak kulon megkerdezni, hogy neked kulon milen kartya kell, de latom megint atutaztal abszurdisztanba.
- itt igazából te utazol át abszurdisztánba, mert szerinted ehhez 8 milliárd embert meg kell kérdezni, közben csak egy olyan kategóriát kell lefedni, amit régen pont ők is gyártottak. -
Busterftw
nagyúr
Igen, mi az ellentmondas?
En elsosorban teljesitmenyt irtam, meg konfiguraciot (vram, amirol ment a vita), te erre valaszoltal."Régebben elérhetőek voltak"
De mi volt regebben elerheto? A 1030 most is kaphato. Ha jobb dekodolasi kepesseg kell, akkor vegyel olyan kartyat.
Nyilvan 8 milliard embert nem fognak kulon megkerdezni, hogy neked kulon milen kartya kell, de latom megint atutaztal abszurdisztanba.Pikari
Ha azt a konfiguraciot annyiert veszik meg, akkor annyiert tudod megvenni, mert annyit er.
Nem a semmiert nem jon consumer piacra mert ott teljesen mas arakkal kell dolgozni.
A tulnyomo tobbseg 64GB-ot az eleltben nem hasznalna ki, ha neked valamiert annyi kell, akkor fizesd meg. Aki pro vonalon mozog, nekik ugy is megterul. -
Pikari
veterán
Mindegyik cég ugyanúgy parazitáskodik. Például az AMD, Intel, Moore threads, stb is kiadhatna konzumer kártyákat mondjuk 64gb rammal otthon és kkv körülmények között AI-zgatni, de nem teszik, mert inkább fejik az usereket. Hallgatólagos megegyezés van arról, hogy nem fognak ötszáz dolláros kártyákat eladni ekkora rammal, amikor eladhatnak ilyet tízszer annyiért is. Fejik a tehenet, ameddig jön a tej.
-
hapakj
őstag
válasz
Busterftw #264 üzenetére
Itt nem az én igényeimről és nem rólam van szó.
Te állítod, hogy az nVidia milyen tökéletesen lefedi mindenki számára a termékeivel a piacot.
Közben ez nyilvánvalóan nem igaz. Vannak olyan konfigurációk, amiknek egyértelműen meg lenne a usecase-e. Régebben elérhetőek voltak, ma is megvalósíthatóak lennének, de egyszerűen az nvidiának nem üzleti érdeke ezeket kiadni.
-
Busterftw
nagyúr
-
ben2
junior tag
válasz
Busterftw #252 üzenetére
"Az 5070 egy Skoda Fabia, a gyartoja varosi felhasznalasra es autopalyara szanja.
Az 5090 meg egy F1 auto, a gyartoja F1 palyara szanja."A probléma ott van, hogy igény lenne városi kisteherautókra is, de (némi képzavarral élve) csak az F1 autójuknak elég nagy a csomagtere hozzá.
-
Busterftw
nagyúr
"Ez világos. a 5070 12GB előállítási költsége az idő haladtával csökkent, tehát az nvidia nyeresége nőtt. Most rárakja a 2GB-s chipek helyett a drágább 3GB-seket, tehát a nyeresége csökkeni fog. Én értem."
Ezek a koltsegek tovabb csokkennek, ahogy a 3GB chipeke is, ez lenne a lenyeg es a valasz arra, hogy lehet dragabb chippel a kartya ugyanannyi MSRP-n peldaul.
Az Nvidianak a nyeresege nem fog csokkenni, mert ok csomagban adjak az AIB-oknak a GPU-t es a GDDR7-et."illetve cáfolva se igazán lett."
De cafolva lett, hiszen az adott teljesitmeny tierre ajanlott kartya az ajanlott beallitasokon semmilyen problemat nem mutatott. Itt csak az user hulyesege volt bizonyitva"2GB chipekből bőven volt, tehát ha akar kiadhatott volna 2*2GB konfigban videókártyákat."
Mar ki lett fejtve, hogy ez miert nem volt jo otlet, a megnovekedett eloallitasi koltsegek miatt."Áh tehát magasabb felbontáson játszani és / vagy bekapcsolni az nVidia saját Frame Generation megoldásást abszurd szituáció."
Jatektol fugg minden, de igen. Nyilvan itt altalanossagban beszelunk a gamingrol. Teljesen abszurd dolog egy 1440p-re szant kartyatol 4K teljesitmenyt elvarni RT-vel, amikor meg a jatek keszitoje is vilagosan megmondja, hogy szar lesz a vegeredmeny, nem kell csodalkozni."Ha az 5090-es egy F1 autó, akkor a skoda Fabia kb egy intel igp szinvonala lehet."
Nem teljesen igy irtam le vagy igy ertettem.
Az 5070 egy Skoda Fabia, a gyartoja varosi felhasznalasra es autopalyara szanja.
Az 5090 meg egy F1 auto, a gyartoja F1 palyara szanja.A jatek fejlesztoje pedig csinalja a palyakat es megmondja, hogy oke a varosban ajanlott minimum egy Skoda Fabia 1.5os motorral, a F1 palyan pedig F1 auto ajanlott.
Mivel PC-rol van szo, az atjaras szabad, viszont a szar eredmenyt koszonheted magadnak. -
hapakj
őstag
válasz
Busterftw #250 üzenetére
- Economies of scale - Process optimization - Component integration - Supply chain maturity
- Ez világos. a 5070 12GB előállítási költsége az idő haladtával csökkent, tehát az nvidia nyeresége nőtt. Most rárakja a 2GB-s chipek helyett a drágább 3GB-seket, tehát a nyeresége csökkeni fog. Én értem.Rosszul es tevesen, ezt is mar cafolva lett,
- hát lehet téves a véleményem, de nem egyedüli, illetve cáfolva se igazán lett. 2GB chipekből bőven volt, tehát ha akar kiadhatott volna 2*2GB konfigban videókártyákat.Igen, abszurd szituaciok.
- Áh tehát magasabb felbontáson játszani és / vagy bekapcsolni az nVidia saját Frame Generation megoldásást abszurd szituáció. Hát úgy tűnik akkor én szeretek veszélyesen élni.De amúgy most a példáddal megfogtál. Nagyjából igazad van. Ha az 5090-es egy F1 autó, akkor a skoda Fabia kb egy intel igp szinvonala lehet. Hát tény hogy kevés VRAM van az 5070-en de azért ennyire én se degradálom le.
Sőt igazából kiváncsi vagyok mit fog tudni, ha végre megfelelő mennyiségű vram-ot kap, mert a jelenleg mennyiséggel lassan tényleg csak irodai munkára lesz alkalmas
-
Busterftw
nagyúr
"s ez a minden más költség mitől változna, attól függően, hogy 2GB vagy 3GB-s memória kerül rá?"
Mar tobbszor leirtam, nezz utana ezeknek:
- Economies of scale
- Process optimization
- Component integration
- Supply chain maturityA PS3-at kb 800 dollar volt eloallitani 2006-ban. 2009-re a Sony kb 50-60%-al csokkentette a gyartasi koltseget.
De ott a 3GB GDDR7 peldakent, egyszerusitve, sarkitva:
- 2024 Q3: csak a Samsung gyart 10ezer darab per/ho kapacitassal, 1 darab ara 10 dollar.
- 2025 Q1: a Samsung mar havi 40ezer darabot tud gyartani, 1 darab 7 dollar.
- 2025 Q3: a SK Hynix is gyart mar, arverseny van es 1 darab 5 dollar.
- 2025 Q4: a Micron is szallit mar az Nvidianak, telitodik a piac, 1 darab 3 dollar.Ugyan ez igaz kb minden mas alkatreszre.
"Csak megállapítottam a kártyának egy gyengeségét, s hogy üzletileg logikusnak tartottam miért nem adott ki az nVidia olyan variánst ami ezt javítja"
Rosszul es tevesen, ezt is mar cafolva lett, hiszen akkor most sem adna ki tobb vrammal Supereket. Tehat nem uzleti oka volt, hanem a legfobb indok az, hogy nem volt eleg 3GB chip launchra.
Illetve a kartyanak nem a vram a gyengesege, hanem az idiota user/tesztelo nem tud olvasni."A játékokat én hoztam be a képbe, mert azért látszik, vannak szituációk, ahol már az 5070 12GB-je már elfogy."
Igen, abszurd szituaciok. Olyan abszurd, mint amikor kimesz a Fabiaval a F1 palyara versenyezni. Ilyenkor nem kell csodalkozni, ha rajtad rohog mindenki. -
hapakj
őstag
Hja hát ez elég sokak szerint így van, meg elég feltűnő, hogy a Tensor magok megjelenésekor kezdte duplázni a RAM-ot a félprofesszionális xx90 szérián az nVidia.
Ismerős is csak kb a RAM miatt vett xx90-est, de mondta neki egy xx70 is elég lenne teljesítményben, ha lenne rajta elég RAM.
A játékokat én hoztam be a képbe, mert azért látszik, vannak szituációk, ahol már az 5070 12GB-je már elfogy. Főleg ha Frame Generationhöz tartozó neural hálót is be kell húzni a VRAM-ba.
-
ben2
junior tag
Az egész onnan indult, hogy egy offtopic hozzászólásban keseregtem, hogy a consumer AI inference felhasználók rá vannak kényszerítve a CUDA használatra, miközben az NVIDIA szándékosan limitálja a középkategóriás kártyáin a vram mennyiséget és így egyedül az 1milla feletti 5090 maradt halandó felhasználóknak AI célokra (vagy a használt 3090, 4090).
Erre Busterftw rávágta, hogy nem igaz, hogy az NVIDIA szándékosan limitálja a vramot az olcsó kártyáin és azóta csak és kizárólag arról hajlandó értekezni, hogy a játékok teljesítményében mennyire mérvadó a vram mérete, miközben az eredeti felvetés eleve az AI célú felhasználásról szólt. -
hapakj
őstag
válasz
Busterftw #245 üzenetére
minden mas koltseget, ami egy kartya eloallitasaval jar.
- s ez a minden más költség mitől változna, attól függően, hogy 2GB vagy 3GB-s memória kerül rá? A 2GB-s változatnál miért lenne annyival magasabb az egyéb költség, mint amennyibe a 6 3GB-s chip felára?Te hibaztattad az Nvidiat, hogy miert ad ki kevesebb vrammal
- én sose hibáztattam az nvidiátCsak megállapítottam a kártyának egy gyengeségét, s hogy üzletileg logikusnak tartottam miért nem adott ki az nVidia olyan variánst ami ezt javítja
-
Busterftw
nagyúr
"ilyen hülyeséget soha nem is állítottam. Ne képzelj már oda olyan dolgokat amik ott se voltak"
Nem kepzelek, ott van feketen feheren. Te konkretan leirtad, hogy mivel a 3GB chip dragabb, mint a 2GB chip, ezert az egesz kartya eloallitasa dragabb, mashogy nem lehet.
Te pontosan ezt allitod, ignoralva minden mas koltseget, ami egy kartya eloallitasaval jar."tehát az előállítási költség több lesz és ez többre kerül az nVidiának."
Tehat hasrautes, mert szamaid nincsenek. Az eloallitas nem valtozik, mert a design nem valtozik, mikozben az egesz supply chain a piac telitodesevel, uj vendorokkal csak olcsobb es olcsobb lesz."Másrészt autóversenyben is vannak különböző teljesítmény kategóriák "
Csak en nem autoversenyt irtam, hanem F1 versenyt, amire te 1.3-as varosi kocsival akarsz benevezni, es ekezed a Skodat, mert jaj nem megy olyan gyorsan, mint az F1 auto."ki mondta, hogy hibás a gyártó?"
Te hibaztattad az Nvidiat, hogy miert ad ki kevesebb vrammal, az Nvidia miert nem csinalta meg clamshellel, az Nvidia igy meg ugy."áhá, szóval az nVidia azért is rak több ramot a kártyáira, hogy az AMD-sek befogják a szájukat"
Nem tudom miert csodalkozol, errol mar beszeltunk az uzleti strategianal, amikor ertetlenkedtel, hogy az Nvidianak ez miert eri meg. Hat ezert is.Pikari
Ezek nem elkepzelesek, consumer launchra nem volt eleg 3GB chip, most meg van.
Szaraz tenyek. -
Pikari
veterán
Mindketten olyanok, akik szeretnek hosszú szóvirágokban vitatkozni az elképzeléseik mentén, és addig nem hagyják abba, amíg látszólag nem nyernek.
Mindig is kíváncsi voltam, hogy mi történne akkor, ha két ilyen lelkületű ember összeszólalkozna, az eredmény pedig ez a 10 oldal hosszú kisregény lett, ahol az se derül ki, hogy miről vitatkoznak
Azt leszámítva, hogy a videó memóriának valahogy köze van hozzá.
-
hapakj
őstag
válasz
Busterftw #241 üzenetére
Egyszeruen ignoralod azt a tenyt, hogy 1 darab vram chip ara nem egyenlo a kartya araval.
mit ignorálok? ilyen hülyeséget soha nem is állítottam. Ne képzelj már oda olyan dolgokat amik ott se voltakcsak azt az egyszerű dolgot mondtam, hogy most 6 olcsóbb chip helyett 6 drágábbat forrasztanak rá. tehát az előállítási költség több lesz és ez többre kerül az nVidiának.
Nagyon is megalapozott
- hogy a fenébe akarod ez megalapozni autókkalMásrészt autóversenyben is vannak különböző teljesítmény kategóriák és ott is felmérik az autók képességeit miközben maxra hajtják és figyelik hol és miért fogy el kraft.
akkor meg azert a gyarto a hibas.
- ki mondta, hogy hibás a gyártó?Nem csak azert
- áhá, szóval az nVidia azért is rak több ramot a kártyáira, hogy az AMD-sek befogják a szájukat -
Busterftw
nagyúr
"igen, ez korrekt"
Tehat ugyanigy lehet egy arban a 5070 es a 5070 Super is."mitől olcsóbb?"
Mar leirtam, keresd vissza, supply chaing, BOM, tobb gyarto stb.
Egyszeruen ignoralod azt a tenyt, hogy 1 darab vram chip ara nem egyenlo a kartya araval.
Illetve eloallitani epp nem lesz dragabb, mert ez a lenyege, a designon nem kell valtoztatni, csak kb 2GB chip helyere 3GB chipet forraszt az AIB."Én csak annyit állítottam, hogy vannak esetek, ahol az 5070-en segítene az extra VRAM, de te belemész egy teljesen felesleges technikailag megalapozatlan okfejtésbe, hogy ez nem igaz."
Nagyon is megalapozott, mert egy abszurd szituaciot veszel alapul, ami egyertelmuen teves es marhasag. Te azt a szituaciot vetted alapul, hogy a Skoda Fabiaval a tesztelo F1 versenyzok mellett F1 palyan akart helytallni, aztan amikor jott a hidegzuhany, akkor meg azert a gyarto a hibas.Aztan te elkezdtel olyan tenyeket tagadni, hogy jaj hat nincs olyan, hogy a Skoda mondja meg melyik szituaciora es palyara szanja az autoit, nincs olyan, hogy a palya tervezoje milyen minimum autot enged be a palyara, nincs olyan hogy utcai auto, nincs olyan hogy F1 auto, azt en dontom el hol versenyzek...
Es akkor neked nem tiszta, hogy ki ervel ultra gazul.Tehat igen, tenyszeruen, ha Skoda Fabiaval F1 versenypalyara mesz es mindneki lehagy, akkor idiota az user meg a tesztelo is.
"konkrétan azt állítod, hogy nVidia csak azért rak több VRAM-ot a kártyáira, hogy az AMD-sek befogják a szájukat."
Nem csak azert, azert, mert most mar elehetoek nagy mennyisegben a 3GB modulok.
Minden mas csak extra, ha mar az AMD kullog a vrammal es vissza fejlodik. -
hapakj
őstag
válasz
Busterftw #239 üzenetére
A 4070 es a 4070 Super eseteben ugyanazon a chipen ~22% tobb maggal kellett operalni gyartas soran, nott a 20W-al a fogyasztas is, aztan megis ugyanannyi lett az MSRP.
igen, ez korrektIgen es azt is irtam, hogy az egesz kartya koltsege mar lehet egy arban vagy olcsobb.
Ez szepen ignoraltad, sokadjara.
- mitől olcsóbb?
Már többször leírtam, hogy ha mostani vagy majdani 5070 előállítása ára x, akkor ha lecseréljük rajta a 2GB-s chipeket drágább 3GB-sre és 5070 SUPER lesz belőle, akkor nyilvánd drágább előállítani. De te ezt szépen ignorálod sokadjára.Peldaul ahol szamit az az extra cuda core.
Tehát maximum 4% előrelépésre számítunk, legalább 10% fogyasztás növekedés mellett. 4% lényegében semmi, szóval tényleg illene árat csökkenteniük, amellett, hogy drágábban állítják elő a kártyát.Igen, mert itt latszik, hogy a vram nem minden.
- soha senki se mondta, hogy a vram minden.Eleg gaz amit csinalsz
- szerintem ne menjünk bele ki a gázÉn csak annyit állítottam, hogy vannak esetek, ahol az 5070-en segítene az extra VRAM, de te belemész egy teljesen felesleges technikailag megalapozatlan okfejtésbe, hogy ez nem igaz.
Lehülyézed / idiótázod a tesztereket / felhasználókat.
S konkrétan azt állítod, hogy nVidia csak azért rak több VRAM-ot a kártyáira, hogy az AMD-sek befogják a szájukat.
Pl.:Nem lesz jobb, viszont elhallgattatja vegre azokat a hulye usereket, akik eddig a keves vramon nyavajogtak illetve elvesz par Radeon usert, akik a 9070(XT)-n gondolkozott.
-
Busterftw
nagyúr
"igen csökkentették is az árát 200$ USD-vel, de jelen esetben viszont az előállítási költség nyilván nőni fog. Tehát ha nVidia e mellett csökkenti az árat, akkor ez bukó az nvidiának"
Arak es konkret koltseg nelkul ez hasrautes.
A 4070 es a 4070 Super eseteben ugyanazon a chipen ~22% tobb maggal kellett operalni gyartas soran, nott a 20W-al a fogyasztas is, aztan megis ugyanannyi lett az MSRP."Én is objektívan érveltem, csak nem voltál hajlandó elfogadni. Igen megkérdezem ugyanazt, mert nem válaszolsz a kérdésre."
Aligha, szubjektiven talalgattal es teves konluzioval szalltal be a vitaba.
De valaszoltam, utana megegyszer linkeltem. Tehat ki nem fogadja el a valaszt?"te írtad, hogy a 3GB chip drágább lesz, mint a 2GB-s"
Igen es azt is irtam, hogy az egesz kartya koltsege mar lehet egy arban vagy olcsobb.
Ez szepen ignoraltad, sokadjara.
Az Nvidia pedig a FE kartyakon kivul aztan nem bukik semmit, mert o adja az AIB-oknak csomagban a GPU-t es a GDDR7-et is."Várhatóan milyen esetekben lesz más az eredmény?"
Peldaul ahol szamit az az extra cuda core."Ki mutatta, hogy bizonyos esetekben az 5070 12GB VRAM hiányban szenved."
Nem, azt mutatta meg, hogy a tesztelo azokban az esetekben idiota.
Ajanlott felbontasban/beallitasokkal teljesen jo a kartya, ahova valo."Te hoztad fel először, hogy az RDNA3 semmire sem ment a több VRAM-mal."
Igen, mert itt latszik, hogy a vram nem minden."Most meg azzal példálózol, hogy milyen zseniális üzleti döntés, hogy az nVidia ebben az AMD után kullog."
Nem ezt irtam, ott van fenn, tenyszeruen az AMD visszalepett es kullog az Nvidia utan.
Eleg gaz amit csinalsz, amikor minden visszakovetheto es odakepzelsz olyan dolgokat, amit nem mondtam. -
hapakj
őstag
válasz
Busterftw #237 üzenetére
"Almost no performance increase over RTX 4080 non-Super"
- igen csökkentették is az árát 200$ USD-vel, de jelen esetben viszont az előállítási költség nyilván nőni fog. Tehát ha nVidia e mellett csökkenti az árat, akkor ez bukó az nvidiánakMinden mellett objektiven, logikusan erveltem, veled ellentetben.
utana ugyanazt megkerdezted.
Én is objektívan érveltem, csak nem voltál hajlandó elfogadni. Igen megkérdezem ugyanazt, mert nem válaszolsz a kérdésre.Ezt konkret szamok nelkul nem tudhatod, csak ujabb hasrautes.
- te írtad, hogy a 3GB chip drágább lesz, mint a 2GB-s és az 5070 SUPER és 5070 között kb csak ez a lényegi különbség.Teljesen nyilvanvalo, hogy van ahol mas lesz az eredmeny.
- én igy gondolom. Várhatóan milyen esetekben lesz más az eredmény?Mondtam, a tied is jo, csak nezd meg a megfelelo tesztet.
- én is így gondolom. Ki mutatta, hogy bizonyos esetekben az 5070 12GB VRAM hiányban szenved.Az Nvidia mar 32GB-nal tart, az AMD meg visszalepett 16GB-ra.
- Én mondjuk nem is hasonlítgattam az nVidia-t és az AMD-t. Te hoztad fel először, hogy az RDNA3 semmire sem ment a több VRAM-mal. Most meg azzal példálózol, hogy milyen zseniális üzleti döntés, hogy az nVidia ebben az AMD után kullog. -
Busterftw
nagyúr
"De ilyen hasraütés szerű kijelentésekkel senkit nem fogsz."
Minden mellett objektiven, logikusan erveltem, veled ellentetben.
Te csak futod a koroket, van amire nem is valaszolsz es utana ugyanazt megkerdezted."de mit mutatnák?"
"a kártya képességeit" Erre valok a tesztek.
Nezd meg a 4080 Super teszt konluziojat, most tekintsunk el az arvagastol.
itt egy negativ:
"Almost no performance increase over RTX 4080 non-Super"Ennek ellenere ugyanugy kiemeltek a 4000 szeria pozitivumait es mivel a 4080 helyett erkezett, minden megy tovabb, az userek veszik "ugyanazt" a nagyszeru termeket.
Na most ezt vetitsd le a 5000 szerianal.
A kartyakat nem kell rasozni senkire, viszik mint a cukrot, a Superekkel csak adnak neki megegy loketet a generaciok kozott, ez az egesz strategia es uzletileg egyertlemuen megeri."Akármikor drágább lesz az 5070 SUPER előállítási mint az akkori 5070-é, mivel drágább komponenseket kap. Ennyi"
Ezt konkret szamok nelkul nem tudhatod, csak ujabb hasrautes.
Azt viszont tudjuk, hogy normalis esetben egyre olcsobb lesz minden, mert bovul a kinalat, bovulnek a vendorok es olcsobb lesz a supply chain felfutasaval.
Ez minden termeknel kb igy van."50% VRAM növekedés, meg mint ugye tudjuk semmit se ér"
Ezt senki nem mondta. Teljesen nyilvanvalo, hogy van ahol mas lesz az eredmeny.
Viszont ennek semmi koze ahhoz, hogy a 5070-et valaki ugy akarja hasznalni, amire nem valo, mert idiota es nem tud olvasni."Akkor kérlek linkelj normális teszteket az 5070-ről"
Mondtam, a tied is jo, csak nezd meg a megfelelo tesztet.
Nezd meg a jatekot amivel tesztel, nezd meg az ajanlott gepigenyt, felbontast, beallitasokat es meglatod, hogy teljesen jol fog menni a kartya."Miért lenne előnyös a több VRAM? S már ismét csak egy AMD terméket, tehát AMD utána kullogást emlegetünk?"
Azt te emlegetted, hiszen az AMD kullog az Nvida utan. Az Nvidia mar 32GB-nal tart, az AMD meg visszalepett 16GB-ra. -
hapakj
őstag
válasz
Busterftw #235 üzenetére
Nem feladatom téged meggyőzni
- tényleg nem. De ilyen hasraütés szerű kijelentésekkel senkit nem fogsz.Majd a tesztek megmutatják.
- de mit mutatnák? Amikor a GPU sem szignifikánsan, erősebb az 50% VRAM növekedés, meg mint ugye tudjuk semmit se ér. A megállapításaid alapján semmi érdemlegeset nem fognak kimutatni, vagy csak hasraütés szerűen kijelentesz dolgokat?Csak ugye a Superek nem tegnap érkeztek a piacra, hanem majd minimum fél év múlva.
- teljensen mindegy mikor érkeznek a piacra. Akkor legyen x az 5070 fél év múlva előállítási ára. Ennyi. Akármikor drágább lesz az 5070 SUPER előállítási mint az akkori 5070-é, mivel drágább komponenseket kap. Ennyi.Ott a linkeden igen, de vannak normális tesztelők.
- Akkor kérlek linkelj normális teszteket az 5070-rőlÉs teszteket. Ne marketing anyagot.
Lehet bármi, ár/érték, újabb modell, több mag, több vram.
- Miért lenne előnyös a több VRAM? S már ismét csak egy AMD terméket, tehát AMD utána kullogást emlegetünk? -
Busterftw
nagyúr
Egyáltalán nincs ellentmondás, te mostál össze egy csomó dolgot, többször is, szubjektív és érzelmi alapon.
Nem feladatom téged meggyőzni, az Nvidia "Super" stratégiája eddig is bejött, üzletileg megéri.
Hasraütve kijelentesz dolgokat amiknek objektíven semmi értelme."technikailag milyen előnye lesz a több vram-nak a kártya képességeit / határait tekitve? Vagy rárakják dísznek?"
Majd a tesztek megmutatják. Mivel a Superek általában kiváltják a non-supereket a piacon, itt kb semmi hátrány nincs, ha az ár marad."Ki volt emelve, hogy a mostani előállítási ár, hogy egyértelmű legyen."
Csak ugye a Superek nem tegnap érkeztek a piacra, hanem majd minimum fél év múlva. Teljesen mások lesznek a számok.
Ez nem definíció volt tőled, hanem egy újabb hasraütés."Nem úgy volt, hogy ott hülyék használják a kártyákat arra amire nem való?"
Ott a linkeden igen, de vannak normális tesztelők.
Illetve a te linkeden is tesztelnek helyesen (értsd az ajánlott felbontáson/beállításokkal), csak ebből te téves konklúziót vontál le."Milyen előnyét hoznák ki az 5070 SUPER-nek az 5070-hez képest?"
Lehet bármi, ár/érték, újabb modell, több mag, több vram.
Igazából teljesen mindegy, ha a 9070 helyére jön. -
hapakj
őstag
válasz
Busterftw #233 üzenetére
Én értelmezem, amit mondasz, ezért tűnik fel, hogy egymás ellenmondó dolgokat írsz, s nem igazán tudsz meggyőzni, hogy ez az extra VRAM-os 5070 SUPER bármilyen előrelépés lenne. Zérő fejlődés cserébe drágább előállítás, potenciálisan magasabb ár. Talán, ha extra VRAM adna bármilyen potenciális előnyt az alapváltozathoz képest, dehát ugye tudjuk, az az RDNA3-on sem segített.
Technikailag több vram lesz rajt
- s technikailag milyen előnye lesz a több vram-nak a kártya képességeit / határait tekitve? Vagy rárakják dísznek?Már itt bukik a dolog
- Ott nem bukott semmi dolog. Az nem egy állítás volt, hanem egy definició.Ki volt emelve, hogy a mostani előállítási ár, hogy egyértelmű legyen.
Ehhez kellenek előbb a tesztek
- s mit hoznának ki a tesztek? Nem úgy volt, hogy ott hülyék használják a kártyákat arra amire nem való? Milyen előnyét hoznák ki az 5070 SUPER-nek az 5070-hez képest? -
Busterftw
nagyúr
"lássuk"
Korábbi hsz-ben. Többszöri elolvasást, szöveg megértését már javasoltam, mert futod a köröket."Egyrészt nem is konzisztensek a válaszaid "Jobb lesz" vs "Nem lesz jobb" másrészt ebből csak az jön le, hogy az nvidia a hülye userek miatt rak több VRAM-ot a kártyára, meg csak azért mert kullog az AMD után."
A válaszaim objektíven konzisztensek, viszont értő olvasást igényelnek. Nem segít, hogy kontextus nélkül összemosol dolgokat. Mint írtam, egy termék megítélése szubjektív ha vásárlóról van szó.Az AMD után ugyan nem kullog, mert az AMD éppen hatalmas visszalépést csinált, az Nvidiaval ellentétben. Az userek pedig látják ezt (ahogy láttákmmár generációról generációra), ezért csökkent 6%-ra a market share.
"még 10% is marha sok, ha technikailag zéró előre lépés van."
Technikailag több vram lesz rajt és a 5070 esetében pedig több mag. Ezt jelenti a technikailag. A több pedig objektívan előrelépés. Ez nem AMD, ahol eddig 20-24GB adtak, most meg csak 16GB-ot" Legyen az 5070 mostani előállítása: x"
Már itt bukik a dolog, mert a supply chain launch utáni felfutásával ez már egy teljesen más összeg vs launchra megállapított BOM és msrp. Lásd a GDDR7-él launch előtt csak a Samsung gyártott valamennyit, azóta többszörösen bővült a kapacitás és belépett mégegy gyártó is (SK Hynix), úton a harmadik (Micron)."Mivel azt már többször kifejtetted az extra VRAM-nak semmilyen technikai előnye nincs, meg hogy a kártya sem lesz jobb, így az 5070 SUPER olyan teljesítményű lesz, mint az 5070. "
Ehhez kellenek előbb a tesztek, meg az ár, de ezt is írtam már."Akárhogyis nézzük, ez a refresh egy elég amatőr és felesleges lépés így az nVidiától."
Egyáltalán nem az, ez egy remek üzleti és stratégiai döntés két gen között, ami kimutathatóan nagyon bejött az Nvidianak. -
hapakj
őstag
válasz
Busterftw #231 üzenetére
Már válaszoltam.
- LássukLásd a vram huszárok, akik X vram alatt nem vesznek kártyát, mert csak.
Jobb lesz, mert több vramot kap. A vram fröcsögők most örülhetnek.
Nem lesz jobb, viszont elhallgattatja vegre azokat a hulye usereket, akik eddig a keves vramon nyavajogtak illetve elvesz par Radeon usert, akik a 9070(XT)-n gondolkozott.
Egyrészt nem is konzisztensek a válaszaid "Jobb lesz" vs "Nem lesz jobb" másrészt ebből csak az jön le, hogy az nvidia a hülye userek miatt rak több VRAM-ot a kártyára, meg csak azért mert kullog az AMD után.
10-20% az semmi
- még 10% is marha sok, ha technikailag zéró előre lépés van.Ezért mondtam, hogy végső, megjelenési árak nélkül felesleges ezen pörögni.
- Én nem pörgök, de akkor egy kis matekLegyen az 5070 mostani előállítása: x
maga a 3GB chip egységáron drágább, mint a 2GB.
Ez a különbség legyen: d
Tehát akkor az 5070 SUPER előállítása kb x + 6 * d
Mivel azt már többször kifejtetted az extra VRAM-nak semmilyen technikai előnye nincs, meg hogy a kártya sem lesz jobb, így az 5070 SUPER olyan teljesítményű lesz, mint az 5070. Emiatt jogos lenne ugyanolyan áron adni, de akkor az nVidia benyel 6 * d előállítási árkülönbséget.Ha meg drágábban adja, akkor elég gáz refresh címszó alatt, egy ugyanolyan képességű kártyát drágábban adni.
Akárhogyis nézzük, ez a refresh egy elég amatőr és felesleges lépés így az nVidiától.
-
Busterftw
nagyúr
"miért lenne jobb, mert több VRAM-ot kap?"
Már válaszoltam."Mi előnye, hogy több legyen? feleslegesen? többlet fogyasztással?"
Nem felesleges, üzleti és piaci előnye lesz az Nvidianak. Már ezt is kifejtettem. Ajánlom a válaszok többszöri elolvasását, mert csak futod a köröket."5070-nek 250W a TDP-je"
Egy Super "leak" listát néztem, sanszos hogy ott elirták 300W-ra.
10-20% az semmi, miközben így is jó, élmezőnybeli perf/wattot érnek el."azt akarod mondani, hogy a 2 és 3GB-s chipeket ugyanolyan áron adják a gyártók az nvidiának?"
Te a kártyáról beszéltél fentebb, a Super verzióról, mint ajánlat.
De ezt is már kifejtettem. Attól, hogy maga a 3GB chip egységáron drágább, mint a 2GB, a kártya előállítása összesen nem lesz feltétlenül drágább.
Ezért mondtam, hogy végső, megjelenési árak nélkül felesleges ezen pörögni. -
hapakj
őstag
válasz
Busterftw #229 üzenetére
Jobb lesz, mert több vramot kap.
- miért lenne jobb, mert több VRAM-ot kap? RDNA3-as radeonokon sem segített semmit az extra VRAM.A GPU ide tölti be a textúrákat, 3D modelleket stb. Nagyon fontos, olvass utána.
- tisztába vagyok vele, de ha erre 12GB is tökéletesen elég volt. Mi előnye, hogy több legyen? feleslegesen? többlet fogyasztással?5070-nél kerekítve 10%, 5070ti-nél 16%, 5080 esetében 15%.
a 3GB chipek miatt is kicsit kitoljak a TDP-t 50W-al es ennyi.
az 5070-nek 250W a TDP-je. 50W az ennek a 20%-aléka. Tehát előbb még 20%-ról beszéltél. Egyébként még a 10% is marha sok zéró előrelépéshez képest.Azt, hogy drágább előállítani, nincs forrásod, valószínűleg nincs így
- azt akarod mondani, hogy a 2 és 3GB-s chipeket ugyanolyan áron adják a gyártók az nvidiának? van erről valami forrásod? -
Busterftw
nagyúr
"miért lenne jobb"
Mert valaminek az értéke szubjektív. Lásd a vram huszárok, akik X vram alatt nem vesznek kártyát, mert csak. Aztán a teszteket meg sem nézik."hogyan számít a VRAM?"
A GPU ide tölti be a textúrákat, 3D modelleket stb.
Nagyon fontos, olvass utána."Zéró előrelépés nélkül marha sok a 20% fogyasztásnövekedés, ráadásul drágább is előállítani."
5070-nél kerekítve 10%, 5070ti-nél 16%, 5080 esetében 15%.
Ez nem sok, illetve ez TDP, nem valós fogyasztás, ami játéktól függően más.
Azt, hogy drágább előállítani, nincs forrásod, valószínűleg nincs így, mert az egész ellátási lánc már bejáratott launch óta. -
hapakj
őstag
válasz
Busterftw #227 üzenetére
Jobb lesz, mert több vramot kap.
- miért lenne jobb, mert több VRAM-ot kap? RDNA3-as radeonokon sem segített semmit az extra VRAM.A vram számít,
- hogyan számít a VRAM?"50W-al többet fog fogyasztani drágább alkatrészekkel" És?
- Zéró előrelépés nélkül marha sok a 20% fogyasztásnövekedés, ráadásul drágább is előállítani. -
Busterftw
nagyúr
"kártya nem lesz jobb"
Jobb lesz, mert több vramot kap. A vram fröcsögők most örülhetnek."több VRAM nem számíthat, mert eddig se számított"
A vram számít, csak nem úgy ahogy te azt itt tévesen előadtad, hülye userekkel és félrevezető tesztekkel."50W-al többet fog fogyasztani drágább alkatrészekkel"
És?"de most csinálnak egy visszalépést."
Majd a tesztek után megnézzük, de még így is élvonalban lesznek."miért kellene tesztelni?"
Mert anélkül mégtöbb hasraütések születnek. -
hapakj
őstag
válasz
Busterftw #225 üzenetére
A GPU nem valtozik (a 5070 Supernel lesz +256 cuda core), tehat a teljesitmeny ugyanaz lesz
- tehát a GPU ugyanaz a teljesítmény"Mitől lesz akkor jobb a videókártya?"
Nem lesz jobb
- a kártya nem lesz jobb"12GB-vel mindenképp kifut a VRAM-ból és ez tény."
Nem fut ki, nem ezt mutattak a tesztek.
- a több VRAM nem számíthat, mert eddig se számított3GB chipek miatt is kicsit kitoljak a TDP-t 50W-al es ennyi.
- 50W-al többet fog fogyasztani drágább alkatrészekkelPerf/wattban így is elől járnak az Nvidiak
- ez lehet, de most csinálnak egy visszalépést.Ezt tesztek, árak nélkül nem tudod így megmondani
- miért kellene tesztelni? -
Busterftw
nagyúr
"Mivel az nvidia nem tud érdemben előrelépni a termékével ezért feleslegesen megváltoztatja annak a specifikációját"
Nem feleslegesen, hiszen uzletileg megeri, ahogy eddigi Superek is megertek a refresht.
Es ez meg mindig jobb, mint az AMD, ahol nem hogy erdemben nem tudott elorelepni, de meg vissza is lepett. Ez meg is latszik a piaci reszesedesen."Mindezt azért, hogy közelebb kerüljön az AMD termékek specifikációjához."
Ilyen szempontbol ket termeket nem nagyon lehet osszehasonlitani, nincs is ertelme, mert az Nvidia nincs raszorulva az AMD kovetesere.
Csupan igy jott ki a GDDR7 gyartas, most lett eleg 3GB chip.A mostani es az eddigi generaciokban sem az Nvidia volt a sereghajto, a tesztek sem indokoltak es a Radeonok sem mentek semmire a tobb vrammal. Ezt az userek is tudjak, hiszen nagy atlagban az Nvidiak jobban oregedtek, nem minden a vram.
Itt epp az Nvidia az, aki novelte folyamatosan a vramot, consumer vonalon mar 32GB tartanak, mig az AMD 16GB-nal.
-
hapakj
őstag
válasz
Busterftw #221 üzenetére
Persze. Teljesen érthető. Mivel az nvidia nem tud érdemben előrelépni a termékével ezért feleslegesen megváltoztatja annak a specifikációját. Ennek teljesítményére jótékony hatással nem lesz, cserébe többet is fog fogyasztani és drágábban fogja adni.
Mindezt azért, hogy közelebb kerüljön az AMD termékek specifikációjához.
-
Busterftw
nagyúr
A Superekkel egy koztes szeria a cel, amolyan refresh, ami fellenditi az eladasokat es felkavarja kicsit az allovizet. Ez eddig is bejott az Nvidianak, uzletileg teljesen valid strategia, objektiven nem hulyeseg.
"hiszen a gyártók biztosan nem adják ugyanolyan áron a 3GB és 2GB chipeket"
Kulon-kulon nezve a chipeket biztosan dragabb, az egesz designt tekintve mar nem biztos, lasd a fenti elemzest. Az AIB partnerek a Superekkel szinten uj lenduletet kapnak, ami noveli az eladasokat.
Az MSRP-t nem tudjuk, tehat akar tobb penzt is jelenthet nekik, mert adhatjak dragabban a Super verziokat."elismeri az AMD fölényét és kullog megvalósításban utána."
Nincs AMD foleny, eddig sem volt. Sot, a Q2 globalis reszesedes epp azt mutatja, hogy tortenelmi melypontra kerult az AMD a RDNA4-el. A 5070 az egyik legnepszerubb Blackwell Steamen is, mar top 20-ban van, mikozben az RDNA4-bol egyik sem erte el a minimum 0.15%-ot.De ez sem ujdonsag, az AMD eddig is tobb vramot adott (kivetel RDNA4), aztan nem ment vele a jatekokban kb semmire.
-
-
hapakj
őstag
válasz
Busterftw #218 üzenetére
Hát akkor több szempontból is nagyon hülye az nvidia.
Teljesen magabiztos az 5070 12GB teljesítményében, hiszen az extra VRAM semmit nem segít. Ennek ellenére:
* kiadja 18GB RAM-mal, ami biztosan több kerül neki, hiszen a gyártók biztosan nem adják ugyanolyan áron a 3GB és 2GB chipeket
* elismeri az AMD fölényét és kullog megvalósításban utána.
* emelett még a kártya vagy 50W-al többet is fog fogyasztani. -
Busterftw
nagyúr
Mert 2GB-al máshogy nem tudod növelni, csak duplázni.
3GB-al nyilván elég a 6.
Tehát az árazás összesen, mindent figyelembe véve már nem olyan egyértelmű. 12x2GB (+bonyolultabb PCB, nagyobb hűtés stb) vs 6x3GB (+minden ugyanaz)"illetve mivel tényleg semmi érdemlegeset nem változtattak a Super 4080 200$-al olcsóbb volt mint az alapváltozat."
Igen, ott a selling pont az ár volt."S kiadnak egy drágábban előállítható kártyát, mert a felhasználói hülyék."
Árakat nem tudunk még. Az Nvidianak nagyon drágább nem lesz, max adja valamivel drágábban tovább az AIB-nak.
Viszont igen, az Nvidianak mindenképpen pozitív, mert a hülye userek ezzel végre bekussolnak, ha már nem értenek a PC-hez és nem tudnak olvasni, és elszívhat AMD-től potenciális vásárlókat. -
hapakj
őstag
válasz
Busterftw #216 üzenetére
Mert hiába drágább egy 3GB chip, abból 6 kell, míg az olcsóbb 2GB-ből 12.
- miért kéne 12 db 2GB chip? az 5070 12GB-n ugyanúgy 6 chip van mint a 18GB-senA 4080 Super és 4080 között 512 cuda core különbség volt
- illetve mivel tényleg semmi érdemlegeset nem változtattak a Super 4080 200$-al olcsóbb volt mint az alapváltozat.Tehát állításod szerint a GPU nem lesz jobb. Az VRAM miatt semmi előnye nem lesz, de emiatt a kártya is többet is fog fogyasztani (úgy 50w-al). S kiadnak egy drágábban előállítható kártyát, mert a felhasználói hülyék.
-
Busterftw
nagyúr
Hát most erre mit mondjak, ez a tapasztalat.
A 4080 Super és 4080 között 512 cuda core különbség volt, ami átlagban hozott kemény 1-5% FPS-t (10240 vs. 9728).Szóval igen, a teljesítmény ugyanaz.
"a gyártók közel ugyanolyan áron adnák a 2GB és 3GB chipeket"
A gyártók nem adják ugyanolyan áron a GDDR7-et, viszont összesen már nem lehet akkora különbség, főleg ha mindent figyelembe veszel.
Mert hiába drágább egy 3GB chip, abból 6 kell, míg az olcsóbb 2GB-ből 12.
Aztán a PCB design egyszerűbb, olcsóbb, gyártásnál nagyobb a yield, a hűtés. is egyszerűbb, a fogyasztás kevesebb stb.Az Nvidia a GPU mellé adja a GDDR7-et is, az AIB gyártók nem a vram gyártóktól veszik. És pont ezzel lesz nekik "olcsóbb" , mert igazából minden ugyanaz, sarkítva, az AIB partner kb 2GB chip helyére odaforrasztja a 3GB chipet és kész.
Nem kell új PCB, nem kell új hűtés design stb. -
hapakj
őstag
válasz
Busterftw #214 üzenetére
A GPU nem valtozik (a 5070 Supernel lesz +256 cuda core), tehat a teljesitmeny ugyanaz lesz
Nem lesz jobb
- bocs, de te írtad le kétszer is hogy a teljesítmény ugyanaz és nem lesz jobb, s nem gondolnám, hogy a gyártók közel ugyanolyan áron adnák a 2GB és 3GB chipeket. Szóval az nVidia kiad egy terméket, aminek az előállítási költsége több, de semmivel se jobb mint az elődje. -
Busterftw
nagyúr
Nem egészen, hiszen itt nő a core count is.
Mivel árat nem tudunk, ezért minden más csak találgatás.De azt tudjuk, hogy a 3GB chipek idén már nagyobb mennyiségben elérhetőek, a Samsung mellett az SK Hynix is gyárt (Micron is képben van), tehát van árverseny.
Mivel a hűtésen/PCB-n nem nagyon kell változtatni, nem lesz drágító tényező. -
-
Busterftw
nagyúr
"és sose állítottam, hogy kell,"
Kifogasoltad, hogy miert nem csinalta meg a clamshellben, mint a 5060Ti-nel, irtad, hogy az Nvidia megcsinalhatta volna, csak nem volt uzleti erdeke."12GB-vel mindenképp kifut a VRAM-ból és ez tény."
Nem fut ki, nem ezt mutattak a tesztek. Par extrem, abszurd esetben, ami az user idiotasaga es nehany esetben a rosszul optimalizalt jatek miatt van."megnéztem. linkeltem. vissza van fogva. Sajnálom, ha nem sikerül értelmezni."
En is megneztem, az ajanlott felbontason problemamentesen megy a kartya, nincs visszafogva.
Sajnalom, ha az 5 evesnek szant Skoda-s peldam sokadszorra nem sikerult ertelmezni es nem latod, hogy ez az idiota tesztelo hibaja, nem a GPU/vrammal van gond."Milyen érdekes is lenne ha tesztelés arról szólna mindenütt, hogy megnézzük hogyan viselkedik egy eszköz abban az esetben amire szánva van. Marha fontos, sok esetben biztonsági szempontból is mi van, ha ezen felül kell teljesítenie."
Ezzel nincs semmi gond, mindenki ugy csinal magabol hulyet ahogy akar, a gond azzal van, amikor ebbol teljesen teves, felrevezeto es hulye konkluziot von le valaki."erős feltételezés, hogy 1.3 milliós videókártyát, csak azok veszik meg akik Steam-en játszanak."
A ketto nem uti egymast, viszont tobb objektiv infot nyujt, mint a te hasrautesed, amire nem erkezett alatamasztas. A steam epp azt mutatja, hogy az elmult 3 honapban meg nott is a reszesedes, nemhogy csokkent volna."miért lenne selling point a több VRAM? Főleg az egyetlen?"
Mivel arakat nem tudunk, mas nincs. A GPU nem valtozik (a 5070 Supernel lesz +256 cuda core), tehat a teljesitmeny ugyanaz lesz, ugyanazon a node-n mast nem nagyon tudnak csinalni, a 3GB chipek miatt is kicsit kitoljak a TDP-t 50W-al es ennyi.Tehat ket verzio van: ugyanannyiert kapsz tobb vramot vagy olcsobbert kapsz tobb vramot.
Mas selling point nincs. -
hapakj
őstag
válasz
Busterftw #207 üzenetére
Arrol mar nem is beszelve, hogy 24GB vram 1440p-re felesleges
- nem tudom hogy felesleges-e és sose állítottam, hogy kell, annyit mondtam, hogy 12GB-vel mindenképp kifut a VRAM-ból és ez tény.Nincs visszafogva. Nezd meg a teszteket
- megnéztem. linkeltem. vissza van fogva. Sajnálom, ha nem sikerül értelmezni.De hoztal folyamatosan, hulye userek es tesztelok peldait, ahol ugy akartak hasznalni a kartyat, amire nem valo es a jatek fejlesztoje sem ajanlja.
- nyilvánvalóan nem így akarták használni, hanem tesztelték a kártya képességeit, ahol kijött, hogy a VRAM mennyisége a limitáló tényező 4k-ban való játék esetén. Milyen érdekes is lenne ha tesztelés arról szólna mindenütt, hogy megnézzük hogyan viselkedik egy eszköz abban az esetben amire szánva van. Marha fontos, sok esetben biztonsági szempontból is mi van, ha ezen felül kell teljesítenie.A Steam statisztika ennek ellentmond, ujabb hasrautes.
- erős feltételezés, hogy 1.3 milliós videókártyát, csak azok veszik meg akik Steam-en játszanak. Erősen félprofesszionális kártya és valószínűleg több is fogyott ilyen felhasználásra mint játékra. -
Busterftw
nagyúr
"Elképesztő, hogy ha valami jobb akkor drágábban lehet adni"
Viszont a 1080p/1440p/4k tiereknek es szegmentacionak pontosan itt jon ki a lenyege.
Minden szintnek van egy lelektani hatara, amennyit az user hajlando adni erte, igy a 1440p-nek is.
Az Nvidianak ugy kell beloni az arat, hogy rentabilis legyen mindenkinek es jol fogyjon.A 5070-nel 12 chiprol lenne szo, nem 8-rol mint a 5060Ti eseteben, dragabb PCB design, dragabb hutes kellene, power delivery stb.
Arrol mar nem is beszelve, hogy 24GB vram 1440p-re felesleges es penzkidobas."tényleg nincs semmi baj a GPU-val, kár hogy 12GB VRAM-mal vissza van fogva a benne lévő potenciális teljesítmény."
Nincs visszafogva. Nezd meg a teszteket, teljesen jol megy, problemak nelkul. A hulye user nem a kartya hibaja."De szerencsére az nVidia is úgy látja, hogy ez ellen tenni kell."
Erre semmi forrasod nincs, ujabb hasrautes. Se a piaci nyomas, se a konkurencia, se a tesztek nem mutatjak, hogy most lepniuk kell."s egyetlen egy abszurd vagy kiragadott példát sem hoztam,"
De hoztal folyamatosan, hulye userek es tesztelok peldait, ahol ugy akartak hasznalni a kartyat, amire nem valo es a jatek fejlesztoje sem ajanlja. Egy 1440p kartyat 4K-ra es te meg csodalkozol, hogy szarul fut."Az nvidia nyilván tisztába van az 5090 eladásaival, azok csökkenek."
A Steam statisztika ennek ellentmond, ujabb hasrautes."Most már bevállalhatja"
Nem, most mar lett annyi gyartoi kapacitas es 3GB chip mennyiseg, hogy tud rakni 3GB-ot, a 2GB helyett. Es mivel a 5070-n kivul a GPU nem valtozik (ott sem erdemben), ez az egyetlen selling pont, a tobb vram. -
hapakj
őstag
válasz
Busterftw #204 üzenetére
Nincs itt semmi ellentmondás. Akinek 5090 kellett a 32GB RAM miatt valszeg már rég vett.
Az nvidia nyilván tisztába van az 5090 eladásaival, azok csökkenek. Most már bevállalhatja, hogy a SUPER szériával több RAM-mal adja ki a generációt még több embert (újra) váltásra ösztönözve.
Illetve a 3GB-s chipekkel akár egy 5090 SUPER is kiadhat 48GB Rammal.
Teljesen logikus. Én is így csinálnám.
-
hapakj
őstag
válasz
Busterftw #203 üzenetére
Nem, mert a fizika azt mondja. Dragabb PCB, dragabb hutes, dragabb ar. -
Erről a workstation kártyák tudnak, hogy fizika miatt nem létezhetnének? "Drágább ár"
- uh elvesztem. Gondolom magasabb akart lenniElképesztő, hogy ha valami jobb akkor drágábban lehet adni
ahogy ezt be is vállalták az 5060Ti 16GB-nél és drágábban is adták, Itt valahol a fizika biztos félrenézett
Semmi gond a GB-205-300 (5070 GPU)-val, a GB-205-300 (5070 GPU)
- tényleg nincs semmi baj a GPU-val, kár hogy 12GB VRAM-mal vissza van fogva a benne lévő potenciális teljesítmény. De szerencsére az nVidia is úgy látja, hogy ez ellen tenni kell.De sok koze van, mert olyan abszurd es 1-1 kiragadott peldara probalod alapozni a vitat,
- én nem vitázom, mert nincs is miről. Teljesen evidens dolog, hogy a több VRAM jótékony hatással van a teljesítményre, s egyetlen egy abszurd vagy kiragadott példát sem hoztam, csak olyat, ahol egy modern játékban egyértelműen többre lett volna képes az 5070, ha több VRAM-ja van. -
Busterftw
nagyúr
"miért lenne irreleváns? mert te az mondod? A workstation vonalon miért sikerült megoldani?"
Nem, mert a fizika azt mondja. Dragabb PCB, dragabb hutes, dragabb ar.
Miert sikerult megoldani? Azert, mert ott mar 3GB chipek vannak es a kartya 8-10ezer euro, 600W-al.Most akkor csinalj felmerest, hogy egy 1440p kartyat tobb ezer euroert ki akar megvenni, ~550 euro helyett.
"A GB-205-300 (5070 GPU) jobban teljesítene 4k felbontáson, ha több RAM lenne benne.
Hiszen a 8-10-12GB kártyák itt VRAM limitbe ütköznek."
Igen mert az user hulye. Semmi gond a GB-205-300 (5070 GPU)-val, a GB-205-300 (5070 GPU) nem 4K-ra van, es nem ezt irtad.
Tesztek nelkul ez hasrautes, semmi nem tamasztja ala."Ennek semmi köze ahhoz amit leírtam és eddig állítottam."
De sok koze van, mert olyan abszurd es 1-1 kiragadott peldara probalod alapozni a vitat, ami eleve marhasag es az user hulyesegebol ered. -
ben2
junior tag
válasz
Busterftw #200 üzenetére
"Ami nincs (illetve volumenben nem opcio), azt nem lehet rarakni, tehat igaz."
Amiből keresleti piac van, ott az árazás dönt. Tehát ha az 5080 16GB-al 500ezer, az 5090 32-vel 1.3 millió, akkor a kettő között simán elférne egy 5080 Ti 800 ezerért 24GB vrammal. Csak akkor consumer szinten AI-ra ez lenne a sweetspot, ami az 5090-től venné el a piacot, ezért az NVIDIA szándékosan visszafogja az 5090 alatti kártyák vram kapacitását.
-
hapakj
őstag
válasz
Busterftw #200 üzenetére
A clamshell pedig itt irrelevans, mert a tobbi SKU-nal nem ervenyes a 5060Ti alkalmazott matek es design.
- miért lenne irreleváns? mert te az mondod? A workstation vonalon miért sikerült megoldani?Mar leirtam es leirtad te is. A felbontasok kozott van egy spektrum, tobbfele felhasznalasi modszerrel, hiszen PC-rol beszelunk
- Így van. Igazad van. Én is pontosan ezt mondom. A GB-205-300 (5070 GPU) jobban teljesítene 4k felbontáson, ha több RAM lenne benne. Hiszen a 8-10-12GB kártyák itt VRAM limitbe ütköznek.Nem, azert, mert az nem 4K kartya. 1440p-re valo es ott a tesztek alatamasztjak, nincs semmi gond.
- Nem a kártyáról beszélek, hanem a GP-205-300 GPU-ról (5070), amiből jön is majd ki elvileg 18GB-s változat. Majd ott meglátjuk mennyivel jobban teljesít 4k alatt.Es ugye ez a marhasag, mert abszurd szituaciokat barhol lehet talalni, a 5090-et is meg lehet fektetni, aztan van rajta 32GB vram es az sem segitene rajt, ha tobb lenne.
- Ennek semmi köze ahhoz amit leírtam és eddig állítottam.
Új hozzászólás Aktív témák
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
- Hearthstone: Heroes of Warcraft - free online CCG
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- Diablo IV
- BestBuy topik
- AMD Ryzen 9 / 7 / 5 / 3 5***(X) "Zen 3" (AM4)
- Telekom mobilszolgáltatások
- Nyaralás topik
- Facebook és Messenger
- Futás, futópályák
- További aktív témák...
- PowerColor Red Devil AMD Radeon RX 6800 XT 16GB Garanciával!
- Asus DUAL-RTX5070-O12G nVidia 5070 12GB GDDR7 OC videokártya bontatlan dobozában eladó!
- GIGABYTE RTX 5080 16GB GDDR7 GAMING OC - Új, 3 év garancia - Eladó
- Gigabyte GeForce RTX 2060 6GB Garanciával!
- Gigabyte Geforce GTX 1070 G1 Gaming 8GB Garanciával!
- Apple Watch Series 9 45mm GPS Starlight 1 év Garancia Beszámítás Házhozszállítás
- Apple iPhone 12 Pro 128GB, Kártyafüggetlen, 1 Év Garanciával
- HIBÁTLAN iPhone 14 128GB Midnight -1 ÉV GARANCIA - Kártyafüggetlen, MS3093, 91% Akkumulátor
- HIBÁTLAN iPhone 14 Pro 256GB Deep Purple -1 ÉV GARANCIA - Kártyafüggetlen, MS3515, 100% Akkumulátor
- HIBÁTLAN iPhone 12 mini 64GB Green -1 ÉV GARANCIA - Kártyafüggetlen, MS3451
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: Laptopműhely Bt.
Város: Budapest