-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Jack@l
veterán
válasz Crytek #26250 üzenetére
A meredek a 2080ti ára, még külföldiek szerint is. Szóval szvsz olcsóbb lesz.
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
félisten
válasz Jack@l #26251 üzenetére
Szerintem is.
Kivéve ha most oda is beüt a korona vírus, lesz mire fogni a dolgokat.
A másik probléma, hogy a konzolok ára is meredek lesz,állítólag a PS5 gyártási költsége ( tehát még messze nem a kereskedelmi forgalomba lévő ) ár 450 dollár az xbox szerintem még több lesz, ha valóban erősebb hardvert akarnak adnia Ps5 höz képest.
500 dolláros PS5 mellett nem biztos, hogy annyira erőlködni fognak a VGA-k olcsóbbodásán főleg ha esetleg a 3000 széria mondjuk nem 25-30 % t lép előre, hanem mondjuk 40 % vagy fölötte.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
huskydog17
addikt
Nem biztos, hogy magas órajelre mennek rá, az is lehet, hogy nagyon széles memóriabusz lesz. Én nem zárnám ki az 512 bit széles busz visszatérését. 512 biten a 16 Gbps-es GDDR6 memóriák elég szép sávszélt adnak. (Jelenleg 16 Gbps a leggyorsabb GDDR6 chip)
#26244: Egyelőre csak annyi biztos, hogy az aktuális információk alapján elég jelentős teljesítményugrás várható az új generációtól.
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
csaba951
veterán
válasz Yutani #26254 üzenetére
De már az 1200-1500 USD-s kártyákkal is kihúzták a gyufát a célközönségnél.
Most egy 2400 USD-s kártyával mekkora rage-t kapnának a nyakukra? PR szempontból se lenne jó. Az összes nagyobb portál fő oldalon hozná, hogy mennyibe kerül a (gaming) csúcskártya. Mi maradna meg ebből az átlag emberek fejében? NVidia - drága. Na, ezt tutira nem akarja a cég.
[ Szerkesztve ]
-
félisten
válasz csaba951 #26255 üzenetére
nem annyi lesz szerintem , bízzunk abban amit nyilatkozott jensen, hogy megpróbálják a csúcs kártyákat olcsóbbra kihozni a középkategória változatlan marad.
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Z10N
veterán
válasz huskydog17 #26253 üzenetére
Az meg tovabb dragitana ezzel az eljarassal. Bar RT-hez jol jonne, de igazan az RT-hez HBM2 dukalna es akkor az arat lehetne is validalni.
[ Szerkesztve ]
# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
Jack@l
veterán
Miert is kell az RT-hez HBM? Azon kivul hogy a fopap ezt harsogta. Meg nem lattam RT-ben brillirozni hbm2-es gamer kartyat.
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
félisten
válasz DudeHUN #26259 üzenetére
Hát, ha csak 20 dolcsiva számolunk az 470, majdnem 500 főleg ha jó szokás szerint az a 470 dollár az egy az egybe lesz átváltva Euróra... De 5 éve még az üzemanyag is és a szolgáltatások, raktározás, is olcsóbbak voltak. Meglátjuk.. De 470 dollár is nálunk kb 170-190 K...Mint most egy 2070 super ,remélhetőleg a köv genben ez az összeg pedig egy minimum 2080 Ti sebességű kártyát eredményez...
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
huskydog17
addikt
A kérdés az, hogy melyik drágább: az 512 bites GDDR6 kombó vagy a HBM2? Szerintem azt választják, amelyik olcsóbb. Biztos vagyok abban, hogy az NV a 16 Gbps GDDR6-al is bőséges tempóelőnyt tud szerezni az AMD-vel szemben.
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
Abu85
HÁZIGAZDA
válasz Jack@l #26258 üzenetére
Mert a sugárkövetésnél csak a primary ray-ek koherensek, tehát csak ezek cache-elhetők. Minden secondary ray nem koherens, vagyis teleszemetelik a cache-t. Így minden secondary ray esetében a memória-sávszélesség a döntő tényező a sebesség tekintetében, hiszen sosem lesz ott a szükséges adat a gyorsítótárakban.
(#26252) b. : A konzolnál felesleges ezt számolgatni. Ott a játékokon jön a zsé, tehát a gépet lehet akár veszteséggel is adni. Az árszabásnál nem az előállítási költség lesz a döntő, hanem az, hogy eladjanak elég gépet az optimális platformbázis kialakításához, hogy a fejlesztők elkezdjenek rá dolgozni.
(#26261) huskydog17: 512 bitet nagyon nehéz építeni ezekkel a magas effektív órajelű memóriákkal. A Micronnak a referencia-NYÁK-ja 55 cm. Ezt talán le lehet vinni 40-45 cm-re, de biztos nem 16 Gbps-mal. Egyszerűen nem lehet jól leárnyékolni a magas fogyasztású hardvereket. Ennél nagyobb probléma a fogyasztás. Egy 16 darabos 12 Gbps-os GDDR6-os pack, ami minimum kell az 512 bithez, 40 wattot eszik. Egy hasonló teljesítményű HBM2 stack 2 watton belül megoldja ugyanazt. A 40 watt már probléma, mert ennyivel kevesebb fogyasztási kerete marad a GPU-nak, ami jelentős teljesítményhátrány a HBM2-höz képest. Plusz, ha sok memória kell akkor 32 GDDR6-ra van szükség, ami viszont 80 watt.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
KillerKollar
őstag
NVIDIA Hints At Ampere GPU Launch At GTC 2020: ‘You Won’t Be Disappointed’
És már megint elkésett az AMD a Big Navi-val, 1 hónap és bejelentik az Ampere-t... Állítólag már a 3080 is 20-30%-ot ver majd a 2080 Ti-ra, ráadásul egy korábbi pletyka alapján a 80/Ti classnál árcsökkenés várható (valószínűleg csak leszedik az FE-ről a felárat és 1000/700 dodó lesznek), úgyhogy most már hiába veri a nagy Navi a 2080 Ti-t. Amennyire feltörlik most a padlót az Intellel a CPU piacon annyira nem képesek versenyezni az Nvidiával a GPU piacon... -
Dyingsoul
veterán
Az NV Geforce UK kitett egy sejtelmes képet egy VGA-ról. Első ránézésre ez a 2000 széria FE kártyája kicsit megdizájnolva. A kommentekben Cyberpunk kiadásra hajaznak, van Cyberpunk-os tweet is hozzá csatolva. [link]
- Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul
-
Dyingsoul
veterán
válasz KillerKollar #26265 üzenetére
- Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul
-
Dyingsoul
veterán
wccftech kicsit összezavart... Teszem fel a kérdést: lehet már tudni, hogy akkor most hol gyártatja a GPU-kat az NV? TSMC vagy Samu? Kommentekben azt írják a Samunak nincs gyakorlata a nagy lapkák gyártásában ezért a TSMC-nél történik majd mindenképp. Nem nagy dolog, csupán érdekel, hogy akkor most mi is lesz.
- Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul
-
Z10N
veterán
-
FragMaster
addikt
válasz KillerKollar #26265 üzenetére
Vagy tényleg csak egy limitált 2080ti, esetleg ti super. Ez sajnos azt is jelentheti, hogy az ampere, amit ha minden igaz bejelentenek "csak" melós kártya, mint a volta volt vala, aztán jön majd egyszer a hopper később a játékosoknak.
"FragMaster felhasználónak 11 pozitív és 0 negativ értékelése van a fórumon!": http://goo.gl/vYc6Ml
-
gainwardgs
veterán
válasz KillerKollar #26263 üzenetére
Nembaj mossák csak fel az intelt úgy rendesen
Big navi ha hozza a 2080ti-t nem 400k-s áron akkor már jó kis kártya lehet -
mormota79
tag
válasz gainwardgs #26270 üzenetére
Álmodozni lehet de az amd is pont úgy árazza a teljesítményt ahogy az nvidia karik vannak.
Ne reménykedj -
Busterftw
veterán
válasz gainwardgs #26270 üzenetére
Ha idoben kijon az Ampere, az leviszi a 2080Ti arat is, ami ellen (elvileg) a Big Navi jon.
Ezek utan ha be is eri a 2080Ti-t, az Ampere miatt so last year lesz. -
KillerKollar
őstag
válasz FragMaster #26269 üzenetére
2080 Ti supernek semmi értelme, max 10%-ot verne a 2080 Ti-re pár hónap múlva meg jóval olcsóbban kijön a 3080? Elég mérgesek lennének a 2080 Ti Super tulajok...
(#26272) Busterftw
Időben már csak akkor jön ki, ha szereznek egy időgépet és visszamennek legalább fél évet... Ennek akkor lett volna értelme, ha az 5700-as sorozat után nem sokkal kiadják. Legrosszabb esetben is Computex-en vagy Siggraph-on fogják bejelenteni az új Geforeceokat HA a GTC-n csak a compute/profi kártyákat leplezik le, de egyáltalán nem tartom kizártnak, hogy bejelentik az első Geforceokat is. Most már csak akkor van értelme, ha a 3080 szintjét hozza majd hasonló áron, vagy olcsóbban, arra semmi esélyt nem látok, hogy egy 3080 Ti-t elverjen. -
Dyingsoul
veterán
válasz gainwardgs #26274 üzenetére
"Azon se csodálkoznék ha abból a Ti átlépné az 500ezres árat."
Miért is csodálkoznál, mikor sok mostani 2080 Ti is átlépte már az 500 ezres árat?
Voltak/vannak pletykák arról, hogy a felső szegmens picit olcsóbb lesz, mint a 2000-es széria. Ezeknek pont akkora a valóságalapja, mint annak, hogy azt mondom a magyar minimálbérhez fogják igazítani a csúcskártyák árait...- Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul
-
Segal
veterán
válasz Dyingsoul #26275 üzenetére
Ha valamitől nem tartok az az hogy nem fog itthon fogyni az nvidia ampere csúcskártyája... (geforce-ra értem és nem a titan-ra )
Úgy vásárolnak/cserélnek akár hitelből is itthon az emberek mintha pisztollyal kényszerítenék őket."Ez nem változtat azon, hogy tisztességtelen dolog botokkal felvásárolni 160-180e indulóáron a 3060 Ti-t, aztán 250e-ért árulni a HA-n." Ez miért lenne tisztességtelen? Te is meg bárki lesheti botokkal a boltokat, ugyanúgy meg tudod venni a cuccot azon az áron, mint a scalper.(1 házigazda válasz...)
-
FragMaster
addikt
válasz KillerKollar #26273 üzenetére
Legalább akkora tragédia lenne, mint ha limitált 2080ti-t adnának ki, mert lásd feljebb.
"FragMaster felhasználónak 11 pozitív és 0 negativ értékelése van a fórumon!": http://goo.gl/vYc6Ml
-
Dyingsoul
veterán
-
Jack@l
veterán
Hülye kérdések:
Mit értessz primary ray alatt, honnan hova megy a sugár?
Tegyük fel igaz amit mondassz és cacheli az első kört, mekkora cache-re van szüksé hozzá?
Ha nagyságrendileg nagyobb mint ami cache van a magokhoz, akkor nem pont a memóriából cachelés miatt jobb a hbm? Mert a számításhoz biztosan nem memória kell, hanem elspdlegesen számítási teljesítmény.
UI: ha válaszolsz ne valami rizsát nyomj lécci, hanem konkrét válaszokatA hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Abu85
HÁZIGAZDA
válasz Jack@l #26280 üzenetére
A primary ray az a legelső reverse ray, aminél azért van lehetőség cache-elésre, mert mindegyik pixelből származó sugár párhuzamos a másikra. A secondary ray az összes többi, ami a primary rayből származtatott. Ezeknél azért nincs lehetőség a cache-elésre, mert teljesen véletlenszerű az egész, egyszerűen az egymáshoz közeli primary rayek secondary sugarai teljesen máshova futhatnak. Emiatt ugye a secondary ray esetében nem alkalmazható az az elv, ami a primary ray-knél, hogy az egymás melletti sugarak ugyanahhoz a textúrákhoz tartozó texeleket találják el, vagyis nem tudsz arra építeni, hogy betöltesz a textúra gyorsítótárba egy adott texelcsoportot, majd abból egy jó darabig megélsz. Menni kell minden egyes secondary ray-nél a memóriáig. Ráadásul ez véletlenszerű hozzáférés, ami a legrosszabb.
A HBM csak a sávszél miatt kell. Világos, hogy nem lehet gigabájtos méretű cache-eket építeni a GPU-kba, tehát amikor a cache-elés már nem lehetséges, akkor onnantól kezdve a memória-sávszélesség lesz a limitáló tényező, mert adat nélkül hiába vannak TFLOPS-os számítási kapacitású ALU-jaid, előbb be kell olvasni azt, amivel számolni tudnak.
Alternatív lehetőség a koherencia csoportosító, amit az Imagination csinál a PowerVR Wizard GPU-nál. Ez egy opcionális hardver, amely megpróbálja kitalálni, hogy melyik secondary ray-ek tartanak hasonló irányba, és a feldolgozásuk előtt ezeket csoportosítja, majd úgy történik meg a hardveren a számításuk, hogy az azonos csoportba tartozó sugarak kvázi együtt lesznek kalkulálva. Ezzel biztosítva a cache-elhetőséget. Nem szuper módszer ez, de hatékonyságban sokkal jobb, mint a brute force megoldás, amit például az NVIDIA csinál. Ugyanakkor számításba kell venni, hogy az ehhez szükséges hardver elég sok tranzisztort igényel. Az Imagination esetében gyakorlatilag ez a koherenciadetektor majdnem akkora, mint maga az egész GPU, és amíg elvétve vannak hibrid sugárkövetést támogató játékok, addig érdemes feltenni a kérdést, hogy megéri-e tranzisztorok milliárdjait olyan hardverelemekre költeni, amelyek kb. egy tucat játékban hasznosulnak, míg a többiben nem csinálnak semmit. Az NVIDIA ezért alkalmazza a brute force módszert. Grays/wattban ugyan messze elmaradnak az Imagination megoldása mögött, de arányaiban sokkal kevesebb tranyót is költenek rá. Tehát nem egyértelműen az a jó, ha elkezded hardveresen kezelni az egyes problémákat. Sokszor hasznosabb együtt élni ezekkel, és rakni a secondary ray-ek alá 1-2 TB/s-ot, vagy ahogy manapság csinálják, hogy gyakorlatilag 2-4 virtuális méternél tovább nem is számolnak sugarat, ami nem túl jó az eredményre nézve, de kétségtelenül eléggé tudja kímélni a sávszélt.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Jack@l
veterán
Akkor egyszerűsítem a kérdést egy booleanra: A fényforrás(ok)ból, vagy a kamera nézőpontjából indul az elsődleges sugár?
A kettő közül melyik esetben párhuzamosak a sugarak?
Mi történik ha két frame között megmozdul a kamera, vagy valamelyik test? (tudom, ritka dolog ez játékoknál, de mégis)
Alu mióta végez float műveleteket?[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Sonja
veterán
válasz Dyingsoul #26264 üzenetére
Be is jelentették a GeForce RTX 2080 Ti Cyberpunk 2077 Edition kártyát.
Facebook link videóval!
Ha csalódni akarsz, bízz az emberekben!
-
KillerKollar
őstag
válasz FragMaster #26278 üzenetére
77 darab készül belőle és kisorsolják őket... Kétlem, hogy az ingyen kapott kártya tulajai panaszkodnának ha pár hónap múlva jönne az Ampere.
-
Dyingsoul
veterán
válasz KillerKollar #26284 üzenetére
Egyébként meg sajnálni kell azokat akik ~fél misiért vásárolnak videókártyát...
- Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul
-
KillerKollar
őstag
válasz Dyingsoul #26285 üzenetére
Neked nem kell senkit sajnálni, de egy cégnek gondolni kell arra, hogy ne idegenítse el magától a vásárlóit... ha van aki megveszi a félmilliós kártyáját megjelenéskor és fél évre rá kidobnak egy gyorsabbat olcsóbban akkor az a vásárló lehet, hogy átverve érzi magát és legközelebb már nem őket fogja választani, egy ilyen ügyfélért pedig kár lenne, aki hajlandó megvenni a fél milliós kártyát az egy jó ügyfél az Nvidiának.
-
Dyingsoul
veterán
válasz KillerKollar #26286 üzenetére
Szóval szerinted beszüntetik a csúcskártyák forgalmazását fél évvel azelőtt, hogy kiadnák az új szériát? Másképp el nem tudom képzelni hogy ne fordulhatna elő, hogy valaki akár pár hónappal az új széria megjelenése előtt ne venne mondjuk 2080 Ti-t....
- Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul
-
KillerKollar
őstag
válasz Dyingsoul #26288 üzenetére
De ha egy kártya a piacon van már másfél éve, akkor sejthető, hogy hamarosan itt az új... viszont ha most kiadnának egy 2080 Ti Supert, megjelenéskor megveszi x ember és 6 hónapon belül egy 3080-at olcsóbban ami még picit gyorsabb is, akkor nyilván jogos lenne a felháborodás.
-
félisten
válasz Dyingsoul #26288 üzenetére
Igazad van. Nem szüntették be soha. Ez így volt a Pascalnal is és a Maxwellnel is. Ezeknél is az érkező 1070 kártya hozta a 980 TI - t olcsóbban és mindkettő ott volt a boltban más áron.
Emlékszem AQUA ban a hegyekben álló GTx 970 kártyára 120 - 140 ezres áron miközben ott volt a polcon a GTx 1060 (980 teljesítménnyel) 110 K ért."A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Segal
veterán
válasz KillerKollar #26289 üzenetére
Utána olvasással akkor is egyértelmű lenne hogy jön az ampere ha megjelenne a 2080 Ti Super. Tökéletesen ideillik a mondás hogy ha a kacsa nem tud úszni nem a víz a hülye...
Az megint más kérdés hogy az nvidiának sem érdeke kiadni mert lehet elmenne belőle x darab, de utána a maradékot akciózni kéne és ugye értelmetlenül nyomná le addig is a 2080 Ti árát. Tehát csak plusz munkát jelentene az nvidiának. Meg ugye a marketing anyagban jobban fog mutatni az ampere %-os előnye a sima Ti-hez képest mint egy Super verzióhoz képest."Ez nem változtat azon, hogy tisztességtelen dolog botokkal felvásárolni 160-180e indulóáron a 3060 Ti-t, aztán 250e-ért árulni a HA-n." Ez miért lenne tisztességtelen? Te is meg bárki lesheti botokkal a boltokat, ugyanúgy meg tudod venni a cuccot azon az áron, mint a scalper.(1 házigazda válasz...)
-
Dyingsoul
veterán
Én is emlékszem rá. Meg arra is, hogy a PH hírek alatt sípoltak páran, hogy most vettek 980 Ti-t és mekkora kib***ás az velük szemben, hogy pont akkor adnak ki új generációt mikor ők VGA-t vesznek... KillerKollar-hoz hasonló emberek voltak. "Soha többet zöldektől semmit nem veszek" - Hangoztatták. Aztán egy év-másfél év múlva találkoztam velük a 1080 Ti topikban....
- Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul
-
KillerKollar
őstag
válasz Dyingsoul #26292 üzenetére
Nem kell személyeskedni, magánvélemény volt, de attól még, hogy téged ez nem zavar sok "hozzám hasonló" ember van akit igen... Amúgy meg én egyszer "sípoltam" ilyenen, amikor tavaly nyáron kijöttek az első 2080 Ti Super pletykák... akkor a 2080 Ti még egy éve se volt kint a piacon, így ha akkor kijött volna, akkor az igen is zavart volna és nem csak engem, a külföldi oldalakon a 2080 Ti Super pletykák alatt tele volt a komment szekció azzal, hogy az Nvidia jól megsz*patta a 2080 Ti tulajokat. Aztán végülis nem jött ki, most meg már lassan másfél éve piacon van a kártya, így már nem zavar ha jön az új, sőt várom a 3080 Ti-t. Egy generáció általában 1,5-2 év és én mindig megjelenés után 1-2 hónappal veszek kártyát, ha beáll az ára, ha ennél hamarabb cserélik a csúcskártyát, akkor van csak (szerintem) jogos felháborodás.
-
nagyúr
válasz KillerKollar #26293 üzenetére
Őszintén szólva nem értem, hogy mi abban a szopatás, ha az egy éves kártyádra ráhoznak egy 10%-kal gyorsabb SKU-t hasonló áron. Persze sípolni mindenért lehet, értem, de attól, hogy sokan sípolnak, még nem lesz feltétlen megalapozott.
Én egyetlen olyan esetre emlékszem, ahol együtt tudtam érezni a "megszopatott" tulajokkal - amikor a Kepler-alapú Titán megjelenése után 3 hónappal előkerült a GTX 780. Az tényleg egy olyan volt, amire nem lehetett számítani, így aki játék célra Titant vett, annak 3 hónap "privilégiumért" kihúztak a zsebéből 350 dollárt. Két évvel később a Titan X / 980 Ti páros ugyanez volt, viszont már a meglepetés ereje nélkül. Az pedig, hogy a 980 Ti után egy évvel kijött az 1070 - so what?"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
Busterftw
veterán
válasz KillerKollar #26293 üzenetére
Jo, de ennyi erovel ne vegyel semmit, mert jon az ujabb verzio. A Pascal kb 3 evig volt piacon, de az nem normalis szituacio volt. A normal az, hogy evente, masfel evente jon uj szeria.
Aztan ugye pont emiatt vannak olyanok is, akik meg allandoan varnak es sosem vesznek semmit.Nem ujitok most, mert jon az uj szeria 6 honap mulva. 6 honap mulva meg nem ujit, mert 4 honap mulva jon a konkurencia uj procival, megnezzuk mit tud. 4 honap mulva meg mar var oszig, mert pcie 4.0 is kell.
En Ampere-re mindenkepp valtok, viszont prociban gonban vagyok, pl Ryzen 4000 szeriarol nincs semmi megjelenesi hir, csak a 10th gen Intel jon biztosan. Remenykedtem benne, hogy az Intel kinyogi valahogy a 10nm asztali procikat 2020-ra, de nem ugy nez ki. Szoval ez ilyen.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz Jack@l #26282 üzenetére
Kamera. Amikor a teljesítmény lényeges a reserve ray tracing a kifizetődő. De egyébként támogatja a fényforrásból való kiindulást is a rendszer, csak sok haszna ennek ma nincs, mert elég nagy a valószínűsége, hogy a jellemző, igen korlátozott számítási távolságig nem fogja eltalálni a kamerát a sugár. Ahhoz sokkal tovább kellene számolni, de ahhoz meg nincs erő a hardverekben.
A például a pixelekből kilőtt sugarak a kamerára merőlegesek, így mindegyik párhuzamos egymással.
Semmi. Mivel két egymást követő frame között nincs frame-számítás, így irreleváns, hogy a jelenet hogyan változik. Nem kapsz róla visszajelzést a kijelzőn. Ettől persze a szimuláció megtörténhet, csak az eredményét nem látod.
Amióta az ALU-kat felkészíti lebegőpontos feldolgozásra is. Ha nem ilyenek lennének a GPU-kban az ALU-k, akkor nem tudnának FP műveletet számolni a hardverek.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
KillerKollar
őstag
Egyén kérdése, hogy ki hol húzza meg a határt, ezek szerint nálad is van ilyen.
3 hónappal a Titán után a 780 szopatás, 1 évvel a 980 Ti után a 1070 nem az, szóval gondolom nálad valahol a 2 között van a lélektani határ.
Szerintem a prémium termékek esetében "presztizst" is vásárolsz, tehát ha megjelenés után közvetlenül megveszed, akkor a felárért cserébe joggal várhatod el, hogy X ideig adott kategóriában (pl gamereknek szánt kártyák, tehát a Geforce vonal) ez a kártya lesz a csúcs (legalábbis cégen belül, ha a konkurencia kiad egy jobbat az más kérdés).
Az hogy az X idő mennyi, az az ami vitatható, szerintem minimum 1 év, de inkább másfél, szerinted ezek szerint kevesebb.[ Szerkesztve ]
-
nagyúr
válasz KillerKollar #26297 üzenetére
Ennyire nem egyszerű, de persze, valahol nálam is vannak határok. A 780 szopatás volt, de nem a presztízs, hanem a pénz miatt, a 980Ti már sokkal inkább vadász, vadász... kategóriás, mert akkor már lehetett tudni, hogy az NVIDIA ilyeneket csinál.
Értem a presztízs megközelítést is, és jogosnak is tartom (annak ellenére, hogy személy szerint hidegen hagy), ugyanis ezeknek a termékeknek az árában van presztízs faktor, úgyhogy ha a pénzt begyűjtik, akkor tartsák is be ezt a fajta ígéretet. Az időtartam... na, az nagyon szubjektív. Az 1-1.5 éves elvárást én finoman szólva is rettenetesen naívnak tartom, de elég nehéz mondanom valamit szubjektívan helyette, amikor nem érdekel a dolog. Viszont ha szisztematikusan gondolkodunk, akkor egy teljes termékciklus jellemzően 20-22 hónap, és egy mid-cycle upgrade simán benne van a pakliban - tehát reálisan 10-11 hónapra számíthatsz, ha nem történik semmi rendkívüli."We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
Abu85
HÁZIGAZDA
Itt nem a pixelekből lövöd ki a sugarakat, hanem egy kamera mögötti pontból. Ugyanakkor a koherencia itt is elég jó, mert jó esély van rá, hogy két egymás melletti pixelen áthaladt sugár egymáshoz közeli texelcsoportot talál el.
A secondary ray esetében az a gond, hogy teljesen más irányba is mehet a sugár a visszaverődés után, annak ellenére is, hogy mondjuk egymás melletti primary ray-ből származik. Ezzel elveszted a cache-elhetőséget. Ezért csinált egy külön hardvert az Imagination, ami képes csoportosítani a sugarakat, és direkt úgy számolja azokat, hogy annyira ne legyen összeszemetelve a cache. Persze ez sem tökéletes módszer, és relatíve nagy hardvert igényel.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Steam Deck
- Nvidia GPU-k jövője - amit tudni vélünk
- ThinkPad (NEM IdeaPad)
- Assassin's Creed Shadows - Elhalasztották a megjelenést
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Saab, Volvo topik
- Fűzzük össze a szavakat :)
- Vicces képek
- Milyen asztali (teljes vagy fél-) gépet vegyek?
- Napelem
- További aktív témák...
Állásajánlatok
Cég: Ozeki Kft
Város: Debrecen
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest