-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
paprobert
őstag
A Turing minden szempontból rendben volt, kivéve az árazást és az teljesítmény/$ mutatót. Ha az utóbbi nem fejlődik, vásárlóként alig van indokod váltani.
Az Ampere műszaki szempontból alig hoz újat, de az árazást többé-kevésbé a helyére rakták. Viszont csak papíron, azaz vásárlóként megint besz*ptad, és eltelt egy fél évtized közben...
Feature set-ben ma már van jövőbiztos GPU, de a VRAM kiosztásokat és a nyers erőt látva szerintem ma nem tudsz olyan VGA-t vásárolni, amire hosszú távon lehet alapozni. Úgyhogy ha jövőbiztosítás a cél, akár el is engedheted.
Szerk.: a #53032-ban általad leírtakkal maximálisan egyetértek.
-
gejala
őstag
"A Turing nem jó, soha nem is volt jó, tök érthető hogy sokan elkerülték... Bullshit marketing, túl kötött hardver, sok szemét van benne"
Az egyetlen hardver volt az RDNA2 megjelenéséig, ami támogatta az összes DX12U feature-t. Ez miért is olyan rossz?

Ráadásul Ampere semmivel se tud többet, csak több feldolgozót kapott és annyi. Ha 3080 alatt veszel kártyát, semmivel se kapsz többet, mint amit a Turing már 2 éve nyújt. 3070 RT-ben is tök ugyanannyi fpst hoz, mint a 2080Ti. Ja, és Turing ugyanúgy támogatja a DXR 1.1-t, mint Ampere/RDNA2 (DX12U miatt muszáj).Ha meg jövőbiztos kártyát akarsz, akkor várd meg a köv szériát, mert a mostani tuti nem (sem) az.
![;]](//cdn.rios.hu/dl/s/v1.gif)
-
-
warcat
veterán
A procik elérhetősége alapján induláskor csak alza, ők közvetlenül AMD-től kapnak készletet.
Elképzelhető, hogy felbukkanak idehaza nem ref kártyák a partnerektől, de ez annyira esetleges,hogy nem építenék rá.Nem tudom van-e már gyűjtőlap mint pl. az rtx 3080-as kártyáknak, de amint lesz és közel a launch, érdemes lesz beállítani rá egy distillt frissítgetni. Alza 14:55-kor,korábban rakta ki a procikat és distill egyből szólt, aki 14:59-kor kezdett el frissítgetni, már le is maradt.
-
Raggie
őstag
Azt azért tegyük hozzá, hogy a szórt fény sokka lreálisabb az RTX-es minecraft verzióban mint a simában.

Attól még mert megszoktuk, hogy mindent is látunk a játékokban az a valóságban nem úgy van. Tehát ha a realisztikusság felé akarunk menni, akkor az árnyékokban alig látunk valamit, amíg bele nem megyünk és a szemünk/pupillánk hozzá nem korrigál. Szóval nekem nem hogy ez nem gond, hanem jó.
És igen, máshogyan kell majd emiatt pályát tervezni. De nem rosszabb lesz hanem más. -
-
Abu85
HÁZIGAZDA
Mindenféle inputra reagál a Boost, csak az AMD elmondta, hogy figyelembe veszik a képkockasebességet is, és ha a rendszer úgy ítéli meg, hogy nem kell nagyon emelni a tempón, akkor inkább nem állítja dinamikusan a felbontást. A press meghajtóban direkt ezért aktív a developer mód, hogy ha valaki tesztelni akarná a minőségcsökkenést, akkor elég csak a shiftet nyomogatnia, és arra azonnal reagál a Radeon Boost, mert az algoritmus alapján nincs kőbe vésve, hogy minden gombnyomásra, vagy bemozdulásra csökkenni fog a felbontás, ahhoz teljesülnie kell egyéb feltételeknek is, és ebből a szempontból eléggé bonyolult a rendszer, nincs egy fix mozdulatsor, ami alapján ez biztosan kiváltható. A végleges meghajtóban ez a trükk a shifttel nem lesz benne.
Régi Boost működést az AMD azért mellőzi, mert olyan megoldást akartak, ahol erős odafigyelés nélkül nagyon nehezen legyen észrevehető a minőségcsökkenés. Egy képkockasebességhez kötött módszerrel a jelenethez lenne kötve a minőség, vagyis simán tudnál úgy nézelődni, hogy nem natív részletességet kapsz. Ezzel a módszerrel ezt nem tudod igazán megtenni, mert ahhoz, hogy nézelődj, mellőznöd kell a gyors mozgásokat, és ezek nélkül a Boost nem igazán működik extrém minőségcsökkentéssel. Mozgás mellett pedig egy rakás olyan tényező van, ami elmossa a Boost minőségcsökkentését, a legtöbb játék már eleve alkalmaz valamilyen motion blurt, de pusztán a gyors mozgás ténye is elég ahhoz, hogy maga a minőségvesztés kevésbé legyen látható. Emiatt mondják azt a reviewekben, hogy ha csak játszanak, és nem keresik a felbontáscsökkenés hatását, akkor nem igazán veszik ezt észre, és pont ez volt a koncepció, hogy elérjék ezt a hatást. Szimplán sebességszintekhez kötve nem lehetett volna megcsinálni.
A fentiek mellett a dinamikus felbontásskálázást rendkívül egyszerű beépíteni egy játékba. Az API-k minden tartalmaznak ahhoz, hogy a fejlesztő írjon a motorba egy ilyen rendszert. Egy input alapján működő felbontásskálázást viszont nem lehet csinálni, mert az API-knak az az alapvető követelése megakadályozza, hogy legyen parancslista. Lényegében illegális dolgot csinálna a játék, ha ezt valahogy elkezdené kontrollálni, mert ezek menedzselése az OS és a driver feladata. Alapvetően nem is tudnák megcsinálni a fejlesztők anélkül, hogy az OS-en belül bizonyos fájlokat felül nem írnának. Tulajdonképpen az AMD is ezt csinálja a Chillel, megkerülik a Microsoft korlátjait. Ilyen szempontból ugyanaz a helyzet a Boosttal is, mint a Chillel. Nem tudja senki sem lemásolni, nem mellesleg a szabadalmak is az AMD-nél vannak. Ez gyakorlatilag egy egyedi funkció ismét a driverben, amit se fejlesztő, se konkurens nem tud felkínálni. Ez innentől egy marketinges szempont is, mert csináltak egy olyat, amit előttük még senki, és a szabadalmakat figyelembe véve, valószínűleg utánuk sem. Ugye a Chillt se másolják a konkurensek. Túl bonyolult, túl sokáig tartana megcsinálni, és még fizetni is kellene az AMD-nek érte.(#44687) Tyrel: Lehet a képkockasebességhez kötni. Igazából az nem is olyan nehéz. Kb. olyasmi meló, mint az Anti-Lag. Ugye ott is az alap a Chill, csak nem a Chill működéséért felelős bonyolult algoritmus fut rajta, hanem egy jóval egyszerűbb, és így nyilván sokkal kevesebb idő volt tesztelni is, mert nem dimanikus a helyzetekre való reakciója. Ha mondjuk az fps-hez kötnék ezt, akkor ott is az lenne, hogy adott az alap a Boostban, csak a döntésért felelős algoritmus változik. Elképzelhető, hogy ha megcsinálják a Boostot blacklistesre, tehát úgy, hogy működjön mindennel, mint a Chill, akkor raknak be egy alternatív algoritmust. Ez tényleg nem egy nagy meló. Viszont ennek a minősége biztos nem lenne olyan jó, mint a mostanié. De kivitelezhető és viszonylag egyszerűen megvalósítható nekik, csak kérdés, hogy akarnak-e vele foglalkozni. Első körben biztos nem, mert a fókuszt biztosan a Boost befejezése jelenti. Utána lehet, ha kész a Boost, akkor onnan nem lenne több három hónapnál egy módosított algoritmussal működő rendszer.
(#44689) Tyrel: Az AI az jó dolgot csinálna a DLSS-nél, ha az NV rakna bele pénzt. Alapvetően a DLSS-nek nem a technológiai háttere a rossz, hanem az, hogy az NVIDIA egyszerűen nem ad ingyen gépidőt a fejlesztőknek. Így meg azért rohadt nehéz ám jó eredményt elérni, hogy kell egy rakás számítási kapacitás a tréninghez, de közben egy órát is marha drágán mér az NVIDIA. A Microsoftnak van egy ugyanilyen megoldása DirectML-re. Csontra ugyanezt csinálja, csak a különbség, hogy a neuronháló tréningelését ingyen mérik a DirectML-t támogatók között. És elég jók is az eredmények, ha nem azt kell nézni, hogy van x pénz, és az elég y órára, ha pedig nem jó a neuronháló, akkor ez van, ennyire volt zseton. Az AI az nem ilyen, ott nem lehet előre megmondani, hogy mennyi idő múlva készül relatíve jó eredményt biztosító neuronháló, emiatt lenne kritikus ezeknél a megoldásoknál, hogy legyen a fejlesztőknek ingyen elérhető számítási kapacitás, mert egy helyi munkaállomáson ez a munkafolyamat nagyon sokáig tartana, úgy kb. örökké.
Itt valószínű egyébként, hogy az NV erre üzletet akart építeni, tehát amíg a Microsoftnak megéri ingyen Azure kapacitást adni csak azért, mert a fejlesztő DirectML kódot ír (ez nincs Linuxon->több Windowst adnak el->profit), addig az NV-nek nem feltétlenül éri meg ez, mert drágábbra jön ki gépidőt adni, mint lehúzni a WC-n a technológiát. Ettől függetlenül a DLSS koncepciója jó, csak a piszkos anyagiak elrontják a gyakorlatot. Ugyanakkor, ha bevállalnának egy rakás anyagi veszteséget ezen, akkor bőven jobb lehetne a minőség, mint amit az alternatívák adnak. Jensennek azonban kell a zsé új bőrkabátra.
-
Igen csak az Nvidia DLSS a bonyolult neuron hálós megoldást azért teszi hogy a fix felbontáson fix frametime és nagyjából azonos százalékú teljesítmény növekedés legyen mindenhol,míg a kimeneti kép lehetőleg ne legyen elmaradva lényegesen a natívtól minőségben, Függetlenül a képernyőn történő eseményektől, mert az AI elméletileg felismeri az azonos grafikai elemeket és megoldásokat és ezt öntanuló módon használja a játék folyamán automatikusan ezzel egy állandó fix minőséget és FPS növekedést er45edményez amit elhasználhatsz az RT re.
Ezt mint láttuk nem tudták maradéktalanul megoldani, de nincsenek brutális droppolások és megakadások, [link] míg itt a radeonos tesztnél volt olyan az egyik tesztelőnél, hogy konkrétan tizedmásodpercekre megakadt a kép fordulás közben.persze lehet még fake vagy béta amit használt még.
Konzolon segítség a fix FPS és a nagyobb késleltetés és ugyan ez igaz a Stadiara is,de PC-n ez nagy kihívás lehet mert rögtönzött és közvetlen a kapcsolat.
persze azért működhet még, csak idő kell neki. -
Szó szerint. Ha nem egész szám, akkor már homályos, s nincsenek meg a szép élek. Persze megoldható úgy, hogy ha nem egészre jön ki, akkor nem teljes képernyős. Ez az integer scaling leginkább a nagyfelbontású kijelzőkre lesz jó.
Na, de már csak kb 2 percet kell valószínűleg kibírni, úgyhogy mindjárt megtudjuk, hogy van.

-
Basszus, talán nem kéne olyan rohadt magasra tenni a lécet, hogy a driver gyorsítson legalább 20%-ot meg legyen minden is benne, s akkor nem csalódnál.
Ez főleg annak a tudatában vicces, hogy már 5., azaz ÖTÖDIK éve év végén jön a "csodadriver" szuper feature-ökkel.2015-11-24: Rengeteg újítással érkezik a Radeon Software első főverziója
2016-12-08: Szintet lépett az AMD Radeon Software
2017-12-12: Az AMD Radeon Software Adrenalin Edition újításai részletesen
2018-12-13: 2019-es verziót kapott a Radeon Software Adrenalin
Idén se lesz másképp.
-
Tyrel
őstag
Nah, szóval pont ugyan olyan sz*r mint a DLSS... Radeon Boost:
Support for 8 games at launch: Overwatch (up to 38% faster), PUBG (up to 22% faster), Borderlands 3, Shadow of the Tomb Raider, Rise of the Tomb Raider (up to 10% faster), Destiny 2, GTA5, COD WW2Nem általános megoldás, néhány kiválasztott játékban élvezheted az előnyeit, egyébként meg IJB.
-
Én erről kifejtettem már a véleményemet és továbbra sem értem hogy fenébe tudja egy szaklapnak nevezett oldal összehasonlítani a RIS-t az image sharpeninget és a DLSS-t.
nevetséges mert a RIS és az IS nem nyúl hozzá az felbontáshoz, az egy textúra élesítő eljárás egy szűrő...
A DLSS nek megfelelő eljárás ez lesz, ezzel kell majd összemérni és a Microsoftnak is van / lesz saját dinamikus skálázása Windows alatt, mert ugye így összesen 3 féle eljárást is használhatunk és összemérhetünk.
Szerintem is a DLSS ebből a legrögzítettebb és legbonyolultabb.A DLSS-t is és minden ilyen eljárást egy lufinak tartok , egyetértek...
szerk
nem rád írtam hogy te hasonlítottad ,hanem a cikkek amik akkor megjelentek...
erre reagáltam :
"nVidia is a Freestyle Image Sharpening-el (vagy mi a RIS másolatának neve) nem egy cikk jelent meg ilyen "DLSS is dead!" címekkel, mondván egy egyszerűbb és több játékban alkalmazható eljárással jobb képminőséget kaptak."
Továbbra sem értem hogy írhat le egy cikk ilyen dolgot mikor két eltérő eljárásról van szó.... a IS. és a DLSS nem egymás konkurensei, az egyiknél FPS-t nyersz a másiknál képminőséget.
Az egyik felbontást skáláz le, a másik textúrát élesít...
Amíg egy ficsőr kikapcsolható mindegyik cég azt csinál amit akar felőlem. -
Petykemano
veterán
Valószínűleg valami ilyesmiről van szó.
Amit én hallottam/olvastam , de talán láttam is, vagy köztudomású, hogy vannak bizonyos címek, amikben az RX 580-at hozza kb, de van, amiben eléri a vega56-ot is.Abu(ék) jellemzően újabb játékokkal tesztelnek, mert inkább az mutatja meg, hogy a kártya hogy fog muzsikálni a következő 1-2-3 évben (megjelenő játékokban)
Emiatt várhatóan Abuéknál lényegesen jobb eredményt fog elérni, mint ott, ahol még a mai napig Crysis3-mal tesztelnek.
A naviban egyébként van potenciál. Ugye ne felejtkettünk meg arról, hogy a GCN 4db 16 hosszú SIMD feldolgozásra képes, ami 64 wavelength esetén (a GCN ezt tudja) egy ilyen wave feldolgozát legkevesebb 4 órajelciklus alatt teszi lehetővé. az RDNA viszont 2db 32 hosszú SIMD egységekből áll, és képes 32 wavelength feldolgozására (ha jól tudom ez az nvidia standard) ami azt jelenti, hogy ilyen esetben egy wave feldolgozása akár 1 órajelciklus alatt is megtörténhet.
Feltehetőleg a "nagy kilengések" ennek, vagy ilyesmiknek köszönhető.
A trollkodás kedvéért meg lehetne fordítani a kilengések irányát firtató kérdést. Mert ha az AMD-hez viszonyítod, akkor onnan nézve, meg az nvidia kártyák teljesítménye ingadozó: hol jobb, hol gyengébb.
Abban persze lehet, hogy igazad van, hogy ebből a perspektívából nézve jelenleg több az olyan játék, ahol az "ingadozó nvidia teljesítmény" épp magasabb, mint a példa kedvéért most referenciavonalnak tekintett AMD teljesítmény.
A kérdés az, hogy vajon milyen irányba tartunk? Az RDR2 egy kivétel, vagy a jövő előfutára? -
“Pont nem érdekel hogy pl. az RDR2 alatt milyen gyors a Navi, ha közben pl. Star Citizen alatt meg lassabb az 5700 mint egy 1070Ti”
Én meg pont fordítva vagyok az említett két címnél, amúgy szerintem félreérted Abut, nem kell itt még 10%-ra sem számítani és majd mindegy mit hoz a driver ha nincs hozzá vga. (5600(XT), 5800(XT)) Az 5500 jön csak de az se lesz egy népkártya.Amúgy ezek után nem ér az AMD-t ekézni a “csoda driver” miatt, mert Abu beböfögéseiből keltett hype nem az ő saruk.
-
Cifu
félisten
Rossz lovon ülsz. B. azt írta, hogy az nVidia is kaphatna egy pofont az AMD-től (vagy az Inteltől) GPU fronton, ahogy az Intel is kapott CPU fronton...
Amúgy van egy jelentős különbség Raja Intel vs. AMD hátterében. Az AMD-nél már akkor sem volt pénz, amikor Raja odakerült. Az Intelnél sokkal több pénz van még úgy is, hogy most elkezdték meghúzni a nadrágszíjat.
-
paprobert
őstag
Nem tudjuk mit tud az RDNA2...
Honnan az infó, hogy RDNA2 lesz?Honnan veszed hogy megáll 9 TFLOP-nál?
Ha emelnek is át bármilyen feature-t az RDNA2-ből, gondolod hogy nagyságrendekkel eltérne ettől a számtól? +25%-kal sem változna a ray-tracingre vonatkozó állításom.És honnan veszed hogy az RT még ebből fog teljesítményt elvenni?
Nincs ingyenebédray-tracing. (#43962) A ray-tracing effektek versenyben lesznek a GPU erőforrásaiért.Szerintem arra külön hardver lesz...
Dedikált hardver max. a memóriasávszél-igény kordában tartására lesz. -
paprobert
őstag
Ez valóban inkább tippnek tűnik a részéről.Ha viszont tényleg ~9 teraflopnál áll meg a GPU, akkor elég hamar szűkös lesz ez a konzol is.
Tegyük fel, allokálsz 3 teraflopot csak RT-re (ami nem sok), akkor máris csak Xbox One X-nyi erőforrás marad raszterizálásra.Ha komolyan gondolják a ray-tracinget, és nem csak mutatóban lesz, akkor mindent amit tudnak visszalapátolnak majd CPU-ra, teljes 180 fokos fordulatot téve az eddigi fejlesztési trendekkel szemben.
-
-
Abu85
HÁZIGAZDA
Mondták. Pár média így jegyzi.

HBCC lesz a konzolban, bár nem úgy, ahogy PC-n. Ez lesz az egyik trükkje a gépnek. Effektíve lesz egy olyan működési módja, hogy a memória maga lesz a háttértár, az SSD, amire a játék települ. A koncepció itt az, hogy használhasd a rendszert hardverből, tehát feltelepíted a játékot, ahhoz a gép hozzáköti a működési módot, ami annyit tesz, hogy indításnál mindig a játék maga lesz a memória. Ha 50 GB, akkor 50 GB-os lesz a gép, ha 110 GB, akkor 110 GB-os. És innen a valós memória lesz a gyorsítótár. Ennek egy meghatározható része menedzselhető direkten, kvázi hagyományos módon, egy másik részének pedig elég azt mondani, hogy menedzselje a hardver. Ez pár sornyi kód, és amit eddig évekig fejlesztettek egy játéknál, azt a PS5 ebből a pár sorból automatikusan megoldja. Emiatt érződik az, hogy pokoli gyors, mert régen a sebességet az efféle streaming esetében maga a gyorsabb kód hozta, míg most már egy hardver csinálja, ami out of box működik. Nem kell hónapokig optimalizálni, hogy sebesség is legyen. Ez egyébként hathat úgy, hogy pokoli gyorsnak érzed, mert ami a jelenlegi gépeken megvalósíthatatlan, vagy memória működése, vagy az értelmetlenül sokáig tartó fejlesztés miatt, az a PS5-nél még egy napnyi munka sincs. És nyilván az egyik vezető irányzat a játékpiacon, hogy ne legyenek töltőképernyők, de legyen akkora a terep, hogy ne lehessen gyorsan bejárni. Ez ma egy nagyon nehezen megoldható probléma. Nem véletlen, hogy annyi koncepció születik arra, hogy nagyobb legyen a terep, de ne töltsön a játék. Úgy ahogy ezek működnek is, a maguk limitjei mellett.
-
TESCO-Zsömle
titán
"Az RDNA2-nek nagyon jónak kell lennie, különben vége a dalnak..."
Nem feltétlenül. Anno a HD4xxx-ek után a GPU-részleg húzta a hátán a CPU-részleget. Most ugyanez van csak fordítva. Amíg az AMD egy cég, addig baj akkor van, ha mindkét részlegnél beüt a krach. Persze ideális nyilván az lenne, ha minden klappolna, de helyén kell kezelni a dolgokat. Az AMD az ATI akvizíciója után is kb egálban volt az nVidiával, vagyis két piacra dolgoznak ugyanannyi erőforrással, mint a konkurencia. Intel-ről meg ne is beszéljünk, mert az akkor is 15-20x akkora cég volt, mint az AMD vagy az nVidia. "Kis pénz, kis foci". Ha a konkurenciának sokkal több pénze van mindenre, úgy nem könnyű megfogni.
CPU-részlegnek se lenne ilyen könnyű dolga, ha nem kaptak volna ilyen többszörösen kedvező csillagállást:
-A Zen tényleg jó.
-A 7 évnyi szundításból lomhán ébred az Intel.
-A 10nm csúszásával kiesett egy "ritmus".
-A különböző "fenyegetettségek" is zömmel csak az Intel-t sújtják (Spectre, Meltdown meg ami még azóta jött)
És meg lehet nézni, hogy ilyen együttállás mellett milyen ütemben húdít az AMD...
Ha a fentiek közül akárcsak kettőt is kihúzol, akkor az AMD elég nagy kupac trágyában lenne... -
Petykemano
veterán
Anno AdoredTV leakjei alapján a navinak Valamikor 2019Q1-Q2-ben kellett volna jönnie.
Nem tudjuk, mi az igazság, de a mese szerint elhalasztották.Ez alapján végülis elképzelhető, hogy az RDNA2 ne a navi10 megjelenéséhez képest, hanem az elvileg eredeti tervek szerinti megjelenéshez képest 1 évvel később jelenjen meg.
-
Cifu
félisten
A fő gondom az AMD bejelentéseivel, hogy jó ideje a bejelentés csak egy varázsgömb, amibe belenézni engednek, hogy majd jön ez, majd jön az. Az RX 5500 egy mintapélda erre, ennél jobban elbaltázott bejelentést nem tudom mikor csináltak utoljára...
Valószínűleg megvárom, hogy mivel hozakodnak elő, de ha megint azzal jönnek, hogy majd 2020 nyarán / őszén jön az RDNA2, és hogy hú, meg ha, akkor skippelem és kész. Annyi, de annyi csodavárás volt már, HSA, GCN, Mantle, Vega, Radeon VII, és a többi, most legutóbb az RDNA, hogy egy kissé megcsömörlöttem már az AMD ígérgetéseiből.
Az, hogy a jövőben mi lesz, csak sejthetjük. Engem nagyjából egy játék érdekel az elkövetkezendő időszaknak kiemelten, az a Cyberpunk 2077, ami RTX cím. Ha az előtt érkezik az RDNA2 hardveres Ray-Tracing-el, akkor hurrá. Ez az eset lehet(ne) az, amikor az nVidia is kénytelen lenne végre kiteríteni az Ampere lapjait. De kétlem, hogy akár az AMD, akár az nVidia idejekorán lépne. Az nVidia azért, mert nincs lépéskényszerben. Az AMD meg azért, mert nem tud hamarabb lépni.

-
Tyrel
őstag
Végén még igazam lesz...
RDNA 2 at CES 2020 -
Petykemano
veterán
Kétségtelen, hogy számos lelőtt termék áll az AMD háta mögött.
Ott volt a big Polaris, amiről tudjuk, hogy lett volna, csak elkaszálták a vega javára. Elvileg 2016 végén jött volna és pont azért kaszálták el, mert a fél évvel utána jövő vega 10 ígéretesebb volt.
Ott van a Vega 12, amiből végül lett termék, de csak az Apple-nek.
Én fel nem tudom fogni, hogy ez hogy érte meg - még úgy se, ha a fejlesztés árának egy részét az intelre terhelték. Mármint hogy a kettő között volt átfedés. Én elhiszem, hogy a HBM drága, de az apple tényleg hajlandó volt annyit fizetni? Annyit, hogy abból kijöjjön a szokásos egy lapkára jutó $100m-os fejlesztési költség is anélkül, hogy ezt kiadnák?Azt már nem is tudom, hogy mivel kapcsolatban mondták - állítólag AMD dolgozók -, hogy örülnek, hogy végül nem lett lelőve úgy, mint a big Polaris a vega javára.
Moore's law is dead elmélete szerint már eleve az történt, hogy az eredetileg navi 10 névvel illetett RDNA fejlesztést lelőtték, helyette lett a korábbi navi12-ből a kurrens navi10 és túlhúzták, hogy elérje azt a szintet, amit kell. Így lett a kellemes fogyasztású remek naviból borzalmasan sokat fogyasztó és hőtermelő.
Ennek oka az elmélet szerint az volt, hogy rájöttek, hogy az RDNA nem elég jó, az RDNA2 sokkal jobb.
Ha ez igaz, akkor lehet, hogy amit ma navi12 néven látunk, az volt/lett volna az eredeti navi10 és valóban soha nem készül el.Mindenesetre több alkalommal volt már navi12 driver bejegyzés
2019-07-18
2019-08-02
2019-09-17
2019-09-20AZ a baj, hogy egyedül az utolsóról tudom elképzelni, hogy mivel sietve csinálták, ezért nem bajlódtak azzal, hogy ne fésüljenek be olyan tartalmat, ami a navi12-re vonatkozik.
Ezek alapján szerintem egy decemberi bejelentés és januári megjelenés még nem késői, még nem jelent a fél évvel ezelőtti várakozásokhoz képest csúszást. Persze önmagában nézve igen, nyilvánvalóan nem tud a Navi12 versenyképes lenni, ha közben debütál az nvidia új termékekkel.
A navi12 létezésére, vagy legalábbis annak lehetőségére utal szerintem a 2080Ti super-ről szóló pletyka is. Persze nyilván ezt tartogathajta talonban az nvidia anélkül, hogy kiadná. De azt gondolom, hogy ha esetleg kiadásra kerülne, akkor abból lehet tudni, hogy tényleg jön az eddig ismert navi12.
Ha viszont valóban dobták azt, és RDNA2-es navi 20-23 jön, akkor ezeknek negyed éven belül meg kell jelennie a driverekben. Vagy egyiknek, vagy másiknak be kell következnie, különben újra csúszás lesz.
-
Cifu
félisten
Irgalmatlan optimista jövőkép, bár így lenne. Viszont ez azt jelentené, hogy az AMD nagyon jól kell álljon az RDNA2-vel. Figyelembe véve mennyit késtek (és késnek) az RDNA1 SKU-kkal, ez finoman szólva is nagy dobás, és még nagyobb meglepetés lenne.
Viszont én másképpen látom az AMD / nVidia versenygést. Az nVidia nem feltétlen kémkedés által jut előnyhöz, hanem egyszerűen a pénzbőség miatt ekkora előnyben vannak az Arch terén. Ha szerinted tudták volna előre, hogy nem jön (időben) az RX5300 / 5500 / (5600), akkor szerinted kihozták volna a GTX1650 Super-t és GTX 1660 Super-t? Én kétlem. Szerintem csak annyi bizonytalanság volt, hogy az AMD hogy áraz be. Amikor látták, hogy korántsem tud még teljes pályás letámadásba kezdeni az AMD, az nVidia szépen beállt egy kényelmes "sweet pointba" a Super kártyákkal ár terén.
Ahhoz nem kell kémkedés, hogy az AMD tudja, hogy az Ampere rohadt nagy veszélyt jelenthet, hiszen az nVidia 12nm-en hoz hasonló teljesítmény/fogyasztás mutatókat, mint a Navi 7nm-en.
Én azt sem zárom ki, hogy az RX5700(XT) rajtja után felmérték a lehetőségeket, és végül az RX5500-at már csak fél szívvel dobták piacra, hogy aztán az RDNA2-re koncentráljanak. Ebben mondjuk egyetértek, ez a hajó elúszott, tök mindegy miért. A karácsonyi dömpingről lecsúsztak, év elején hatalmas pangás van, szóval tényleg nincs értelme így az RX5800 v. RX5900 pályára küldésének, mert csak ideig-óráig tudnának versenyképesek lenni.
-
Cifu
félisten
Yepp, a TressFX az, aminél vakartam a fejem, hogy hát oké, Lara haja egy fokkal jobb, mint korábban, de ez még mindig nem haj.
Amúgy e téren a Frostbite májusi prezentációja nagyon tetszett, kár, hogy gondolom ez is techdemo szintjén reked meg...

-
Z10N
veterán
bármi API-t kiadtak (max. 1 játékban demó jelleggel)
En Mantle-lel meg egy cimet sem tudtam futtatni, pedig a legfrissebb drivereket hasznaltam mindig. Az egyik a Civilization: Beyond Earth, a masik a BF4 volt. Utobbit a mai napig hasznalom es 2019-s driverrel sem megy, pedig 5 evuk volt ra megoldani

https://en.wikipedia.org/wiki/Mantle_(API)#Video_games
https://en.wikipedia.org/wiki/Category:Video_games_that_support_MantleUi: Vartam a HSA supportot is, bar az nem az O hibajuk. Illetve a 7790-ben letiltott audio kepesseget is...
-
Z10N
veterán
"Darabszámra nyilván nem a felső kategória vezeti a listákat, de egy eladott 2080 Ti-n nem is annyi haszon van csak, mint egy 1650-en. Persze jóval kevesebb megy el, egyrészt nem osztogatják ingyen"
https://www.youtube.com/watch?v=P3gqwkjDDa8
https://www.youtube.com/watch?v=5rwYjRzLHHI

-
Abu85
HÁZIGAZDA
Automatikusan működik. Állandóan. Csak ahhoz, hogy előnyt is adjon divergens kódok kellenek, mert itt számít az egy lane-re levetített teljesítmény. Ez gyakorlatilag az egy szálú kódfuttatás a GPU-n. Viszont ma még kerülik a fejlesztők a divergens kódokat, mert borzalmasan lassúak velük a GPU-k. Az RDNA az első dizájn, amit arra gyúrtak ki, hogy ezekkel a kódokkal is gyors legyen.
Az AMD-t nem érdekli a 0. generációs DXR. A jövő évi váltás érdekli őket, amikor jön az inline raytracing. Ahhoz tervezik a hardvert is.
-
Cifu
félisten
Az hogy a Polaris/GCN hány éves az pedig irreleváns, ha az 5500/XT nem tud sem olcsóbb sem gyorsabb lenni nála.
És majd 2-3 év múlva is ez lesz?
Mert itt most két nézet ütközik. Ha az RDNA nem éri meg a GCN-hez képest, akkor ma eladni egy olyan arch.-ot, ami hamarosan elavulttá válik, finoman szólva se szép dolog.
Ha viszont a GCN és az RDNA sebessége tényleg azonos, akkor viszont semmi értelme az RDNA arch. bevezetésének...Ráadásul Polaris-ból még mindig vannak készleteik, sőt ha gyártják még (?) azt is olcsóbban tudják mint a Navi 14-et, hiszen nem az amúgy is nagyon szűkös 7nm gyártókapacitásukra kell bezsúfolni.
Ez már egy másik kérdést vet fel: nem lett volna jobb a Polarist továbbfejleszteni, és egy olcsó, de a Polarisnál fejlettebb 12-14nm-es GPU-val kijönni? Persze feltehetően igen, csak éppen nem volt pénze erre az AMD-nek.Ezzel szemben a Navi 12 még mindig egy óriási piaci űrbe érkezne, ha jönne. Az ő kategóriája az, ahol semmijük sincs, az eladások 100%-át bukják itt jelenleg.
Csak ahhoz egy kiforrott arch. lenne a megfelelő, mert ha féllábú óriás lesz, mint a Radeon VII, akkor kevesen fognak kapkodni utána...Szvsz az RX 5700 család is korán jött ki, mostanra kezd szoftveresen is talpra állni, és ha decemberben tényleg végre megadják neki a kellő szoftveres hátteret, még a végén jó is lehet.
-
Cifu
félisten
Az hogy az 5500/XT késik istenigazából nem baj, mert S-Budget kategóriában a Polaris még mindig jó.
Tehát szerinted nem baj, hogy még mindig egy 3+ éves GCN platformot tud nyújtani csak az AMD? Ugyebár pár éve azt kommunikálták, hogy ez a legfontosabb piaci szegmens, mert itt fogy a legtöbb kártya. Így hozták ki a Polarist.Ezek szerint mégse fontos.
Az hogy az 5600/XT "fasorban sincs" igazán nem is tudom miért felvetés, egyáltalán mondta valaki hogy lesz?
Pedig nagyon kellett volna, ahogy az 5500 is....
Lett volna egy lehetőségük, de nem sikerült normális rajtot venni. Elég szomorú...A hanyatló nyugaton nem szórakoznak már 1080p kijelzőkkel, van pénz lóvéra, 1440p és 4K van az emberek előtt, sokszor 60" körüli TV méretben.
A TV-k azért rossz példák, mert egyszerűen kifuttatták az FHD felbontást ott. Annyira olcsón dobják a 4K-s kijelzőket, hogy érthető az elterjedésük.Ellenben ha a best selling listákat nézem a különféle amerikai webshopokban, akkor azért nem az RTX 2080 Ti meg az RTX Titan vezeti, hanem a 150-250$ körüli kártyák (Polaris és a GTX 1060(Ti) és a 16x0 széria), ahova néha beszuszakolódik pár 400-500$ körüli alternatíva (RX 5700(XT) és 2060 Super, 2070 Super).
-
-
-
Cifu
félisten
Teljesen egyetértek, de nem hiszem, hogy az AMD azért nem jön az RX5500, 5600, 5800 és 5900 kártyákkal, mert nincs kedve, vagy mert a driverek még nem teljesen forrtak ki. Így viszont az alsó régióban maradtak a Polarisok, a felső régióban pedig nagyjából semmi, hiszen a Vega 56/64 és a Radeon VII sem éppen az nVidia padlóra küldéséről szólt, az egy szem RX5700 meg hát a közép-felső tájon próbál meg érvényesülni.
Ráadásul tegyük hozzá, hogy a karácsonyi szezon már itt van a nyakunkon, az nVidia épp most fedi le újra teljesen a palettát gyakorlatilag a 150$-ostól a 700$-ig a Super szériával (illetve e felett is az RTX 2080 Ti-vel és a Titan RTX-el), az AMD pedig még az RX5500-al is késlekedik...
Amennyire jól megy most CPU fronton az AMD-nek, annyira rosszul megy a dGPU fronton...

-
A Microsoft kér rá szabványos megoldást-. nem nvidia alkotta ezt hanem a Microsoft hozta be és kért mindhárom gyártótól rá megoldást . Lesz is 1 éven belül mindháromnak de Nvidia volt a leggyorsabb ennyi ebben a lényeg. Nem egy szimpla effekt továbbra is ez egy oltári nagy baromság ha ezt mondod és gondolod róla, nem tudom ezt máshogy megfogalmazni és nem is akarom.Nem a szépség az raytracingban a lényeg továbbra sem, de ezt leírtam már feljebb, hanem a realisztikusság és a valós időben történő létrehozás ami dinamikusan változik. De ezt is leírtam már feljebb.Erre kell fejlődni.
Hiába igazítja hozzá bármihez adott játékban , a raszterizációs megoldást,ha raytracinggal szebb az eredmény és valósághűbb lásd Frostbite, Unreal, Unity...
Olyan dolog ellen lázadtok, ami mellett az ellenoldalon 10 % árelőnyön kívül nincs semmi.
Úgy írod ezt le , mintha most a radeonok vagy fele árba kerülnének RT nélkül." Ebbe kötöttem bele többed-magammal, hogy sok éves renderelési technikákhoz hasonlítják az RT-s képeket."
minden RT-s játék 1-2 éve jött be kivéve a Quake, konkrétan miről beszélsz?: Metro, Control, TR,Bf5 ? milyen sok éves technikák? Minden hisz épp ez mellett kardoskodtok.
ott fut a játék a gépemen és látszik a különbség. Te a Google alapján nyilatkozol én meg a saját gépem alapján csak úgy mint Cifu is leírta ezt feljebb. -
a kettő közti különbséget kell nézni.
Az egyiknél ugyan olyan árnyékot és fényt látsz mindenhol,kivéve ott ahova ezt a programozó az adott helyszínre/ fényforrásra fixen előre beállítja míg másiknál a különböző felületeken más árnyékot és tükröződést vet ugyan az a fény. Az egyik a parasztvakítás a másik a valóság.
A másik fele hogy nem értem hogy a fenébe tudod ezt rávetíteni Nvidiára és ebből ezt kihozni.Az nvidia kártyák Rt nélkül is működnek és ugyan azt tudják mint a Radeonok az mellett képesek RT re. Ha AMD decembertől támogatni fogja akkor máshogy fogod látni akkor lesz ez isteni manna? onnantól lesz a jövő záloga és a fejlődés kulcsa? mert jelenleg ez az út ami előrelépést eredményezhet bármiben akár térhangzásban/ tükröződésben akár rombolhatóságban bármiben.
Ez kell hogy egy fejlesztőnek ne kelljen letárolnia/ megterveznie minden egyes helyszínre a fényforrásokat és a tükröződéseket, hanem egy adott helyszín kezdő jelentében be foga majd állítani a fényforrásokat és a textúrák, majd az engne a felületek/ fényforrások rombolt környezet hatására kiszámolja az egészet real time a térbeli hangokkal/ visszaverődésekkel együtt. Ez a jövő.
Decembertől pedig a radeonok is támogatni fogják. Állítólag... -
Cifu
félisten
...aztán elindítasz egy 200 éves FarCry-t vagy Crysis-t, meglősz egy mennyezetről lógó lámpát, az elkezd imbolyogni és a fénye tök szépen terül el mindenen a lámpa mozgását követve. De milyen érdekes hogy se PhysX se DXR nem kellett nekik ennek a megvalósításához, nem? Ezek a szemét mocskok, mégis mi a francot képzeltek magukról?...
Ez tök jó, csak akkor ma miért nem látunk ilyet minden játékban? Az nVidia címeket nem számolva se. Ahogy olyan szintű rombolható környezetet sem, mint a Red Fraction-ban?
Ne mond már, hogy amiatt, mert az nVidia lefizeti a fejlesztőket, hogy ne csinálják meg...
-
Cifu
félisten
Ahogy TESCO-Zsömle is mondja, az összehasonlítások többségében szándékosan butítva van a korábbi, shader alapú megoldások képminősége, majd aztán ahhoz van hasonlítva egy RT verzió, ferdítik a valóságot.
Az én szememet is ferdítik?

A technikai trükkök a háttér, a lényeg az, hogy RTX-es kártyán ott vannak az effektek, aki meg nem RTX-es kártyán játszik, annak nincsenek.Értem mit szeretnél kihozni belőle, és nem, én sem szeretem az ilyen húzásokat (lásd PhysX gyorsítás csak nVidia kártyákon, amik aztán ATi kártyákon is működésre lehetett bírni), de ettől még a különbség ott van. Ezt nem lehet letagadni...
Jelenleg viszont kb. rosszabbul teljesít és haszontalanabb mint anno a PhysX volt, és ha nem állna a DXR mögött mind a Microsoft mind a többi gyártó, akkor pont ugyan úgy el is tűnne a süllyesztőben az egész RTX vonal ahogy a PhysX is.
A PhysX is tök jó dolog volt, csak ugye először dedikált fizikai gyorsítókártyával képzelték el. Nem jött be. Aztán jött az, hogy csak az nVidia kártyákkal működött. Az effekteket láttuk más játékokban, más fizikai motorral megtámogatva mindenféle dedikált támogatás nélkül is, de hiába, ha egyszer nagy a számításigénye. 15-20 éve is mentek a nagy cloth-effekt demók, hogy hejj, miket lehetne megvalósítani, aztán még most is ott tartunk, hogy a játékok többségében rohadtul nem találkozunk a cloth-effekttel. De fel lehet hozni a haj- és szőrszimulációt is.
Tök mindegy, hogy mi a háttér, ha előrelépés van. A TressFX jobb volt hajszimulációra, mint a Hairworks? Igen, de ettől még a TressFX is csak techdemo szinten jelent meg pár játékban, és ott sem úgy nézet ki, hogy térdre borulva hajlongtunk, hogy íme, végre elhozták azt, amit évtizedek óta demóznak...
A jelenlegi RTX-es megoldások előrelépések a korábbi megoldásokhoz képest, ezt nehéz lenne elvitatni, hiába próbálod. Hogy kevés? Hát istenem, én is hogy örülnék, ha végre tényleg eljönne a Ray-Tracing korszak, mert már az 1990-es évek végén vizionálták, hogy hamarosan eljön. Azóta eltelt 20 év, és végre legalább (ha csak tyúk lépésekben is), de elindult valami...
-
imi123
őstag
Nyilván megosztó.
Nekem tetszik, neked nem.
Majd térjünk vissza rá ha kijönnek a nextgen konzolok. Ugyan ezek az efektek egekig lesznek magasztalva.Nekem csak ezzel van bajom.Aki az RT-től az várja hogy látványosan szebbek lesznek a játékok az biztos csalódni fog.Sokszor a valóság sokkal "csúfabb" mint valami efektekkel túltolt "gépi" valóság. -
Cifu
félisten
másrészt várhatóan nem ez az ipari hulladék DXR implementáció lesz bennük mint a mostani RTX-ekben, hanem valami értékelhetőbb és időt állóbb
Vs.
mert egy felsőkategóriás, 200 ezer Ft fölé árazott kártya lesz, amiben nincs semmilyen (hardveres) RT, tehát abszolút nem jövőbiztos.
Nem áll össze, egyfelől lefitymálod a jelenlegi RTX generáció RT képességét, majd ekézed a csak pletyka szinten alátámasztott 5800/5900-et, hogy nincs benne semmilyen RT.Ez alapján az első generációs RTX sem időtálló és jövőbiztos...

Itt a lényeg (szerintem), hogy a mostani RTX széria már rendelkezik HW RT-vel, az nVidia pedig ipari szinten tolja is ezt (BF V., Control, Cyberpunk 2077, stb.). Így aztán azok, akik megveszik a jelenlegi RTX-et, kapnak egy pluszt. Hogy majd a következő generáció jobb lesz? Nach so, majd lecserélik...Jelenleg a DXR csak egy haszontalan gimmick, de ez jövő évben, legkésőbb annak a végén, változni fog...
Haszontalan? Szebb tőle a grafika? Igen. Akkor miért is haszontalan?
-
TESCO-Zsömle
titán
Azt értem én, hogy teljes termékcsaládot fognak építeni rá, tiszta sor, de egy évben az 5800-ak megjelenésével én nem azt vagy ahhoz közeli szintet lőnék meg vele, mert azzal megint saját magukat lövik lábon. A külön nevezék azért kéne, mert ha 5900-nak hozzák, akkor azt fogják hinni, hogy RDNA1, ha meg 6900-nak, akkor hülyén fog kinézni az 5xxx paletta mellett.
Az 5xxx széria kivezetése is ok, de nem mindegy a sorrend. Az 5800 jövőre fog debütálni együtt az RDNA2-vel. Ha utóbbit fölé lövik, nincs gond, ha alá, akkor viszont egymás elől veszik el a piacot. Jobbna járnának, ha a felső házban villantanának valamit, ott van nagy hiány, a közepet és az alját még jövőre tisztán lefedik az 5xxx-ek. És igen, a másik eshetőség, hogy késik, de azt inkább hagyjuk...
TR igazából nem számít még jövőre se. Amíg nincsenek kint az RT-képes next-gen konzolok ,addig csak egy jelentéktelen showcase feature. Lásd hogy járt "It just works" nVidia. A bejelentett RT címek egyik harmada nem támogatta az RT-t megjelenéskor, a másik harmada meg 1:1-be dobta is az ötletet a francba. Úgyhogy mostantól számítva még 1-1,5 évig sinál el lehet lenni RT nélkül, ha a teljesítmény továbbra is úgy alakul, ahogy az nVidia megvalósításában, akkor pedig a közép és alsó kategóriákban utána is, mert senki az ép eszével nem fogja eldobni a teljesítmény felét-harmadát, ha csak nem olyan pluszról van szó, amiból amúgy sem profitál.
Mint mondtam, én nem várok csodát, nálam a zöldek és a kékek nem rúgnak labdába. Hiába lesz gyorsabb az Ampere, ha ilyen 2000$-okat kell majd leszurkolni érte.
Más kérdés, hogy amúgy maga az RT se mutatott eddig akkorát, hogy azt lehessen mondani, megéri azt a plusz pénzt és teljesítményt. Se az nVidia, se az AMD, se senki nem képes még natív RT-re. Ez a mostani megoldás is, sőt, a konzolosok is csak ilyen részleges effektek maximum. Nem a "real deal". Porhintés. Főldmüvesek látószervének szándékos rongálása. Az, hogy csináltak pár demó-t, játékot, ahol az RT mellett az elérhetőnél rosszabb!!! árnyékokat és fényeket pakolnak be, csakhogy a különbség jobbna kijöjjön, az nem kunszt! Ne ugyanazt a játékot mutogasság RT-vel meg nélküle, hanem keressenek RT előtti/nélküli top eyecandy AAA-s címekben olyan effekteket és azokat vessék össze. Persze úgy már más a leányzó fekvése... -
Abu85
HÁZIGAZDA
A next-gen RT-s hardvereket is kidobhatod, mert az Intel miatt lesz egy reset. Tehát ahogy most megvágják a kompatibilitást az aktuális DXR-rel, úgy a következő DXR-rel is végez a harmadik DXR verzió. Viszont állítólag ez már végleges lesz, tehát nem nulladik generációs. Onnantól kezdve lesz értelme az RT-nek, mert nem válnak a hardverek papírnehezékké. Vagyis az RDNA2-nek az RT-je sem feltétlenül lesz elég annak a DXR-nek, amit végül az Intel is támogatni fog (de nem jövőre, hanem 2023-ban). Bár valóban eléggé programozhatóra van tervezve a hardver, de ettől még simán lehet, hogy lesz olyan futószalag lépcső, amit nem fog tudni. Ha jövőbiztos hardvert akarsz, akkor az úgy 2023 környékén jön, amikor letisztult, hogy miben egyeztek meg a gyártók a DXR-nél, és onnantól kezdve marad a visszafelé kompatibilitás is. Addig ez olyan lesz, mint a shader modell kezdeti időszaka, amikor muszáj volt venned az új shader modellt támogató hardvereket, hogy lásd az effekteket a játékban.
Egyébként jelenleg az van, hogy az Intel előállt azzal, hogy át kellene alakítani a grafikai futószalagot. A jövőben lesz egy hardver a voxelizálásra, ami még nincs a rendszerben, és egyetlen létező, illetve érkező hardver sem fog ilyet támogatni (leszámítva a két konzolt, de azok célhardverek, ott könnyű ezt a problémát megoldani). PC-n erre kell egy szabvány, és aszerint bevezetni azt, hogy a DirectX futószalag ne csak háromszögeket kezeljen, és majd arra kellenek hardverek. Szóval 2023-ban találkozunk.
-
TESCO-Zsömle
titán
Hmm. Átgondoltam amit írtál, és a legjobb forgatókönyv, ami az eszembe jut, hogy az RDNA2 az 5800-ak fölé jön valami egzotikus néven, hangúlyozva, hogy nem az 5xxx-es széria technológiája van benne.
A legrosszabb meg az, hogy az 5700-ak helyére jön és akkor megeszi az 5800-ak piacát megjelenés után nemsokkal, mint ahogy tette ezt az 5700-as a Vii-vel.
-
TESCO-Zsömle
titán
Más kérdés, hogy engem ez a része nem érdekel, amíg jó áron kapok jó teljesítményt. Sajnos én vagyok olyan marha, hogy elvekkel és meggyőződésekkel szívassam magam, így nálam se Intel se nVidia nem jön szóba. Tök mindegy milyen HW-rel megy az ember, mindenképp kompromisszum. Ha nem a kisebb teljesítmény és a kései megjelenés, akkor a fél milliós árcetli (2080Ti). Én ezt választottam és eddig nem bánom. (1700+V64 LE) Köszönik szépen jól vannak 1440p-re és még 2-3 évig biztos így is lesznek. Jelenleg az egyik legkiegyensúlyozottabb felállás.
-
Cifu
félisten
Én is valami ilyesmit várnék. Ami most realizálódott bennem, hogy amire kijön az RDNA2, addigra kint lesz várhatóan az nVidia második generációs hardveres RT kártyája, és feltehetően az Intel Xe is, aminél megint pletya szinten várható az RT. Vagyis az AMD a harmadik lesz csak a sorban...
-
Cathulhu
addikt
Huhh, eleg sok mindenben tevkepzeteid vannak. Nem vagy tisztaban se a mobil chipek komplexitasaval, se a piacok volumenjevel.
Egyreszt az a fittyfasz A13 mobiltelefon lapka 8.5 millard tranzisztort tartalmaz mig egy teljes Zen2 CCD mindossze 3.9-et (teruletre 98 mm2 vs 74 mm2), azaz joval nagyobb egy A13 mint egy fityfasz Zen2.
Masreszt csak iPhonebol evi bo 200 millio darab kel el (es iPadokat nem is szamoljuk, amibe jellemzoen nagyobb SoC kerul), illetve ott van meg nagy megrendelokent a Qualcomm, hasonlo volumenekkel.
Ezzel szemben a teljes PC piac kb 200-250 millio evente, es ennek a toredeke AMD. Szoval van ket nagy megrendelod tobb evre visszameno, stabil, kiszamithato, es tobb evre elore tervezheto volumennel, es van egy kis megrendelod, akinek az elso megrendelese nalad, par tizmillios darabszam es kisebb chipek, az anyagi csod szelen tancol(t), igy nem lehet evekre elore stabilan tervezni vele. Melyiket szolgalnad ki?
De megha nem is priorizalod a vevoidet es azonos felteteleket biztositasz nekik (hulye lennel), akkor is ki tud nagyobb kapacitast lekotni? Az apple, aki nagy marginnal tudja arulni a premium iPhonejait, vagy az AMD aki allando arhaboruban van az intellel es az nVidiaval, es eleg alacsony hasznot tud realizalni, igy a licitnel is sokkal kisebb a mozgastere. -
Oliverda
félisten
Rém egyszerűen. Úgy, hogy abból a fittyfasz lapkából a "csak amerikában kiemelkedő népszerűségnek örvendő" iPhone-okba kellett tavaly 200+ millió darab, és akkor az iPadről meg a többi saját processzoros cuccról nem beszélünk. Ehhez képest nagyjából az összes partner kispályás, beleértve az AMD-t is. Nem véletlen, hogy az Nvidia inkább átmegy a Samsunghoz, hisz ott nem kell egy Apple kaliberű mamuttal osztozkodni a kapacitáson.
-
Oliverda
félisten
Mert az Apple áll a TSMC partnerlistája legelején. Az évi több tízmillió darabos megrendelés miatt prioritást élvez, és mivel kevésnek bizonyult az A13-ra korábban leadott megrendelés, ezért feljebb kellett csavarni a gyártást, néhány kisebb megrendelő (pl. az AMD) kárára.
-
Cifu
félisten
Tippre pont azért húzza el az AMD a bejelentést, mert egyszerűen nem képes szállítani, és azért tartja valójában a piacon az RX560/570/580 szériát a kis Navi-k mellett majd, mert nem tud mennyiséget biztosítani a 7nm-es gyártósorról. Ahogy a Ryzen 9 3900X és 3950X mennyiséggel is problémák voltak/vannak (meg a Rome-al, többek között)...
Irtó szép lesz, ha jövőre jön értékelhető mennyiségben a Navi, miközben lassan jön az Ampere majd...
-
Petykemano
veterán
Magamat idézném csak a miheztartás végett:
[link]
[link]
[link]
Kurrens státusz:július 7.: Matisse, Navi10augusztus 7: Romeszeptember 7. -október 7.november 7.december 7.január 7. (közvélekedés szerint Renoir)Kandidáltak:
- 3950X
- navi 14 (~augusztus-október)
- navi 12 (~október-december)
- arcturus (MI100)
- threadripper
Korábbi tippeim:július 7.: Matisse, Navi10
augusztus 7: Rome
szeptember 7.: 3950X, Navi14 bemutató
október 7.: Threadripper, NAvi14 elérhetőség
november 7.: Navi12
december 7.: Arcturus
január 7. RenoirFriss tipp:
július 7.: Matisse, Navi10
augusztus 7: Rome
szeptember 7.: -
október 7.: Threadripper (low-end), Navi14
november 7.: Navi12
december 7.: Arcturus
január 7. RenoirValamikor talán még ledobják a mid és high-end TR-t is
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- sziku69: Szólánc.
- Futás, futópályák
- Luck Dragon: Asszociációs játék. :)
- sziku69: Fűzzük össze a szavakat :)
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- eBay-es kütyük kis pénzért
- Vezetékes FEJhallgatók
- Milyen routert?
- Linux kezdőknek
- További aktív témák...
- GYÖNYÖRŰ iPhone 13 mini 256GB Blue -1 ÉV GARANCIA - Kártyafüggetlen, MS3407
- REFURBISHED - DELL Thunderbolt Dock WD19TBS (210-AZBV)
- DELL PowerEdge R740 rack szerver - 2xGold 6130 (16c/32t, 2.1/3.7GHz), 64GB RAM, 10Gbit HBA330, áfás
- Eladó Oppo A78 5G 4/128GB / 12 hó jótállás
- Bomba ár! Lenovo ThinkPad T495 - Ryzen 5 PRO I 16GB I 256GB SSD I 14" FHD Touch I Cam I W11 I Gari!
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: NetGo.hu Kft.
Város: Gödöllő
![;]](http://cdn.rios.hu/dl/s/v1.gif)






