-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Petykemano
veterán
A mantlival kikényszerítette az apik fejlődését, s szépen megágyazott egy magasabb teljesítményszintnek.
De egyelőre nem látszik olyan termék, vagy gyanúsan nagy a csönd, amivel ezt legalább fél-egyéves előnnyel lefölözhetné. Se egy gpu, ami jelentősen gyorsabb a konkurenciánál és nem csak néhány fejlesztés alatt álló címben, amelyek érkeztével érkezik a versenyképes konkurens kártya, se egy CPU, amivel megmutathatná, hogy a kikényszerített szoftveres fejlődéssel hátrányból is fölébe tud kerekedni a konkurenciának. A status quo marad.
Ilyen bejleentés lesz most is?
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
-
Petykemano
veterán
válasz schwartz #14630 üzenetére
Szerintem pont most - ahhoz persze, hogy az AMDnek, a bulldozernek jó legyen, nagyon későn - jön az áttörés. A DX12, a mantle, a vulkan ezek fognak majd jól skálázódni több magon, ezek fogják tudni kihasználni a ST helyett a throughputot. Ha ez pár évvel ezelőtt így lett volna, a bulldozer minden gyártástechnológiai szerencsétlenkedéssel együtt is versenyképes lett volna, anélkül pedig sikertörténet. De nem úgy alakult.
Az APUk terén pedig Abu elmondása szerint most (értsd: következő 1-2 év) jönnek az IGP-t az apin keresztül nem grafikára kihasználó játékok, alkalmazások. Valaki azt is emlegette, hogy az intel valami fordítójába beletette, hogy ivy bridge-ik visszamenőleg egy gombnyomásra tudják kihasználni a programok az igp számítási kapacitását. a HSA szekerét persze lehet, hogy ezzel együtt se fogja tolni senki.
Hacsaknem a microsoft, mivel a Windows 10 ugye mindenféle hardverre jön majd, a windows phone-ok lelkét meg a qualcomm gyártja kizárólagosan, aki meg HSA tag.
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
Tehát ha az AMD kevésbé lenne nyitott könyv, Akkor előadhatta volna, hogy khm, hát csiszoltunk az architektúrán, meg nagy elismerés a csipgyártónak, aki finomította a gyártástechnológiát, és így sikerült 10-30%-ot gyorsítani a kártyákon azonos fogyasztás mellett.
Es Akkor már nyílnának is a bukszák.Meg mondjuk a számozásnak is lélektani hatása. A korábban csúcsnak számító 390x-szel igyekeznek befogni a felsőkategória alját és közepét, aminek az az üzenete, ártól függetlenül, hogy kínlódnak.
Szóval csak oda akarok kilyukadni, hogy tök jó ez a felhasználó barát politika, csak nem értem, ebből hogy lesz eladás, vásárlás, profit, piaci részesedés?
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
Most is megtehetik, és kétségtelen, hogy most nem dobtak be nemtommilyen nagy hardveres újításokat, de hiába a 10-30%-os várható gyorsulás (ezzel együtt a csodálkozás, hogy jééé, a régi 290X-em, most már veri a 980-at), mégis nem ámuldozás van, hogy fúú, na ez már döfi, ez igen, tulajdonképpen csípőből megoldotta az amd a másfél éves kártyáainak felzárkóztatását, hanem fanyalgás, hogy aaa, megint átnevezés
Valahogy akkor ezt kéne eladni ügyesen, hogy tulajdonképpen csípőből hoztuk a csoda maxwell teljesítményét, and more is coming.
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
Megint felröppent a pletyka... vagy rosszhírkeltés, hogy az AMD elad üzletágat, vagy szétválaszt.
Vajon a radeonok szem szempontjából jó lenne egy külön Gpu divízió? Létezik még élet a fúzión kívül? A gpunak kell a CPU, vagy a cpunak a gpu a továbbélésért folytatott küzdelemben?Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
válasz rocket #16031 üzenetére
Ezt én se értem, hogy ha ennyire Tényleg a ropszám a lényeg, akkor erre nem lehetett volna egy B tervet csinálni? A fiji tudomásom szerint már egy ideje kész, a hbm gyártást kellett bevárni. Most vagy gddr5-tel még korábban érdemesebb lett volna kidobni egy kártyát a ma igényeihez igazítva, ami Tényleg megveri a maxwellt ($$$$$), de ugyanúgy elbukik dx12, meg compute, meg vr alatt. Év végén jöhetett volna a fury, akkor amikor már tényleg megvan a szoftveres környezet, az api, a driver, hogy sokkal jobb legyen, mint a Maxwell.
Én visszanéztem korábbi teszteket, amikben nagyon lealázta a 980 a 290x-et, arról volt szó hogy sok esetben a 970 is elveri. Mai tesztekben már alig van különbség, a 390x pedig elhagyja a 980-at. Csak ezzel a megközelítéssel, hogy itt egy kártya, ami most még nem erősebb, mint a másiké, de hosszú távon elégedett leszel, szerintem még egy kártyát se adott el, egy százalék piacot se szerzett. Ellenben az nvidia tarolta a piacot azzal, Hogy 10-15-25%-os többlettel többet nyújtott a megjelenés pillanatában és utána már a kutyát Nem érdekelte, hogy fél évvel később ugyanabban a tesztben már nem lesz akkora különbség.
Azok, akik épp most veszik meg a 980ti-t nyilván azt várták, hátha lemaradnak valami brutál teljesítméylnyről. Most, hogy tudják, hogy nem, megrendelik az 1-2%-kal jobbat ugyanannyiért, vagy oc-olva drágábban akkor is, ha amúgy tudják, hogy fél éven belül már lassabb kártyájuk lesz, mint a fury. Ez a stratégia, ami kevésbé előremutató, jövőálló termékeket vonultat föl, piacképesebbnek tűnik.
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
válasz csatahajós #16061 üzenetére
Lesz "FuryPro"? Eddig úgy tudtam, hogy pont a kevés RAM miatt ebből nem lesz profurysszionális piaci termék.
Amúgy nem nagyon láttunk valóban compute teszteket. Illetve később linkelt valaki egyet, ott sem villogott sajnos a Fury. Ami elég érthetetlen, mert azért nem kicsit combosabb hardver, mint a Hawaii. Abu ugye azt mondta, hogy azért lett 128 helyett csak 64 Rop blokk, mert úgy ítélték meg, hogy a játékok el fognak mozdulni - ekkorra már - a compute felé. Ehhez képest a compute-ben sem tűnik erősnek.
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
Nagyon bíztató, amiket mondasz. De akkor tényleg csinálhatták volna jobban.
Ha például most, vagy még korábban kihoznak egy nem HBM-es, és nem is jövőálló kártyát, amin 4000shader van, meg 128 rop, akkor nem lett volna ekkora fanyalgás.
Vagy ha szempont volt, hogy kisebb stúdiók is hozzáférhessenek a technológiához, akkor érdemesebb lett volna kihozni a Nano-t és villogni azzal, hogy mekkorát lépett előre energiahatékonyságban. Persze lehet, hogy teljesítményben azzal a 390X-nek állítottak volna saját konkurrenciát. De lehetett volna választani: nagy fogyasztás, olcsón, kis fogyasztás, új technológia drágábban. Ez így most lebőgés.Az, hogy később jobb lesz, akár Win10, akár Nano, akár VR, az csak akkor vígasz, akkor fog ütni, ha amikor már a Fury X nem csak néhány DX12-es játékban veri el a TX-t és nem kicsit, de nagyon, akkor ez így meg még hónapokon keresztül, mire az Nvidia kiadja a Pascalt, amivel néhány éven belül behozta azt a lemaradást, amit 7-8 éve "elrontott". Ha mostantól számítva fél év múlva megjelennek az első DX12-es játékok, amikben a már megvillan a Fury ereje, de megérkezik a Pascal, amivel z nv behozza a 7-8 éves lemaradást (és nem lesz izzadságszavú, értsd magas fogyasztású), akkor lehet csak azt mondani, hogy nyerő volt a stratégia.
Vagy azt mondod, hogy nem véletlenül hiányoznak a Mantle benchmarkok? Milyen béna marketing cél, hogy kiadjuk a kártyát, feloldjuk a DNA-t félig, elhitetjük mindenkivel, hogy milyen trágya a kártya, mert nem engedjük, hogy megmutatkozzék a valós potenciál, aztán bumm?
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
válasz MiklosSaS #16244 üzenetére
Abu mondta, hogy 7-8 éve mindkét cég hozott döntést és már irányba mentek. Az nvidia az eddigi apikra optimalizált és a gcn-nek kellett emulálnia, a DX12-vel meg fordul a helyzet. Erre mondtam, hogy szarkazmussal, hogy behozzák-e a 7-8 éves lemaradást a Pascallal.
Egyébként csak egyetlen nem túl megbízható forrást találtam Mantle tesztre:
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
válasz Crytek #16281 üzenetére
Szerintem pont annak lett volna értelme, hogy most, vagy még korábban kiadnak 128 ROP-os, de kevesebb shaderes kártyát, ami most jó, a későbbiből - ősszel - már kihagyható a 128ROP, 64 elég, de mehet a 4000shader, meg az emelt memóriasávszél.
"Az üt először, aki igazán nagyot üt! - és először..."
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
Ha az Oculus Rift 2016Q1-ben jön (bár korábban mintha azt mondtad volna, hogy a Fiji-t a DX12 miatt kellett előre kiadni, hogy a DX12 érkezésére a kisebb kiadók is hozzájussanak olyan kártyához, amire tudnak optimalizálni), akkor miért nem ért rá a Fiji-t 2015Q4-ben kiadni? Addigra elkészült volna a DX12, a csodadriver, a tesztekben brillírozott volna, vitték volna mint a cukrot.
Vagy elég lett volna megvárni 2015Q3-at, vagy legalább a win10+DX12+csodadriver megjelenését, hogy a tesztekben ne bőgjön le.
Vagy ha az volt a baj, hogy nem volt semmi, amit kiállíthattak volna a Maxwell ellen, mert a 390X nem ellenfél, akkor csináltak volna inkább egy olyan fiji változatot, ami a 2015-ös igényeknek jobban megfelel (128 ROP, HBM nélkül), amivel fel tudták volna venni a versenyt, már korábban is Akkor nem kellett volna szarozni a HBM-mel, meg az interposerrel, ez ugye mind ráért volna.
Ez a rajt nagyon elbaltázottnak tűnik. Van egy kártya, ami háromnegyed évvel meghaladja/megelőzi azt a technológiai szintet, amihez készült, viszont a jelenben izzadva erőlködve a középszerűségbe süllyed. Tök jó. Most a piac is és a tőzsde is elkönyvelte és beárazta, hogy - még mindig - szar az AMD, képtelen jót készíteni, jól időzíteni, részesedést szerezni, eladásokat növelni, stb. Most persze még jöhetnek patronok, nyilván, DX12, meg csodadriver, meg async shader, de az első körös lebőgésből már kevesen fogják azt mondani, hogy aztaaaaaaaaa, max annyit, hogy hát jó, igen, lassan beérett, ahogy az AMD szokta, na nem baj, jó nekem ez az nvidia. És a részvényárfolyam is szerintem ennek megfelelően alakult volna: nagy durrantás, nagy előny -> nagy bizalom, megugró részvények. Lebőgés, majd összeérő szálak általi szépítés -> nagy bizalomvesztés, lassan visszacsorgó árfolyam.
Azt értem, hogy esetleg azt mellélőtték, hogy mikor lesz DX12, hogy esetleg úgy kalkuláltak, hogy ilyenkorra már megérkezik és a fiji megjelenésekor majd nagyob fog ugrani. Ezt mondjuk 1-másfél évvel ezelőtt lehet, hogy nem tudták hónapra pontosan belőni. De annak mi értelme volt, hogy nem várták meg a starttal a win10-DX12-csodadriver elkészültét? Mi múlt azon a másfél hónapon? Mi volt olyan fontos a júniusi piacra dobásban, ami miatt bevállalták a tesztekben a lebőgést, a visszamondott előrendeléseket? Vagy mi lesz olyan fontos a win10-DX12-csodadriver megjelenésekor, elkészültekor, ami még fontosabb, jelentősebb, mint a bemutatott Fury X? Mert annak marhára semmi értelme nincs, hogy van egy kártyájuk VR-hoz, amikor még nincs VR Fejlesztőknek gondolom piacra dobás nélkül is lehetett volna tesztpéldányt juttatni
Csak arra tudok gondolni, hogy bétatesztelni kell a drivert és ehhez a 285 Tonga már nem elég. Ki kellett adni a kártyát, akkor is ha így lebőg a nagyközönség előtt, hogy tudják tesztelni a drivert és az elkészüljön addigra, mire megérkezik a DX12.Már bocs, hogy rajtad kéri számon mindenki az AMD lépéseit... NA csak azt mondd meg, hogy ez a lépés nem fiaskó, baklövés, elhibázott időzítés és nem is driver bétateszt
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
válasz zoli7903 #16780 üzenetére
Annak vajon mi értelme van, hogy kihoznak egy kártyát, amivel picivel megverik a konkurencia azon kártyáját, amivel kb azonos teljesítményt egy másik kártyájuk tud, és amit szintén nem sokkal egy másik kártyájuk megver, de ami nem éri el a konkurencia erősebb kártyáját?
390X ~ 980 < Fury < Fury X < 980 Ti
?15.15 béta drivert használtak, ami nem tudom, hogy azt jelenti-e, hogy a következő hetekben a 390X tovább fog-e javulni, de ha igen, akkor a Fury-t miért a 980-hoz hasonlítgatják, aminél viszont nem nagyon, csak kicsit gyorsabb
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
válasz #45185024 #17048 üzenetére
Én azon csodálkoztam, hogy egyáltalán nem láttam AMD APU-s, illeve AMD GPU-val szerelt Steam Machine-t a kínálatban. A CPU-t persze értem. Pedig egy 35W-os Carrizo beleférhetne a low-budget kínálatba, mint ahogy pl egy Tonga is, vagy Fury Nano. Pedig nemsokára kész a vulkan, ami jön linuxra is, ami meg a SteamOS is.
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
Meglepő. Azt gondoltam, hogy úgy, hogy a Samsung+Glofo és a TSMC fej-fej mellett haladnak a 1Xnm-es finfettel, az AMD a GF-nál fogja gyártatni a finfet kütyüjeit. Erre itt most azt mondják, hogy nem csak hogy az új GPU-kat, de lehet, hogy a Zen-t is a TMSC gyártja. Az úgy mennyire igaz, hogy a TSMC 16nm-es node-ja(i) az egyetlen, amit High Performance chip-ekhez készítettek?
Ha ez igaz, akkor mi lesz a GF irányába a pay-or-take kapacitással?Persze simán lehet, hogy valami zenre alapuló semi-custom chip készül a TSMC-nél.
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
válasz Jack@l #17348 üzenetére
Engem az érdekelne, hogy
- Van-e olyan - minimális - használati szint (annyi parancssor, vagy mittomén), ahol azoknál a kártyáknál, amelyek tudnak async shadert, arányosan gyorsít?
- Ha ezt a használati szintet megemelik, az ront-e annak a kártyának a teljesítményén, amelyik optimális szintjén ez a szint már túl van, vagy csak nem javít?
- lehet-e az async shader használatot úgy optimalizálni kártyánként, hogy az adott architektúrának optimális legyen?Magyarul ha történetesen a 980Ti-nél 128 a határ, akkor ha 256 van, akkor a 980Ti rosszabbul teljesít, vagy csak nem teljesít már jobban? Ha rosszabbul nem teljesít attól, ha több van, vagy ha kártyánként megadható, hogy ez a szám mennyi, akkor miért ne lehetne a Fury X-nek 1024, vagy 1048576, ha azzal éri el a legjobb teljesítményt? Ennek csak az nvidia pénztárcája vethet gátat.
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
Rendben, ezt elfogadom.
De van olyan játék, ami akár hosszútávon indokolná a 2000shaderes tongánál a magasabb sávszélességet. Úgy értem, hogy attól tényleg jobb, gyorsabb lenne? Akár most, akár a DX12-es játékokkal, amikor beindul - elvileg - az aszinkron izé. Ha ez így alakulna, csak akkor lenne érdemes bajlódni a 384 bittel. De szerintem ma még egyelőre nagyon kevés hasznot hajtana, viszont fölöslegesen drágítaná a kártyát. Magyarul megint egy olyan fícsörért kéne többet fizetni, ami most még nem, de majd jó lesz, ami miatt a mai ár/érték aránya nem lenne jó. Másként látod?Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
Rendben, meggyőztél. Néztem pár tesztet én is 380, 390-ről, van ott még hely, de annak befogására csak a növelt számú shaderek nem lennének elegek. Ha a 380 itt-ott sávszél limites, azon segíthet a 384 bites csatorna, és egy 6Gb-os verzió igencsak időtálló középkategóriás kártyát eredményezne.
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
Szerintem ha a cég nem látna benne potenciált, halott lenne az egész, nem akarna befektetni. Az, hogy nem tudtak megegyezni arra utal, hogy nem annyira elkeseredettek. Önmagában az, hogy valaki be akar fektetni arra utalhat, hogy lát potenciált.
De az is igaz,h ogy ha Az AMD akár külön is érne valamit bármelyik nagyobb piaci szereplőnek, már rég felvásárolták volna. Mint ahogy akkor is, ha most épp nagy VR boom előtt állnánk.
Nehéz megítélni. De ha tényleg VR boom van, és a befektető azért akar befektetni, akkor nyilván szeretné, ha abból kijönne a maximum, de az elég nyilvánvaló, hogy az AMD nem engedheti meg magának, hogy eldobja a zent. Ha csak GPU gyártó maradna (belőle), akkor hamarosan 3 szereplős piacon lenne kénytelen elszenvedni az integráció hiánya miatti kiszorulást. A zennel legalább az esélye megvan, hogy visszakapaszkodjon. Elvileg. De VR gyártóként valószínűleg lenne egy rövid csillogás, aztán kaputt.
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
Elképzelhető, hogy a HBM + Interposer gyártás és összeszerelés nehézsége miatt jövőre először az alsó szegmensben látunk vérfrissítést? Már persze ha egyáltalán az alsóbb árszegmensben levő kártyákat finfetelik. Bár az nvidia biztosan, így szerintem az AMD is kénytelen lesz. NA szóval?
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
válasz Televan74 #17610 üzenetére
Nem mondhatod, hogy nincs frissítés.
A 200-as generációval jött a 260(X) és a 290(X), ami új volt, GCN1.1
A 300-as szériával jött a 380(X) (tonga) és a Fury(X|Nano|VR), ami új, GCN1.2
(Ami maradt még a felhozatalban az a 370(X), az még GCN1)Finfet ide vagy oda arra nem számítanék, hogy bármi is olcsóbb lesz, sőt még arra se, hogy közel ugyanazért a pénzért az eddigi generációváltásokhoz képest nagyobb mértékű teljesítménynövekedést kapnánk. (Az Nvidia nyilván fejni akarja a tehenet, ahogy eddig is, minden azon múlik, hogy az AMD virít-e valamivel, vagy se. Az idei felhozatal elég vérszegény lett nekik, de cserébe idén gyakorlatilag semmit se fejlesztettek rajta, mert gyakorlatilag minden kész volt már tavaly.)
egyébként ahhoz képest, hogy milyen korosak ezek a kártyák nagyon szépen muzsikálnak a DX12-es tesztekben - egyelőre. Ki gondolta volna, hogy a nemtom 2-3 éve bemutatott 290(X) a mai napig versenyképes lesz? Jó, hát persze várjuk ki a végét. De oda akarok kilyukadni, hogy az AMD-nek gyakorlatilag az egész felhozatala versenyképes termék lesz DX12-ben, úgyhogy erre sokat nem kellett és nem is kell költeniük.
Nagy kérdés persze, hogy mit hoz a finfet.
Alapból azt tippelném, hogy lesz majd megint két új kártya, az egyik a legerősebb, a másik a mostani 370-es már nagyon régi chipet cserélendő. Tehát az jönne ki először - mondjuk úgy, hogy
360(X) => 450(X)
370(X) helyett az új finfet 460(X)
380(X) => 470(X)
...stb
De az árba nyilván bele lenne kalkulálva az alacsonyabb fogyasztás (ami muszáj is, mert a finfet gyártás meglehetősen drága, drágább a tranzisztorok ára, mint a 28nm-en)Aztán ha az nvidia kiadja a teljes szériát finfeten, akkor vagy az AMD is kénytelen lesz kiadni mindent finfeten, vagy nagyon olcsón adni a kazán 28nm-es kártyákat. Vagy merő találgatásból még felmerülhet a kisebb lapterületű chipek fdsoi-ra telepítése is, bár sokak szerint a soi nem alkalmas gpu-hoz.
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
Mit nevezünk alsó szegmensnek és középkategóriának?
Ha mondjuk a mostani 16CU-s 265, 370 lesz a középkategória alsó határa, akkor az azt jelenti, ezzel együtt 16CU-s IGP-nek kell érkeznie az alsó szegmens lefedésére. Vagy 12? Jelenleg 12 a legkisebb 300-as, a 360-as CU száma. Ezt mondjuk nem éri el egy IGP se és az ismert roadmapek szerint 2017-ig nem is fogja.Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
válasz robertosz91 #18406 üzenetére
Igen, kis. Alig nagyobb, mint egy upc settopbox.
Én ilyeneket várnék az amdtől - vagy AMD-vel szerelve - nem csak fury x2-vel, hanem még kisebb méretben apukkal.Találgatunk, aztán majd úgyis kiderül..
-
-
Petykemano
veterán
-
Petykemano
veterán
válasz Oliverda #19091 üzenetére
Abu azt mondta, ha jól emlékszem, erre direkt rákérdeztem, hogy akkor bonyolultabb a gddr5x, ha ki akarod használni a magasabb sávszélességet biztosító képességeit. Be lehet kötni sima gddr5-ként is, de akkor csak az alacsonyabb fogyasztást nyered, magasabb sávszélességet nem.
De persze lehet, hogy téved.Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
Ha már aszimmetrikus, miért a sávszélességet tolták és nem a ROP blokkokat? Miért 384bit + 32ROP (amiből ugye 128 bit sosem lett hasznosítva) és miért nem 256bit + 48 ROP? Miért a sávszélességet tervezték túl, nem bíztak a DCC-ben?
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
A 14 és 16 ha a valóságtól nem is teljes mértékben elrugaszkodott értékek, de valójában csak marketing célokat szolgáló elnevezései a gyártástechnológiának.
A két különböző gyártástechnológia méret és sűrűség össszehasonlítására való felhasználás esetén épp ezért lehet, hogy félrevezető eredményekre vezet.
Érdekelne a számításod az elnevezések helyett a tényleges (legalábbis ismert) számok alapján. (Anélkül, hogy belebonyolódnék magába a számításba)
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
válasz MiklosSaS #19671 üzenetére
Én arra leszek kiváncsi, megjelennek-e dual GPU-s kártyák Polaris 10-11-ből. Elvégre azzal reklámozta magát az AMD, hogy VR 300$ alatt, a VR-hoz meg jobb a két GPU. Erre Abu már mondta, hogy összeesküvéselmélet, de ha a PS4K is úgy valósítja meg a GPU erősítést, hogy duplázzák a jelenlegit, (ami VR-hoz jó, a neo meg VR-t is céloz), meg nemrég adták ki a crossfire opensource kódcuccokat. Aztán jött a hír arról, hogy notebookokba két polaris11-t tennének, mert úgy az egyik lekapcsolható. Minden abba az irányba mutat, hogy szélesebb körben eladott/eladható/használható legyen a dual GPU. Ha mondjuk dual P10 kerülne $500-ba az jó lenne nem?
Találgatunk, aztán majd úgyis kiderül..
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Mibe tegyem a megtakarításaimat?
- ASUS ROG Ally
- A régi node-okra koncentrál a szankciók miatt Kína
- TCL LCD és LED TV-k
- Filmvilág
- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- Sweet.tv - internetes TV
- Yettel topik
- Aliexpress tapasztalatok
- További aktív témák...