Új hozzászólás Aktív témák
-
dergander
addikt
válasz
Malibutomi #200 üzenetére
Várunk türelmesen rá,de szerintem a jó kártyájuk a sima 390 lesz custom hűtéssel.
-
kenwood
veterán
Ez bevett szokas az iparban.
Az intel is hozott ki olyan extreme procikat extrem aron,amit par honap mulva lenyomott az uj generacio teteje (fele annyiert).
Baromi draga a TX,de ha nyugatrol nezed,egyhavi fizu.
Az meg annyira megse horror a fanatikusoknak.
Meg eleve,aki top hardvert vesz,az tudja,h igy megy ez (4K monitor,ddr4 ramok,teras ssd stb ...) -
Valdez
őstag
-
Baryka007
addikt
válasz
#65675776 #50 üzenetére
Ez ismerős... Egyik haveromnak raktam össze egy gépet, és a videó kártyánál vitáztunk ( bár nem értem, ha megkérnek hogy rakjak össze egy fasza gépet miért szól bele ? ) Szóval a lényeg, hogy ő 2gb os videó kártyát akart mert akkor az atyaúristen is elfog menni rajta... Oszt a végén bemérgedtem odasóztam neki egy HD 5450 2gb ot fos DDR3 al az is 64 biten.
-
Jack@l
veterán
válasz
Malibutomi #205 üzenetére
Te linkelted, de mind mind csak pletyka és találgatás. A tények kb azok hogy fél évig ülnek a kész kártyán mire (talán) kiadják.
De hogy megint a saját cikked végét idézzem:
"investors and consumers alike can only hope that the Radeon R9 390X features a problem-free launch."
Nem úgy tűnik mint aki a kevés hbm miatt aggódik.@Sylver: nem értem mit gagyogsz.
-
Jack@l
veterán
válasz
Malibutomi #203 üzenetére
Szerk: semmi
Arról találgatnak hogy vajon a hbm kihozatala rossz, vagy maga a 390x-é, és a végén pedig:
Both the sets of rumors above conflict, so one set is almost certainly untrue, or at least partially untrue. Remember guys and girls that these are rumors and neither can be confirmed at this point. -
Malibutomi
nagyúr
-
Jack@l
veterán
válasz
Malibutomi #200 üzenetére
Mutass egy nem ph-s cikket erről légyszi.
-
#85552128
törölt tag
válasz
Malibutomi #200 üzenetére
Megérte várni, gondolom kapkodni fogják a 4 GB-os példányokat 250-300 ezer között...
Olyan lesz amilyen lesz, jó GPU (fogyasztás, melegedés annyira nem lenne releváns...), limitált képességekkel a kevés memória miatt. Ezzel részesedést nem fognak nyerni, pénzügyileg sem segít rajtuk baromi sokat... Reméljük érdemes volt beáldozni ezt a szériát a "jövő" reményében a HBM-ért és szereztek annyi "tapasztalatot', hogy a következő 14 nm-en HBM2-vel ütős legyen. -
Jack@l
veterán
válasz
westlake #198 üzenetére
Azt csiripelték a verebek, hogy állítólag már decemberben kész volt a sample példány, azóta tesztelik. Sztem valami nagy gixer volt vele és valami eléggé downclockolt példány fog majd véglegesként a boltba kerülni. (vagy pont ezért kellett megtervezni hozzá egy vízhűtőt)
-
westlake
félisten
-
Kicsimix
őstag
válasz
hugo chávez #189 üzenetére
"Eleve a kártyák közötti teljesítménykülönbségekről volt szó, nem pedig az API-ról, te erre linkeltél egy tesztet ami az API korlátait szemléltet"
Már ne is haragudj de az API alapvetően befolyásolja kártya működését és azután pedig a mérési eredményeket..Nem értem hogyan szeretnéd figyelmen kívül hagyni ezt a tényt miközben a kolléga Titan verhetetlen stb valótlan dolgokat állít. A FM lerakott egy tesztprogramot ami rendesen nextgen elven működteti a kártyákat ahol jól látszik, hogy a gcn is életre kelt. Lehet, hogy DX11-ben jobb a TI X de új APIknál már nem feltétlen akkora az elönye és itt van a ferdítés mert ez már most látszik, hogy nem így van. Hol vannak a több tíz százalékos különbségek ha nem a dx11en pedálozunk? Sehol...De most ne kezdjük újra, hogy mit mér az overhead test mert látom sok.
Igen nincsenek nextgen játékok stb tudom. De ez nem változtat a tényen, hogy alapvetően megváltozik minden és ez már elkezdődött. Így a 390X jövőbeni sebességét sem Dx11-en mérjük tehát felesleges egy mostani DX11-es Titán eredményhez hasonlítani (elméletben se). Mert az új APIval nem a Titan lesz az ellenfél hanem az NV nextgen kártyái. Titan megy a levesbe, NV már most fejleszt.
#194 Jack@l
Itt csak az a baj, hogy nem érted mi a drawcall.. De lényegében igen a repkedő egységek is rajzolási paranccsal jönnek létre amiket másra is lehet fordítani.. Tehát helyettük pl amit API overheadben látsz azok is drawcallokkal készülnek. De rajzolhatna helyettük egyetlen sokkal bonyolultabb framet is ami látványosabb..
A limit pedig fél millió körül van mostani hweken ahol meghalnak. DX11-nél jóval levesebb.
-
Jack@l
veterán
válasz
#85552128 #183 üzenetére
Azt hiszem olyan 40-50e körül van az új apikkal is a draw call határ ami után becsuklanak. (eddig ez kb 5-10e volt nagyobb játékokban dx11-el)
Szóval az 1 millió draw call-t várni szerény csúsztatás... (önámítás/tudatlanság/butaság)
De teljesen lényegtelen ez a szá, mert csak az objektumok számát jelenti, nem háromszögeket. Sok objektum meg kb csak valami mocskos nagy erdős scene és/vagy stratégiai játéákokban kell, ahol kb akkorák lesznek a unitok kizoomolva, mint egy hangya.
Szóval ezentúl majd ha így marad a draw call limit amit beterveznek egy játékban, végre eltűnik az fx procik csúfos szereplése, de amint elkezdik feltornázni a számot, megint ugyanúgy előjön, mint eddig. Játék ettől szebb/gyorsabb nem lesz, csak több egység meg rakéta cikázhat a 2x colos képernyőn... (meg többet malmozhat a proci a vga-ra várva) -
#85552128
törölt tag
Azt, hogy most mutatsz egy exkluzív címet, nem magyarázza meg miért is kritikán aluli a nextgen konzolok teljesítménye 1.5 éve... Btw. én inkább lemondanék erről a sok felesleges esőcseppről ha cserébe nem 30 FPS-re lennék lekorlátozva...
Ha elhoznák PC-re is biztos lehetsz benne, hogy megtudnák oldani
Láthattuk mire képesek a DX11-el, Crysis 3, BF4, Dragon Age: Inquisition - hogy csak néhány nagy szép játékot mondjak. -
PuMbA
titán
válasz
#85552128 #191 üzenetére
"Ezért sem értem mire megy ez a draw call "buzulás" miközben konzolon jóval nagyobb volt eddig is a DC limit, nem volt API overhead mégis 900p, 30 FPS, a PC-s DX11-hez képest medium-high látvánnyal. Ahol már elérik az 1080p és stabil 30 FPS-t meg ujjonganak mintha óriási áttörés lenne."
Féligazság, ilyen jó megvilágítási modell nincs PC-n egy játékba se és 1080p
-
#85552128
törölt tag
válasz
Kicsimix #187 üzenetére
"Te fps-ről kezdesz most el beszélni miközben az új APIk nem az fpsre koncentrálnak hanem arra, ,hogy sokkal jobb vizuális élményt előtudjanak állítani akár az erre alkalmas jelenlegi hardverekkel is normális fps mellett. "
Eleve a kártyák közötti teljesítménykülönbségekről volt szó, nem pedig az API-ról, te erre linkeltél egy tesztet ami az API korlátait szemlélteti...
"Akár 5-10x komplexebb jeleneteket mint most. (Tudom nem számít a graf csak az fps,,)És ez az amit nem vagy hajlandó figyelembe venni."
Még mindig mondom, hogy a kártyák teljesítményéről volt szó, azt pedig FPS-ben mérjük.
"miközben NextGenen már aláz a 2 éves architekt."
Na ez viszont nevetséges. Hol aláz ? PC-n sehol nem látok egy DX12-es játékot sem. A konzolokon - ahol nincs DX11-es korlát - nemhogy nincsenek komplexebb/szebb jelenetek, de rondább a látvány mint PC-n a handicap DX11 mellett - alacsonyabb felbontás és FPS mellett.
Ezért sem értem mire megy ez a draw call "buzulás" miközben konzolon jóval nagyobb volt eddig is a DC limit, nem volt API overhead mégis 900p, 30 FPS, a PC-s DX11-hez képest medium-high látvánnyal. Ahol már elérik az 1080p és stabil 30 FPS-t meg ujjonganak mintha óriási áttörés lenne.És a másik dolog, hogy ha júniusban megjelenik a kártya egy darab dx12-es program sem lesz akkor mivel is akarnátok tesztelni ? DX11-es játékok lesznek csak, abban kell megmutatnia, hogy már most is megéri a pénzét.
-
hugo chávez
aktív tag
válasz
hugo chávez #189 üzenetére
"Lesz, amit igen, lesz, amit nem... De egy alapjában véve DX11-re tervezett/írt motort igazából nagyon komolyan újra kéne írni ahhoz, hogy valóban ki tudja használni az új API-k lehetőségeit. Ezért a már az elkészülés késeibb fázisában járó játékok motorját szerintem nagyon kevesen fogják teljesen átírni. Vagy kapnak egy "összecsapott" DX12 renderet, vagy maradnak DX11-en."
Ja, még ehhez annyit hozzátennék, hogy természetesen ez csak azokra a vagy kizárólag PC-re megjelenő DX11-es, vagy pedig az olyan multiplatform játékokra vonatkozik, amiknek a motorját az új konzolokon nem low level API-ra írták. Mert, ha multiplatform és konzolon low level-re írják, akkor egyszerűbb áthozni PC-n DX12-re, vagy Vulkanra, mint szenvedni a DX11-el. Némely esetben pedig a már kiadott DX11-es játékhoz is érdemes lehet DX12/Vulkan renderert írni, ha olyan az adott játék, mint pl. az ARMA 3 (aminél van is szó róla, hogy lesz DX12 támogatás), mert az efféle open world játékokon már pusztán a CPU limit kiütésével is rengeteget lehet javítani.
-
hugo chávez
aktív tag
válasz
Kicsimix #178 üzenetére
"1, Ezután nem lesz semmi érv a DX11 mellett dönteni."
Azért ez így nem teljesen igaz. Azon stúdióknak/fejlesztőknek, akiknek "túl sok" az új API-irány, a kvázi teljes és szükséges hardver feletti kontroll, amit nekik kell megoldaniuk és ami vissza is üthet, ha elrontanak valamit, még mindig reális alternatíva marad a DX11. Pont nekik jön a DX11.3.
"2, Nem vérzik el a Maxvell de az API Overhead tesztben már a 290X is odabassza a Titan X-et Mantle-vel."
No igen, de ez egy speciális teszt, ami, ha jól értem, kifejezetten épít az aszinkron compute-re. És a közeli jövőben (2016-2017 előtt) még nem valószínű, hogy túl sok olyan játékmotor/játék jön, amiben nagyon sok compute pipeline lesz. Sayinpety fórumtárs dolgozik pl. egy ilyen motoron, de az arra épülő első játékok is csak legkorábban 2016-ban valamikor várhatóak.
(#180) Szaby59:
"A legfrissebb steamstat szerint a játékosok 51%-nak nVidia GPU-ja van, a maradék 50%-on az Intel és az AMD osztozik, egye fene megnéztem, jelenleg: 28%-on áll az AMD - majdnem kétszeres fölényben az nV Ugye te sem gondoltad komolyan, hogy a legnagyobb vásárló réteget fogják megszopatni a fejlesztők ?"
Senkiben fel sem merült, hogy a fejleszők/kiadók majd a piac, a saját anyagi érdekeik ellen fognak fordulni. Sőt, ezt még az AMD sem gondolta soha. És ezért nem is bukás a Mantle sem, hisz az AMD nem is tervezte azt, hogy konkrétan ezt az AMD GCN exkluzív API-t rá próbája majd kényszeríteni a legnagyobbrészt Intel IGP-s és NV GPU-s piacra. De sajnos sokan ezt nem képesek felfogni itt a PH! fórumain sem, pedig jópáran, köztük én is, már rongyosra pofáztuk a virtuális szánkat ezzel kapcsolatban...
"A folyamatban lévő javarészt DX11-es fejlesztéseket biztos, hogy nem fogják átírni."
Lesz, amit igen, lesz, amit nem... De egy alapjában véve DX11-re tervezett/írt motort igazából nagyon komolyan újra kéne írni ahhoz, hogy valóban ki tudja használni az új API-k lehetőségeit. Ezért a már az elkészülés késeibb fázisában járó játékok motorját szerintem nagyon kevesen fogják teljesen átírni. Vagy kapnak egy "összecsapott" DX12 renderet, vagy maradnak DX11-en.
"...az első játékok meg szokás szerint alig fogják kihasználni az API képességeit és nemhogy a Tier 2 Maxwell, de még lehet a Tier 1-esek is röhögve fogják futtatni a Dx12-es játékokat."
Ez is így lesz várhatóan. És valószínűleg pont ezt látjuk abban az esetben is, amit említettél: "A StarSwarm Benchmarkban a 980 ugyanúgy gyorsabb a 290X-nél - valós játékokhoz ez hasonlít a legjobban, ez az egyetlen forrás jelenleg."
Mert itt csak a Draw Call szám nőtt meg, vagyis ez a teszt csakis a DX11 ebbéli sebességlimitációját mutatja az új API-khoz képest, nem pedig azt, hogy az új API-kban elérhető milyen új funkciókat melyik gyártó architektúrája tudja kihasználni.
-
Kicsimix
őstag
válasz
#85552128 #186 üzenetére
Nos lehet ferditgetni ha már más nem megy de :
Te fps-ről kezdesz most el beszélni miközben az új APIk nem az fpsre koncentrálnak hanem arra, ,hogy sokkal jobb vizuális élményt előtudjanak állítani akár az erre alkalmas jelenlegi hardverekkel is normális fps mellett. Akár 5-10x komplexebb jeleneteket mint most. (Tudom nem számít a graf csak az fps,,)És ez az amit nem vagy hajlandó figyelembe venni.
Az API overhead pedig pont ezt mutatja meg ,hogy telepakolja a képernyőt neked objektumokkal egészen addig amig szét nem hullanak az APIk.Így látod mi az amit képes megjeleníteni még a VGA.De te még mindig fps-t akarsz mérni és fpsről vitázol másokkal miközben sokkal többről szól az egész. 290X teljesítményt hasonlítgattok DX11-en Titánhoz miközben NextGenen már aláz a 2 éves architekt. Részemről csak ennyi ,hogy téves felvetések mennek már alapvetően eleve.
És ,hogy ne csak én mondjam olvass vissza a topik elejéig miről szól az API overhead..
Joccak : )
Szerk : a 10+ millió az csak a végeredmény
A frame / drawcall a lényeg. Ez adja a jelenet összetettségét.
-
#85552128
törölt tag
válasz
Kicsimix #185 üzenetére
"A grafikon amit bejelöltél az frame / secet mér miközben kurvára nem ez a lényeg hanem az hogy hány drawcall-t présel ki magából a vga "
Értem tehát a DX12-es játékokkal új mértékegység lesz és nem azt foglyuk nézni, hogy folyamatos e a játék (FPS) hanem hogy pörög a draw call számláló.
Az API teljesítmény egy dolog, 10+ milliót hozott még a 680 is...
up to 100 000 draw callról van szó egyébként ennyit tud a Star Swarm jelenleg úgy, hogy ez az egyik legfejlettebb DX12/Mantle motor... -
Kicsimix
őstag
válasz
#85552128 #183 üzenetére
"Olyan, hogy DX11 Only VGA csak AMD-nél van, nV-nél az összes DX11-es kártya támogatja legalább a Tier 1 szintet."
D
Igen ez a program nem sebbesség mérésre van ez tény. Ebben nem lehet összehasonlítani a kártyákat.
Ahogy írtam egy API stress teszt kb.Azt mutatja meg mekkora potenciál van a VGA-ban.
Itt csak egyetlen probléma van, hogy a 290X-et temetitek sokan miközben az új APIkkal nagyon is életre kel ez a kártya ha a parancsprocesszorok rendesen vannak járatva. Vagyis. A probléma az ,hogy behozta a lemaradását az új APIkkal már ez is és valószínű a 390X még keményebben odaver majd a téves állításokkal ellentétben miszerint a Titan X-nek nincs ellenfele.
1 mill draw call-t nem fog hívni semmi.
2, Igen képzeld el mivel az API a teljesítményre megy rá és nem a sebességre ezért ebből kifolyólag számít.
Lásd a példát DX11 széthullik 30K nál Mantle meg 500K nál.A grafikon amit bejelöltél az frame / secet mér miközben kurvára nem ez a lényeg hanem az hogy hány drawcall-t présel ki magából a vga adott idő alatt vagy frame alatt. Ez mutatja meg a teljesítményt mivel 30K rajzolási paranccsal is lehet 30 fps-ed DX11-n DE 400K-val is az uj apikkal.(És a rajzolási parancsok építik fel a grafikát)
De starswarmnak utanna járok igérem mit küld rá a Vga-ra. Mert ez így csak humbuk azért mert játék kinézete van. Az Overhead API az rendessen az API képességét mutatja.
-
#85552128
törölt tag
válasz
Kicsimix #182 üzenetére
Olyan, hogy DX11 Only VGA csak AMD-nél van, nV-nél az összes DX11-es kártya támogatja legalább a Tier 1 szintet.
"Azért kis köze mégiscsak van ahhoz, hogy melyik vga mennyit bír. És ez mérhető itt.."
Maga a program készítője is felhívja a figyelmet, hogy ne hasonlítsd ez alapján mert nem arra van, de ok biztos nem tudják...
"ŐŐŐ izé a StarSwarm hol csinál fél millió Draw call-t?"
Miért ha kevesebbet csinál akkor az magyarázat arra, hogy miért lassabb ? Pont hogy gyorsabbnak kellene lennie vagy legalább olyan jól szerepelnie
Vagy a 290X-nek legalább egymillió kell, hogy bemelegedjen () ?
Btw. tudod hol látsz te majd 1 millió Draw Call-t az első DX12-es játékokban - ez olyan mintha azt mondanád jobb lesz mert az egyiken 1100 FPS-sel megy a másikon meg "csak" 1000-rel - igen több csak senkit nem fog érdekelni nemhogy egy 1.5+ éves kártya de semmilyen esetében sem - hangsúlyozom: még ha így is lenne. -
Kicsimix
őstag
válasz
#85552128 #180 üzenetére
1, Nem fog senki szopni mert fut a program akkor is ha win 10-et használ DX12-vel és pont leszarják a fejlesztők ,hogy DX11-only VGA-d van ha visszafele kompatibilis.
2, Így van erről beszélek én is jól értetted.
Bár most ferdítesz kicsit mert (wtf?? Mi az ,hogy API teszt önmagában?)
Azért kis köze mégiscsak van ahhoz, hogy melyik vga mennyit bír. És ez mérhető itt..
Arról szól az egész ,hogy az API, hogyan fut azon a VGA-n. Illetve tulajdonképpen vga stress teszt az Új APIval, hogy mi az a mennyiség ami után összeomlik a grafika.ŐŐŐ izé a StarSwarm hol csinál fél millió Draw call-t?
Na most utána járhatok ennek is.. -
válasz
Kicsimix #178 üzenetére
Megvan, hogy mi az az api overhead valójában? Eddig bele kellett férni a 500-1000k/s rajzolási parancs keretbe egy játék tervezése során. De elkészültek a játékok. Az api korlátozott ugyan, de elkészültek. Most majd nem lesz ilyen keret, nem kell rá figyelni. Lehet a játékot szabadabban tervezni. DX12-vel bármilyen számottevő VGA 8M/s-t legalább tud.
Mire olyan játékok jönnek amik a 8-10M/s rajzolási igényt jelentenek be, és a DX12 api kezdene limitálni, addigra ezek a kártyák már nem is lesznek a gépekben. Sőt tovább megyek. Ha ma készülne egy ilyen játék, azt a shaderek, textúrázó, meg semmi egyéb úgysem tudná kiszolgálni.Az a 3DMark AOH teszt nem ér semmit azon kívül, hogy megmutatja, hogy DX12-ben már sokkal kisebb az api overhead, mint DX11-gyel. Bármilyen kártyával.
-
#85552128
törölt tag
válasz
Kicsimix #178 üzenetére
1. Úgy érted majd ha megjelenik és majd ha lesznek rá játékok...
A legfrissebb steamstat szerint a játékosok 51%-nak nVidia GPU-ja van, a maradék 50%-on az Intel és az AMD osztozik, egye fene megnéztem, jelenleg: 28%-on áll az AMD - majdnem kétszeres fölényben az nV. Ugye te sem gondoltad komolyan, hogy a legnagyobb vásárló réteget fogják megszopatni a fejlesztők ?
Nem két perc átírni a meglévő motorokat, hogy támogassák a DX12-t, az első játékok meg szokás szerint alig fogják kihasználni az API képességeit és nemhogy a Tier 2 Maxwell, de még lehet a Tier 1-esek is röhögve fogják futtatni a Dx12-es játékokat.
A folyamatban lévő javarészt DX11-es fejlesztéseket biztos, hogy nem fogják átírni.2, Az API Overhead teszt nem VGA-k összehasonlítására hanem Az API-k összehasonlítására készült - benne van a programban is...
A StarSwarm Benchmarkban a 980 ugyanúgy gyorsabb a 290X-nél - valós játékokhoz ez hasonlít a legjobban, ez az egyetlen forrás jelenleg. -
Kicsimix
őstag
válasz
#85552128 #174 üzenetére
Nos,
1, Ezután nem lesz semmi érv a DX11 mellett dönteni.
-1.1 Visszafele kompatibilis a DX12 a nem működő featurok le lesznek tiltva a nem megfelelő kártyákon és ennyi.Futni fog a program DX11-en.
-1.2 DX12 és a konzolok között a kód átemelhető kisebb idő ráforditással míg DX11-nél nincs ilyen opció.
2, Nem vérzik el a Maxvell de az API Overhead tesztben már a 290X is odabassza a Titan X-et Mantle-vel.
- 2.1 Igen ez egy különleges mérőprogram amit talán nem értesz meg lehet. De a te álláspontodtól függetlenül vedd úgy, hogy egy Nextgen játékot látsz nyugodtan grafikailag (Oké ugyan az az épület ismétlődik nem ez a lényeg). Nem kell sokat ebben a topicban sem visszaolvasni addig amit Abu írt.De igen amit Abu ír az biztos fake de azért lehozzák a külföldi nagyobb site-ok is.(Hát persze..)
-2.2 Az új API-val jelen esetben mondjuk Mantle amiről szó van, 10x annyi rajzolási parancsot tud kiadni /frame mint a DX11 hasonló sebesség mellett. Ami azt is jelenti ,hogy ennyivel összetettebb programok készülhetnek a nextgen fogalma alatt.
-2.3 Igen tudom ,hogy nincsenek nextgen játékok (és bla bla) de az API overhead test addig is pont azt tudja tesztelni és azon az elven ahogy majd a nextgen szoftverek is futnak.
3, A következő hozzászólónak a lottó ötösre megint ugyan az : [link]
Oké. Akkor most képzeld el mit művel a 390x
Mindez a jövő de a tényeken nem változtat mert ezek a dolgok már itt vannak kéznyújtásnyira és nem fikció bármennyire fáj is.
-
#85552128
törölt tag
válasz
Kicsimix #173 üzenetére
A DX11 itt van pár éve, most is folyamatosan jönnek rá játékok és még egy darabig jelen is lesz...
A Maxwell meg 1.5-2 éves lesz mire megjelennek az első DX12-es játékok és a jövőbelátó AMD fanokon kívül még senki sem bizonyította, hogy elvéreznének...
Az AMD a mostani helyzetét saját magának köszönheti, más is készül a jövőre (jól is teszik), de nem kéne leszarni az aktuális igényeket és a 390X-nek DX11-ben is elfogadható szintet kell hoznia...Nagyszerű idézet a témában, küldeném Lisa Su-nak:
"- Yoda mester arra tanított, hogy figyeljek a jövőre.
- De azt ne a jelen rovására tedd!" - SW EP1 -
huskydog17
addikt
Láttál már életedben egy búzamezőt erős szélben? Az a gyanúm, hogy nem, de még csak hasonlót sem. Na, az hullámzik, ahogy sok más növény is. Itt egy példa, hogy mire gondolok. Ez valóság.
Akkor szerinted a legtöbb játékban alkalmazott papírmasé fűcsomók a realisztikusabb vagy inkább a Far Cry 2/Crysis 3 vonal? Én inkább az utóbbira szavazok, mert azok fényévekkel jobban hasonlítanak a valóságra.
-
válasz
huskydog17 #170 üzenetére
Hullámzó fűszálaktól, meg a lengedező hajkoronától kapok idegbajt. Mezőn láttál már fűszálakat lengedezni, vagy szoktad a hajad lóbálni össze-vissza? Nagyon mesterkélt. Tudunk valamit, de nem tudjuk, hogy mit kezdjünk vele. Mint a digitális reverb a nyolcvanas évek végének zenéjében. Hadd zengjen, rakunk rá jó sokat, mert mi ilyet is tudunk.
-
huskydog17
addikt
#125,126: Nem csak a TES IV-ben volt, hanem sok más címben is. Amúgy rendkívül szép vegetációt lehetne vele csinálni, csak a játékokban valamiért sz*rul paraméterezik. Amúgy szerintem a skyrim-ban ocsmány a vegetáció, pont az animáció miatt. Ha kizárólag a fák kidolgozását vesszük figyelembe, akkor számomra torony magasan a Watch Dogs viszi a pálmát.
#127: Fű kidolgozottságban szerintem a mai napig torony magasan a 2008-ban kiadott Far Cry 2 a legjobb. Abban olyan gyönyörűen hullámzott a sok ezer fűszál, hogy öröm volt nézni (még ma is), a napfény is valós időben tört meg a sok fűszálon. A Crysis 3-mat még nem próbáltam élesben, de sok videón láttam a MassGrass technológiát és szerintem is nagyon szép. GrassFX milyen minőséget tud, van olyan fejlesztő, aki használni is fogja?
-
kenwood
veterán
válasz
#85552128 #153 üzenetére
jart nalam ref. gigabyte 290x.
elso gondolatom az volt,h ez a szegeny ember nvidiaja.
azt nem tudom elkepzelni,hogy ezzel valaki odaalt a gorehoz,hogy :
"figyu fonok,kesz a kartya.furmark alatt ugyan egy ciposdobozra rakott alaplapban is pillanatok alatt 95 fok, es jon a leszabalyozas,de jo ez igy,dobjuk piacra,legalabb tobben vesznek oc-t.aki meg hasznalni akarja,rak ra vizet." -
5ent1nel
aktív tag
A mondandódból gondolom!
Amúgy egyetértenék veled a nagy hal dologban, de sztem most jó lóra tettek a pirosak a Mántlival. Nem érett meg még és ugye azért van marketing bullshit is a dologban, de az talán mond valamit, h a szakemberek mögé álltak és támogatják... Az nV is dobhat nagyot szvsz, mert meg van hozzá a tőkéje, szóval egyik oldal sem fog - annyit - veszíteni a low-level api érában. Annyi, h AMD-nél a lépéselőny, perpill itt tartunk.
-
dergander
addikt
válasz
#85552128 #165 üzenetére
Jah kicsit érdekes,de az első Tonga GPU butított volt,ez azt is sugallja hogy több volt a selejt mint amilyen példányra számítani lehet...na jó viccet félretéve a Tonga 3D Mark alatt szépen muzsikált,bár amit itt érdemes venni az a 390 x nélkül...mondjuk egy Windforce3al
-
#85552128
törölt tag
válasz
Malibutomi #164 üzenetére
Úgy érted ami eleve letiltva jött ki 8 hónapja most végre kijön ahogy kellett volna ?
De a cikkben is benne van: "A gyártókhoz eljuttatott adatok szerint az alsóház nagyrészt átnevezés lesz"
Igaz mivel a Tonga XT nem volt a vásárlók számára elérhető az is tekinthető "új" GPU-nak... -
#85552128
törölt tag
Új VBIOS, új GPU névvel és DevID-vel...
A gyártók már szorgosan flashelik is át a bennragadt HD7k / R 200-asokat.Nem fognak belenyúlni a 2-3 éve gyártósoron lévő GPU-kba, akkor nem lenne szükség átnevezésre hanem új fejlesztések jönnének. Ráadásul nem is kifizetődő... Ugyanaz lesz mint a HD 7->R 200 váltásnál csak most a gyári OC-ből származó +10-15% elmarad.
-
-
-
westlake
félisten
válasz
#85552128 #153 üzenetére
Még egyszer. Az R9 390X ellenfele nem a TX lesz, hanem a 980 Ti. Valószínűleg a magasabb működési sebesség miatt megmarad a 250W-os TDP, de nem kerül majd 1000$-ba. Biztos vagyok benne, hogy olcsóbb lesz, mint az AMD. Az NVIDIA-nak bőven van annyi mozgástere, hogy a pirosak új zászlóshajója alá árazza.
Nem tudom miért erőlteted ilyen szempontból a TX-et. Az egy mostani termék, ami egyértelműen a pénz kiszipolyozására lett kitalálva. Nincs ellenfele, és nem is lesz. Értsd úgy, ahogy kell. -
kenwood
veterán
válasz
Interceptor #120 üzenetére
csak ugy,hogy az egesz szoba "kijelzo".
a szem nem szereti,ha tul kozel van latnivalo.
a google glass is ezen bukott meg,es minden szem ele rakott cucc meg fog bukni. -
#85552128
törölt tag
válasz
westlake #151 üzenetére
A Titan X és a 290X között 50W különbség van, ha itt is annyi lesz, de a beígért +60%-os teljesítménnyel és olcsóbban az az ~50W senkit sem fog érdekelni...
A vízhűtés nekem sem tetszik, de egyrészt ott van a sima 390 másrészt még mindig jobb mintha olyan refhűtést kapna mint a 290X... -
#85552128
törölt tag
válasz
westlake #139 üzenetére
Mert az is ugyanúgy sokat fogyaszt a 980-hoz képest pedig rosszabb a perf/watt mutatója...
A Maxwellben pedig pont azért van ekkora tuningpotenciál, mert szándékosan van ilyen feszültség/órajel értékekre belőve, a fölött tuninggal már szépen nő a fogyasztás is ez jól látszik a TX-en.Ha hoznak +60%-ot a 290X-hez képest mindezt ugyanolyan fogyasztással nem látom hol a probléma (már a 390/X-et illeti...).
-
caprine
senior tag
Szeretnék ATI-t venni, de a 9800-as óta Nvidia van a gépemben, és úgy tünik 1 ideig marad is. Mekkora táp kell majd annak a szörnynek aminek alapból vízhűtése van? A Mantle viszont érdekelne.
-
-
sb
veterán
Azzal nincs gond, ha arányokat néz mert az egész tervezés lényege, hogy egymáshoz méretezett felépítést készíts. Felesleges a 2x GPU kis sávszélesség mellé, de ez fordítva is igaz.
Ez a mérnöki tervezés alapvetése, nem csak vga-knál, hanem mindenhol. Csak ennek nyilván úgy van értelme, ha ezzel előre lépsz vagy azonos szintet hozol, de valamilyen előnnyel jár (olcsóbb, megbízhatóbb, stb...).
Itt nekem az a gondom, hogy ha van is előny (mondjuk előállítási költségben kell legyen, még ha nem is látjuk, mert a nyákon nem mindegy, hogy 256 vagy 384 bit) akkor sincs olyan érdemi előrelépés ami miatt megérné rá váltani.
És lehet mutogatni a Maxwell heréltségét, kétségtelen, hogy az, de inkább az a kínos, hogy magukhoz képest képtelenek érdemi, szemmel látható javulást mutatni, az GCN 1.0-hoz képest.
Ezzel azt érik el, hogy én pl. 3 éve elvagyok a 7850-el és így el is leszek még egy jó ideig.A be nem váltott ígéretekből inkább várom akkor a szoftveres részt amikor ugyanezzel a vga-val sokkal jobb látványt kapok. Ebben egyébként is jobban hiszek - azért nem véletlen, hogy nincs hw oldalon nagy előrelépés, azt a részét elhittem, hogy nem lehet nagyokat ugrálni gyártástechnológiában. Nem is azt várom egyébként, de azért némi 10-20%-os javulásnak azért itt is csak illene lennie. A több évvel ezelőtti önmagukhoz képest. Ez a kulcs.
-
Jack@l
veterán
Számok számok számok:
"Nem nehéz értelmezni:
1. A sávszélesség kisebb.
2. Bizonyos funkciók meg sokkal jobban bánnak a sávszélességgel."Abu mindig az arányokkal bűvészkedik (néha nem kicsit). Van ugye alapból egy 50-100%-is memsávszél hátrány egy 384-512 bites kártyákhoz képest, meg van valamennyi(kicsi) hatékonyság növelés, amit erősen kétlek hogy a ma 4 giga közeli vram éhségű játékoknál előnyösebben jelentkezne...
-
Jack@l
veterán
válasz
5ent1nel #137 üzenetére
Miből gondolod hogy sértődött vagyok? Igazából jót mosolygok azon, ha valaki egy évek óta lecsúszó, jókora kissebbségben lévő céget lát bele az ipar diktátorának/éllovasának. (tudom a ph-n ezt olvasni évek óta...) Elárulom, nem az amd fogja diktálni az irányt, max kisérletezgethet ezzel azzal aztán ha van értelme a többiek átveszik. De a piac és az eladások majd megmondják merre az arra, meg persze a nagy halaknak is van némi beleszólása. Ha ők hülyeségnek tartják, mert okosabbak mint az átlag béla a fórumról, akkor bizonyára megy a kukába, mint a történelem során már oly sokszor.
@Kicsimix:
Egy új API-ra írt szoftverrel ami normálissan hasznosítja az erőforrásokat odaver a Titan X-nek is.
írj egy példát, a wishful thinking nem nagyon működik a műszaki dolgokban -
sb
veterán
A hard preempciót egyébként ne becsüljük le.... úgy fogod érezni magad a szemüveg levételekor, mintha szétcsaptak volna
De hol látsz te tömegesen VR szemüvegeket?
Most megint beírsz valamit, ami egy bizonyos szempontból fontos... de azt a szempontot rohadtul nem nézi senki egyelőre. Annyi értelme van mintha azt írnád a leszorítóerő iszonyú fontos... az is. Csak nem a Rákóczi úton.Ezt nehéz értelmezni, mert valóban azt gondolná az ember, hogy a 256 bit az nem 384 bit, de az architektúra annyit lépet előre, hogy ezt már így is előnnyé formálja. Bár a Tahiti limitje tudtommal a kevés ACE.
Nem nehéz értelmezni:
1. A sávszélesség kisebb.
2. Bizonyos funkciók meg sokkal jobban bánnak a sávszélességgel.Ezt két külön dolog, tök egyszerű értelmezni.
- Ha a sávszélesség maradt volna a régi akkor nyilván még jobb lenne a helyzet. Attól függetlenül, hogy kevesebbre van szüksége.
- Ill. ha olyan funkcióról beszélünk ami nem igényel kisebb sávszélességet. Mondjuk nem a színpufferekkel kapcsolatos akkor hátrányban lesz.A sávszélesség-csökkentésből így milyen előny származik önmagában? Olcsóbb lett? Az AMD-nek maximum. Kevesebbet eszik? Nem.
Most vagy tudást választasz vagy fogyasztást. A kettő együtt nem lehetséges.
Ezt te is tudod, hogy hülyeség. Preempció, színtömörítés, + pár ACE. Ez szerinted akkora strukturális hardveres előrelépés, hogy lehetetlen fogyasztásban előre lépni mellette 4-5 év alatt egy kis lépést is?Tudom, hogy már nem lehet csak úgy csíkszélességet lépkedni és fogyasztást felezgetni ugyanazzal a "tudással" (tranyószámmal), de ezt akkor sem hiszed el te sem, hogy 10-20-30%-ot sem lehet előrelépni lényegében ugyanazzal a tudásszinttel évek alatt.
-
Kicsimix
őstag
válasz
#85552128 #130 üzenetére
"A 980 Ti egy egy butított Titán X lesz, ott már láttuk, hogy a fogyasztás közel azonos a 290X-el - igaz attól jóval gyorsabb is."
Jah egy DX11-es szofverrel gyorsabb a 290X-nél. Egy új API-ra írt szoftverrel ami normálissan hasznosítja az erőforrásokat odaver a Titan X-nek is.
-
sb
veterán
válasz
Malibutomi #110 üzenetére
Ebben a formában ez így elég jó lenne.
-
westlake
félisten
válasz
#85552128 #130 üzenetére
Miért a TX-szel hasonlítod össze az R9 390X-et? A 980 Ti állítólag gyárilag 100-200MHz-cel gyorsabb lesz, mint a TX. A 6GB VRAM-ot meg lehet látni a tesztekben. A két NVIDIA kártya között meg lesz vagy 300$ difi. Bármilyen furcsán hangzik, de a TX tulajdonosok (megint) arcon lesznek köpve.
-
5ent1nel
aktív tag
Nyilván az egész AMD is csak egy forumozó, aki sértődötten benyög valamit a közösbe és EZÉRT "borulnak le előtte a nagyok".
Amúgy ha hozza az nV is azt a szintet, mint a GCN akkor az win-win neked, mint felhasználónak és a cégnek is, nem? Szóval örülj neki, ne mérgelődj!
-
Jack@l
veterán
Azt majd a DX12 meg a vga eladások eldöntik, hogy felesleges szájtépés volt e a két új api, vagy a konkurencia is simán hozza a szintet új játkokban...
Kitaláltam én is két api-t, most akkor jó irányba haladok és boruljanak előttem térdre a nagyok?Azárt fizessek egy szar vga-ért, hogy egy "tuningolt űrhajóm" legyen?
Asszem ez elég gyerekes megközelítés.
-
jedis
senior tag
Az AMD mindig is hosszú távra tervezet , ami anno az ATI felvásárlásával kezdőtött ! Lehet hogy nem minden úgy jött neki össze, mint amit annak idején elképzelt, de én úgy gondolom kezd beérni a sok befektetett munka , és pénz ! Sajnos nincs olyan monopol helyzetbe, mint más óriáscégek ( nagy kékség ), így ezen a piacon ő izomból nem sokat tud elérni, ezt ő is tudta nagyon jó ! Nem tud közvetlenül úgy hatni a piacra, mint a nagyok, ezért más stratégiát választott ,és ez a stratégia most szépen kezd beérni neki ( szerintem ) ! A konzolokkal egy óriási nagy ütőkártya került a kezébe, ha még ez a szegmens nem is hoz sokat neki közvetlen ( egyenlőre ) ! Az AMD fő "rákfenéje" a csíkszélesség, és az API volt, de ez egy éven belül meg fog oldódni, a DX12/Vulkan/Mantle triumvirátussal, és ha hosszú idő után végre meg tud szabadulni ettől 28/32nm -es gyártástechnológiától, és ő is 10nm közelire tud váltani nem lesz itt gond !
-
Abu85
HÁZIGAZDA
Jó irányba haladt-e? Az elmúlt egy évben két szabványos low-level API is bejelentésre került, amelyek idén megérkeznek. Még kérdéses, hogy jó irányba haladt-e az AMD? Nem nekik kell ehhez a modellhez alkalmazkodni, hanem a konkurenseknek. Az AMD eleve erre a modellre rendezkedett be.
Nem akarok ünneprontó lenni, de exkluzív tartalmak is terítéken vannak, attól függően, hogy milyen VGA-t vásárolsz. Az AMD ezt már csinálja. Ha Radeonod van, akkor egyedi tuningolt űrhajót kapsz a Star Citizenben és exkluzív tárgy DLC-t a Dragon Age: Inquisitionben. Ez a modell úgy néz ki működik, így az AMD folytatja, az NV pedig be fogja vezetni.
-
#85552128
törölt tag
válasz
dergander #123 üzenetére
A 390X előzetes infók alapján kb. ugyanazzal a fogyasztással ~66%-kal gyorsabb lesz mint a 290X. A 980 Ti egy egy butított Titán X lesz, ott már láttuk, hogy a fogyasztás közel azonos a 290X-el - igaz attól jóval gyorsabb is.
Így már nem olyan rossz a helyzet, még ha nem is lesz olyan gyors mint a Titan X akkor is max. 10-20 W lesz a különbség, de jóval olcsóbb lesz.A 380X-nek ha tényleg 290X rebrand viszont tényleg nagyon rossz perf/watt mutatója lesz.
-
nubreed
veterán
"Usernek megmutatod, hogy mennyire durva lett itt a fejlődés és mindjárt azt hiszik, hogy micsoda előrelépések történtek itt"
+"És még ha tudnátok mik jönnek."Ezt hányszor de hányszor hallottuk az elmúlt 15 évben? Aztán a valóság legtöbbször igen nagy csalódás ha objektíven nézzük. A piac eldönti, most végleg ki fog derülni, hogy az AMD jó irányba haladt e, ha nem és nem vevők a userek a világmegváltó ötleteire, akkor szerintem itt lesz a vége, lassan végleg lehúzhatják a rolót. Én már nem hiszek a csodákban, főleg ha AMD -ről van szó, valahogy úgy érzem, hogy ez az irány amit az AMD választott vissza fog ütni de nagyon csúnyán. De ez csak az én kis véleményem, nem kell egyetérteni.
A hardcore PC-s réteg vesz majd két PC-t, egyet Radeonnal és egyet GeForce-szal.
Ezt azért ugye nem gondolod komolyan? Szerintem ez egy valóságtól nagyon elrugaszkodott elképzelés és nem csak az általában szűkebb kerettel rendelkező magyar vásárlók szempotjából nézve hanem még nyugaton is. Meg milyen elképzelés már, hogy csak azért legyen két külön pc-je a vérpistikének mert az egyik effekt csak amd-n működik a másik meg geforce-on. Őszintén, amúgy ki nem tojja le magasról?
@(#121) SylverR
"Remélem azért lesz új chip az alsóházban is, legalább egy 350 vagy 360, jó áron."De nem lesz, ez már tuti, csak sima átnevezés.
-
Abu85
HÁZIGAZDA
válasz
dergander #123 üzenetére
Nem is a TMU, ROP, shader számának a növeléséről van szó. Itt a tudás, ami elviszi a wattokat. A sok regiszter, a robusztus cache-rendszer, a parancsprocesszorok, a sok LDS, illetve az olyan képességek, mint a CPU szintű preempció vagy a rendkívül gyors kontextusváltás. Az NV ezekre majd a Pascal és a Volta architektúrákban reagál. A Maxwellt most mobilba tervezték. Ezzel egyébként majd lesz gond is, mert úgy gondolják, hogy a Tesla a Kepleren kibírja, csak páran már elkezdtek FirePro S-re váltani, mert számos feladatban már 3-4x gyorsabb egy csúcs-FirePro, mint egy Keplerre épülő csúcs-Tesla. Tekintve, hogy ugyanannyit fogyasztanak a perf/watt különbség miatt már megéri váltani és újraírni a kódot. Ezért adtak el idén már most több FirePro S-t, mint egész 2014-ben.
-
Abu85
HÁZIGAZDA
Másképp sosem lesz VR. Szükséged van arra a kijelzőre a szemed előtt.
(#124) huskydog17: A Cryteknek a Mass Grass technológiája eléggé hasonló fűre. Igaz, hogy limitáltan használható csak.
A Speedtree kedvelt a játékfejlesztők körében. Elég sok AAA játék is használja. A Frostbite 3-ba is be van építve, bár az egy agyontuningolt verzió. -
SylverR
senior tag
válasz
huskydog17 #124 üzenetére
Speedtree. Ezt használja az Oblivion. Szóval a következő TES játékban talán lesz ilyen fa.
-
Interceptor
addikt
válasz
huskydog17 #124 üzenetére
The Elder Scrolls 4 -ben volt speed tree, csak akkor még talán az első verziója létezett. Elég nagy előrelépés volt, nem az a nyomorult laplombozat megoldás mint ami jellemző még a mai játékokban is, és sajnos a lésőbbi TES5-be is a gagyi lap megoldás került.
-
dergander
addikt
válasz
westlake #122 üzenetére
De mégis mit akar az AMD,ezek a wattzabáló kártyáik közel nem olyan hatásosak amilyen a fogyasztásuk,lassan az nvidia majd fele annyi wattal fog ugyanolyan játékteljesítményt leadni mint az AMD,értem én hogy csak így lehet,de azért a fejlődés nemcsak arról szól hogy szénné rakjuk TMU és ROPal a GPU-t.
-
westlake
félisten
Nálam már ott bukott a 390X, hogy gyárilag vízhűtéssel lesz szerelve.
Ez megit ugyanaz a szituáció, ami a referencia hűtéses R9 290X-nél állt fenn, csak most volt annyi sütnivalójuk (haha) a pirosoknak, hogy vízzel adják át azt az irdatlan hőt.
Ha a GTX 980 Ti-t nem specifikációkból veri el durván, hanem csak MHz-ből kicsit, akkor az NVIDIA-nak nincs más dolga, mint kiadni egy szénné feszelt és tuningolt 980 Ti-t ugyancsak vízhűtéssel, és megint overtake. Persze ilyet nem fog csinálni az NVIDIA. Inkább beejti az új kártya árát a 390X alá.
Persze mindezektől függetlenül remélem, hogy kiadnak (végre) egy ütőképes kártyát. Ideje lenne. -
atok666
őstag
VR igy - VR ugy, de kivancsi vagyok, mikor lesz vegre vmi tenyleg hasznalhato VR, amiben van fantazia/innovacio, mert ez a fejre rakott majd fel kilos sisak nagyon nem az. Sztem teljesen rossz a koncepcio, ki akar sisakkal a fejen jatszani? Vagy csak en vagyok ilyen fura ?
Sztem ez a sisak a fejen, meg abban a ket kijelzo teljes tevut...
Atok
-
válasz
Malibutomi #115 üzenetére
A cikk a 390-et is áprilisra várta. On the other hand, AMD is also going to out their massive 300W HBM enabled chip, codenamed “King of the hills” based on a 28nm process in a last fight with NVIDIA’s own 28nm based GM200 Titan X graphics card which was revealed just a few days ago. These last 28nm chips of this longest running process generation will be competing in 2015. The launch timeframe of the card in April 2015 might be an indication that AMD will be showing off their cards very soon.
-
válasz
Malibutomi #113 üzenetére
Ez a forrás elég pontatlannak néz ki. Itt a 370/X-nek írják a Trinidadot, és, hogy megjelenik április elején. Ebből a megjelenés dátumát garantáltan nagyon mellélőtték (pedig csak egy hónapos a cikk, mégis sikerült negyed évet tévedni), de gyanús, hogy az egészből semmi sem igaz.
-
#85552128
törölt tag
Nemcsak kazán, de a 390X-hez már gyárilag radiátor is jön
extraként"hűtésként"Komolyra véve: a 390/X legalább jobb perf/watt mutatóval rendelkezik majd ott azért jobban elnézi az ember, de a 380/X ebből a szempontból nagyon rossz lesz...
Valószínű annyira kevés a fejlesztésre fordítható összeg, hogy egyszerűen nincs pénz az alsóbb régióba új GPU-t fejleszteni. -
Jól számolom, hogy mostantól AMD középkategóriától fölfelé csak kazánfűtőknek kínál VGA kártyát? Mindig az előző sorozat brutál fogyasztású csúcsát pozicionálják egyre lejjebb és lejjebb. Így ugyan kiszolgálják az alacsonyabb teljesítményű igényeket, de elképesztő fogyasztás árán. Jó ötlet ez?
-
Abu85
HÁZIGAZDA
válasz
#85552128 #104 üzenetére
Mivel idén több új API is lesz, illetve ezekre készül is legalább egy tucat játék, így most megéri ezek miatt egy teljes termékskálát átnevezni. Usernek megmutatod, hogy mennyire durva lett itt a fejlődés és mindjárt azt hiszik, hogy micsoda előrelépések történtek itt. Ehhez majd hozzájárul az is, hogy a lapkák is új nevet kapnak. Most tényleg sokkal jobban megéri a szoftverre fókuszálni, mert végre beindult a változás. És még ha tudnátok mik jönnek.
Árcsökkentés nem lesz. A piac túl pici ahoz, hogy ezt megejtsék. Igazából egymásra sem fognak igazán reagálni, mert az AMD és az NV is kínál majd exkluzív dolgokat, amelyeket csak célirányos vásárlással érhetsz el.
A hardcore PC-s réteg vesz majd két PC-t, egyet Radeonnal és egyet GeForce-szal. -
#85552128
törölt tag
Jelenlegi állás szerint a 390/X-en kívül minden átnevezés, pedig a 380/370-eket nem mondanám kifejezetten olcsónak + A másik oldalon volt tavaly 750/Ti és most is várható más a 960-on kívül is.
Alsóbb régióban akkor csökkentsék az árakat, de nem tudom mi értelme ezzel összezavarni az egészet mintha új kártyák lennének.
-
Abu85
HÁZIGAZDA
Az olcsóbb kategóriákban nem érdemes várni. Azok átnevezések lesznek mindkét oldalon. Az IGP-k felzabálják ezek piacát.
Most már új lapkák fejlesztése is kérdéses, mert 2016-ban már lesz HBM2 az APU-khoz is, így értelmetlenné válik ez a piaci terület, pontosabban lesz értelme, csak az IGP-k már elég jók lesznek, hogy 150 dollárig lefedjék a piacot.
Új hozzászólás Aktív témák
- GIGABYTE GeForce RTX 4070 Ti SUPER AERO OC 16G - Alza garancia 2027.11
- ~ÚJ MSI GeForce RTX 5070 SHADOW 3X OC 12GB GDDR7 - Konzolvilag garancia 2028.09.13
- GIGABYTE RTX 5070 Ti 16GB GDDR7 EAGLE OC SFF - Új, 3 év garancia - Eladó!
- ASUS TUF RTX 5070Ti OC 16GB GDDR7 Videokártya! BeszámítOK
- Eladó hibátlan MSI RTX 3080 GAMING Z TRIO!
- Bomba ár! Lenovo ThinkPad T460s - i5-6GEN I 8GB I 128GB SSD I 14" FHD I Cam I W10 I Garancia!
- Xbox Series X 1 TB + kontroller 6 hó garancia, számlával!
- GIGA AKCIÓ!!! AKTIVÁLATLAN iPad Air M2 11" WiFi + CELLULAR 512GB!!! KÉK
- BESZÁMÍTÁS! ASUS A620M R7 7700X 32GB DDR5 1TB SSD RX 7900 XTX 24GB ZALMAN I3 NEO EVGA 850W
- Garmin Forerunner 405 GPS óra
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest