Új hozzászólás Aktív témák
-
-
Sinesol
veterán
Bár alapvetően nem értem mi értelme a konzol vs Pc vitának, hiszen semmi sem tiltja, hogy mindkettőt használja az ember.
-
Abu85
HÁZIGAZDA
És miért nem használnak alacsony szintű elérést? Ez egy baromira jó kérdés szerintem. Az Ubisoft úgy állhatott volna gyorsan talpra, hogy ha kérnek az AMD-től Mantle-t, ahhoz módosítják az Anvil struktúráját, és utána írnak még hozzá libGNM, DX12 leképezőket. Ezzel szemben azt csinálták, hogy majd agresszíven kötegelnek, és a minőséget a tesszellálással megoldják DX11 alatt is. Ja, hogy sehogy sem működött az NV GeometryWorks? ... hát ez az ötlet is ment a kukába. Még a Syndicate sem kapta meg ezt a rendszert, pedig egy év alatt át lehetett volna írni rá. Most az executeindirect az új messiás. Szerencsére az szabványosan csak DX12-ben érhető el, mert DX11-ben csak AMD-n van ilyen rendszer.
-
Peat;)
veterán
válasz
#32839680 #338 üzenetére
Nézd, rád nagyon nehéz mit reagálni érdemben, mert nagyon tisztelettudó stílusban nyilatkozol meg, ugyanakkor saját bevallásod szerint is sorozatosan olyan témakörökben ahol csak "olvasott" tapasztalataid vannak, én meg pont az "írott" tartalmat kritizálom sokszor így elég egyértelmű hogy nem fogunk közös nevezőre jutni, hiszen Te Abu írásait adod vissza. Más világban mozgok. A KSH szerint alig van munkanélküli és alig van szegény ember itthon. Van aki elhiszi, van aki nem. Pár évig dolgoztam olyan helyen hogy sosem láttam szegény embert még környéken sem, tehát még prezentálni tudtam volna már akkor a KSH mostani állításait. Azt lájuk meg amit akarunk és azzal igazoljuk azt amit akarunk. Én sosem voltam ennyire egyoldalú.
-
Abu85
HÁZIGAZDA
A portolás csak ront rajta, de valóban nem az a gond. A legszörnyűbb, hogy az R&D-jük EA szintű, és nem látszik semmi belőle. Egyszerűen az elmúlt 3-4 évben fokozatosan hozták a rossz döntéseket, és eljutottak oda, hogy van egy nem működő rendszerük, amibe olyan mennyiségű pénzt toltak, hogy nem éri meg lecserélni. Szóval ki kell bekkelniük 2017-ig, amikor mindkét konzol megkapja az új SDK-kat, és jönnek az azokhoz írt motorok, amik már készülnek.
Itt leírtam, hogy mi az alapprobléma: [link] - ezt nyögik, és fogják még egy darabig. -
Peat;)
veterán
Minősíthetetlent nem lehet minőséggé átportolni. Csak te nem vagy hajlandó megérteni hogy az assassin konzolokon és éppen olyan trehány minőség mint pc-n és kötve az ebet ahhoz a bizonyos karóhoz minden pc halálozós cikkedben megemlíted példaként. Pedig nem bántásból írjuk hogy nem kéne...de lepereg rólad.
-
-
Abu85
HÁZIGAZDA
Ubiéknak a PC már veszteséges platform összességében, lassan két éve. Ezért raknak bele csak annyi pénzt, amennyi az "éppenhogycsak" fut portokra elég. A legutóbbi félév amúgy teljesen veszteséges lett nekik, a sales több mint a felére esett egy év alatt (207,3m euró vs 484,2m euró). A következő negyedévektől várnak sokat. Amit tudni, hogy a legnagyobb visszaesések az előrendelések hiányából jönnek. Gyakorlatilag elvesztették a játékosok bizalmát. A kvázi bolti eladások nem rosszak - ahhoz képest, ami volt korábban.
-
Döntsd, és nem bírálja el senki, örülünk, ha elégedett vagy a Fury-val. Ennek viszont nem feltétlen úgy kellene hangot adni, hogy a konkurens gyártót hibáztatod még a konzolos fejlesztések elvárásoktól messze elmaradó előrehaladása miatt (??)
Az Ubi játékok jelenleg csak annyira szarok a többség számára, hogy morogjanak és fórumokon írogassanak, masszív sales-kiesés egyelőre még nem jelentkezett trendszerűen. Ezek szerint még nem elég szarok. Majd ha eljön az az idő, akkor uborkáék is több pénzt fognak tenni a QA-ba.
-
R9DEON
senior tag
-
Én, mint felhasználó, akkor járok a legjobban, ha elégedett vagyok azzal, amit veszek - nem kergetek fantazmagóriákat, nem osztom fel a világot mindenáron jóra és gonoszra, nem kampányolok valaki ellen, hanem ehelyett világosan megfogalmazom magamnak, mit szeretnék, és erre szavazok a tárcámmal. Azt pedig (felhasználóként) nagy ívben leszarom, hogy a két gyártó hogyan és milyen eszközökkel háborúzik egymással. Ha az aktuális vásárlásom eladója valamivel komolyan felb****a az agyamat (pl. Kepler tulajként duzzognék a Witcher 3-ra, amit nem teszek, de a nemhivatalos AMD marketing szerint néptömegek ostromolják miatta az nVidia székházat), akkor legközelebb a másiktól veszek. Vagy ha csak olyan kedvem lesz, akkor is - mert pl. az ebben cikkben bemutatott GPU határozottan szimpatikus. Ilyen egyszerű.
-
hugo chávez
aktív tag
Ahha, köszi. Nekem ez a Yamhill kimaradt... Most rákeresve láttam, hogy anno elég sok helyen írtak erről. De amiket olvastam, azok alapján nekem nem egyértelmű, hogy ez az AMD-féle x86-64-gyel nem kompatibilis, vagyis teljesen saját ISA kódneve volt, vagy csupán a jelenlegi Intel 64 (leánykori nevén EM64T) korai kódneve.
Intel oldalán meg csak ennyi van erről:"Intel 64 (EM64T / AMD64 / x86-64 / x64) is an extension of x86 architecture with full backward compatibility. There are many variants of its name and it causes some confusion, but all these names mean the same thing: x86-64, AA-64, Hammer Architecture, AMD64, Yamhill Technology, EM64T, IA-32e, Intel 64, x64. To learn how so many names appeared see the article in Wikipedia: "X86-64". " [link]
-
R9DEON
senior tag
Miért tudsz olyan elektronikai céget akinek nincs baja, az Nvidia is végig küzdötte a nyarat a driverekkel az AMD most új fejezetbe kezdett csak a hülyék nem tudták hogy nem probléma mentes, ahogy az Nvidia is problémákba fog ütközni az új driverekkel csak nem kell elfelejteni!! fogadunk???? Nvidia és AMD játékosok együtt kellene harcoljanak a PC -s játékok jövőjéről ehelyett egymással harcolnak a semmiért, ha tudnék jól Angolul én már többet tettem volna ezért, aki ismer az tudja hogy kitartó vagyok, persze elmegy ez így EU szinten is, nem érdekel senkit.
-
Peat;)
veterán
Értem, tehát azért fizet az nvidia hogy az 50 millió darab eladott újgenerációs konzolra rosszul programozzanak, bár exkluzívokról volt szó, de nem baj, végülis mindkettőben vannak bitek, meg bájtok vagy mi. Nem tudom, szerintem legelvetemültebb nvidia fanok sem gondolják ilyen erősnek a céget, ha ezt látnák lehet kapnál egy ingyen 980ti-t. Meg egy ps4-et természetesen amit ráhelyezel.
-
Az Nvidia azért fizet hogy az Ubisoft még véletlenül se alkalmazzon olyan engine-t ami esetleg a GCN jobban futna mint a GTX -en, igy jutottunk oda hogy 2016 meg mindig nincs egy rendes játékmotor ami kihasználná a konzolok jelenlegi erejét
Csak én érzem úgy, hogy ennek a mondatnak az égvilágon semmi értelme nincs?
-
Sinesol
veterán
Már elég régóta nem a pc az elsődleges piac ahova játékokat fejlesztenek, szóval az hogy olyanok a játékok amilyenek, az nem a zöldek hibája. Lehet hogy néhol kérdéses hatású a gameworks, de pár játék miatt nem lehet a rengeteg nvidia független hulladék portot is a zöldekre kenni.
-
R9DEON
senior tag
Az Nvidia azért fizet hogy az Ubisoft még véletlenül se alkalmazzon olyan engine-t ami esetleg a GCN jobban futna mint a GTX -en, igy jutottunk oda hogy 2016 meg mindig nincs egy rendes játékmotor ami kihasználná a konzolok jelenlegi erejét, de ezt gondolhattuk volna. Az AMD még 10 év után sem értette meg hogy nem hardvert kell fejleszteni hanem a szoftver céget megvenni, így sokkal olcsóbb a felhasználó meg dögöljön meg úgy sem ért hozzá.
-
Peat;)
veterán
Az nvidia azért fizet valakiknek, hogy 980ti-t vegyünk a ps4-hez? Aztán mit csinálunk vele, rárakjuk a konzolt és elmondhatjuk hogy a 980ti-n nyomjuk a driverclubot? Vagy most nem értem, mi ez az összemosás a konzolos fejlesztések és az nvidia termékeivel kapcsolatban? Nem érzed túlzásnak ezt az egysíkú hulk a gonosz gondolkodást? Én igen.
Egy belsős konzolfejlesztésnél az nvidia hatása akkora mint az AMD hatása a wc frissítők terén. -
R9DEON
senior tag
Éppen itt a gond hogy a fejlesztők kértek ilyen hardvert és ezzel sem boldogulnak akkor ideje lenne a szoftver fejlesztők segedelmét megpiszkálni mert NASA szintű hardverünk van és Minecraft jellegű szoftverek futtatására használjuk, valahol a szoftver fejlesztés lemaradt úgy 5 évvel a hardvertől és most az a győzedelmes aki rá tudja venni a szoftver fejlesztőt hogy a konkurens hardveren minél sz@rabbul menjen ugyanaz a játék, ez szerintem nem állapot de mivel a hülyék megveszik a hulladék COD BO3 -at is ez senkit nem érdekel, az említett COD BO3 -al össze lehet hasonlítani egy Crysis 3 grafikát és akkor kiderül hol van az Ubisoft és az 1000 éves technológiája de mégis használja mert az Nvidia ezért fizet, lényegtelen hogy milyen a minőség csak nagyobb VGA kelljen hozzá, az egész szakma látja hogy ez nem jó útvonal de senki sem tud tenni semmit ameddig minden játékos megveszi ezeket a hulladék játékokat.
-
-
Sinesol
veterán
Hát elvileg épp a fejlesztők kérték ezt a hardvert, mondván hogy itt minden majd nagyon jó lesz, egyszerű lesz a programozás, fejlett, okos, a hardver és egyéb hasonló dolgokat kántáltak.
Szerintem jogosan várná el az ember az eredményeket.A rendkívül bonyolult Cell processzorra arányaiban a megjelenés után ennyi idővel már korrekt játékok jöttek ki. Szerintem most sincs komolyabb baj a programozókkal, csupán a hardver lett kicsit alulméretezve.
A legujabb Halo is megmutatta, hogy csak kompromisszumos játékokat lehet csinálni, miszerint vagy részletesen kidolgozott világ van finom megoldásokkal, vagy pedig magas fps+felbontás. -
A fejlesztők sose voltak jók a határidő-becslések terén.
De komolyra fordítva a szót, én egyelőre nem ítélkeznék. A "There's always limited resources." nem azt jelenti, hogy kevés a hardver. Az erőforrás (resource) elég tág fogalom, ez nem csak a hardver lehet, hanem pl a fejlesztői erőforrás. S valószínűleg így is van, hisz "Really f**king hard" megcsinálni. Nem lehetetlen, csak baromi nehéz. Persze ebből még ugyanúgy lehet lehetetlen, de még nem vagyunk ott, hogy a fejlesztők azt mondják: "ez a hardver egy sz*r, kérünk másikat". Mert ilyenkor kell váltani, az biztos.
-
R9DEON
senior tag
szépek a játékok szerintem konzolon, csak nem az amit ígértek és azoknak éri meg igazán akik meg voltak elégedve az előző generációval. Ahhoz képest van minőségjavulás és az egyik oldalon sebesség is jobb, mert ps3-nak sokszor a 25 fps sem ment, a ps4 viszont nagyon ritkán néz be 30fps alá. Ez is valami...csak annyi ígéret után.
Mindig ígérnek, a PS3 megjelenésekor is ígértek meg a Maxwel -Pascal x10 is ígér ahogy az AMD is 86W fogyasztást, mindenki azt hisz el ezekből amit akar de mindenki ígérget ez 100%.
-
A GPU használhatók lennének általános számításokra sok helyen, a probléma inkább abban van, hogy GPU-t programozni rohadt nehéz, és a programozók elenyésző százaléka képes rá (itt programozó az aki képes értelmes és jól használható C kódot írni ha az kell, szóval képes alacsony szintű kódot írni).
-
Peat;)
veterán
Én nem sírok, megjegyeztem hogy a fejlesztők, kiadók, cikkírók által beígért dolgokból eddig nem sikerült semmi lényegi dolgot megvalósítani, úgy hogy 4 éves fejlesztéseket kezdünk látni a konzolon. Mellesleg azt is megígérték hogy gyors lesz a forradalom. Nem én, nem te, nem amd fan, sem nvidia fan, hanem a fejlesztők, ha nem tetszik hogy ezeket leírom velük boxold le hogy miért állítanak olyat amit nem teljesítenek, sorozatosan.
Az uncharted promo videojára is rámondták hogy totál in-game, aztán jött a game play video...meg a sorozatos lebutítások, lásd witcher 3....ti tapsolhattok hozzá, vagy normálisnak vehetitek ezt, de én nem azonosulok ezzel. Az amd-vel ezért kapcsolják sokan össze, mert pont ugyanolyan ígéretmassza lengi körül a két platformot, függetlenül hogy a konzolokhoz ilyen értelemben szerintem sincs köze az amd-nek és szerintem is lehetett volna sokkal időtállóbb, erősebb gépeket készíteni amd belsővel. Abban azért egyet értünk hogy erősebb géppel könnyebb a forradalom. Egy erősebb gép meg került volna még +50 dollárba, azannyja.... Én a fejlesztőkre, kiadókra ugrom, meg Abura természetesen, mert máig olyan hangnemben ír a konzolról mint más minőségfaktor, csak én éppen azért váltottam vissza mert nem bírtam a 30fps alá benéző játékokat az x360-on és az xbox one egy az egyben továbbvitte ezt a "hagyományt".
Az előző két konzolomban is amd gpu volt, x360 oda is porított vele és a hardware most is adott volt. De a két gyártó inkább a marketingre költött mint a fejlettebb, erősebb belsőre és a mai fogyasztói társadalomban ez nyert, lásd fölöttem lévő hozzászóló. Aki nem tud tisztán gondolkodni annak oly mindegy mi van a dobozban, elmondják hogy király akkor éljen a király.
Ettől még leírom újra: szépek a játékok szerintem konzolon, csak nem az amit ígértek és azoknak éri meg igazán akik meg voltak elégedve az előző generációval. Ahhoz képest van minőségjavulás és az egyik oldalon sebesség is jobb, mert ps3-nak sokszor a 25 fps sem ment, a ps4 viszont nagyon ritkán néz be 30fps alá. Ez is valami...csak annyi ígéret után.
Egyébként vannak őszintébb cikkek. Csak ugye ez a mondat hogy:
"There's always limited resources." nem illik a ph! arculatába. -
R9DEON
senior tag
Itt a lényeg hogy nem a konzol felhasználók sírnak mert eladtak több millió darabot hanem a sértődött Nvidia PC tulajok hogy miért AMD, ettől kezdve meg mindent kitalálnak hogy miért is nem jó az a konzol amit zsákszámra vesznek de nagyon eltértünk a fórum lényegétől, szerintem.
-
-
Peat;)
veterán
Eddig mindig a belso nagy exkluzivok hoztak ki amit kilehetett a konzolokbol, lenyegtelen az apizas, meg anyam kinja. Amit az uc4 prezental az velemenyem szerint a konzol tudasanak nagy reszet elenk rakja es ahhoz szintet mar nem fog ugrani ez a gen. Ami szep, csak semmi forradalmi az igergetesek ellenere.
-
Oké, de azok excluzív címek, és valószínűleg libGNM-en API-t használnak. És mivel ugye konzolexcluzív, ezért nincs szükség DX12-re vagy Vulcan-ra is felkészíteni az engine-t. Igazán pénzt ölni pedig csak olyan engine-be fognak a fejlesztők (EA, Ubi alá tartozó studiók pl.), amivel multiplatform játékokat készíthetnek.
A Snowdrop elsőre baromi ígéretesnek tűnt pl., viszont később a Division némi downgrade-en esett át az első bemutatkozásához képest (bár ezt inkább Ubi sajátosságnak vélem).
A lényeg, hogy én továbbra is reménykedem hogy újgenerációs játékmotorokkal sokkal többet ki lehet majd hozni a jelenlegi konzolgenerációból mint amikre a jelenlegi engine-k képesek! -
sb
veterán
Igen, átlagos... és még így sincs 40W idle fogyasztásod dvga-val sem, nemhogy IGP-vel.
Gondolom tápban is van némi különbség a két konfig között.Vagy nem tudom mit akarsz ezzel mondani de az előző hsz-edben is már csak igazolást láttam arra amit én írtam. Nem kell dvga nélkül 40W idle-vel számolgatni a csatolt teszt kapcsán.
-
SylverR
senior tag
Amúgy a fejlődést több oldalról nézhetjük... A fanyalgók sajnos a pixel fillrate oldaláról nézik. Minél több pixelt számol ki a vas, annál gyubb! Holott a konzolok egyértelműen a gameplayen javítanak, fejlesztenek folyamatosan. Nem a grafikán. Ami érthető, hisz már elértünk egy szintet, amivel kilehet egyezni. Akár 900p-ben is. De hogy a PC-s játékok java részében a fizika még mindig Quake 2 jellegű, csúszunk a jégen érzetet kelt, az tény sajnos. Ezen kell javítani, nem a grafikán.
-
-
Nem olyan gyenge a PS4 hardvere, csak mondjuk kéne rá egy normális low-level API-khoz igazodó game engine-t írni! Szerintem sokan meg lesznek majd lepve mikor 2017-ben olyan játékok fognak kijönni PS4-re amit 2 éve a fanyalgók el se tudtak volna képzelni hogy képes a PS4 futtatni.
Sőt, szerintem ha végre tényleg kész lesz a Vulcan, és a Sony hivatalossá teszi a támogatását, az már idén plusz lökést fog adni a fejlesztőstudióknak, hisz még könnyebbé válik majd a multiplatform játékok fejlesztése.
Amúgy meg nézd meg akár a RIGS akár a Robinson: The Journey bemutató videóit a youtube-on. Nem Minecraft szint egyik se.
-
Abu85
HÁZIGAZDA
Egyelőre az előrendelések elég durvák. Nem fogják tudni mindenkinek kiszállítani a startra. Az biztos, hogy a PSVR-nek nagyobb sikere lesz, de ez annak lesz köszönhető, hogy a Sony egy rakás exkluzívot leszervezett magának, illetve egyszerűbb erre VR játékot írni, mint a nem szabványosított PC-s területre.
(#277) Lorelej: Már be van időzítve.
LDL akkor sem lesz. Ahhoz meg kell várni a 2018-as szabványosítást, vagy fejleszteni kell egy saját API-t.(#279) Lorelej: Mivel igény marad az SVM, így a dedikált gyorsítók már nem valók konzolba.
-
-
Nem tudom a Sony mikor akar kijönni a Playstation VR-ral, de figyelembe véve hogy a Rift-tel ellentétben egy fix hardverhez kell igazodnia, így sokkal nagyobb tömeg számára lenne elérhető (a 30+ milliós felhasználóbázist figyelembe véve), talán még azt is megengedhetné magának a Sony, hogy kisebb árrést alkalmazzon a terméken, és ezáltal kvázi le is tarolhatná a VR-es piac nagy részét. Az már csak hab a tortán, hogy valószínűleg VR játékot is könnyebb fejleszteni PS4-re mint PC-re. De ezt csak feltételezem, és lehet rosszul tudom,
Pl. ha bemennének 500$ alá én tuti vennék egyet a PS4-emhez! -
Abu85
HÁZIGAZDA
Konkrétan senkinek. CUDA leírásokat adnak NDA után.
Persze, hogy jó okuk van rá. Nem akarnak optimalizálást látni a piacon. Működik is lásd Batmak AK.
Nagyon nem az az elvárás a konzoloknál, hogy NDA-val legyenek doksik. Vagy van publikusan, vagy le sem szarják a nevezésed. NDA-s dokumentációt tartalmazó CPU/GPU nevezéssel még sosem nyert senki konzoldizájnt.A VR-hez az NV-nek még hardvereket kell hoznia finomszemcsés preempcióval. Egy saját grafikus API sem ártana a Latest Data Latch-hez, mert ezt a szabványos API-k nem támogatják. A LDL-lel az AMD konkrétan felezi a késleltetését. Ezért kampányolnak a 10 ms alatti késleltetés mellett, mert nekik ez a linkelt fejpozícióval nem gond.
-
Fiery
veterán
válasz
Malibutomi #269 üzenetére
Nem, nem ellensulyoz semmit, az AMD tovabbra is masszivan vesztesegesen mukodik. Az elozo negyedevben 1 milliard dollaros bevetel mellett termelt a ceg 197 millios veszteseget. 1 milliardbol mennyi lehet a semicustom (ami szinte kizarolag a konzol APU-kat jelenti) bevetel? 200-300 millio? Egy komoly cegnek az -- sajnos -- apropenz. Az AMD-nel is jol latszik, hogy arra jo csupan az a penz, hogy 1-2 evig viz felett tartsa a ceget.
-
Fiery
veterán
Azt azert gondolom Te is tudod, hogy a dokumentacio megvan, csak az nVIDIA nem adja oda akarkinek. Jo okuk van ra, es nem most kezdtek ezt a hozzaallast. Ha pedig egy konzol bizniszt ugy tudnanak csak elnyerni, hogy bizonyos feltetelek mellett (pl. NDA) ki kellene adniuk a doksikat, akkor megtennék. De szerintem ide nem fognak eljutni, az nVIDIA nem hulye, hogy bagoert gyartson konzol procikat, van nekik egy csomo sokkal zsirosabb piacuk is. Kapasbol a VR olyan high-end GPU igenyt fog generalni, amivel sokkal erdemesebb foglalkozni, mint a konzol APU-k kerdesevel.
-
távcsőves
senior tag
Ezzel az a baj, hogy amiket felsoroltál, vagy nem volumen márkák, vagy ha azok is lennének, az sem segítene annyira. Értsd, vagy kicsi az eladott darabszám, vagy "nagyon vékony a vaj". Az autógyárak 1 eurócentért megküzdenek. Egy tömeg modell gyártási ciklusa alatt 1 eurócent eladott autónként hatalmas összeg lehet a végére. No offense! Tiszteletben tartom a véleményed, csak a felhozott példa nem a legjobb.
-
Abu85
HÁZIGAZDA
válasz
Dare2Live #263 üzenetére
Nem az APU-ról van szó. Azt sokan tudtak volna szállítani. Persze nem 2013 végére, de a megosztott memória nem nagy kunszt. Ma már meg tudja oldani az Intel, az NVIDIA, az Imagination, a Qualcomm, az ARM és talán más is.
A Sony eredetileg saját dizájnban gondolkodott. Ezt Mark Cerny elárulta amikor a tervezésről beszélt. Akkor váltottak, amikor még a tényleges tervezés megkezdése előtt elgondolta, hogy megkérdezi a fejlesztőket, hogy ők mit akarnak. Mivel az elsődleges igény a megosztott memória volt a saját dizájnt elvetették, ugyanis az ezt nem tudta.
Az MS-ről kevesebb az adat, de nemrég kiderült, hogy náluk volt pályáztatás. Az AMD azért nyert, mert az Imagination csak 2015-re tudta ígérni a saját cuccát. -
Dare2Live
félisten
Volt másnak APUja? Nem.
Sonynál esetleg lehetőség lehetett volna, hogy power+saját dizájn, de ez baromi komoly befektetés és idő lett volna AMDnek meg kvázi kész volt.
MSnél meg imo egyértelmű volt, még Power vonal se játszott.Gunyulódás helyett tessék utána olvasni. Emlékeim szerint Magyarul is jó leírás van a miértről.
-
R9DEON
senior tag
Nem kell ehhez közös fénykép csak logikus gondolkodás, a konzolgyártók megkapták a minta csipeket és a specifikációkat jóval előtte ha nem lett volna jó még lehetett volna változtatni, a másik hogy meg volt mondva a régi játék motorokkal nem fog rendesen működni, hány motort is írtak azóta konzolokra, az Ubisoft ezeréves játékmotorjai még a GTX 980Ti-n is akadoznak ilyen hozzáállassal nincs min csodálkozni.
-
SylverR
senior tag
Persze.
De te is folyton azt lesed, hol szólhatsz be a másik oldalnak. Amúgy meg sok havi fórumolvasgatás után, nyílvánvaló, hogy 1. azok fikázzák a leghangosabban, akik nem is játszanak konzolon, vagy maximum 1-2 cím erejéig vesznek konzolt. 2. aki konzolozik, az megvan vele elégedve.
Különben nem fogyna olyan jól a piacon a termék. De bizonyára átvannak verve szegény júzerek. Mindenki aki AMD-t mer venni, az hagyja magát átveretni, mert az soha semmire nem jó, igaz?@(#230) he7edik.:
Én még nem tapasztaltam az általad említett problémát. -
Abu85
HÁZIGAZDA
Hogyan tudna az NV bármilyen konzoldizájnt is megnyerni, amikor nincsenek megfelelő dokumentációi? Komolyan kérdezem. A G80-as érában dokumentálták utoljára a hardvereiket. Van egy fejlesztő, aki csinál egy játékot mondjuk egy GeForce-os Xbox-ra vagy PS-re. Felteszi a kérdést, hogy merre optimalizáljon ... mennyi az egyes RT-k exportideje, mekkora a mintavételi sebesség az egyes textúraformátumoknál, typed vagy untyped buffer a jó? Erre mi a fenét mondjon az MS és a Sony, ha nincsenek dokumentációk, amelyekből választ adhatnak? Ahhoz, hogy valaha is készüljön még NV-s konzol vissza kell menniük a G80 előtti filozófiához, amikor még elmondták, hogy miképp lehet elérni a legjobb sebességet. Amíg nem teszik meg, addig gyakorlatilag a konzolpiac az AMD-é.
-
Sir Ny
senior tag
vagy gyengebbet kaptak, mint amilyenre szamitottak/nem gyorsult annyival az idovel, mint igertek. Elofordul ez is: ott van a ps3 cell-je, a kinai gepek a larrabee-vel, a tulmelegedo qualcomm telefonok (amiket ki kell adni akkor is, ha xar, mert a konkurencia is kiadja), talan a tegra 2 is fosabb volt mint igertek a guglinak (voltak errol pletykak, hogy tervezett ra, csak a neon hianya fajo volt, vagy, mittom en)
"Jo a ps mert mernokok csinaltak"
facepalm, banghead, FUUUU, meg az osszes ilyen. -
A konzol lagról meg maradjunk annyiban, hogy gyenge a hardver azért lagol
Maradjunk annyiban, hogy minden hardverre lehet olyat írni ami nem lagol van akinek ez megy van akinek nem. A konzol hardver adott arra kell programozni, nem rakunk alá kétszer annyi vasat aztán jó lesz...
-
R9DEON
senior tag
-
Autóiparban dolgozom, és ne tudd meg mekkora spúrok az autógyártók! A luxusmárkák is.
Pár eurós alkatrészeknél is eurócentekről kell velük egyezkedni. Többmilliós darabszámnál bizony jelentős összegeket tudnak megtakarítani vele.
Mindezt úgy hogy a cégünk is nagykutya, ráadásul autóiparhoz mérten még átlag feletti haszonkulccsal is dolgozunk. -
Abu85
HÁZIGAZDA
Még annyit, hogy pontosan emiatt maradt az Apple három beszállítónál. Ők is Intel, AMD és Imagination partnerek, mert saját grafikus API-juk van, saját drivercsomagokkal, amelyeket a saját szoftvermérnökeik írnak, tehát okvetlenül fontos számukra, hogy a partnereik megmondják, hogy az a hardver, amit szállítanak valójában hogyan működik, hogy aztán megfelelően gyors Metal meghajtót írjanak hozzájuk. Meg tudnák persze írni dokumentáció nélkül is, csak sokkal rosszabb lenne a sebesség, mert marhára nem tudnák jól optimalizálni az MSL fordítót.
-
Abu85
HÁZIGAZDA
Azt is fontos figyelembe venni, hogy a konzol az nem PC. Akármilyen hardver kerül a gépekben, azokhoz kell dokumentáció. Ha ez nincs, akkor a szoftverfejlesztéseknél az első két fázis kezelhető, míg a harmadik fázis, vagyis a gépi kód szintű optimalizálás sajnos nem elérhető.
Eddig az összes konzolba olyan hardver került, amelyeknek a dokumentációja publikus volt, és ez a jövőben sem fog megváltozni. Ezért ma csupán három cégnek van esélye konzoldizájnt nyerni: AMD, Imagination és Intel. Az Intelt ez nem érdekli, mert azt mondják, hogy vegyetek egy kész lapkát. Annak az órajelét beállítjuk ahogy akarjátok, de tervezni nem tervezünk semmit. Ergo, ha külső beszállító hozza a fejlesztést, akkor marad az AMD és az Imagination. -
Mert amit állítasz simán hülyeség azért került AMD mindkét konzolba mert ők tudtak megfelelő tudású apu-t szállítani, azért olyan erős amilyen mert ekkora volt a tervezett TDP keret. Egyébként is egy konzolról beszélünk, ha ott laggol valami az a fejlesztő hibája, nem a tervezőjé
-
Én nem emlékszem rá, hogy lett volna saját specifikációs x86_64 tervük, amit kukáztak volna. A linkelt wiki szakasz is az AMD64 implementációjáról szól, itt nincs semmi infó egy esetleges konkurens szabvány tervéről. Az egyetlen általam ismert inteles 64 bites terv az ia-64 volt, de kényszerből menni kellett az amd után.
-
sb
veterán
válasz
MZperX75 #237 üzenetére
Nem "ellőni" akartam, az első hsz-ben leírtam amit a 86W-os tesztről gondolok. Csak azért kellett leírni, mert van pár arc aki hülyeséget terjeszt, azt meg nem nagyon bírom. Más topicban sem, nem csak itt és csak fogyasztás ügyben. (Tapasztalatom meg nyilván van ezzel kapcsolatban... de az neked is, mint mindenkinek aki az ITX topicban megfordult már.
)
Az főleg érdekes mikor adott illető írja le, hogy nem ehet 20-30W-ot a vga, de azért biztos 60-at evett meg a cpu a 86-ból. Kissé ellentmondásos.
-
Abu85
HÁZIGAZDA
Volt a Sapphire Youtube csatornáján, csak priváttá tették, mert olyan infók hangzottak el, amik nem kellettek volna. Például az is, hogy mennyire össze van esve az egész PC-s fejlesztés, mert a három állandó félből (fejlesztő-gyártó-API szállító) mindig az a harmadik van hibáztatva, aki nincs ott a megbeszélésen. A Microsoft sem nagyon akarta, hogy a világ megtudja, hogy az AMD csinálta nekik az API-t. Elég durván fog kapni a DX12 így is, amikor elkezdenek arról írni a tech oldalak, hogy mennyire nem logikus a core specifikáció. Például kötelező resources barrier a DXKG-ban, amikor erre igazából nincs elengedhetetlen szükség, és a GCN-en kívül más nem is támogatja. De hát ilyen az, amikor a core specifikációkat egy cég szabja meg.
-
Abu85
HÁZIGAZDA
Huddy és McMullen volt egy Sapphire konferencián egyszer, és ott mondta el Huddy, hogy ők már 2008-ban mondták a Microsoftnak, hogy a mostani alap nem jó. A Microsoft erre azt mondta, hogy hozzanak megoldást. Az AMD csinált egyet, és ennek a forráskódja a DX12 alapja. A Mantle csak 2011-ben jött képbe, amikor Johan Andersson odament Matt Skymerhez, hogy neki kurvára kell egy ilyen API. Emiatt az AMD megcsinálta a Mantle-t is.
A hardverfejlesztésnél ez előny volt. A GCN3-nak van a leggyorsabb parancsprocesszora, elsődlegesen azért, mert az AMD már 2012-ban tesztelhette, hogy mik az új limitek. A többiek ezt csak 2014-ben látták meg. Az Intel nem is tudott erre reagálni a hardverben: [link] -
sb
veterán
válasz
#85552128 #170 üzenetére
Nézz szét kicsit jobban mielőtt ennyire magabiztosan állítasz valamit.
Én is tudok linkelni 80W idle tesztet, akkor annyit eszik? De itt egy 20W körüli, lehet nézegetni:
http://www.anandtech.com/show/8774/intel-haswell-low-power-cpu-review-core-i3-4130t-i5-4570s-and-i7-4790s-testedHa rákeresel fogsz találni 20W alatti i7-et is Haswellből (C6 is elég, C7 sem kell hozzá).
De bármelyiket nézheted, mert Pentium-i7 között is alig van különbség a tesztek alapján, pár watt. De Ivy, Sandy se sokkal rosszabb. +1-2W.Igaz, hogy paneltáppal, de nekem volt már Prime95 alatt 35W-ot fogyasztó G2020-am. Idle 17W. Egy szál SSD-vel. De HTPC+NAS volt, így SSD + 2db 3.5" HDD-vel evett idle 26-27W-ot. Wima Bronze TFX táppal sem mértem ezeknél 4-5W-tal nagyobb értéket.
Most van pl. egy ilyen konfigom is: G3420, 2db DDR3, AMD 7750, SSD + 3.5" 7200 HDD, 2 házventi, BeQuiet 300W ATX táp. Ez is nyom idle-ben 40W-ot. Zerocore mellett 33W. IGP-vel 30W. HDD nélkül 24W. Paneltáppal, ventik nélkül 17W.
Asztali konfigom: i5-2500 @3.8, AMD 7850, SSD, 1db 3.5" 7200-es HDD, 3-4db venti. 50W idle. Vga nélkül 38W. Ventik nélkül már 32-33W körül van.
Be lehet nyilván linkelni 20 olyat tesztet is, amiben egy ilyen konfig idle 80W-ot eszik, de sok értelme nem lenne a 86W-os terhelt fogyasztáshoz. Nyilván ha már spekulálunk akkor a másik végét kezdjük el boncolgatni, hogy mi lehet a legkisebb fogyi dvga nélkül. Te se láttad reálisnak, hogy 20-30W-ból elvan a dvga, én sem. Így pedig inkább tartanék normálisnak dvga nélkül egy 30W idle, 40-50W load értéket, és a dvga-nak így marad 40-50W. Ezt sem hiszi el kb senki, nemhogy egy 40W idle, 60W load és mellé egy 26W-os dvga-t.
@arn #182
"nalam 37w, amit kozel ket es fel eve raktam ossze. laponkent relativ nagy elteres lehet amugy ugyanannak a konfignak az idle fogyasztasaban"Tudom, hogy nagy lehet az eltérés, de nem azt írtam, hogy mind ennyit fogyaszt. Ki lehet hozni. Nyilván lapfüggő, a táptól sok függ, ezt én is írtam, de mondjuk 4-5 házventi is rá tud tenni 8-10W-ot is akár. HDD-ből is volt 4-5W-os 7200-esem meg 7-8W idle fogyasztású régebbi 500-asom is. Ettől függetlenül tele a net 20W körüli idle i3-i5-ökkl. Van pár custom őrült, aki idle 15W alatt hajt i7-et, van, hogy monitorral együtt.
A lényeg fentebb: vehetünk átlagkonfigot is, meg 80W-os idle konfigot, de nyilván nem erről szólt itt a sztori.
szerk: Kb az összes ph tesztben is 30W körül vannak a konfigok idle mérésnél IGP-vel. Pedig vélhetően nem arra mennek, hogy Las Vegasban a fél világ előtt kisebb értéket mutasson a fogyasztásmérő.
szerk2: Még egy tipp. Tápnál nézheted a minősítést, de 20-40W körül semmit nem jelent mert a Titaniumon kívül nem ad meg 10%-os load-ra semmit. Van amelyik hiába jó minősítésű, jobban esik a hatékonyság 20% alatt mint egy sima Bronze-nál. Másrészt durván más jöhet ki ha a szokásos 6-800W teszttápok helyett egy 3-400W-ost teszel mellé.
Mondjuk 25W mellé egy fos 60% hatásfokkal kapsz 41W-ot, 75%-on - ami szintén közelben sincs a minősített hatásfokoknak - meg már 33W. -
Fiery
veterán
válasz
Dare2Live #221 üzenetére
Az Intel anno az Itaniumot kepzelte el mindenhova, nem csak a szerverekhez. Gyartottak toronyhazas, 2 utas workstation Itaniumot is, csak nem volt tul nepszeru. Hosszutavon a desktopra es a mobil gepekbe is le akartak hozni az IA-64 procikat, csak ugye az x86 tul eros beklyo volt ahhoz, hogy ezt meg tudjak valositani. Talan mas lett volna az esemenyek kifutasa, ha az Itanium kompromisszummentesen tudta volna a legacy x86 szoftvereket futtatni. De epp az AMD64 szuletett meg ugy, hogy ezt meg tudta oldani
-
Fiery
veterán
válasz
hugo chávez #218 üzenetére
Hogyne lett volna --> [link]
-
Dare2Live
félisten
válasz
hugo chávez #218 üzenetére
Emlékeim szerint igen és szintén emlékeim szerint elég nagy mák, hogy az AMD féle lett a meghatározó.
AMDnél akkor server vonal ~= desktop vonal, intelnél meg serve vonalat akkor eléggé itaniummal képzeték el, desktopra nem tartották oly fontosnak a 64bitet.
De lehet tévedek rég volt.... -
zippofcy
senior tag
Fogyasztásról csak annyit hogy anno mikor kijött a GTX 275 és beraktam a 4 magosított PhenomII mellé ami 3.6ghz-en ment, a Just Cause 2 alatt lekapcsolgatott a gép. A 400W-os Chieftech táp kevésnek bizonyult nekik.
Kis guglizás után vettem egy Corsair VX450-et.
Aztán mikor a VGAt lecseréltem egy 560ti-re csak néztem hogy a fogyasztás majdnem 100W-al lett kevesebb és így már a 350W-ot se éri el.
Aztán jött az R9 270, fogyasztás 300W alá esett. Ha jól emlékszem, mert a 270 alatt lecseréltem a procit is egy i5 2500-ra és ez is csökkentett rajta, asszem azzal 250W körülre ment.
Karácsonyra meg vettem egy GTX 960-at, ezzel 200-210W a fogyi Crysis 3 alatt.Szal totál nem értem ki vesz még 500W-os tápot
Ja a fogyit ilyen konnektorba dugható wattmérővel mértem (ugyanazzal a darabbal) nem pedig szoftverrel.
-
hugo chávez
aktív tag
"A Microsoft arra me'g hajlando volt, hogy az Intelnek csinaljon egy kulon 64 bites Windows portot (IA-64), es az AMD-nek is kulon egyet (AMD64), de arra mar nem, hogy az Intel 64 bites x86-anak is csinaljon egy harmadikat. Csupan ez az oka annak, hogy az Intel is az AMD64-et "valasztotta"."
Az Intelnél volt tervben saját "x86-64" ISA is?
-
Fiery
veterán
Az Itanium miota 64 bites x86 CPU? Es kulonben is, volt IA-64 Windows, csak mar nincs. A Microsoft arra me'g hajlando volt, hogy az Intelnek csinaljon egy kulon 64 bites Windows portot (IA-64), es az AMD-nek is kulon egyet (AMD64), de arra mar nem, hogy az Intel 64 bites x86-anak is csinaljon egy harmadikat. Csupan ez az oka annak, hogy az Intel is az AMD64-et "valasztotta". Nem valasztotta, hanem az maradt neki, mint egyetlen lehetoseg, amig az Itanium fel nem fut. Ami meg ugye nem tortent meg
-
Tehát az nVidia "megfejelte", értsd többletértéket adott hozzá, így kelendőbbé tette a kártyáit azáltal, hogy kevesebbet fogyasztanak? Ezt akarod mondani?
Mert akkkor tulajdonképpen igazat adtál nekem! Hogy előtte is volt olyan jellemző ami vonzóvá tette az nVidia kártyákat a vásárlók számára, és az alacsony fogyasztás meg amolyan extra volt. Hab a tortán. Aminek örül ugyan a vevő, de nem elsődleges szempont hogy eldöntse milyen videokártyát vegyen.
És én pont ezt akartam ki hangsúlyozni, hogy oké, jó dolog az alacsony fogyasztás, tök jó hogy a ződ elveri benne a perosat, de nem szabad túlértékelni a vásárlói döntsék szempontjából.
Mert ott továbbra is az ár és a teljesítmény az elsődleges tényezők. -
Fiery
veterán
A Microsoft nem azert valasztotta az AMD64-et, mert az jobb lett volna, vagy mert az AMD es a Microsoft puszipajtasok, hanem mert egyszeruen nem voltak hajlandoak egynel tobb 64 bites x86 kiterjesztesre portolni a Windowst, es az AMD64 szuletett meg elobb. Ez nyilvan nem von le semmit az AMD erdemeibol, de akarhogy is, ennek a konkret tortenelmi esemenynek semmi koze ahhoz, hogy az AMD es a Microsoft milyen viszonyban voltak akkor.
DirectX10: Es, ez kinek is fajt?
Mantle: Amit errol "tudunk", az me'g mindig csupan urban legend. Es egyebkent sem hozott semmi gyakorlati ($$) hasznot az AMD-nek a Mantle, sz'al nem mondanam az AMD tulelese szempontjabol siker tortenetnek.
-
Feleslegesen mondjátok Sinesolnak, nem hajlandó elfogadni. Nagy csalódás lenne ugyan is ha saját maga nézne utna és koppana, hogy hoppá, nem volt igaza abban, ami mellett laikusként és elvakultan tepert. Még azután sem google-zett rá és nézett utána alaposan, hogy ezt leírtam neki.
@Sinesol: Én elvakult? You made my day again! Nekem volt mindenféle VGA-m már és sosem húzott a szívem egyik felé sem. Főként nem elvakultan.
-
Zeratul
addikt
Microsoft elég rég óta együttműködik az AMDvel, elég csak a X64 támogatás preferálása és I64 kukázására gondolni. DX10nél is az AMD volt ami minden követelményét teljesítette a Microsoft APInak, az nV volt az aki miatt le kellett butítani a DX10-t. Microsoftnak még Mantle kezdeti fázisában volt már rálátása az AMD APIra, illetve az AMD is tisztában volt vele mit akar a Microsoft.
-
Sinesol
veterán
válasz
Callisto #201 üzenetére
Nyugi AMD vga-m van , de azert nem vagyok annyira elvakult mint te, érdemes néha kicsit józanul gondolkozni. Csak azert mert itt megy a hittérítés az oldalon, azert még nem biztos hogy minden igaz.
A DX12 esetében pl. eléggé furcsa lenne, ha már pár éve nem lennének meg az alapok, el ne hidd már, hogy az AMD által előrántott Api alapján dobtak össze valamit pár hónap alatt. Mantle meg annyira világmegváltó hogy kb senkit sem érdekel.
-
Azért ugye szofterfejlesztő vagy, aki ismeri az API-kat és a dokumentációit is. Ugye szoftverfejlesztő vagy aki tisztában van vele, hogy pl. még a DX12 doksija és tudása is legnagyobb részt megegyezik a Mantle azonos dolgaival? Oh, wait...
(Tájékozódj mielőtt bármit is tények nélkül cáfolva, laikusként és elvakult fanként koppansz egy nagyot.)
Új hozzászólás Aktív témák
- Milyen autót vegyek?
- Amlogic S905, S912 processzoros készülékek
- One otthoni szolgáltatások (TV, internet, telefon)
- OLED TV topic
- sziku69: Szólánc.
- Luck Dragon: Asszociációs játék. :)
- sziku69: Fűzzük össze a szavakat :)
- Apple Watch Ultra - első nekifutás
- Autós kamerák
- Milyen asztali (teljes vagy fél-) gépet vegyek?
- További aktív témák...
- Telefon felvásárlás!! iPhone 15/iPhone 15 Plus/iPhone 15 Pro/iPhone 15 Pro Max
- PlayStation Network (PSN) ajándékkártyák, feltöltőkártyák áron alul!
- Honor 400 Lite / 8/256 GB / Kártyafüggetlen / 12Hó Garancia
- BESZÁMÍTÁS! MSI Z390 i7 8700 32GB DDR4 512GB SSD RTX 2060 Super 8GB Zalman S3 TG Corsair 600W
- DELL PowerEdge R740 rack szerver - 2xGold 6248 (20c/40t, 2.5/3.9GHz), 512GB RAM, 10Gbit HBA330, áfás
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: CAMERA-PRO Hungary Kft.
Város: Budapest