Új hozzászólás Aktív témák
-
#16939776
törölt tag
Ez csak marketing célokat szolgálhat, más értelme nincs.
-
Locutus
veterán
Vagy csak van egy új termékkategória, amiben a samsung gondolkodik.
Pl az önálló VR szemüveg megoldások, ahova kicsi kompakt cuccok kellenek, de annyira azért mégsincsenek fogyasztási limithez kötve, mint egy ultravékony mobiltelefonban.
Vagy akár az is lehet, hogy a TV-k konzolosításáról van szó, ahova azért aktív hűtést mégsem akarnak betenni, de annyira megkötve megintcsak nincsenek mint egy telefonnál.[ Szerkesztve ]
Komplett hangrendszerem eladó - https://hardverapro.hu/apro/mackie_studio_monitorok_mr5mk3_mr10s_mk3_sub_asus/hsz_1-50.html
-
Hellwhatever
aktív tag
Abu, arról van valami infód hogy GCN óta a mobil Radeonok miért maradnak sorra alul teljesítményben a konkurencióval szemben? Nekem úgy tűnik mintha nem skálázódnának túl jól ezen a területen.
Anno még a Terascale érában (különösen a Terascale 2) sorra jobb teljesítményt nyújtottak azonos árkategóriában mint az nVidia megoldásai, szerettem is őket nagyon érte.
-
leviske
veterán
Kérdés az is, hogy mit tudnak esetleg a Nintendo NX-ről, amit a nagyközönség még nem? Ha kategóriateremtő megoldás lesz, nem volna meglepő, ha az nVidia kapna még egy megrendelőt a Samsung képében.
(#4) Isobutane: Az nVidia megteheti, hogy mélyebben belenyúl az architektúrába a perf/watt mutató érdekében. Az AMD esetében ez most nem játszik. Nagyjából ennyi lehet az ok.
[ Szerkesztve ]
-
apatyas
Korrektor
válasz Hellwhatever #4 üzenetére
A szokásos Abu válasz erre: a GCN meg van tömve jövőbemutató okosságokkal, amik tranyóba és fogyasztásba kerülnek (async és egyebek), míg Nvidia oldalon meg a szükséges minimumot tudják, az órajelet meg ezek után felpörgethetik az egekbe. Hogy ez most kinek-hogy jó, abba ne menjünk bele.
pezo77 #5 2017.12.14. 13:29 Hmm. És ez az e-hajó akkor hol is tud kikötni? Az e-bay -ben? ;)
-
Abu85
HÁZIGAZDA
válasz Hellwhatever #4 üzenetére
Játékfüggő. Vannak tipikus motordizájnok, amelyek az NV-nek fekszenek, DX11 alap, régimódi CPU-s kivágás, sok trükközési lehetőség. Az AMD-nek sokkal jobban fekszenek az új dizájnok, DX12-es alap, GPU-driven pipeline, compute. Ezért van az, hogy például a mi tesztünkben a DX11 főleg az NV, míg a DX12 főleg az AMD terepe. Persze nem az API miatt, de a modernebb API-val modernebbek a motordizájnok is.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Azoknak igazából hosszabb távon van jelentőségük. Például olyan formában, hogy a GeForce GTX 680 és a Radeon HD 7970 egyszerre jelent meg, és azóta a GTX 680 teljesítménye már sehol sincs. A HD 7870 is lazán elveri. Vagy például a GTX 780 Ti és az R9 290X viszonya, ahol a 780 Ti már lemaradt, de a 290X még tartja a lépest a GTX 970-nel, illetve az újabb játékokban a 980-nal is. A Deus Ex: Mankind Divided alatt a 980 Ti-vel versenyzik. Ezek a finomságok a megjelenés után egy évvel jelentkeznek, de ebben benne van az is, hogy az NVIDIA oldalán rendkívül gyors az architektúrák elavultatása, mert a fejlesztő dokumentáció nélkül nem tud önállóan dönteni. Érdemes lesz megnézni, hogy mire lesz képes például a Kepler a Battlefield 1 alatt, mivel a DICE korábban visszafejtette, így önálló döntéseket is tudnak hozni az optimalizálásnál. Ezekre minden játék alatt képes lenne az architektúra, ha engednék.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
MiklosSaS
nagyúr
Na a második mondatodal belebaXtál a Xarba rendesen, már bocsás meg a paraszti modorért. Nem is olyan rég vettem egy GTX 670-et és megeszem vele a 7970-et modernebb játékokban is.
Witcher 3, Crysis 3, BF 4, GTA V...meg hanonló játékokban pár százalék volt a 670-es javára.Ideje volna már leszokni az ilyen "Abu féle" megmondásokról...
~~~~~~ Privatban NINCS szakmai tanacs! ~~~~~~
-
Abu85
HÁZIGAZDA
Csak a felsorolt játékok leképezője sehol nem modern. A BF4 alkalmazza a legfrissebb technikákat ezek közül a maga tiled deferred rendszerével, és ez konkrétan három éves. A többi játék hiába újabb vagy sem, ha az alapot szolgáltató technika az előző évtizedből maradt meg.
Ami ma, tehát 2016-ban modernek számít az a GPU-driven pipeline, texel shading, stb. A legfontosabb jelenleg zajló váltás a GPU-driven pipeline bevetése, és ezzel a kivágási munka átemelése a CPU-ból a GPU-ba. Ilyet alkalmaz az új Glacier, a Dawn és a legújabb Frostbite motor. Hasonló koncepció van az ID tech 6 és az ebből származtatott Void Engine alatt is, csak ezek alapja nem a GeometryFX middleware. Egy friss tesztben meg is lehet nézni, hogy egy GPU-driven pipeline motornak mi a hatása az erősorrendre: [link] - most még ebben a verzióban az AGS 4 teljesítménye nem torzítja el a Radeonok eredményét.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz #06658560 #13 üzenetére
Éppenséggel de, mert például sokat volt emlegetve, hogy a mi tesztünkben az RX 460 összesítésben a GTX 960 nyakán van. Na most amit az RX 460 a DX11-ben elvesztett, azt a DX12-ben hozta vissza. Azért tudott a nyakára kerülni az összesítőgrafikonon. Máshol azért nem került oda, mert nem volt annyi DX12 játék a tesztben, mint nálunk.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz darkhorse #15 üzenetére
A PresentMon miatt ilyen. Erre a programra valamiért nagyon haknis az új Deus Ex kódja. Ugye ez a program eleve nem a GPU fps-t méri, ami igazából a lényeg, hanem a CPU fps-t vagyis a presentek között eltelt időt. Na most a Dawn motor a temporális technikák miatt rendszertelenül hívja meg a presenteket, így a CPU fps nem egyezik majd meg a GPU fps-sel, illetve azokon a hardvereken amelyek aszinkron compute-ot is használnak a present meghívása származhat compute parancslistából is, amit például a PresentMon már nem lát, tehát ott a következő grafikai presentet fogja nézni, ami lehet akár 50-70 ms múlva is. Nem fogja a program érzékelni, hogy közben a játék kiszámolt 4-5 frame-et is.
Erre utólag felhívták a figyelmet, hogy minden olyan mérés, ami a PresentMonból született fals mérés. Ezt a programot tovább kell fejleszteni, hogy kezelje azokat a szituációkat is, amiket az új Deus Ex is tartalmaz. Addig csak a beépített benchmark ad valós eredményt.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz #06658560 #16 üzenetére
Majd összemérjük a GTX 1050 2 GB-tal az RX 460 4 GB-ot. Ez van ugyanis előírva 140 dollárra, vagyis a legközelebb áll az RX 460-hoz. De erre valamikor novemberben kerülhet sor, mert előbb a 170 dodós 4 GB-os modellek jönnek az RX 470 4/8 GB ellen.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Hellwhatever #19 üzenetére
A DX12 mód egyelőre preview, és csak a Radeonon gyorsít igazán. GeForce-on más kódutat használ, ami nem úgy skálázódik, mint a szabványos kódút, ezért a gyorsabb GeForce VGA-kon ez negatívba viszi a teljesítményt. Ezen lehet javítani, de Radeonhoz hasonló skálázódás már a kódút jellege miatt nem lehet, mert a GeForce-okon alkalmazott optimalizálás jóval nagyobb processzorterhelést jelent.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Jack@l
veterán
De nem gáz hogy mobil platformról beszélünk? Biztos nyerő lesz az + 1 fps BF1-ben, amit tudhat az amd(kb25 vs 26), másfél-kétszer akkora fogyasztás mellett.
A telógyártók nem hülyék hogy lejárassák a szériát az első két hétben fél napos aksiidőkkel, meg sütős telefonokkal. (volt már rá példa, nem valószínű hogy a nagyok még egyszer megjátszák)[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Abu85
HÁZIGAZDA
Nem a hírről beszéltünk. Arról nincs mit beszélni, mert le van írva, hogy miért nem lesznek ilyenek a Samsung lapkáiban. Marad az ARM, mert ők mindent tudnak, ami a Samsungnak kell, és mindent jó fogyasztás mellett. Az NV például már ott kiesett, hogy nem támogatják a HSA-t, míg az AMD igazából nem kell a HSA-hoz. Az ARM azért is jó megoldás, mert ők építik be a HSA stacket az Androidba.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Jack@l
veterán
Aha, szóval már minden programozó hsa-ra izgul mobil fronton, így érthető...
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Abu85
HÁZIGAZDA
A programozóknak ezzel még nem kell törődniük, mert most a beépítés történik. Nyilván ebben részt vesz a Samsung, a Qualcomm, az ARM, és még pár cég. A programozók ráérnek ezzel foglalkozni, ha megkapják az első bétát. De a gyártóknak muszáj dolgozniuk ilyenkor is, mert a béta ennek a munkának a gyümölcse lesz.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
jedis
senior tag
Hát az újabb DX12-es tesztek ezt vetítik előre kb.
más !
Én is utána néztem, egy két DX12-es Deus Ex tesztnek
Azért van alapja ABU megállapításainak.
Ha az autópályán haladván, egyszer csak vészjósló mennydörgést hallasz magad mögött, és hátratekintvén egy nagy feketeség közelít feléd ezerrel, ne hidd azt hogy egy viharfelhő vett üldözőbe !
-
Jack@l
veterán
Visszatérve a kérdésre: Miért rakna valaki nagy fogyasztású igp-t egy ARM-be, ha annak minimális vagy 0 előnye van a jelenben és a közeljövőben? Egy dologra tudtam csak gondolni, hogy égető szökség és nyomás van programozói oldalról. Persze biztos akad 2-3 cég a világon aki szivesen látná, csak a java része simán megoldaná azokat a dolgokat opencl-el is.
[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Cathulhu
addikt
Jó vélemény, de csak egy "educated guess" ez is, nem lepődnék meg ha az élet ripsz-ropsz rácáfolna Abura. Mert ezzel a gondolatmenettel minek a Samsungnak saját CPU, hiszen az ARM mindenre tökéletes. Aztán mégis belevágtak. Itt nem feltétlen komplett liszenszelt GCN-re kell gondolni, hanem technológiákra. Nem lepődnék meg ismerve milyen lelkes manapság az AMD a custom chipek vonalán, hogy kis Samsung segítséggel újra beröffentse az Imageon vonalat. Az nvidia se feltétlen lenne mérges, ha egy olyan partnerrel mint a Samsung vissza tudna térni arra a piacra, ahol eddig folyamat elbukott. Utóbbi mondjuk az elmúlt idők jogi csatározásait elnézve érzelmileg kevésbé valószínű, de egy keresztliszensz ezt is pont megoldaná.
[ Szerkesztve ]
Ashy Slashy, hatchet and saw, Takes your head and skins you raw, Ashy Slashy, heaven and hell, Cuts out your tongue so you can't yell
-
Abu85
HÁZIGAZDA
A processzorterhelés önmagában nem mond el semmit. Ami elmondana az a munkára lebontott terhelés. De az igaz, hogy az AMD DX12-es meghajtója másképp működik, főleg amiatt, hogy használhatja az API pure bindless bekötési szintjét. Ennek nyilván kihatása van az alkalmazásra, hiszen a driver így nem fogja elvenni a programtól az erőforrást, ami nem csökkenti a program futtatásának hatásfokát.
(#32) Jack@l: A Google nem akar OpenCL-t. A Google a RenderScriptet akarja. A gyártók pedig ezt futtatni tudnák a HSA-n. Ennyire egyszerű. Az OpenCL is jó lenne, de ha nem akarja a platform szállítója, akkor hiába...
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Jack@l
veterán
Annyira nem akarja, hogy mali-hoz, powervr-hez és intel igp-hez be van építve az androidba a library...
A nem akarás meg kb egy tollvonással módosítható.A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Abu85
HÁZIGAZDA
Persze mert a gyártók akarják, és évek óta győzködik a Google-t, hogy az OpenCL jobb, mint a RenderScript. Csak az a baj, hogy a RenderScript a Google saját gyermeke, míg az OpenCL nem. Szóval győzködhetik még tíz évig a váltásról a céget, akkor is a saját érdekét tartja szem előtt, ami a RenderScript támogatása. Bármennyivel is jobb az OpenCL sajnos évek óta nincs előrelépés a Google álláspontját tekintve. Csőlátásban csak a RenderScriptet akarják.
(#40) Jack@l: Szuper. De nem érted meg, hogy a Google nem akar OpenCL-t. Nem tudom, hogy miért, nem értem én sem őket, de nem akarják. Akadákoskodhatsz, kiverheted a balhét, véresre verheted a fejed a falban, akkor sem akarják...
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Petykemano
veterán
A raven ridge legalsó régiója 4.5w lesz. Az már olyan ultrahatékonytalan működést jelent, hogy csak a kirakatba' van?
Találgatunk, aztán majd úgyis kiderül..
-
Jack@l
veterán
Az Opencl is működik renderscript backend-jeként. Csak hogy akadékoskodjak kicsit.
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
félisten
Azt nem értem Abu, hogy te miért illetve hogy jelentheted ezt ki egy cikkben, hogy a világ egyik legnagyobb mobilszegmenst uraló cége nem fog dönteni egyik cég mellett sem?Egyértelműen az általad fevázolt GPU és fogyasztási problémák miatt fejlesztette tovább az NV a Parker-t
Már évek óta köztudott, hogy a Samsung Differenciálni akarja a chipjeit, amit ugye már megvalósított a CPU résszel és erősen nekiállt a GPU rész reformálásának is, ugye saját fejlesztésbe fogtak.Egyértelműen el akar szakadni a Mali-tól. Ez nem új keletű dolog, és ha ez a gyártó ezt meg akarja valósítani, akkor meg is fogja., Itt szerintem az a kérdés, hogy az AMD vagy az NV mellett dönt, mivel mindegyik gyártó mellett más szól.
NV most azért elég nagyot dobott a Parker-rel és figyelemre méltó a GPU része is. Elméletileg ha a Denverrel ilyen sebességet tudnak elérni, akkor a Samsung saját Exynos CPU ja brutális gyorsaságot hozhat, ha az Nv- vel a Parkert és az Exynost ötvözik.
Nem véletlen, hogy ez a hír a Parker Leleplezése után kezdett szárnyra kapni, mivel az egyes eredmények szerint a Parker jóval gyorsabb , mint az A9x vagy éppen a Kirin csúcs CPU-k. valamint nagyon erős a virtualizációs számítási teljesítménye is, mivel külön erre is fejlesztették ezt a hardvert amellett 4 K @60 FPs megjelenítésel tesztelték egymáshoz az adott gyártók eszközeit. Samsung a jövőnek él és szerintem előrelépést akar, jegeli a saját GPU fejlesztéseit és inkább egy adott hardvert próbál támogatni, tovább fejleszteni. Ez csak egy vélemény, már több cikket elolvastam erről mielőtt ez megjelent volna, és bennem pont az fogalmazódott meg , hogy a Samung most lépni fog.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
aok1
tag
Itt van pl az agyon istenített dx12. Én pl a rise of the tomb raider alatt nem láttam semmi különbséget a dx11 és 12 között.Pedig én végig toltam a játékot.Vagy csak én vagyok a vak. 4 éves a vga-m és csodák csodájára játszható volt high beállítás melett egy gtx 670 2 gigás videókártyával full hd felbontáson. (Ami anno volt 110 ropi amikor kijött).Igaz néhol a rendszer memóriából bezabált 6 gigát.
[ Szerkesztve ]
-
Nirvanus
aktív tag
Ha tippelni kell, a hARMadik. Nem olyan hülye a Samsung, főleg a Note7-es dolog után nem fog kockáztatni. Szerintem.
(Egy szalagcímben együtt szerepel az nVidia és az AMD és máris jön a szrdobálás meg az okoskodás, még mindig, mikor növünk már ebből ki végre?! Régen örültünk, mikor egyáltalán összekaparhattunk egy E8400-ra egy HD4850-nel és cipeltük a ck-1020at LAN-ra és szrráolvastuk ezt a tetves honlapot, amivel együtt nőttünk fel, ehh... mindegy, leszrom, ez van)
[iTX-or-GtfO!]
-
Rise-nak elég rossz a DX12 módja,talán a legrosszabb a DX12/Vulcan címek közül.CPU limiten kiütésén kívül más haszna nincs.GTX 670-el más DX12 játékban se lenne sokkal jobb a helyzet,csak korlátozott mértékben támogatja a videó kártyád.Én kijátszottam Quantum Bréket r9 390-el,nagyon jó játék,trágyán optimalizált játék de DX12-vel és ilyen kaliberű kártyával korrektül játszható(a vele egy kategóriában lévő 970-el max grafikán játszhatatlanul beesik az FPS harc közben,az a kártya sem támogatja teljeskörüen,ez az egész 900-as szériára igaz,Pascalban már javította a hiányosságokat Nvidia).Ettől függetlenül jól optimalizált játék lett a Tomb Raider, régebbi kártyákon is szépen fut,igaz valamennyit le kell venni a grafikából,de alig észrevehető a különbség szóval nincs nagy jelentősége.Annyiból lett volna jó a rendes DX12 mod hogy a akinek kompatibilis kártyája van még jobban futna a játék(nekem nincs meg de úgy tudom hogy 290X/390 kártyákon mindent fel lehet tekerni maxra kivéve az SSAA élsimitást, az megeszi a gépet, Én a Metro Reduxokban próbáltam ki ezt a csodálatos élsimítási eljárást és az 1200mhz-ra tuninmgolt 780TI-ommal 2xSSAA mellett nem volt meg a stabil 60 képkocka 4x melltt pedig 23-25 FPS-em volt,de az is gaz hogy ez az egyik legjobb minőségü élsimitási eljárás,sokkal élesebb képet kapsz tőle,27 Colos FullHD monitorom van és ide már kevéske ez a felbontás,érezni hogy kevés a PPI(pixelsűrűésg)2xSSAA mellett tű éles a kép,más játékba hiába állítom a be 8xMSAA-t nincs meg ugyanez a hatás.A Sniper Elite-3 játszottam a napokban,ott volt még ugyanez a hatáspedig nem SSAA-t használ).
[ Szerkesztve ]
-
#90933760
törölt tag
Mikor megjelent elverte 40%-kal az nV (680-7850), ma mire mutat valamit a technológia valóban győzött 10%-kal az AMD (680-7850), ez tényleg szép bravúr, csak épp már az nV is felzárkózott közben a mai kártyáival és ő is ezen a szinten van (460-960).
Ebből persze ki lehet csavarni szép teszteket, amin a régi AMD elveri a régi nV-t, csak épp semmire nem megyünk vele, és ahogy ki is lett mondva a 680 teljesítménye ma már semmi, akkor a 7870 kicsivel többje is semmi, ugyanúgy a lista végén kullog. Ha pedig a Pascal tényleg végre olyan lesz amilyen, pláne kisebb lesz a különbség mai szempontból.
Ebből semmi más nem látszik, csak hogy az AMD kihozta a jövőbemutató technológiáját amivel akkor semmire nem ment, ma mire ér valamit, meg már az nV is itt van és nem tud az AMD elhúzni vele. Legfeljebb be lehet böfögni ilyen nagy szavakat, hogy az egykori középkategóriás AMD elveri az egykori csúcskategóriás nV-t. És így nagyjából ennyi, ma ezzel mire megyünk már, mikor mindkét kártya vicc tárgya....
Úgyhogy bár igaz lehet Abu állítása (elveri a 7870 a 680-at), ettől az még mára már sok mindenre nem jó a szódobáláson kívül. És mivel az nV is felzárkózott azóta, pláne nem fog semmit érni a jövőben sem.[ Szerkesztve ]
-
Mooka-Miki
aktív tag
válasz #90933760 #47 üzenetére
Hidd el ez sok embernek nem vicc tárgya.
Az előző kártyám egy AMD HD6950-1G volt. Anno azért vettem, mert akkor is az volt az előrébb mutató. Nem rég cseréltem csak le egy szintén AMD380X-re. Most ezt érzem előrébb mutatónak. Hány generációt is léptem át? A következő csere sem most lesz. Megtenném de nem engedhetem meg magamnak. Mint ahogy sokan mások sem. Te nem gondolsz azokra, akik nem akarnak háromnegyed évente kártyát cserélni. Azoknak igen is fontos hogy X idő múlva mit fog tudni az adott vas.Ekézitek ABU-t, hogy kit érdekel mennyire mutat előre mikor megjelenik, hisz "most sz*r". Engem.
Ezek után is ekézitek ABU-t mikor bebizonyítja, hogy anno igaza volt.Nem vagyunk egyformák, nem azonosak a nézőpontjaink sem. De ne hidd, hogy csak a te vagy a ti nézőpontotok létezik. Tiszteletben tartom a véleményed, de úgy érzem ABU megérdemli, hogy megvédjem.
Ezt a szösszenetet azért is írtam, hogy rávilágítsak arra amire talán nem is gondoltál.
KB ennyi.Tisztelettel:
Mooka-MikiSzerk.: Typo
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Mert egyetlen életképes indokot nem lehet felhozni mellette.
A Parkert felesleges megemlíteni, mert 25 watt limitje. Még maga az NV sem beszélt az ultramobilról semmit, mert tudják, hogy nem skálázható le odáig. AMD GCN dettó.A cikkben leírt indokokon túl az is gond a Samsungnak, hogy ezek a cégek nem licencelésre szakosodtak. Az NV például csak úgy licencel, ha mindent zárva tarthatnak a licencelő előtt, ami a Samsungnak a háta közepére kell. Az AMD klasszikus formában nem licencel, mert 100 millió dollár/év alatt nem érdekli egyetlen üzlet sem, márpedig egy ilyen klasszikus GPU-licenc bevétele összesen 5 millió dollár/dizájn körüli, és itt már pezsgőbontás van!
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ehhez még annyit hozzáfűznék, hogy technikai problémák is lesznek. A mobilon a top motorok, mint az UE4 és a Unity5 Mali, Adreno és PowerVR optimalizálást kapnak. Az NVIDIA még a Tegra miatt sem kap optimalizálást, mert nem sok felhasználó használja a nagy egészhez képest. Szeretik ők a Tegrát, csak nem tudnak azzal mit tenni, hogy csak akkor látszanak a statisztikákban, ha legalább négy-öt tizedesjegyig vizsgálják a hardverek eloszlását.
A Samsungnak ezt figyelembe kell vennie, és alapvetően az a GPU kapja a legtöbb figyelmet, ami az adott program célpiacán a legelterjedtebb. Ultramobil játék? Akkor Mali. Csak PC-s játék? Akkor GeForce. Multiplatform játék? Akkor a GCN(konzol)/Radeon.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Jack@l
veterán
Az a baj, hogy kb minden egyéb tech oldal azt találgatja hogy amd vagy nv igp kerül majd az új samsung csipekbe, csak te vagy egyedül azzal hogy ülnek majd a babérjaikon és foltozgatják a sokkal elavultabb igp-iket.
Ha amd nem akar lehajolni az aprópénzért, hát tegye, pedig lehet elkélne nekik mostanában...A másodikhoz meg:
https://developer.nvidia.com/sites/default/files/akamai/gamedev/docs/Optimizing%20Tegra%20Apps%20and%20Games%20using%20Unity.pdf
https://www.youtube.com/watch?v=jRr-G95GdaM
https://www.youtube.com/watch?v=q0d3rFALqLo[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Abu85
HÁZIGAZDA
Nem értem honnan a sokkal elavultabb IGP? A Samsungnak ott az ARM BiFrost, mint lehetőség. Az az architektúra kb. az eddigi legjobb opció az ultramobil IGP-k között. Semmivel nem tud többet azon a fogyasztásszinten a GCN vagy a Pascal. Sőt... [link]
Találgattunk mi már mindent az elmúlt években. Saját Samsung IGP, saját Apple IGP. NVIDIA az Apple SoC-ben, AMD az Apple SoC-ben. Ez nem a találgatásról szól, hanem arról, hogy az AMD és az NV nem tud olyan jó ajánlatot biztosítani, mint amilyen az ARM BiForst.Megmondom mi a baj a videóiddal. A kutya nem használja az ultramobil piacon az UE4 normál leképezőjét. A mobil leképző pedig gyorsabb Malin és PowerVR-en. Ezzel a két demóval kitörölheti a seggét az NV.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
ukornel
aktív tag
válasz MiklosSaS #22 üzenetére
"Egyszerüen már nem bírom olvasni az ilyen alaptalan kijelentéseit"
Tegyük mellé, mit írtál a #9-ben, mindenféle megalapozás (tesztek, link) nélkül:
"Nem is olyan rég vettem egy GTX 670-et és megeszem vele a 7970-et modernebb játékokban is."
Azután gyere, röhögjünk egy jót saját magadon... -
Jack@l
veterán
Majd lesz még egy kitörölhető demo Nintendo NX-el is.
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Abu85
HÁZIGAZDA
A Nintendo NX teljesen más kategória. Egyrészt abból eladnak a vállalat reményei szerint az első évben minimum 2 milliót, és majd a továbbiakban annyit amennyit. Másrészt maguk a játékárak is elmehetnek 60 dollárig, vagyis megvan az az alap, ami visszahozhatja egy olyan befektetésnek az árát, amiből tényleg jó minőségű PBR-t lehet felhúzni mobil szinten. Mert a kódját annak egyszerű megírni, a nehézséget a tartalomkészítés megugró költsége adja. Ha mondjuk Google Playben is elfogadott lenne a 60 dolláros játékár, akkor bármelyik mobil játék nézhetne úgy ki, ahogy az a két demó, és akármelyik top SoC futtatni tudná. A probléma a befektetés szintjén keletkezik, túl költséges a tartalom elkészítése ehhez a grafikai szinthez, és ~10-15 dolláros árral sose jön vissza a befektetés.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
MiklosSaS
nagyúr
Kiömlött a kávéd? Morcosan keltél? A gáz számlás ébresztett föl?
Semmi baj, menj pihenj még egy kicsit aztán amikor már jobban érzed magad próbáld meg újra.
Ha akkor sem fog összejönni akkor inkább próbáld holnap.Én bízzom benned!
[ Szerkesztve ]
~~~~~~ Privatban NINCS szakmai tanacs! ~~~~~~
-
-
Jack@l
veterán
Csak az a baj hogy a felső kategóriás telefon az státusz szimbólum kb. Ott nem érdekli a gyártót hogy milyen mennyi játék kerül fel play-re, a lényeg hogy az ő telója legyen a leggyorsabb és jobban fusson rajta az adott kínálat(QHD és 4Ks kijelzőkön 2018-ra).
Ha netán a nintendo-ba az nv belepakolja a tegra x2-t, és jó lesz, az már egy elég masszív referencia, amire a telefon vagy médiabox gyártók is haraphatnak. (AI, képfeldolgozás, szövegfelismerés és egyéb nyalánkságokról már nem is beszélek)
Szóval ha váltás lesz, elég nagy valószínűséggel nem amd húzza be a strigulát. Erre a zöldek már évek óta készülnek a tegra-kkal, csak kb jövőre jön el a fordulópont.[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
ukornel
aktív tag
válasz MiklosSaS #59 üzenetére
Rendben, amíg szusszanok egyet, biztosan elvégzed a teszteket, amiben a 670-ed úgymond "megeszi" a 7970-et. Csak hogy ne épp te legyél, akinek az alaptalan kijelentéseit vagyunk kénytelenek itt olvasni. Aztán felhagysz azzal az idegesítő gyakorlattal, hogy a szerzőket rugdosod minden második teszt fórumában.
Na köszi mentem lepihenek -
MiklosSaS
nagyúr
Aludj jól, pihend ki magadat rendesen. Aztán majd gyere vissza és próbáld meg újra.
Szép álmokat!
Ps. A szerzõket nem rúgdosom csak Abunak nem veszem be a hülyeségeit. Ha neked tetszik amit ír, olvasd és járj öröm táncot, az a te dolgod.
Ha zavar amit írok, támogasd egy kis pénzel a PH!-t és tílts le...[ Szerkesztve ]
~~~~~~ Privatban NINCS szakmai tanacs! ~~~~~~
-
deja vu
addikt
válasz MiklosSaS #64 üzenetére
Ne foglalkozz vele, AMD vérfanboy, egyszer engem is betalált.
"A szerzõket nem rúgdosom csak Abunak nem veszem be a hülyeségeit."
Ezzel maximálisan egyetértek. Én sem vettem be soha, még akkor sem amikor 2012-2016 között AMD kártyám volt.Iphone 7 Plus | Sony A7R+Zeiss FE 35mm F2.8+Zeiss FE 55mm F1.8 | Eizo CX271+Eizo CS270+Eizo SX2262W+Eizo S2233W | Z170 Ext4+I7-6700K+Noctua U14S | GTX1070 Gaming | 16gb 3600MHz | 850PRO 768GB | Seasonic Platinum | Define R5+3xNoctua | Razer Taipan
-
ukornel
aktív tag
+ #65 deja vu
Hű de jó, egyszeriben ügyvédek kerültek elő
Pedig semmi dolga miklosss2012-nek, mint megalapozni azt a kijelentését, hogy a GTX670 megeszi a 7970-et (ráadásul a modern játékokban is!).
Ha már Abutól nem vesszük be a hülyeséget, Miklós mestertől vennénk be? -
V!ck
aktív tag
válasz MiklosSaS #68 üzenetére
Előmászok a read-only üzemmódból...
Ha neki nem, akkor legalább nekem linkelj teszteket, engem is érdekelne ez a GTX670 vs 7970 körbehugyozós téma. Régebben minden állításodat alátámasztottad (tanultam is néha belőle pár új dolgot, köszi ezúton is ), igazából most is erre várok.
Első blikkre itt pl nem látok körbehugyozást:
Itt sem: DigitalFoundry, Youtube
Egyszer azt hittem, hogy tévedtem, de tévedtem.
-
MODERÁTOR
miklosss2012&ukornel azonnal fejezzétek be. Ha bajotok van egymással rendezzétek le privátban.
Eladó OAKLEY Hijinx Robert Pimple Artist Series Limited Edition napszemüveg
-
Abu85
HÁZIGAZDA
Ha a leggyorsabb érdekli a gyártót, akkor Mali-G71 MP32. Ez 850 MHz-es órajelen 652,8 GFLOPS 3 wattos fogyasztással. A Parker SoC IGP-je 1 GHZ-en 512 GFLOPS-ot tud 8 watton. Ég és föld a kettő. Esetleg megvárják a Series8XT-t, amire az Imagination 1,5 TFLOPS-ot ígér FP16-ra 2 watton belül, ami ugye FP32-vel 750 GFLOPS.
Legalább háromszoros az energiahatékonyságbeli lemaradás függetlenül attól, hogy itt mindenki marha hatékonynak hiszi ezeket asztali GPU dizájnokat. Csak éppen nem veszi senki a fáradtságot, hogy regisztráljon a gyártókhoz, és kikérje a doksikat, amiből lehet számolgatni. Egyszerűen megnézitek az asztali teszteket, és "úh ez biztos jó mobilba is, hiszen mi lehetne ennél jobb". Hát kb. mindegyik friss ARM és Imagination fejlesztés.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Jack@l
veterán
Nem, én mobil compute méréseket néztem. Hihetetlen ugye, hogy van aki nem elméleti tflopsokkal mond véleményt a gpu-k sebességéről.
De nyilván jól tájékozott vagy és tudod te is mennyire várják a pascal alapu x2-t fp32-ben...[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Abu85
HÁZIGAZDA
Ha a gyakorlati rész érdekel, akkor a Mali még gyorsabb lesz, mert van egy rakás olyan specifikus trükkje, amit az UE4 vagy a Unity 5 ki is használ a kiterjesztéseken keresztül. Tile Local Storage ugye, amit az ARM tulajdonában álló Geomerics szállít az említett két motorba. Remélem nem kell mondanom, hogy az Enlighten mindkét motornál a main branch része. Egyébként a Tile Local Storage-et támogatja még az Imagination is. Mivel ilyen formában az ARM szállítja az elterjedt motorokba a forráskódot is, így eléggé nehezen verhetők.
Nem tudom, hogy mi az a Pascal-alapú X2. Annyit tudni, hogy az NV törölte az idei ultramobil fejlesztését. [link]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
félisten
Szerintem a lényeg ebben az egészben, hogy a Samsung lépni akar. El akar szakadni Malitól, saját önálló Soc-cal akar dolgozni. Itt a legnagyobb probléma azzal van, hogy száz milliós szabadalmi eljárásokat kellene fojtatniuk, hogy olyan technológiai eljárásokat fejlesszenek amit csak ők tudnak hasznosítani. A72-es magok dizájnja után nem kell licencdíjat fizetnie az NV nek sem, tehát rengeteg pénz spórolható ezzel.Az Nekik ebben az az biznisz, hogy az Nv által a Parkerben használt nagyon is jól skálázható pascal GPu-t( de akár szerintem a Voltában érkező új eljárásokat is megbizniszelhetik, ha valóban tárgyalnak,) és a hozzá tartozó vegyes CPU magokkal üzemelő részt átalakítsák gondolom a saját Exynos Socukhoz, , hisz a bemutató alapján a Denver 2 üresjárati fogyasztása megegyezik az ARM CPU-kal de jóval gyorsabbak azoknál, a Pascal üresjárati fogyasztása pedig rendesen visszaskálázható, de persze még így sem elégé, ahogy írtad is.
Ezzel a szabadalmi eljárásokat megkerülhetnék akár az Nv bevonásával, valamint egy kész GPU CPU kombót alakíthatnának át a saját ízlésük szerint a saját Exynos részük bevonásával, egyfajta alapként használnák fel azt, hisz a hír semmi másról nem szól., mint arról. hogy az AMD vagy az NV GPU technológiájának egy részét akarják licencelni, nem pedig konkrétan azt beépíteni .
Nem tudom mennyi pénzt ölt eddig a Samsung az önálló IGP fejlesztésébe, de gondolom rengeteget, hogy inkább jegelik és egy kész megoldás átdolgozására akarják adni a fejüket.
Az én véleményem szerint Samsung egyértelműen az Apple példáját akarja követni az önálló hardveres függetlenséggel. Ha már találgatunk, szerintem ez után, miután ezt véghezvitték kilátásba fognak helyezni egy önálló OS-t is, ami az IOS példáját akarja majd követni, esetleg Android alapokon,de ez csak az én véleményem, jövőképem ezzel kapcsolatban. Ugye ez most a Nintendo NX nél is visszaköszön. lehet , hogy ez akár 5-10 év távlata, de szerintem Samsung egyértelműen önállósodik és Differenciálódik, minden áron.persze ezt a dolgot megvalósíthatja az AMD bevonásával is, bár szerintem az valóban nehezebben járható út lenne, még az NV nél is
De az is lehet, hogy abszolút neked van igazad , hisz én tényleg laikus vagyok és csak arra tudok alapozni, amit olvasok a világhálón.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
Új hozzászólás Aktív témák
- iPhone 13 128GB Starlight, Beszámítással
- Uhh! DELL Latitude 3410 Tartós Profi Laptop -60% 14" Bivaly i5-10210U 4Mag 16GB 512GB SSD FHD IPS
- Ahh! DELL Latitude 3410 Tartós Profi Laptop -60% 14" i5-10210U 4Mag 16GB 512GB SSD FHD IPS
- Ohh! DELL Latitude 3410 Tartós Profi Laptop -60% 14" Bivaly i5-10210U 4Mag 8GB 256GB SSD FHD IPS
- Prémium minőségű Samsung, Micron SSD meghajtók (frissítve: 2024. 09. 24.) - MEGA akciók!
Állásajánlatok
Cég: Ozeki Kft
Város: Debrecen
Cég: Ozeki Kft
Város: Debrecen