Új hozzászólás Aktív témák
-
jeni
félisten
Üdv!
Mi az átlag fogyasztása FULL-ban egy Vega 64 karinak? -
Ramiris Europe Krt.?
-
kenand
veterán
Újabb AMD sok hűhó semmiért...még szerencse, hogy CPU vonalon összeszedte magát.
-
motocoder
aktív tag
Vegát sehol nem lehet venni?!
-
Envo_
aktív tag
válasz
darkangel666 #992 üzenetére
"az Intel meg proci fronton"
you mad bro?
-
darkangel666
csendes tag
Erre az a plecsni lenne a megfelelő: AMD Radeon kari bukta
már megint......
És az a gusztustalanul sok áramzabálásra most mit mond a sok AMD fan fej???
Ja hogy ha ez az áramzabálás lenne az nVidiától akkor szanaszét fröcsögnék mindenhol azt hogy jaj milyen szar watt / teljesítmény mutatója van....
AMD csúcskártya: TDP keret = 295 wattMíg a GTX 1080 = 180 watt
AMD lehet tanulni és példát venni a jobbtól
-
darkangel666
csendes tag
válasz
darkangel666 #992 üzenetére
Foss AMD videókártyák egyszerűen nem bírnak az nVidia erős szörnyeteg bajnok videókártyáival
Még jó hogy anno eladtam - kiszáltam a Radeon kariból (már nem kell folyton várni és várni a "csoda driverekre" és a folyton állandó ígérgetésre, hogy na majd ez lesz meg az lesz... meg majd így megmutatjuk nekik meg úgy megmutatjuk nekik CPU és GPU fronton is.......Az olcsó János középkategóriára épp hogy megfelelnek
Intel + nVidia a nyerő
Azóta kicsit másabb dimenzióban pörögnek a dolgok és persze a G-Sync is jobb....
-
darkangel666
csendes tag
Pontosan ahogy írod! A PH-s tesztek és vélemények szarok és kajak elfogultak, az AMD oldalt mindig feljebb strófolják értékelésben, és még ha szar is az AMD akkor is jobbat vélekednek róla...
Ha meg nVidia dolog akkor sokkal lejjebb húzzák mint amilyen jó, és az értékelését is inkább lefelé kerekítik, holott vörösben pompázó vérző szívükkel tudják jól, hogy az nVidia már megint újra és újra szíven döfte az AMD-t
az Intel meg proci fronton
Szar ez az AMD úgy ahogy van... csak vergődnek mint partra vetett hal
akinek a teljesítmény és az erő számít az marad a jobbik oldalon
Intel proci + nVidia videókari
Hahahaha most meg csoda driverre várnak
mert úgy szar az egész ahogy van, és még a 1,5 éves GTX 1080-at is alig éri be, ami csak a 3-ik legerősebb az nVidia rettegett óriási piaci fölénnyel rendelkező mumusától
AMD ülj le 1-es
-
OutSider17
senior tag
Szervusztok!
Létezik hogy 1év garanciával forgalmazzák a Vega 64-et???[link]
-
Blazs120gl
aktív tag
Olyan pénznemekre igaz ez a fajta beomlás, ahol nagy mennyiségű adósságok vannak az adott pénznemben kifejezve és az adós pénznyomtatásból próbálja fedezni. A piac a pénznyomtatást árfolyameséssel kompenzálja, amit utána még több pénz noymtatásával próbálják elinflálni, hiperinflációs spirál egészen addig, amíg már a papírt sem fedezi az adott pénz.
A kriptopénz mögött azért nincs valós érték, mert a szereplők nagy része csak azért tartja/bányássza, hogy a későbbi időpontban magasabb árfolyamon más, rendszerint valós pénzre váltsa.
Mivel ilyen kriptopénzeket rendszerint kevesen fogadnak el kézzel fogható (ÉS legális) javakért cserébe, így nem nagyon lézetnek tartozások sem (a zsarolóvírusok nem érnek
). Infláció a bányászat miatt van, de mivel nincsenek kormányok akik BTC-t vagy ETH-t 'nyomtatnának', defláció is van (a kínálat ICO-k nélkül nem növelhető bányászattal jelentős mértékben rövid idő alatt).
-
Blazs120gl
aktív tag
válasz
Ren Hoek #982 üzenetére
Nem is kellett rá sokáig várni. A kínai kormány illegálisnak minősítette az ICO-kat, minden coin jólteljesít.
Spekulánsokat, meg akik a pénzük után futnak, nehéz lesz meggyőzni, hogy ne térjenek át másik coin-ra. Pláne most amikor még olcsóbb is lett sznte minden coin... Most kell venni, Ők így gondolkodnak.
Fizetőeszköz abból lesz, amiért van elérhető termék, szolgáltatás. Mindenki felteheti magának a kérdést, hogy mit lehet BTC-ért, ETH-ért kapni (mármint bányászhardveren, fegyvereken, drogon, terroristákon kívül) és megérti, hogy aki BTC-t, ETH-t vesz valódi pénzért, kiknek vált/mos pénzt. Ha még több nagyobb piacfelügyelet tilja ki a coin-okat, a kispályásokat és a farmosokat elijeszthetik vele.
ETH-t bányászni Vega-kkal már amúgy is tuti bukó, soha nem térül meg az ára (már annak aki befektetési céllal bányászik). A mostani nehézséggel h megérje, havonta száz dollárokat kéne drágulnia egy ETH-nak, minden egyes hónapban, ami nem fog megtörténni. Az ETH nyakán meg ott a PoS-re váltás, szeptember végén meglátjuk megtörténik-e. Ha igen, akkor ott vége a bányászatnak. Akkor a bányászok átállnak ETC-re, igaz akik most váltanak, azok már későn szállnak be a piramisba. Az Ethereum-ok sajnos ASIC-rezisztensek, a legolcsóbb ASIC megoldás rájuk a VGA.
-
Ren Hoek
veterán
Az a baj a jelenlegi altcoin bányászat, és új altcoinok megjelenése egyre inkább hasonlítanak a piramisjátékokra. Korai beszállók... késői bukók. Semmire nem jók, csak égetik az áramot, soha nem lesz fizetőeszköz egyik sem. Egyedül spekulálni jók, ott is a rövidtávú instabil, megjósolhatatlan kereskedésekkel főleg... amiben a sok naív rettenetes nagy bukókat összeszed.
Újabb és újabb eleinte könnyeb bányászható variánsok hada jelenik meg, amikor egyszer talán bedől az egész... és marad a bitcoin, vagy talán a fejlettebb ether, de a BTC-t is olyan leváltani kb, mint a FB-t. Talán van esély stabilabb árfolyamra, ha több helyen elfogadják.Itt a VGA-s bányászat sorsa szerintem azon múlik, hogy meddig lehet új altcoinokat létrehozni, és meddig éri meg a semmit bányászni... mikor jönnek rá az emberek, hogy nem éri meg beszállni, mert soha nem lesz fizetőeszköz egyik sem == hosszútávú elértéktelenedés.
Ezért is szimpatikus a BTC már, mert ott véget ért a VGA mining. Csináljanak rá specializált ASIC-ot, és bányásszák azzal, békénhagyva a VGA piacot, ami abszolút nem erre való, és baromira nem hatékony egy pénzrendszer fenntartásában. Sajnos a VGA-t használó algoritmusok miatt egyre nagyobb és nagyobb kapacitás kell, végtelen mennyiségű új kártyával - és ASIC meg nem jön rá.
Szerintem lesz egy dátum az VGA-val bányászható altcoin összeomlásra. Meging a bizalom, főleg ha beüt egy-egy nagy hacking esemény, vagy óriási árfolyamingás, esetleg a tech-top coinok elérnek egy olyan nehézségi szintre, hogy nem éri meg tovább... de ehhez az kell, hogy ne érje meg áttérni másikra, pl ZEC-re.
-
Ribi
nagyúr
-
X Factor
addikt
Rendben. Csak ilyenkor mindig szeretem kedvesen felhÍvni a figyelmét, hogy a mai modern pénz szintúgy belső érték nélküli pénz, ami mögött semmilyen materiális fedezet nincs (arany). Az emberek bele vetett bizalma adja azt a hátteret, amitől a rendszer műkődhet.
Az ilyen jellegű hsz-ek azt bizonyÍtják, hogy úgy próbálják megítélni a kriptovalutát, hogy az általánosságban vett pénz fogalmával sincsenek tisztában. (ami egyáltalán nem baj, csak akkor picit nyitotabban érdemes az ilyen dolgokoz hozzá állni, mint a "nem értem, tehát szar")
-FreaK-
Szóval, mielőtt mindenki elhiszi a sotwares mérést:
While HWInfo was happily reporting a power draw of ~130 Watts, the Kill-A-Watt meter told a different story. Our test bed had an idle power draw of around 138 Watts and forms the base line for our test. The power draw at load however was 386 Watts (Update: 330 Watts with the new test). This yields a delta of ~248 watts (Update: ~200 Watt), which is obviously significantly higher than what the reports claim to have achieved with the card.
-
-FreaK-
veterán
válasz
X Factor #977 üzenetére
"Mellesleg továbbra sem kell félni, h. bányászatra tömegével vennék a VEGA-t, egyszerűen sokkalta rosszabb ROI értéke lesz/van (fogyasztás,hőtermelés, beszerezhetőség,ár), mint egy Polaris vagy Pascal alapú rig-nek."
130W-ot fogyasztott 43Mhs mellett, tehát a fogyasztás így jó. Az ár majd normalizálódik amint nagyobb tételben is elérhető lesz (+custom kártyák).
Tehát ha most még nem is, de hamarosan igen csak lesz miért aggódni... -
Ribi
nagyúr
Sajna egyre ujabb és ujabb kojinok jelennek meg, amikre áttérnek.
Faja volt amíg csak bitkojin volt, de ugye jön a többi is fel.
Ha a mostaniak "kifutnak", áttérnek másra, egy idő után talán azok is sokat érnek.X Factor: Nyilván arra gondolt, mint ahogy megvették a totál fehérre "festett" vásznat milliókért.
Ami ugyan úgy semmit sem ér alapból, de valaki kitalálta, hogy de az sokat ér. Az, hogy számítógépek sokat számolnak az magában semmit sem ér. Kb mint a celebek. Senki sem érti, hogy miért kapnak pénzt, de mégis gazdag jópár, pedig semmit se csinálnak. -
X Factor
addikt
válasz
->Raizen<- #975 üzenetére
Fedezet nélküli fizetőeszköz, nulla mögöttes tartalommal és még is szárnyal.
----> (blockchain)
A fene se érti az egészet.
----> (Akkor meg nem kéne, ilyen messzemenő következtetéseket levonni ^^ )
Olyan mint a f@sz@book.
----> (Ez szintúgy arra az analógiára épít, h. szerinted hülyeség, és a fene se érti? )
Mellesleg továbbra sem kell félni, h. bányászatra tömegével vennék a VEGA-t, egyszerűen sokkalta rosszabb ROI értéke lesz/van (fogyasztás,hőtermelés, beszerezhetőség,ár), mint egy Polaris vagy Pascal alapú rig-nek.
-
Ijk
nagyúr
válasz
->Raizen<- #975 üzenetére
Kíváncsi vagyok visszahozta-e már valakinek a befektetést.
-
Aby_2014
aktív tag
Ez a hozzászólás tetszik
,
nvestment in better Drivers *WASTED*
Investment in Mantle and Vulkan and DX12 *WASTED*
Investment in better Colaboration with Game- and Engine-Makers *WASTED*Mining YES
bár pénzügyileg AMD -nek jobban megéri a bánya kártya gyártás, mint a gamer piac és az azzal járó fejlesztgetés...
-
Cathulhu
addikt
-
Abu85
HÁZIGAZDA
válasz
s.bala31 #968 üzenetére
Ha ezért vetted, akkor nem sokat nyertél. Egyrészt többféle UE leképező van. Az NV-n csak a deferred fut jobban, míg a mobil leképező az AMD-t szereti inkább. Az új tiled forward megoldásnak is inkább az AMD tetszik, bár ez nem annyira meglepő, mert ezt az AMD tette bele a motorba. Szóval NV-n akkor fog jobban futni az UE4, ha a deferred leképezőt használja.
Inkább a Unity lesz a legtöbbet licencelt. Eddig is az volt, és nem igazán látszik, hogy megváltozna.
A mostani profilozás nem arra szolgál, hogy egy gyártó jól járjon, hanem a teljesítményre vonatkozó bugokat akarják kigyomlálni. Az AMD-nek ez maximum csak abból a szempontból előny, hogy ha már így átmennek rajta, kiterjesztik az async compute használatát is.
-
Abu85
HÁZIGAZDA
Mert technikailag nem az AFR-rel van a gond, hanem a driveres kényszerítéssel. A WDDM-be integrált szabványos AFR már nem egy kényszerített megoldás, hanem egy fejlesztő oldaláról direkten kérhető. Szabványosított a pufferkreálás, megválasztható a transzferek vezérlése, stb. Emiatt van az, hogy a WDDM szabványos AFR-jével a GPU-k duplázása konkrétan is dupláz a teljesítményen, miközben ugyanannak a játéknak a CF/SLI módja maximum +60-70%-ra képes. Egyszerűen sokkal jobban működtethető az új formában az AFR.
-
s.bala31
őstag
Én többek között azért választottam most GTX 1080-at mert az összes UE4 engine-es játék jobban fut NV kártyákon, és gondolom ez lesz az elkövetkező pár évben a legtöbbet licenszelt motor. Viszont ahogy írod ez a jövőben változni fog? Vagyis AMD is felzárkózik UE4 engine-t használó játékok teljesítményében?
-
Abu85
HÁZIGAZDA
A shader model 6.0 elsődlegesen azért jön, mert a konzol és a PC shader nyelve között oltárian nagyra nőtt az eltérés. A shader model 6.0 DXIL 1.0 által támogatott verziója, lényegében pár függvényt leszámítva megegyezik azzal a shader nyelvvel, amit az Xbox One használ. Tehát effektíve a Microsoft azt teszi lehetővé, hogy majdnem minden shader, amit konzolra írtak a fejlesztők, áthozhatók legyenek PC-re a teljes optimalizálással. Ilyen szempontból kifejezetten kedvező lesz a portolás. A mai állapotnál biztosan sokkal jobb, hiszen jelentős módosítások kellene a PC porthoz és ez nagyon rányomhatja a teljesítményre a bélyeget.
Nagyon kedvező egyébként a továbbfejlesztés is. Már létezik DXIL 1.1 és 1.2 is, amelyekkel jön a shader modell 6.1 és 6.2. A 6.1 abból a szempontból lesz lényeges, hogy hozza a baricentrikus koordináták elérését, ami az Xbox One utolsó lényeges feature előnye a PC-vel szemben. A 6.1 már a Fall Creatorsban elérhető lesz tesztelésre.
-
Abu85
HÁZIGAZDA
Mit csináljak, ha a GCN támogat valamit, míg a többi nem? Nem én döntök erről.
Egyébként egyetlen GCN sincs legacy státuszban. A shader model 6.0 elérhető lesz a GCN2-re is, de ez az alapján nem nagy meglepetés, hogy a Microsoft bevallottan erre az architektúrára tervezte. Egyébként meg örülhetünk annak, hogy sikerült egy egységes alapban megegyeznie a cégeknek, így lesz úgy 18 wave instrinsics függvény, amit az AMD, az Intel és az NV is támogat. Szerintem ez elsőre nem egy rossz lépés. Aztán ha valakinek kevés, mehet a kiterjesztés. Ebből a szempontból nagyon megengedő lesz a rendszer: [link]
-
Abu85
HÁZIGAZDA
A játékipar nem toporog egy helyben. Most jön a shader model 6.0 az új Windows frissítéssel, ami megint egy komoly fejlesztés. Igaz, az egyik legfontosabb függvénycsoportot utólag kivették, mert az Intel és az NV azt mondta az MS-nek, hogy nem képesek támogatni még az érkező generációval sem. De opcionálisan elérhető lesz. De mindegy, ez igazából két függvény. Ennyi előnye maradt az Xbox One-nak, és ebbe a PC sem pusztul majd bele.
Attól, hogy szerinted felesleges az Epic nem így gondolja. Már +10%-nál járnak sebességben és még messze a január. Valószínűleg +30-40%-kal végeznek.
A konzolra írt kódot nem portolják vissza PC-re, mert az az NV-nek és az Intelnek nem jó. Sokkal kedvezőbb a PC-s kódot külön optimalizálni.Megfelelően támogatva volt a DX12 a hardverek tekintetében. Ha az összes fícsőr érdekel, akkor pedig már ott a Vega, ami támogat mindent az API-ból. SM6.0-ból is mindent támogat a GCN2/3/4/5. Az alapfunkciókat támogatja az NV Maxwell és Pascal is, illetve az Intel Gen9.
A driverben csak shadereket cserélnek. Minden más változatlan. Nem muszáj telepítened az új meghajtókat.A multi-GPU egész kellemes a DX12-ben. Azért nem reklámozzák annyira, mert van pár gyártóspecifikus hiba a WDDM szabványos AFR kódjában. Eredetileg úgy volt, hogy a Creators ezt kiszűri, de az NV még mindig igényel módosításokat, mert akadozgat, de a Fall Creatorsban már jó. Az AMD már reklámozza ezt a módot, nekik már a Creators előtt is hibátlan volt: DX: MD és SE4. Sajnos a Microsoft túlságosan az AMD-re írta az alapimplementációt, amit végül alakítgatni kellett, hogy szuperül működjön NV-vel is. De végeredményben működni fog az év végére, így a CF-et és az SLI-t leváltja a szabványos AFR, és az előbbi linkekből láthatód, hogy egy extra GPU 100%-hoz közeli gyorsulást ér, ráadásul integrált frame pacing van. Ez egyértelműen haladás a mostani DX11-es skálázódáshoz képest.
-
->Raizen<-
veterán
Eddig netto 0 ertelmet latom a low levelnek user szempontbol. A grafika nem lett szebb es reszletesebb altala. A fejlesztoknek se tul nagy segitseg ugy latszik.
-
Raysen623
addikt
Ne haragudj, de kb én is ugyanezt érzem nálad. Amit te közhelynek nevezel, azt én élő példának. Amit te NV haterkedésnek, azt én ténynek. De mindegy is. Részemről ez nem haterkedés, mert értem én miért teszi azt amit tesz és jól is csinálja, hiszen piacot nyert vele az évek alatt, valamint nyereséget termelt...Peace.
-
Abu, te fél éves dolgokról beszélsz ,de iparág és a Dx 12 az AMD hardveres konzolokkal már hány éve jelen van? ne hogy azt mond, hogy azért toporog a játékipar egy helyben és nem tud fejlődni Dx 12 , mert eddig NV hardverek fejlesztették a játékokat és nem tudták kimutatni hol van a bug.
Értem én meg kb 5 ször olvasom tőled, hogy mostantól Vegán- fejlesztenek és ettől mennyire jó lesz nekünk, de felesleges a marketing minden hozzászólásnál.
Áruld már el nekem , hogy a konzolokra fejlesztett játékokat a konzol gyártója által a fejlesztők rendelkezésére bocsájtott kittekkel írják, akkor miért nem látták a hibákat. Unreal engines- játékok is most kezdenek befutni.
Az egészből az látszik,hogy az egész egy elhamarkodott dolog volt, megfelelően támogatott hardverek nélkül dobták piacra az új Dx 12-t ami az általad is beharangozott " drivernek semmi szerepe nem lesz dologból" az lett, hogy kénytelenek a gyártók hetente drivert hoznia játékokhoz, arról ne is beszéljünk, hogy fordítókra lesz szükség, ami szerinted semmiség, akkor is egy lépcső a hardver közvetlen elérése között.
Egy újabb hiba lehetőség. Biztos vagyok benne, hogy nem lesz elég egy általános Microsoft fordító kód, mert kompatibilitási gondok lesznek szokás szerint egy egy hardverrel és a kijövő játékokkal stb stb és megint ott tartunk, hogy a DX 12 nek akkor mi is a szerepe és az előnye.
( multiGPU támogatásról meg a többi számunkra is előnyös ficsőrről ne is beszéljünk, mert abból sem lett semmi. AZ egész Dx 12 nem a végfelhasználókról szól, ez tisztán látszik.Raysen623: ne haragudj, de annyira a múltban élsz és olyan tipikus közhelyekkel jössz, az egész annyira tipikus NV hater duma, hogy nem látod a fától az erdőt , hogy nincs kedvem ezt veled folytatni. Igazából az jön le nekem, hogy nem is érted mit írok neked, csak hajtogatod a begyakorolt közhelyeket.Peace.
-
Raysen623
addikt
Szerintem több olyan motor van a piacon, amelyik konzolra is és PC-re is bőven elegendőek. Példának az Unreal Engine-t hoznám fel, ami ugye licenszelhető. Játék és port példának pedig a Batman Arkham Knight-ot, aminek legendásan rossz lett a PC portolása. Vagy Witcher 3 hairworks ugye. Mindkét játékban jelen vannak az NV által legyártott middleware-ek.
Szóval szerintem ez nem engine függő ha portolásról beszélünk, hanem a szándékon múlik mennyire lesz jó. Ha bevételről beszélünk, akkor nyilván nem PC az elsődleges platform évek óta, és ezen még ront a két VGA gyártó közötti különbség PC-s megoldások terén. Egyik olyan feature-öket fejleszt ami mindkét esetben jó, míg a másik csak saját hardver-re készíti el ezzel is rontva a portolás minőségét. Ha pedig portolásról van szó, kiadják bérbe a fejlesztők ha kis cégről van szó. Nagyoknál ott van rá külön részleg, lásd EA.
De itt be is fejeztem a története és a vitát. -
Abu85
HÁZIGAZDA
Nem ez a probléma. Látható most az Unreal Engine 4-en. Eddig Maxwell, majd Pascal hardveren fejlesztették, de most átváltanak Vegára. Viszont egyáltalán nem a konzolok miatt, vagy azért, mert az NV-vel nem akarnak partnerséget, hanem annyi az oka, hogy lényegesen rosszabbak a fejlesztési feltételek GeForce-on. Elképesztően sok teljesítmény marad benne a kódban, mert az NVIDIA NSight egyszerűen nem mutatja ki, hogy bugos a kód, ami egyre kritikusabb probléma, hiszen fél éven belül jön az explicit parallel RHI, amivel a default render is D3D12/Vulkan lesz. Emiatt a jövőben az UE4-et Renderdoc+Radeon GPU profilerrel fejlesztik. Utóbbival az a baj, hogy nem szimpla performance counteres profilozó, mint ami mondjuk van az NSightban, hanem hardveres nyomkövetést használ. Emiatt is tud sokkal több bugot kimutatni, viszont ahhoz, hogy ezeket kimutassa kellenek a hardverben elhelyezett nyomkövetők, vagyis muszáj GCN3/4/5-öt használni.
Én nem akarom a fejlesztőket védeni, de sokszor nem rajtuk múlik. Ők is eszközökkel dolgoznak, és ha az adott eszköz, teszem azt profilozó nem mutatja, hogy a kódban vannak komoly hibák, akkor a fejlesztő elől is rejtve maradnak. Ezen a ponton pedig lényegesen romlik annak az esélye, hogy jól optimalizált programot kapj. És ez a teljes iparágat érinti, mert akármennyire fájdalmas dolog ez, de hardveres nyomkövetést alkalmazó GPU-s profilozó PC-n a nyár közepéig nem volt. Amelyik stúdiónak nincs pénze megfizetni a világ legjobbjait, hogy megfelelő eszköz nélkül ciklusonként átmenjenek a kód kritikus részein szimplán fejben, a dokumentációkat használva, az eleve hátrányból indul.
A jobb portok is nagyrészt a fejlesztőeszközöktől függnek. El tudsz vágni te is egy falécet egy konyhakéssel, de fűrésszel hatékonyabb, és sokkal gyorsabb is.
-
válasz
Raysen623 #954 üzenetére
A probléma még mindig az, hogy 10 játékból 9 konzolra van fejlesztve és nem írnak külön motort a PC-s port miatt az NV kedvéért a tized annyi eladást produkáló PC-s piacnak.
Ha AMD egyáltalán nem lenne jelen a PC piacon valószínűleg és tényleg csak zöld lenne,akkor sem írnának , ezt kellene valahogy megérteni és nem keverned a szezont a fazonnal.
Szerintem nem az első eset, amikor ezt már megbeszéltük talán pont veled is itt, de hát csak nem változik a kép, mert könnyebb ezt az NV. izét tolni...
DX 11 kiforrott , olcsóbb, van rá 100 grafikai motor és van rá elég programozó gyakorlott gyors és megfelelő tudással stb stb....és még így is kapod a félkész szemetet amit több giga patchel lehet használható állapotba hozni a kiadás után több héttel, ráadásul többszörösére nőtt egy-egy játék fejlesztési költsége mint mondjuk volt 2007 ben.Dehogy kapnánk jobb portokat, sőt....egyébként így is már működik ez a dolog, nem a jövő zenéje.
-
Raysen623
addikt
Tiszta sor amit írsz, de én elég rendesen leszűkítettem a kört PC oldalra. PC-re portolt konzol játékok előtt is elég rendesen virít a gameworks zöld felirata. Szóval erről ennyit. Az már kérdés, hogy NV rendes marketinggel elorozta a AAA-s játékok zömét AMD elöl, akik közben elaludtak. Nem most kezdődött, hanem évekkel ezelőtt, tehát ez egy folyamat. PC oldal tehát inkább NV a piaci részesedés miatt, konzol oldal meg közben teljesen bevörösödött. Meglátjuk mi lesz ebből.
DX12 hasznában egyet értünk, bár szerintem ha a fejlesztőknek könnyebb lenne a portolás, azzal mi is nyernénk, mert jobb portokat kapnánk a pénzünkért.(#951) Kopi31415 : természetesen sokkal árnyaltabb a kép, és leginkább anyagi okai vannak. De ugye te sem hiszed el, hogy azért olyan a jele konzol generáció mert az AMD csak ennyire lenne képes?!
-
válasz
Raysen623 #950 üzenetére
Azzal tisztában vagy hogy a játékfejlesztés évek óta nem NV hardverre folyik, hanem a konzolok a fő célhardver ami nem NV. Ezt el kell már felejteni, még ha sok AMD fan ezt szajkózza, hogy a gonosz zöld emberkék miatt nem fejlődik az ipar, pedig az egész azért áll egy helyben, mert rohadtul nincs pénzük a stúdióknak alapjaiból új grafikus motorokat fejleszteni, kivéve pár anyagilag erős céget,akik képesek pl. egy Frostbite megírására.
Pár tőkeerősebb stúdió is implementálni tudja maximum Dx 12 támogatást a Dx11 motorjaiba, de a legtöbb még ezt sem.
Kb 2-3 év múlva majd eljutunk arra szintre , mikor ez alap lesz és a régi motorok már annyira elavulnak, hogy tényleg nem lesznek piacképesek. Na, majd akkor lesz a Dx 12 fénykora.
De szerintem már előre látni lehet, hogy a nagy előrelépést majd egy újabb Dx verzió fogja hozni, a legújabb GPU-kal,( Volta, Vega,de inkább még azután) ami már szerintem tervben is van, csak jelenleg annyi pénz álla Dx12 ben Microsoft részéről, hogy nem lépik meg a dolgot.
Egyébként pedig a Dx 12 nek sok haszna felhasználói oldalról nincsen szerintem , maximum, ha tényleg működni fog a Copy-Paste átportolás konzol- PC között, de az sem nekünk lesz igazán jó, ( sőt...)hanem a kiadóknak és a fejlesztőknek. Ennél a Dx verziónál a fogyasztók másodlagos szereplők, itt a stúdiók, és az ipar magának akart ezzel első sorban jót, hogy könnyebb legyen az életük a portolhatósággal,driverekkel,átjárhatóságot tudjanak a célhardverek közt biztosítani, kevesebb munkával több pénzt tudjanak szakítani. -
nyakdam
aktív tag
válasz
#06658560 #951 üzenetére
Azért koncentálnak DX11-re mert a motorokat nem olcsó átírni, és most már valszeg bennük van a támogatás, de gondolom a folyamatban lévő játékok alatt sem egyszerű cserélni a motort az újabb verzióra. Abu jobban ért ehez én csak tippelem. Az NV meg azért jobb mert a motorokra húzza a VGA-kat. Látszik a Pascalon is, hogy amit ma támogat DX 12 őt egy játék ott nem lassul mint a Maxwell. Az AMD meg nem célhardvert tervez. A Vega visszont jó lehet a HBCC- vel. Kíváncsi leszek pl a Final Fantasy XV re, ahol elvileg nagy textúrák lesznek, mennyire húz el akár házon belül a Polaristól. Gondolom a 8 giga alatti VGA-k nem viszik majd a very high beállítást. Persze majd kiderül.
-
Raysen623
addikt
Ez mind szép, de amíg a PC-s játékipar az elavult DX11-re koncentrál mert az jobban fekszik az NV kártyáinak addig nincs miről beszélni. Jelen felállás a zöldeknek kész aranybánya. Ezen csak egyféleképpen lehetne változtatni: AMD-nek le kell menni a gyökerekhez, miszerint addig kell tolni a fejlesztőknél a hardveres és szoftveres szupportot, amíg nem lesz kellő számú valódi DX12-es vagy Vulcan-os játék a piacon. Na majd akkor fog gyorsabban jönni a Volta is és lesz valódi előrelépés, nem pedig a napi szintű driver installálgatás lassan mindkét gyártótól.
A Dirt4-es eredmény tetszetős, de amíg ezt nem tudjuk elmondani a Witcher 3-ról vagy a GTA legújabb részéről addig fehér holló a hózivatarban. Igazi játékosoknál meg addig marad a konzol, mert a PC fejlesztése rohadt drága, játékélményben meg annyival többet nem hoz.
-
Abu85
HÁZIGAZDA
válasz
Raysen623 #947 üzenetére
A drivernek korlátozott mértékű jelentősége van a kihasználtságlimit kezelésében. Azt csak olyan hardveres megoldásokkal lehet javítani, mint a Vegában az LDS dinamikus particionálása, vagy a Voltában az L1 és az LDS összevonása. Hogy ez mit ér? Nézz meg egy Dirt 4-et olyan beállítással, ahol nem a sávszél a limit. [link] - Jó a Volta nincs benne, de az L1-LDS összevonásnak, egy megfelelő fordítóval kvázi ugyanez lesz hatása.
Nem véletlen, hogy például a Frostbite Team is erre koncentrálja a kutatásait, mert ők is esnek bele a kihasználtságlimit problémáiba, amit nem nagyon tudnak kezelni a régebbi hardvereken. Amikor ezeket tervezték még nem volt tényező az az igénybevétel, amit ma elvétve már megkapnak, és ez az idő előrehaladtával rosszabb lesz. Szóval lehet, hogy a Vega és a Volta a nyers specifikációkban nem valami nagy dobás, de pont ott ahol számít, mindkettő egy erős lépés a jó irányba.
Egyébként a Vega és a Volta távolról sem old meg minden problémát. A valós megoldások később jönnek. Ez a két rendszer csak időt nyer.
Érdemes szemügyre venni ezt a tanulmányt, mert rengeteg aktuális problémát kezel, és kevés hardveres változást igényelne: [link]
A Vega architektúrát elég lenne azzal kiegészíteni, hogy egy wavefront is módosíthassa a saját bázis- és méretregiszterét, és máris implementálható lenne a rendszer. A többi architektúránál azért sokkal nagyobb változásra lenne szükség, viszont egy prototípus kódot azért jó lenne látni egy létező hardveren, hogy megkezdődhessen a gyakorlati vizsgálata a tanulmánynak, és akkor van esély, hogy ez lehet az alapja a következő DirectX-nek. -
Raysen623
addikt
válasz
Ren Hoek #943 üzenetére
Nem fog semmit körbehugyozni. Nem értem miért kell ilyeneket beírni. Ahogyan fejlődik a driver az új VGA-hot az minden esetben gyorsulni szokott. Ez így van a zöldeknél is. Jó (ideális) esetben minden kártya gyorsul az újabb és újabb driverektől.
Polaris egy önmagában is remek középkategóriás kártya lett, és közben az új, kisebb csíkszélesség tesztalanya is lehet egyben. Amennyiben AMD kicsit összekapja magát anyagilag, talán meglépik az eltérő célra szánt VGA-k szétszedését és több féle GPU-t fognak gyártani, akár NV csinálja jelenleg.
-
Ren Hoek
veterán
Nem fog, mert Abu szerint a Vega csodadriverrel körbehúgyozza majd a Pascalt és a Polarist is, és a visszapillantóban pislognak majd... az új játékokban. Ez ilyen buli, a Polaris csak egy állomás volt, úgy tudom csak kényszerből adták ki, mert megcsúszott a Vega. Vagy az új csíkszél gyakorlópályája volt.
-
Ren Hoek
veterán
Igen, ez volt régen a vízió... Illetve 1-2 éve még talán realitás lett volna, de annyira bonyolult megoldani, hogy végül felejtős lett az egész. Talán az AShesben működik?
... szerintem is veszett ügy ez, maximum akkor ha egy interposerre raknának több GPU-t, HBM2-őkkel, és valahogy megoldják a közös cache használatot és kommunikációt. A rendszer egy GPU-nak látná, és nem lenne CF/SLI (Lehet a Navinál említettek ilyen könnyen gyártható, kisebb chipekből álló moduláris rendszert?)
-
BReal
addikt
Biztos van, én nem értek hozzá.
Mindenesetre úgy emlékszek, anno a DX12 kapcsán mondták azt, hogy akár az is kivitelezhető lesz, hogy AMD és NV kártyát köss össze... Isten mentsen tőle. Nagyon remélem, hogy ebből semmi nem fog megvalósulni és mindkét gyártó inkább azzal foglalkozzon, hogy a drivereik minél kevésbé legyenek bugosak (pl. most a nem túl régi NV driverrel kifagy, illetve el sem indul a Watch Dogs 2, stb.), vagy pl. AMD oldalon ne kelljen annyit várni, hogy a teljes potenciált (vagy legalábbis nagyobb részét) kihozzák a kártyából a megjelenéskori állapothoz képest, mert ugyan nyilván van egy réteg, akit ez nem vagy kevésbé zavar (pl. engem sem), de biztos sok olyan van, aki pl. emiatt nem vesz AMD-t.
-
BReal
addikt
A CF és SLI útvonal katasztrófa. Nem tudom mekkora erőforrásokat emészt fel ezekkel foglalkozni, de konkrétan betiltanám consumer vonalon. Ahogy írtad, a játékok egy jó részében nem vagy korlátozottan (2 GPU-val gyorsul max. 20-30%-ot - most csak írtam egy értéket) működik, átlagolva az összes játékot ~50% gyorsulás jön ki az egykártyás rendszerhez képest, de ha a nem skálázódó játékokat ki is veszed, akkor is csak ~70% körüli gyorsulást kapsz. Tehát gyakorlatilag minimum 30, de mindent átlagolva 50% pénzt kidobsz az ablakon.
(#931) DonMaster: Azt a Pro Duot engedd el, a legjobb esetben is kb. 15-20%-kal lehet jobb, mint az a Giga Xtreme Gaming 1080, viszont a nem skálázódó játékokban legalább ennyivel kikap tőle, 2-szer annyiba kerül és valamivel több, mint kétszer annyit fogyaszt. Pl. egy 980 Ti valamivel kevesebbet fogyaszt, szinte mindenhol gyorsabb és valamivel olcsóbb, mint a Pro Duo.
-
TTomax
félisten
válasz
DonMaster #931 üzenetére
2016ban 10játékból 5ben nem ment se a CF se az SLI.a maradék ötből 3ban skálázódott rosszul,2ben meg ment úgy-ahogy patchre vára (filckering,stutter stb).De ez mind lényegtelen is,mert az AMD azt a terméket nem a gamer vonalra készítette,ezért is hívják PROnak...
Nagyon-nagyon régóta hajtok több kártyás rendszereket,sok mindent láttam már de olyan gyenge mGPU támogatást mint mostanában már igen régen.Nem is ajánlom senkinek csak ha nagyon olcsón jut hozzá,vagy ha azt a teljesítményt nem érheti el másként.A Radeon Pro duo egyik feltételnek sem felel meg,nem is kell neki nem erre készült.Nem is adtak el belőle jelentőset gamer vonalra,tesztekbe se nagyon szerepel mert nagyon messze van egy hasonló teljesítményű egy gpus rendszertől.A CPUkat ne keverd ide,egy ilyen vganak ahol két gpu van folyamatos support kell,és nem csak a driverba hanem a játék motor szintjén amit jelenleg nem igazán szoktak beépíteni.A következő 3évben amíg a DX12 ki nem forrja magát inkább büntetés egy ilyen vga mint megtestesült csúcs.Jobb ha elengeded ezt a témát mert az utóbbi két évből tucatjával tudnánk neked olyan játékokat mutatni ahol nem működik semmiféle mGPU support. -
válasz
DonMaster #931 üzenetére
Figyelj, lefordítom egyszerűbbre. azért Pro DUO a neve, mert Ez egy olyan videokártya amin 2 darab GPU ( értsd grafikai processzor) található egy nyákon ,tehát 2 darab Fury lenne összedrótozva. Ilyenek voltak régen is NV és Radeon oldalán is , de úgy működik, ahogy a CF és SLI ( értsd 2 darab videokártya egy alaplapban összekötve ).tehát inkább ez gáz, hogy 2 darab kártyával( GPU -val) sem tudta lenyomni a TI-t és az 1080 ellen is küzdenie kell, mert szar a skálázódás stb.Ezért írtam, hogy a pro duo ellen 2 darab 1080 kártyát nézz SLI ben,
Ráadásul ez nem játékra lett kifejlesztve , fél professzionális VGA, 1500 $ . -
DonMaster
addikt
nem tudom de ezazért elégé képileg is mutatja és alá tűámasztja az állitásomat, az hgoy szenvedni kell vele, akarom irni megjelenésekor kelelt, mert mikor a ryzen is emgjelent avval is kelelt enm keveset most már nem kell,
teljesitméynben 1080 feleti mint már irtam, az hgoy többet foygaszt vicc kijelkentés,
miota hasonlitunk fogyasztás szerint vga-t vga-val és nem teljesitményt nézünk?kb mitnha auto-t hasonlitanánk autoval
ahol az egyik pl: disel-es másik elektromos, egyik 100-on eszik 6litert ami 340átlag 2040ft /100km
amég az elektromos fogyaszt 100-on kb 3800ft az 500km tehát 750fm/100km -es fogyasztás akkor miért nem járnak az emberek eléektromos autoval?de hagyjuk a produo témát már, azt nem a vega miatt irtam hanem az 1év kelelt az amd-nek ghoy felhuza magát 1080-ra mikor elöbb jöt ki jobbal.
részemröl off a poro duo téma,
maradjunk a vega-nálvalaki látot vega-t magyarországon boltban webshopban?
-
TTomax
félisten
válasz
DonMaster #925 üzenetére
Fogalmad sincs miről beszélsz,egy kártya de két gpu van rajta.CF profil kell hozzá rengeteg nyűg van vele DX12ben az esetek nagy részében annyit tud mint egy Fury X,a frametime sokkal magasabb,és még sorolhatnám.A 1080hoz még csak ne is hasonlítsd,mert 3X annyit fogyaszt.Abban biztos vagyok,hogy neked se volt még mGPUs rendszered,mert akkor eszedbe sem jutott volna volna felhozni a pro duot.
Ha vicces kijelentéseket keresel akkor a sajátod bőven teljesíti a kritériumokat. -
DonMaster
addikt
miért sli 1 kártya oké az ára nagyon magas, de attól még elöbb kint volt mint az 1080 és erösebb mainap-ig is játékban persze árban fogyasztásban sokkal drágább és többet eszik, meg nem játékra let , de játékban üti az 1080-at ,
ezt csak példaként irtam mert vicces azt olvasni, sok-sok posztban , hogy az amd 1év után adot ki olyan karit amit az nvidia már 1éve futat vagyis hogy most érte utol közben meg már 1ével ez elött még az nvidia nem érte utol az amd-t söt még mai napig se csak az 1080ti és titan xp-vel utobbi megint csak más kategoria nem játékra való, 1080ti is csak 3%-ot ver rá ami azért 1év fejlesztéssel nem mondhato világrekordnak,
és ez után mégis képes valaki leirni azt hogy az amd vega64 /56 is kb egál az 1070 1080-al lés ere irja , hgoy 1év kelelt az amd-nek hgoy az nvidia_t utol érje mikor az nvidia kiadta ezeket akkro még az amd csucskarija böven überelte mai-nap-ig is. Vicces kijelentések,és nem kell 5évet várni, hogy emg felelö legyen a vega 1-2honap ár és driverekre, utána még 1-2honap tehát kb december mire elsz már ráfejlesztet game és hozzá patchelt game is , amiután érdeme slesz tesztet akkro meg nézni és biztosan az 1070 1080 felet lesz árban meg allata böven,
monitor kérdésben pedig egy akár 4k freesync monitor +vega megál 300e ft_bol addig g-sync monitor +1080 az már nem kicsit kostűálja a 400+e ft-ot.
kérdés az , hogy képes vagy havi 1e ft-al több áramszámlát fizetni de cserébe olcsobban kapsz olyat mint a másik aki 1eft-al fizet kevesebbet
szerintem elégé egyértelmü a döntés, mivel 100honap-ig biztos lefogod cserélni a vega2 vagy milesz a neve karikra kb 2éven belül és még mindig olcsobban vagy mint az aki nvidia-t vesz, teljesitméynben meg most egálban és 1-2honap mulva már felete leszel pár százalékkal. -
Chaser
legenda
ha bányászathoz ütős lesz de rémlik h nem kimagasló - árához mérten - akkor úgyis viszik majd mint az aranyat és annyit kér az amd amennyit akar:d pár hónap múlva kiderül itthon ténylegesen mennyiét fogják vesztegetni, ha nagy kereslet van rá ide sok biztos nem jut első időkben, nagykerek/kiskerek úgyis túlárazzák amíg tehetik
Ijk ha az a bios minden kártyánál adott és amd által is kommunikált oké, ha hackelgetni kell nem oké, az nem megy mindenkinek
jó lenne majd ryzen mellett vega, de csak ha értelmes fogyasztása van -
awexco
őstag
válasz
OutSider17 #916 üzenetére
Vega FE van a képen szal ott elég béta driver is szóba jöhetett fene tudja mikori kép.
ezt nézd meg :
figyeld a proci százalékos használatát ...
-
awexco
őstag
válasz
OutSider17 #910 üzenetére
Ez akár driver hiba is lehet , hogy nem pörgeti fel maxra a procit .
Bár érdekes . -
Ijk
nagyúr
Továbbra sem eszik 100W-al többet power saving bios-szal, cserébe kb 5%-al lassabb a Vega. Egyszerűen felesleges 60W-al magasabb fogyasztáson járatni azért a +5% teljesítményért. Nem tudom minek feszelte meg ennyire az AMD, lehet hogy nem akart elmaradni az 1080-tól papíron, így agyonhajtva kifacsarta azt a +5-6%-ot.
A lényeg hogy megfelelő Bios-szal nincs elszállt fogyasztása, azt a +40W-ot meg a jelenlegi - 4-6%-ot az 1080-al szemben pont leszarja majd akinek freesync monitora van, vagy most készül ilyenbe invesztálni.
Lehet még azon vitázni jó sokáig melyik a jobb vétel, majd az NV pártiak az 1080 előnyeit az AMD pártiak pedig a Vega lehetséges potenciálját fogják felnagyítani. -
BReal
addikt
-
Chaser
legenda
válasz
DonMaster #907 üzenetére
röviden:
továbbra is 100w-tal többet eszik az amd, amennyiben a gyártók azonos besorolású uo. modelljei uo. halkak - ami nyilván nem lehetséges - akkor 1080 -20%-ért talán, ha vkinek kell freesync még akkor opció
nagyon jó múltat felhozni, sztem jelenről beszélünk, jövőben majd kiderül mit rittyent az nv, ha duplachipes vega jön 3-400w fogyasztással nyilván népszerű lesz ( : nv-nek meg nem kell sietnie, de ha akar ő is dupláz legfeljebb
1-2 napos ryzen árakkal hagyjál már, madarakat akartak fogni, lehet sikerült is nekik, nem annyi volt anyitóára, magyar nagykerek rávertek, szokás szerint, utána be is állt
és nv-nél egész biztosan lehet szólóban is 1080-at venni, nem kell érte sorban állni
de midenki azt vesz amit akarszerk: nem teljesen mindegy, milyen nyitóára volt 1080-nak? nv-nek volt egy jokere, nála az előző széria is elég jó lett és még bőven piacon voltak mikor a pascal megjelent
és a kérdés az, ma mit lehet venni, 1080 tudásban vegát majd, és 1080 br 170e-től van értelmes kiskerben, nem sufnigaris meg ilyen-olyan mutyis helyekre, megelőzve ezt a témakört is -
DonMaster
addikt
csak halkan megjegyzem a nagyzolás az nvidiával ,
mikor 2016 áprilisban megjelent az amd radeon pro duo
2016 májusban meg jelent az nvidia gtx1080 ami 16%-al gyengébb a radeon pro duo-nál.
nah most 2017 márc/ápr-megjelent a gtx1080ti ami 3%-al erösebb a radeon pro duo-nál amihez kelelt várni 1évet hogy az nvidia jobb karit tudjon felhozni mint az amd,
2017 aug-ban meg jelent a vega 56 vega64 is. amiböl a 64 egálban van a gtx1080-al erre jogos az hogy több mitn 1éves tudást most tudod felmutatni de akkro is még ott van a pro duo, nah most van már hir rolla, hogy vega-bol is készül 2chipes modul, amikor jeleleg a vega65liq-nál a gtx1080ti 15%-al erösebb, akkor az évvégéig megjelenö dou változatu vega mondhatni a földbe fogja döngölni,
az , hogy a fogyasztást nézzük vicc, 200e ft- feleti karinál az nem fontos,
emelet az nvidia csak jövö évben 2018-ban fog elöálni a pascal 2.0-val majd rá 1 évre a volta ,jön.
tehát kb ott álunk, hogy az amd-nek lesz 2-3honapon belül 1 olyan vega karija ami elveri a gtx1080ti-t amit az ellen is küldenek, ere az nvidiátol fogmajd kijönni több mitn 1évre rá olyan kari ami erösebb.
de , hogy maradjunk a vega-nál még mindig kezdö árnál vannak, ráadásul még mindig nem elérhetö országunkban igy árat nem lehet összehasonlitani,
az meg hogy 1e ft-al több lesz az áramszámla lényegtelen annak akinek belefér egy 200e+-os kari + mellé egy oylan proci stb ami ki is hajtsa tehát egy minimum 400 de inkább 500e ft-os konfigra telik.emelet vega-bol only FE-k vannak nincsen még costum hütésü, majd azok fognak ynomni az áron , ráadásul vega-bol van FE-ben kompapkt vizes ami biztosan jol hüt, az meg hogy meleget tol a házbol ki és füti a szobát arra csak anynit tudok irni, hogy szept 1-lesz és közeleg a tél
jah és kezdöár ryzenél még ah csak 1-2nap-ig is de beláthatod hgoy duplában volt, nem csak az másik is belöle,
és melle még
ha a kártya hsngjáűrol beszélünk
nézzük meg
1. gtx1080 FE vs vega 64 FE
szerintem ugyan olyan hütésük van.
2. gtx1080 sea hawk /evga vs vega 64 liquid
kétlem, hogy nagyban különböznének, max az evga változata halkabb kicsit a nagyobb venti miatt, ergo hangra ugyan az3 . majd ha lesz vega costum akkor lesz 3, opcio is amiben a costum nvidia vs costum vega lesz hasonlitva
pl: gaming x vega64 gtx1080-al.
de részemröl innen már off kár foyltatni. -
-
BReal
addikt
Tegnapi OCUK-s poszt igaz: Vega64 470 és 480 fontért.
-
Cathulhu
addikt
powercolor 480 font
MSI 470 font+ szallitas es egyebek
-
BReal
addikt
Igen, olvasok. Ettől még nem azért lesz drágább, mert elnevezik Gaming Z és Y-nak az X helyett, és ugyanúgy adják ki, hanem mert gyárilag magasabb órajeleket kapnak a kártyák. Tehát különbözik. Amúgy ha utánanézel, akkor pl. tudnád, hogy a 1060-nál (vélhetően a 1070-nél is) az MSI Gaming változat a kezdetek óta DRÁGÁBB, mint a Gaming X, közben meg olcsóbbnak kéne lennie.
A Gaming X+ -t meg teljesen fölösleges belekeverni, mert ott az NV adta ki a növelt órajelű GDDR-es 1060-okat és 1080-akat, amiket több gyártó (MSI és ASUS biztosan, Gigabyte is talán)
(#903) Raymond: Igen, ezért írtam, hogy más kérdés, hogy az emelt órajelek a gyakorlatban milyen pluszt hoznak (semmit). De az eladási listákon úgyis látszik ez, sehol nincsenek az ilyen kártyák. Viszont az MSI Gaming-Gaming X, vagy pl. az ASUS Strix és ASUS Strix OC-k közül nem a sima változatok szoktak előrébb lenni az eladási listán, hanem az X és a Strix OC.
-
Raymond
titán
"Az ugye megvan, hogy pl. az említett MSI kártyák ára között nem azért van különbség, mert Gaming X Z Y, hanem mert a gyári órajelek egyik-másik változatnál magasabbak?"
Olvasol is vagy csak irsz?
"teljesen minegy hogy most GaminX, gaming X+, Gaming Z vagy Gaming akarmi. A kartya es a hutes ugyanaz, a kulonbseg csak az elenyeszoen valtozo gyari orajelek"
elotte pedig:
"a tobbi custom NYAK ugyanazzal a komolyabb hutovel es apro elteresekkel a BIOS-ban beallitott orajeleknel,"
Új hozzászólás Aktív témák
- Építő/felújító topik
- AMD Ryzen 9 / 7 / 5 9***(X) "Zen 5" (AM5)
- Először égett le egy újságnál a GeForce RTX 5090
- Konkrét moderációval kapcsolatos kérdések
- Samsung Galaxy A56 - megbízható középszerűség
- Opel topik
- AMD Ryzen 9 / 7 / 5 7***(X) "Zen 4" (AM5)
- Sorozatok
- Fujifilm X
- Videó stream letöltése
- További aktív témák...
- Bomba ár! Dell Latitude E5550 - i3-5GEN I 8GB I 128GB SSD I 15,6" HD I W10 I HDMI I Cam I Gari!
- Surface Laptop 4 i7-1185G7 16GB 256GB
- Tablet felvásárlás! Samsung Galaxy Tab S10+, Samsung Galaxy Tab S10 Ultra, Samsung Galaxy Tab S10 FE
- MacBook felváráslás!! MacBook, MacBook Air, MacBook Pro
- Eladó arany színű Apple iphone 7 128GB / 12 hó jótállással
Állásajánlatok
Cég: FOTC
Város: Budapest