Új hozzászólás Aktív témák
-
joysefke
veterán
-
Findzs
addikt
manapság inkább egyre inkább előtérbe kerül a mimnél kevesebb fogyasztás, nem értem miért van erre szükség ?
ha eddig elég volt a 300w akkor akkor minek emelni ? inkább csökkenteni kéne -
XtremLor
őstag
válasz
Plazmacucci #98 üzenetére
Egyértelmű, várja már a 7990 Quad-CrossFire beüzemelését.
-
-
joysefke
veterán
válasz
Teréz Atya #93 üzenetére
Ez a fickó nevetséges. Valami megkeseredett linuxos szaki lehet aki úton útfélen be akarja bizonyítani, hogy az ő általa favorizált disztro minden elképzelhető fronton jobb mint az aktuális MS oprendszer. Ha más kifogás nincs, akkor azt hozza fel, hogy egy immár 10 éves Gef 2 szintű videókártya nincs támogatva egy új oprendszeren. Hát baz. Hardwerre max 1-2-3 év grit kapsz, ez meg elvárná, hogy a 10 éves lomok is támogatva legyenek. Ha felvennék a Radeon 7500-at a support listára, mi lenne a következő kívánság? Mercury vagy Tomato alaplap?
Ha már van bármi köze a grafikához, akkor attól függetlenül hogy egyetért vagy nem ért egyet vele, legalább tudhatná, hogy ez a csempe dolog a jelenkor mobilos fejlesztéseinek egy fő csapásiránya mobil UI tekintetében...
És még sorolhatnám...
J.
-
válasz
Teréz Atya #93 üzenetére
OMFG
-
Pikari
veterán
válasz
Teréz Atya #93 üzenetére
kérdezd meg tőle!
-
Angel1981
veterán
válasz
Teréz Atya #93 üzenetére
-
Teréz Atya
senior tag
Helló!
Az biztos, hogy a srác win8 tesztje még az Index színvonalát sem éri el.
pl:
"A grafikus felületen lévő egyéb effekteket pedig a Linuxból nyúlták le." - melyik distro, esetleg annyi, hogy Gnome vagy KDE XXX verziója?
"ez a cucc html, tehát igazából inkább a procit terheli és nem is a GPU-t." - wait, what? html5, GPU accel, esetleg?
"A rendszeremben lévő jó régi radeon 7500 majdnem beszart tőlük" - jaj, értem. Mást nem akarok kérdezni, kérem, kapcsolja ki....Najó, még egy megjegyzés: nem értem, hogyha egy elismert programozóról van szó, hogy nem keres annyit, hogy ezt a matuzsálemi gépet lecserélje. Ennyi erővel én is anyázhatnék, hogy a Voodoo 3-asomon nem megy a flash 11 GPU gyorsítása.
-
TOM-202
senior tag
Kár hogy ennyire rossza irányba is halad az energiagazdálkodás. Az érdekes hogy az egyik oldal a végletekig csökkenteni akarja a lehető legjobb teljesítmény mellet a fogyasztást míg a másik inkább az egekbe növelné azt. Lehetséges hogy a 2kW-os tápoknak szeretnének piaci rést találni egy négykártyás konfiguráció esetén?
-
nem hogy hosszú 11,5 inch az én VGA-m, de még 3x slotos is! Szerelni ezeket a dögöket nagyon nehéz... csupán a teljesítménye és a halk üzemelése kárpótol.
-
bazsi83vp
senior tag
-
Lenry
félisten
én 3D grafikus vagyok, de mondhatnám akár, hogy én vagyok a római pápa, azt se lehetne kevésbé bizonyítani, minthogy ezt a blogot is írhatja akárki, akármilyen kitalált titulus alatt, úgyhogy ettől nem lett most egy szóval sem relevánsabb a blog.
ennyire bárki belelát egy játék készítésébe és működésébe, hogy összeollózzon egy "nem fut az új krájzisz a gépemen ezért most lehúzok mindenkit a gecibe" típusú, féligazságoktól hemzsegő bejegyzést...
elolvastam még pár bejegyzést, és nekem sokkal inkább tűnik egy magát nagyon befolyásosnak láttató okostojásnak, mint valakinek, aki tényleg ért és belelát dolgokba.
-
Angel1981
veterán
Nem kell ahhoz mindenbe 100%-ig belelátni, hogy az ember véleményt formálhasson - nem ritkán elég a józan ész, és ki merem jelenteni, hogy az ott leírtak egy része (nem minden!) nagy marhaság!
Hiába vallja magát ilyen-olyan programozónak, meg esetleg géniusznak, ha egyszer egyszerűen szétnézek, és mást látok, mint amit mond!
Még hogy csődbe mennek a nagy kiadók, akik sorban bevételi rekordokat döntögetnek!
Egyébként attól mert programozó, nem hiszem hogy belelátna az Activision, meg az EA stratégiájába, és a játékfejlesztőik programkódjába...
Egy dolog valóban visszaszorulhat a "megahosszú" fejlesztési idő!
Egy John Carmack-on, meg Tim Sweeney-n kívül nem fogják megengedi senkinek, hogy 5-7 évig húzza egy játék megírását... -
Pikari
veterán
pedig érdemes annak a blognak minden szavát úgy elhinni ahogy le van írva. Annak a blognak a szerzője ugyanis belülről látja a folyamatokat, mert ő programozó és ezzel foglalkozik mint munka, ismeri továbbá személyesen is szinte az összes szereplőt, és az összes olyan szegmenset amelyekről egy átlagos hardver-szoftver-gamer portál olvasója még életében nem hallott, hisz muszáj neki tudni róla. Tehát sokkal jobban átlátja, mint olyasvalaki, aki néha-néha olvas róla egy cikket és az alapján formál véleményt az iparról. Nem sokan vannak olyan helyzetben ebben az országban, akik megkérdőjelezhetik az ő szavát.
-
Angel1981
veterán
Miért is?
Számomra az általad küldött cikk aztán meg nem magyarázza!
Hogy egy 1-2-3 emberes csapatnak nincs rá annyi energiája?
Úgy érti, hogy az angry birds szintű játékok azért követelnek arányaiban magasabb gépigényt, mert ilyen a fejlesztés? Mikor volt erről vita valaha?
A budget játékok röhögve elfutnak egy még elavult gépen is!Mindig is arról ment a vita, hogy hogy lehet, hogy a grafikailag elavult konzolportok is megkövetelik az aktuális (és mindig pont az aktuális!!!) csúcskártyát?
Ez valóban elgondolkodtató, mert még az AAA-s játékok grafikája nagyjából 5 éve ugyanazon a szinten van (1-2 ritka kivételtől eltekintve), de mindig a csúcskártyát kell használnod, ha a grafiakai beállításokat is kimaxolod....Az meg hogy a nagy kiadók csődbe mennek számomra megmosolyogtató, amikor a COD sorozat tagjai mindig megdöntik önmagukat az "első 24 óra alatt legtöbb profitot eredményező termék" kategóriájában...
Hogy kihalnak az AAA-s játékok? Nem hiszem. Ez majdnem olyan, mintha azt mondanád, hogy a jövőben nem lesz senkinek igénye az S Mercire, meg az A8-as Audira, elég lesz nekik a Kia, meg a Daewoo... -
Lenry
félisten
-leesett a grafikai színvonal, ebből a szempontból kb 10 évet csúsztunk most vissza.
úgy nagyjából ennél a pontnál mondtam, hogy ez fasság...
azt ne mondja valaki, hogy 10 évvel ezelőtt ilyen volt realtime
Mivel a DirectX11 windows 7et és Vistát követel meg, a fejlesztők látványosan kerülik, mint a leprát.
mert nagyon fontos, hogy bátorítsuk még egy 10 éves, lyukas szita op.rendszerként való továbbélését
pl saját helyett meglévő populáris game enginet vagy grafikus motort használnak.
jah, mert 10 éve nem licencelte mindenki orrbaszájba az aktuális Quake és Unreal engine-t.
túlbonyolítja ez a cikk az egészet: azért népszerűk az egyszerű játékok, mert több ember tud vele játszani. pont.
-
Pikari
veterán
felesleges összeesküvéselméleteket gyártani.
korunk pc játékainak brutális gépigénye azért van, mert http://legendgrafix.buzz.hu/archives/2011/09/12/Valtozasok_a_PC-s_jatekiparban .
-
Cs_Laci
senior tag
Kell is ez nekünk, mint egy falat kenyér. 130W-os processzoron is ki vagyok akadva, de VGA-nak ennyi áramot egyszerűen pazarlásnak érzek
-
Abu85
HÁZIGAZDA
A 400 watt az NVIDIA kérvénye, ettől még ha jóvá is hagyják az emelést nem biztos, hogy 400 watt lesz az új limit. Erről a PCI-SIG egyedül nem dönt. A partnerek véleményét is meghallgatják. Valószínű, hogy az egészből nem lesz semmi amúgy, legalábbis az OEM-gyártók nem értékelik a módosítást. A 300 wattal elégedettek. Én is a mostani speckók mellett állok. Semmi értelme többnek, sőt soknak tartom a 300 wattot is, de az már szabvány, szóval csökkenteni nem fogják.
Azt kellene tudni, hogy az NV miért akar 400 wattot, és hogy mennyire igaz az a pletyka, hogy a GK100 sosem jelenik meg. Vagy esetleg a kettő összefügg, és a GK100 megjelenése a 400 wattos limithez lenne kötve, vagy független a dolog egymástól, és a GK100-zal nincs semmi baj, így csak rémhír, hogy törölték. Sok tehát a kérdés. Annyi a biztos, hogy van ez a kérvény, amiből valszeg sok pletyka fog születni az elkövetkező hetekben (nem biztos, hogy érdemes majd azokra alapozni). Én még mindig az eredeti infókat tekintem alapnak, vagyis, hogy három GPU jön: GK107, GK104 és GK100 ... nem feltétlenül ebben a sorrendben. -
#16939776
törölt tag
Legyen meg a lehetőség a 400W-ra, de ne 120C°-os gpu hőmérséklettel, és lehetőleg ne szálljon fel full load-nál.
A hűtés súlya nem fog tetszeni a kártyának, elgörbíti, lejön rólla a bga. végül is mindegy
Elmebetegség 400W-nyi hőt szabadjára engedni egy pc házban
Vízhűtéssel 500W-al is simán megvan, mindenféle probléma nélkül.
Minek???
-
vinibali
őstag
nyilván az nVidia kérvényezte, mert nem sikerült valami jól az 590. na
talán 28nm-en megoldódnak a dolgok és nem fognak itt nyávogni, hogy alacsony a limit... -
djculture
félisten
Ez a három bovitóhelyes kártya mondjuk jó lesz,egyes lapokon minden slotot szépen lefog fedni...
-
lenox
veterán
Miert pont 400, miert nem 375? Csak mert pcie slot 75 watt, 2x4-as atx power kanoc 150 watt, szoval 375=75+2x150, pont mint amit mar eddig is hasznalnak, csak nem szabvanyos, lehetne szabvanyos. De honnan jonne meg 25 watt?
-
djculture
félisten
Minél nagyobb a fogyasztás annál nagyobb a hőveszteség és hamarabb el is öregszik az elektronika.Nemhiába van rengeteg gariidőt alig túlélő csúcs vga.Aztán hőlégfúvozni meg egyebek mert a forrasztás is elöregszik a nagyobb hőtől.Nemhiába hozták ezt a határt,túl lehet lépni csak épp drasztikusan esni fog az élettartam.
-
DemonDani
addikt
ez mi
egy piacot nem tudok mondani, ahol a korlátokat kifelé engedik
még ilyen szar szánalmas cselekedetet -
GribMate
aktív tag
válasz
bmollszeptim #51 üzenetére
"Nem értem miért nem sikerül az a VGA gyártóknak.nagyon fontos lenne nekik szerintem a kisebb fogyasztás,mivel az integrált megoldások is egyre erősebbek,alacsony fogyasztás mellett."
Ha a keveset fogyasztó, integrált megoldások elérik a 30 FPS @ Full HD @ közepes-magas grafikai részletesség szintet néhány év alatt (talán, esetleg), akkor a dedikált VGA piac alsó-középső ága hal ki.
Ami marad az a fullgazdag / fullvérpisti / fullfanatikus igényeket szolgálja ki és ott mindegy mekkora a méret és a fogyasztás: ez éppen kapóra jöhet a VGA gyártóknak, mivel olcsóbb a "tegyünk bele 2000 shadert 5GHz-en", mint a "dolgozzunk ki új, hatékony architektúrát, ami a felső kategóriás igényeket is greenül szolgálja ki". -
banhammer
veterán
Minek a szabvány ha amúgy is állandóan kitolják a keretet?
-
keldorn69
csendes tag
egy egész atomreaktor kell majd az üzemeltetéshez
-
Prof
addikt
válasz
hyperspace #6 üzenetére
"alig használt fehér Severin kenyérsütőmet cserélném 1:1-ben AMD HD6990-es típusú PCI-E-es kenyérsűtőre
"
-
dahneey
tag
techpowerupon a gtx 590 legmagasabb mért fogyasztása 356 watt, a 6990-é meg 338. nem hiszem hogy 28nm-nél elérnék a 300 wattot, hacsak nem arra hajtanak. 40nm-re váltásnál is azonos teljesítmény mellett 60-70%-ra esett a fogyasztás (legalábbis AMD-nél), ebből kiindulva a gtx590 teljesítménye elérhető lenne 250 wattal.
-
Prof
addikt
válasz
Plazmacucci #3 üzenetére
A hardver nagyságrendekkel olcsóbb, mint a programozó órabére
Nem fognak "megtanulni" programozni. -
Löncsi
őstag
Éppen ezért felvetődött a 400 wattos fogyasztási limit bevezetésének lehetősége, melyet az információk szerint az NVIDIA kezdeményezett
Csak nem a Kepler miatt?
Jó lenne ha a Fermiből tanulva nem készítenének kazán GPU-t ismét.
-
bmollszeptim
aktív tag
"felvetődött a 400 wattos fogyasztási limit , melyet az NVIDIA kezdeményezett." Inkább a csík szélesség csökkentésével kellene többet foglalkozni,és a kisebb fogyasztással.A mai világban 400 W,és 3 PCI helyet foglaló VGA
Nevetséges.Szerintem ez rossz irány,a felhasználok 90%-nak. Példát lehetne venni az Inteltől. pl. Egyre nagyobb teljesítményű procik jönnek ki,kevesebb fogyasztással,és hőtermeléssel.Nem értem miért nem sikerül az a VGA gyártóknak.nagyon fontos lenne nekik szerintem a kisebb fogyasztás,mivel az integrált megoldások is egyre erősebbek,alacsony fogyasztás mellett.
-
Angel1981
veterán
Nem, én is pont így kalkuláltam!
Kb. 60-70.000 Ft-ba kerülne az upgrade (beleszámítva már a régi alkatrészek értékesítését), és így jött ki az 5-6 év, évi 12-13.000-es magtakarítással.
Arra jutottam, hogy szép gondolat, de CSAK ezért nem fogok újítani, azt majd pár év múlva úgyis megteszem, és akkor talán még takarékosabbat tudok venni. -
lvb
aktív tag
Azért, mert kevesebbet fogyaszt, még nem biztos, hogy hatékonyabb. Lehet, hogy 500W-ot fogyaszt, és hatékonyabban használja fel az energiát, mint 1 100W-ot fogyasztó GPU. (pl több mint 5x gyorsabb. Ebben az esetben arányosan több adót kellene fizetni a 100W-t fogyasztó eszköz után a javaslatod szerint.)
(Egy 200kWh-t és egy 300kWh-t fogyasztó hűtő is lehet A+ kategóriás)
-
80hun
addikt
Had csinálják.
Aki meg tudja venni s csúcskategóriát ne sitjona számla miatt.
Lassan megjelennek a 2000w os tápok is mire elérjük a 400w ot
aki meg hármat köt össze egy 1000000 ft gépbe annak mindegy csak a teljesitmény legyen nagyobb.
A kis fogyasztás kis teljesitmény akárcsak autónál.
Épits kis gépet ha energihatékonyat szeretnél. -
_csanesz
csendes tag
Azért most két dolog erősen összemosódik.
1. Lehessen-e bármilyen VGA-t 400W-ra tervezni
2. Hogyan kényszerítsük a gyártókat/fejlesztőket, hogy energia-hatékony megoldásokat fejlesszenek.Az első kérdésre szerintem egyértelműen lehet igennel válaszolni.
A második kérdés a rafkósabb... És, így 0 gondolkodással is jut eszembe ötlet. Pl. külön foglalat 300W felettire... + az ilyen foglalatot gyártó lapokra, kártyákra extra adó valamilyen nemzetközi szervezet javára.
Végül is az autó/motor gyártásban is hasonló a felfogás. A hatékonyabb gyártmányokat jogszabályban rögzített módon támogatják, preferálják.
Egész nyugodtan lehetne a számítástechnikába is bevezetni valamilyen energiahatékonysági mutatót (mint pl. a mosógépek/hűtők esetében.) -
Bogyó bá'
nagyúr
válasz
atti_2010 #23 üzenetére
Dehogyisnem lehet! Nézz meg egy HKC vagy Mercury 650W-os tápot. Na az is csak PMPO.....
szerk: egyébként a 3 slotos hűtés nem is lenne hülyeség, mert ilyen szélességben már komoly légcsatornát lehetne kialakítani úgy, hogy a ventilátor az összes meleg levegőt kitolná hátul.
-
MZperX75
addikt
Nekem csak a gépem tavaly havi 6-8000Ft volt (idle 170W 24/7,load 370-400W CFx)-be persze nem erőltettem sokáig,most már csak HTPC-m van! 25W-al megy 24/7-be persze +monitor 5-6óra naponta.
Havi min 3-4000Ft spórolok ahhoz képest!400W-os szabványt,NV? mi a F***nak?
25-30W-is sok+30Wos monitorral+szünetmentes táp+5W az is 60W-ra jön ki!
Inkább erőltessék lefelé 150W-nak tenném mega felső határt,na jó 200W-nak!
-
miaoumaoi
tag
szerintem is fölöslegesek ezek a határok, legalábbis amíg ésszerű érvek nem társulnak hozzá, mint pl. kocsiknál sebességhatár, stb. itt max. a villanyszámla jelent akadályt, tehát számítani kell a nagyobb kiadásokra is.
-
XtremLor
őstag
válasz
Angel1981 #19 üzenetére
Utána számoltam én is, pont e miatt nem fektettem be még ebben az évben, a pénz meglett volna igaz. Nem cserélgetem évről évre én se, ezért alaposan megfontolom mit veszek.
Pont ezért nem is uj árakkal számoltam jo nekem a használt is garanciálisan innen a hardverapróról pl!
A jelenlegi gépem alapjáraton 200w fogyaszt tegyük fel legjobb esetben az uj 100wattal kevesebbet. Tehát megtakarítás: 0,1(kW/h) * 6(óra/nap) *365(nap/év) =219kW
ha a rendszerhasználati díjat figyelembe veszed akkor olyan 50-55huf kWh körül mozog.
tehát egy évben kb 12.000ft a megtakarítás, persze ezek csak nagyolt számítások.
Persze ha valamit kihagytam szolj. -
MZperX75
addikt
405 -öst én építettem is
1992-ben!
Nekem mondjuk nem a boleró(HS500) volt ,hanem a Orion HS511-es,és aOrion HS288-as!+2 óriás épített hangláda 2erőködővel(2db quad 405)2x150W sinusosan terhelve 4Ohm-ra!
egy kis izelítő deck-re!
ezek voltak(ortofon tűs lemezjátszórol,és egy sony CD-ről nem is beszélve)
AiwaF220,Technics SB-X-626(3fejes)Pioneer CT-506(deprez) és még sorolhatnám!
Az volt a hifi korszak......
1983-ban volt az első mono RFT magnom (MK20)
1984-ben RFT music center(nagy lebillenthető plexivel)
Csak a 90-es évek végén elment fűre-na jó csak vicceltem...
-
lvb
aktív tag
válasz
Plazmacucci #30 üzenetére
Ami régen ment, az most is megy, ha valaki kifizeti. Ha nincs rá igény, akkor minek? Mindenki profitmaximalizálásra törekszik, ami azt jelenti, hogy az egységnyi befektetésre a lehető legmagasabb legyen a haszon. És amíg az alaposan letesztelt, validált és optimalizált alkalmazásokkal szemben a fizetőképes kereslet - a többi nem számít - a bugosabb, erőforráspazarló, de egy nagyságrendel olcsóbb alkalmazások felé tolódott el, addig ilyenek lesznek az alkalmazások. - A szándékos üzletpolitikai lassításoktól most tekintsünk el, mert szvsz ez elhanyagolható az alkalmazások számához képest.
-
-
#72042496
törölt tag
válasz
Plazmacucci #30 üzenetére
Igen, ha nem lenne nagyságrenddel drágább kifejleszteni egy-egy játékot és ha az emberek döntő hányadának nem lenne totál érdektelen a PC mint játékplatform.
Végülis akkor tényleg mehetne az, ami régen.
-
liksoft
nagyúr
válasz
Plazmacucci #30 üzenetére
Azért a kép árnyaltabb. A legnagyobb gond, hogy a szabványokat nem tökéletesen tartják be, meg minden gyártó beleteszi a saját "csavarjait". A szabványt kéne tudni a leggyorsabb kóddal. Innentől lehet építeni rá, és nem kell olyanokkal foglalkozni, hogy IE vagy FF vagy egyebek alatt más kód kell. (Csak az ismertség miatt említettem a böngészőket, de a helyzet ha változó arányokban, de mindenhol igaz.) A programoknak mindenhol kell menniük, és minél több a kivételkezelés, annál lassabb a kész termék.
De alapvetően valóban a hatékony kódra kéne tenni a hangsúlyt.
-
#21346560
törölt tag
A tápok már jó ideje felkészültek rá...
Egyébként sok új vga úgy fogyaszt nem sokkal kevesebbet mint a régiek, hogy sokkal gyorsabb.... -
-
#56573440
törölt tag
válasz
#10034944 #25 üzenetére
meg elég lenne néha optimalizálás helyett ha nem mesterségesen tartanák magasan a hw igényeket. lásd gta amikor a képen nem látható vagy távoli modelleket is számoltatták csak azért hogy elmondhassák ez kiakasztja a csúcs vga-kat is. a crysis 2 is ugyanez a kategória volt is belőle balhé. azzal is foglalkoztak, csak nem jó irányba, lásd rejtett geometria, tesszalálási "hibák"...
-
Attix82
addikt
Szerintem nem baj ez, 35 -400 watt között lesz 20 féle VGA amik közül mindenki válogathat....10 emberből 1 fog 400 wattost, 3 ember 250 wattost többi meg 100 wattost...senkit se fog ezt befolyásolni, aki megteheti miért ne venne izom VGA-t....legalább foglalkoznak az asztali gépekkel is.
-
alvaro
senior tag
Részemről ott húzom meg a limit, ahol a PCI SIG a slot teherbírását - nem teszek a gépbe olyan kártyát, aminek külön tápcsatlakozó kell. Ennyi. Innen tőlem csinálhatnak 5kW-os GPU-t is, az egyszerűen nem létezik.
-
Fücsök007
őstag
Ez ma így megy sajnos. De az is közrejátszik azért, hogy a legtöbb kiadó, illetve cég nem engedheti meg magának, hogy túl sokáig készüljön egy játék, mert sem az időre(konkurencia játékai, grafikai motor elavulása), sem az agyonoptimalizációra nincs pénze.
Ebből adódóan azt lehet(ne) elvárni jó optimalizálás mellett, hogy az adott időben kiadott játék újnak számító grafikus motorja, maximálishoz közeli beállításokon és felbontáson (Full HD) stabilan menjen átlag 30-40FPS-sel egy 200dodó érték körüli új generációs videókártyán. Ettől többet nem nagyon tudnak kihozni még Blizzardéknál sem, pedig aztán nekik van rá keret is, meg idő is.
-
liksoft
nagyúr
Lemaradt egy "gyöngyszem".
-
Hokoyumi
tag
aranyos, ilyet még úgy se láttam
de am pont ezért mondtamugye volt hír hogy az amd csúcs mxm modulja megáll 85W-nál, az nv pedig kihasználja a 100W-os határt mégis (a mérhető teljesítménye) gyengébb
nyers erőben nem tudom mit mutat a 2 gyártó egymáshoz viszonyítva, de informatikában nem az számít, hanem az adott kód futási sebességeha 1 mostani csúcskonfigra lenne olyan optimalizálás mint a konzolok AAA-s címeinél mit dobna az grafikailag?
4k felbontás sztereó 3d, fix 120 fps, fotó minőségű grafikával?az a baj a gyártóknak sem éri meg, hogy az utolsó csepp erő is hasznosan ki legyen facsarva az adott termékből
jobb nekik a szar optimalizáció, akkor vesznek erősebbet...komolyan mondom szégyen ez a mai világ...
-
liksoft
nagyúr
-
Angel1981
veterán
Értékelendő ez a hozzáállás, de rendesen utánaszámoltál, hogy mikor térül meg?
Ilyen kalkulációt én is végeztem, és az jött ki, hogy még legjobb esetben is (ha pl. jó áron tudom eladni a régi alkatrészeket, és sokat használom a gépet, ergo egy nap viszonylag sokat megspórolhatok a kisebb fogyasztással) 5 év a megtérülési idő, és annyi idő alatt egyébként is fejlesztenék én is, meg a nagy átlag is. -
lvb
aktív tag
Szvsz. úgy 92-től a Sound Blaster megjelenésétől lettek egyértelműen jobbak a PC-s játékok, mint a C64-sek
A teljesítményigény növekedése nem csak a számítástechnikát érinti. Mivel minél kényelmesebb, szebb, divatosabb és olcsóbb stb. dologra vágynak az emberek, ezért minden területen ez figyelhető meg - pl. kaszálás - kombájn. (Energia)hatékonyságban meg sem közelíti a kombájn a kaszát, mégis alig van, aki az "optimalizált" - azaz valódi bio, kézzel előállított cuccok felárát kifizeti.
-
XtremLor
őstag
A mai áram árakhoz nem nagyon akarnak igazodni, 400W a lelki terror határát súrolja.
Jo persze aki gtx590-et vagy 6990 vesz megvan a kerete rá, ám attól hogy van pénze nem biztos hogy azt a plusz fogyasztást is jó szemmel nézné.
Lassan én se azért akarok fejleszteni, mivel lassúnak érzem a gépem, hanem egy friss vas azonos teljesítmény mellett jóval kevesebbet fogyaszt, mint az én 775-ös konfigom. Persze ez + befektetéssel jár, de nézni kell a plusz teljesítményt és a csökkenő fogyasztást is. -
Móci
addikt
Persze, legyen mindjárt 600W, aztán lehet kihozni a szörnyeket, amin majd a jövő játékai is akadni fognak, mert szarul vannak megírva. Hurrá.
-
liksoft
nagyúr
Lehet, hogy csak az idő szépíti meg, de sokáig szerintem a PC-k a C64 nyomában sem jártak. Ott volt a Ghostbusters vagy a Mission Impossible játékok hangja, képe. Amikor az erőforrás a C64 fölött legalább 20-szoros lett, akkor kezdtek hasonlót alkotni. Hallottuk, hogy 640k is elég mindenre (nem igaz), de egy-egy régi táblázatkezelő, stb. még régebbi gépen is megveri a maiakat. Igaz "butább", de a mai feladatokra is 99-100%-ban elég.
Akkor mi a különbség? Ahogy már más is írta. A programozás. Annó még olyant is megengedtünk, csak a kód kisebb legyen, hogy egy ugrás után a kód a célhelyen utasítás közepétől folytatódott. Egy 3-4 byte-os utasítás utolsó 1-2 byte-ja lehet valósan végrehjatható másik utasítás, ami a programban éppen jól jön. Bizony kihasználtuk. Valamint ha időre kihegyezett két variánst kellett megírni, az két rutin volt, nem egy "általános" ami esetleg még 66 egyebet is tud (igaz, 6-szor lassabban). Nem a HW lassúságára panaszkodtunk, hanem versenyeztünk kié a gyorsabb.
-
iMaverick
addikt
Pedig pont hogy nem növelni kellene a limitet, hanem csökkenteni! Manapság a gépek (beleértve a szg.-ket is) energiaigényét csökkentgetik, ez a trend. Namost azért mert valaki bika gépet akar építeni, ne kelljen már Paksról direktbe behúzni egy villanydrótot...
Valahogy kerüljék meg a problémát. (Ne csak a régi verziót foltozgassák állandóan!)
-
Angel1981
veterán
Nekem is hasonló jutott az eszembe!
Ha a VGA piac "összeomlóban van", akkor miért foglalkoznak a szabványok módosításával?
Pláne olyan szabványokéval, amik csak a csúcskategóriás VGA-kat érintik?
Egyébként a "400W már túl sok" számomra nem kifogás, mert nem egy kártya közelítette már azt fogyasztás tekintetében, és meg lehetett oldani, csak hangos volt. Ha szabványosítják, és még a 3 slot vastagságot is engedélyezik, akkor valószínűleg még hatékonyabban megoldható a hűtés. -
atti_2010
nagyúr
Ez nagyon nem jó iránynak tűnik, remélem nem engedélyezik!
-
mghltm
addikt
-
lvb
aktív tag
válasz
Plazmacucci #3 üzenetére
És te kifizetnél a 10x - 100x többet egy játékért, csak azért, hogy ráoptimalizálják a te kártyádra (egy ennyire szegmentált GPU piacon)? Vagy esetleg vennél egy elegendően gyors kártyát olcsóbban, mint amennyi 1 játék optimalizációs felára lenne.
Ha nem fizetnéd ki a felárat, akkor felesleges az optimalizáción feszt rugózni, mert unalmas.
-
hyperspace
őstag
marketingnek jót tenne ez a dolog a csúcskategóriában. ingyen kenyérsütőt kapnának a hc gamerek.
-
Youri
veterán
Egyik nap hír, haldoklik a pc, az OEM-ek nem foglalkoznak a GPU-val, másik nap hír, megemelik potom 100 wattal a pci-e keretet....
-
Hokoyumi
tag
az meg 400W...
inkább lefelé kéne vinni, erő van bennük bőségesen, az más dolog hogy nem lehet kihasználni normálisanaz a baj túl sok a gpu és túl sűrű a váltás
ha 3 évig élne adott széria fixen, lenne mire optimalizálni, de hogy évente jön...
20 mostani generációs konzolt magában az 590 vagy a 6990 is kiröhög, annyival erősebbek, csak ezt látni nem lehet rajtuk
ugye ilyen "disznókat" csak játékra vesznek, amilyen erőforrás pazarlása meg a mostani játékoknak van az félelmetesam a címet elolvasva várható volt hogy az nvidia erőlteti
a legdurvább az lenne ha megengednék és az amd 300W-os határon belüli gpu-ja elverné a 400W-ot zabáló nvidiát, 2014-re már 500W kellene -
Baromság. Inkább tervezzenek hatékony architektúrát. Faszt. Tanuljanak meg programozni a a meglévőkre.
-
Fücsök007
őstag
Azért ez a 400W már borzasztóan sok,
ráadásul már régóta megoldható a dolog SLI vagy CF használatával.
-
Dany007
veterán
Ha dolog tényleg úgy működik, hogy amikor már kényelmetlenné válik a 300Wattos határ, akkor egyszerűen megemeljük azt 400Wattra, akkor gyakorlatilag semmi értelme sincs határokat kitalálni, ha idővel úgyis megemelik amint égetően szükségesnek tartják...
Új hozzászólás Aktív témák
- Lenovo ThinkPad X270 (16) - i5-7300U, 16GB, 512GB SSD, 12" FULL HD (ELKELT)
- Eladó 2db Nokia steel hr hibrid okos óra dobozával
- HIBÁTLAN iPhone 14 Pro 128GB Deep Purple -1 ÉV GARANCIA - Kártyafüggetlen, MS3102
- HP EliteBook 830 G5 i5-8350U 16GB 512GB 13.3" FHD IPS
- Több mint 70.000 eladott szoftverlicenc
Állásajánlatok
Cég: FOTC
Város: Budapest