Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz lujó55 #12 üzenetére

    Ez miért negatív? Egyszerűen csak kiderült, hogy valójában hogyan működik a GPU Boost. Az NVIDIA erről nem számolt be ilyen részletesen. Most már tudjuk az alapokat. Azt neked kell eldönteni, hogy ez mennyire fontos.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #30 üzenetére

    Nem értem, hogy ki festi le úgy. Az utolsó bekezdésben le van írva, hogy jogilag ez ok, mert az NV nem garantálja a 8 egységnyi órajelemelést. A probléma ott van, hogy a tesztekre a jobb termékeket küldték, míg a kereskedelmi termékek lehetnek rosszabbak is.
    Ez azért került elő most, mert a Hardware.fr visszaadta az NV-nek a tesztkártyát és egy kereskedelmit vettek helyette. Na most az új tesztjükben a HD 7970 megverte a kereskedelmi GTX 680-at, holott az első tesztben nem volt gyorsabb. Ezért járt utána ennek, mert furcsa volt, hogy hirtelen gyorsabb lett a HD 7970, holott szinte semmi sem változott.
    A válasz a GPU Boostban keresendő. A kereskedelmi termékek különbözhetnek a tesztre kiküldött termékektől. Ez végre leírja, hogy a GPU Boost nem állandó 104 MHz, hanem attól függ, hogy mennyi szerencséd van. Az NV a press anyagban ~100 MHz-ről beszélt és az 1058 MHz-et átlagértéknek írták. Na most ezt sokan okkal úgy értelmezték, hogy a játékokban lehetséges átlag GPU Boost 1058 MHz, és mindegyik termék képes a ~104 MHz-re. Mint kiderült ez nem így van.

    Ezeket érdemes tisztába tenni, mert a teszteknél mostantól nem mindegy, hogy milyen GeForce GTX 680-at használsz, mivel öt különböző teljesítményű verzió van a GPU Boostra.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #34 üzenetére

    Azért az Anno 2070-ben az 5% nem kicsi. Átlagban a 2-3%, amit az 52 MHz-es különbség okoz az nem nagy dolog, de olyan helyen, ahol a GPU Boost szinten állandóan maximum lehet már 6-8%-ról van szó. Ez nem processzor, hanem GPU. Itt az órajelek rengeteg magra vonatkoznak, 52 MHz különbség 159,7 GFLOPS eltérést jelent a számítási teljesítményben.

    Ezen nem felháborodni kell. Itt van egy minimum spec, amit az NV megadott. Ami miatt ez fontos, hogy ügyelni kell a termékek kiválasztására a teszteknél, mert két GeForce GTX 680 közül átlag 2-3% különbség lehet. Ha megnézted a mi tesztünkben 3% különbség volt a HD 7970 és a GTX 680 között. Ugyanerre figyelt fel a Hardware.fr, hogy a semmiből a HD 7970 hirtelen megverte az új GTX 680-at. Pedig a tesztterméktől kikapott.

    Azért a monitorpiac más. VGA-nál ugyanolyan terméknél nincs szórás. Processzornál sincs. Most sem az alapórajel szórja a teljesítményt tágabb határba, hanem a Boost. Nyilván most már értjük, hogy miért. Eddig ezt nem értettük. Még gyártón belül is lehet olyan venni, amiből az egyiken 8 egység a boost, míg a másikon csak 4 egység.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #36 üzenetére

    Engem sem, csak fontos tudni, hogy hogyan működik, mert ez nagyon nem így volt kommunikálva, és leírva az eredeti dokumentációban. A worst-case az inkább 8% körül van. Az 5% az a 6 egység és a 8 egységnyi boost összehasonlításánál lehetséges, mint legrosszabb érték. A kereskedelemben lehetnek 4 egységnyi boostot támogató kártyák is.

    A tuning az egy másik kategória. Minden terméket lehet húzni. Itt most alapon értékelt szolgáltatásokról beszélünk.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz MongolZ #37 üzenetére

    Az AMD az PowerTune-t használ, de az felfelé nem emelhet órajelet. Sőt 0%-on úgy van kalibrálva, hogy a Furmark és az OCCT-ben csökkenjen az órajel.

    Ami itt kérdéses még az az Intel és az AMD-féle turbó az IGP-ken. A mostaniak eltérőek. Az Intel olyan turbót használ, mint a prociknál, a vezérlés belsőleg van megoldva, így elég jó a hatékonyság. Természetesen a max. értéket mindegyik eléri, és mindegyik termék arra képes, amit a speckó mutat. Az AMD Brazos platformhoz használt turbója egyszerűbb. Van egy alapórajel és egy turbó órajel. Ha az alapon a platform nem fogyaszt sokat, akkor az órajel felugrik a turbóra. Ha kiesik a keretből a fogyasztás, akkor visszaáll az alapórajel. Itt sincs több eshetőség, mindegyik termék ugyanarra képes. A jövő turbóit meg majd meglátjuk. Szerintem ez a GPU Boost sem marad meg ilyen formában, mert nagyon magas késleltetéssel dolgozik a váltás. Gondolom nem sokkal a start előtt találták ezt ki, és így lehetett megvalósítani.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz tombar #45 üzenetére

    Mi biztos, hogy a legújabbat használtuk a VGA-kra. Szándékosan így csináltuk, hogy később jók legyenek az eredmények.
    A különbség még a felbontás és a grafikai részletesség. Mi mindent felrakunk maxra, amit csak lehet. Ahogy elnézem máshol ez nem szokott megtörténni. Az AA-t sokan 2x/4x-en hagyják, még akkor is, ha elérhető a 8x. Ez okozhat ilyen különbségeket.

    Igen ... Damien fedezte fel azt is. Mondom ő nagyon utána jár valaminek, ha valami érdekességet sejt. A Crysis 2 egyszerűen lecsengett. Ugyanolyan szar maradt a DX11, csak már senkit sem érdekel. Sőt, ott tartunk, hogy az AMD ajánlgatja tesztre, mert a GCN architektúra tesszellátora nagyon kedveli azt a szituációt, amit helyenként a Crysis 2 teremt. Rengeteg olyan felület van benne, ami tesszellálva van, de ettől még sík marad. Ilyenkor a Gen9 tesszellátorjuk brutálisan erős vertex re-use képessége aranyat ér. Emellett mentegetik szépen le a felületeket az L2-be is, így ki sem számolják többet, míg a többi termék ezzel elpöcsöli az időt. Ezért is hagyjuk a Crysis 2-t, mert attól függ a sebesség, hogy hol mérsz. Ha sok a tesszelláció, akkor a GCN architektúra oda teszi magát. Ha kevés a tesszelláció, akkor elég átlagos az eredmény, míg ha sok az egyszerűbb számítás, akkor az a Keplernek kedvez. A probléma, hogy a helyzetek mesterséges kreáltak, ezért el kell dönteni, hogy melyik architektúrának kedvezz.

    Nem, az itt a gond, hogy a kereskedelemben lassabb GeForce GTX 680-ak is előfordulnak, mint amik a tesztekben vannak. A GPU boost garantált szolgáltatás, csak nem mindegyik temréknél garantált a 104 MHz-es plusz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz lujó55 #55 üzenetére

    Igazából az garantálva van. Tehát az NV 1058 MHz-es Boostot garantál. Ennél biztos nem lesz kevesebb. A teszttermékek viszont 1110 MHz-es Boosttal mentek, és előfordulhat, hogy kifogsz egy ilyet is kereskedelmi forgalomban. Ez akkor negatív, ha csak a minimális boostot kapod, akkor pedig pozitív, ha a maximálist.

    (#56) tombar: Szerintem mindegyik hiteles, csak figyelni kell a részletekre. Driver verzió, gép felépítése, játékbeállítások és egyéb beállítások. Általában erről írnak a jobb oldalak.

    A Warhead az a nagy memória-sávszélességet és a számítási kapacitást szereti. Emellett az is jó, ha sok a textúrázócsatorna a VGA-ban. Ebből a GCN elég jó, így a Radeonoknak ez a helyzet jobban kedvez. De amúgy akkora különbség nincs ... tartják a lépést a GeForce-ok.

    A garantált itt az 1058 MHz. Ha ennyi megvan, akkor nem lehet szavad. Maximum keserű lehet a szád íze, hogy más ugyanilyet vett ugyanennyiért, és neki van 1110 MHz is. Jogilag ez nem támadható, mert az NVIDIA a garantált alapot mindig odaadja.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #82 üzenetére

    [link] - A GTX 690 tesztjében van 7970 CF. 12.4-es driverrel csinálta. Nem róhatod fel neki, hogy nem leste meg az új drivert. :)

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz tombar #91 üzenetére

    Inkább az amit mondtam régen. Az eredmények a részletekben keresendőek. A Shogun 2-höz például jött egy patch, ami valamit elrontott. A legtöbb terméken javult a sebesség, és csökkent a betöltési idő, de a Kepler sorozat teljesítményét a patch tönkretette. Valamiért néha a felét teljesíti annak, amit a patch előtt teljesített. Az NV szerint a fejlesztők rontották el. Ezt a patch alapján hajlandó vagyok elhinni. Persze a dolog kellemetlen, mert a patch nélkül meg nem friss a játék, ami a multira hátrányos. Majd várni kell egy javítást. Mi megpróbáljuk nem felküldeni a netre a Shogun 2-nket, és akkor nem lesz frissítve, persze ha nem sikerül az offline tesztelés, akkor megszívtuk. Majd leírjuk, hogy miért gyenge. A patch miatt lehet, hogy hamarosan kikerül a program, mert fogalmunk sincs, hogy mikor javul meg a teljesítmény, szóval így nehéz normális képet lefesteni. Helyette majd bevesszük az Anno 2070-et, mint alternatívát.
    A hardware.fr-ről ne linkelj közvetlenül, mert a szerver nem fogja betölteni a képet. Le van védve a hotlink.

    (#92) TTomax: Másik topikban írtam már, hogy a BF3 teljesítménye nagyon függ a beállításoktól. A Frostbite 2 motor egy speciális mozaikos deferred rendert használ. Nagyon sok szempontból ez a legjobb, mert gyors, sokat tud, jó az eredmény, ám negatívuma, hogy kétpofára zabálja a VRAM-ot. A hardware.fr mérései 4xAA-val, vagy magas felbontáson készültek. A játék nagyjából 1,4-1,5 GB-nyi memóriát igényel az általános adatoknak, míg a képkocka információi, a felbontástól és az AA-tól függnek. Amit látsz a hardware.fr tesztben az a memória limitáló hatása. A GTX 680-on és 690-en 2 GB van, míg a Radeon HD 7970-en 3 GB. A 2 GB 1920x1080-ban nem gond, mert nagyjából 0,6 GB a képkocka adat és marad 1,4 GB a többire. 2560x1600-ban már gondok vannak, mert 1 GB-ot nyaldossa a képkockára vonatkozó adat, így nem marad kellő memória a többi adatnak a 2 GB táron. Itt jön elő a többletmemória előnye. 5760x1080-ban ugyanez a helyzet. AA nélkül nagyjából 0,8 GB a képkockaadat, ami szintén kevés lesz a 2 GB VRAM-ra. 5760x1080 + a 4xAA a legrosszabb szituáció, ekkor 1,5 GB a képkockára vonatkozó tárolandó információ, vagyis a 3 GB egyenesen alapkövetelmény, hogy beférjen még 1,4-1,5 GB-nyi adat.
    Ez a része érthető. A GeForce a beállított paramétereken kezd kifutni a memóriából, míg a Radeonnak ebből van elég.

    (#99) TTomax: Működik a Zero Core. Ha kikapcsol a monitor, akkor az új Radeonok fogyasztása jelentősen csökken az idle-höz képest. [link] - ezt a múltkor lemértük. Az aktív hűtés is leáll.
    Nyilván a teszt eredményei a játéktól és a beállítástól is függnek. Pontosan ezért tartjuk magunkat különböző elvekhez, hogy az adott generáció termékei a lehető legnagyobb terhelés kapják, a legmodernebb játékokon.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #103 üzenetére

    Semmi köze a konzolparancshoz. Ez az alkalmazott deferred render működése. A konzolparancsból maximum a Tile méretét lehet változtatni, de nagyon nem ajánlott, mert a motor minden termékre optimalizált méretet használ. Globális paramétert itt nem érdemes használni, mert a shared memory mérete eltérő lehet az architektúráknál. Egyébként, a méret megváltoztatása a VRAM használatára nincs hatással. Az adatokat ki kell menteni. A számításra van hatással, hiszen a rendszer a megosztott memóriára támaszkodik.

    Dehogynem kell fel. Nekem is Zero Core-os HD 7850-em van. Bármikor felkel, ha otthagyom és kikapcsol a monitor. Megmozdítom az egeret és bekapcsol azonnal a venti, majd 1-2 másodperc múlva lesz kép is. Még Windows XP alatt is működik.

    Nem veszem sértésnek, csak ha működik, akkor ne írjuk azt, hogy nem működik. :) Amit tesztet csináltunk, ott le van mérve az eredmény. Nyilván, ha nem kell fel a termék, akkor azt azért észrevettük volna.

    Nem arról van szó, hogy az NV mit küld tesztre, hanem a GPU Boost működéséről, ami körül általános kavar volt, és van még most is, mert nem mindegyik kereskedelmi termék teljesíti azt, amit a tesztekben olvas a user. Világos, hogy ha a tesztben 1110 MHz-et lát a Boostra egy programra, akkor felmerül a kérdés, hogy a sajátján miért 1058/1071/1084/1097 MHz a maximum. Most már megvan erre a válasz is. Azért, mert az NV csak az 1058 MHz-et garantálja a többi szerencse kérdése.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #106 üzenetére

    Fogalomzavarban vagy. A tuningra nincs garancia. Amint 1-10-100-200 MHz-et emelsz a termék alapórajelén elveszted azt a stabilítást, amire a gyártó garanciát vállalt. Minden egyes tuningprogram, sőt még a Catalyst Overdrive modul is arra figyelmeztet egy szerződésben, hogy minden elvégzett módosítás kihatással lehet a rendszer működésére, és ezért a gyártó semmilyen formában nem tehető felelőssé. Amint ezt elolvastad két lehetőséged van. Elutasítod, és akkor a program vagy nem települ, vagy az overdrive felület például lakat alatt marad, vagy elfogadod, és akkor magadra vállalsz minden felelősséget az esetleges instabil működéssel kapcsolatban, amit a tuning okozott.
    Kétféle felelősség létezik. Ha nem stabil a gép és nem tuningolsz, akkor lehet reklamálni. Ha tuningolsz és nem stabil a rendszer, akkor nyilván te vagy érte a felelős, mert a terméket nem úgy használtad, ahogy a gyártó garanciát vállalt rá.
    Egyébként, ha az Overdrive felületen belül tuningolsz, akkor megy a Zero Core. Ezt kipróbáltam. 1 GHz-es magórajellel is működik. A 3rd party programokat kell elővenni, amire az AMD eleve semmilyen garanciát nem vállal, hiszen nem ők fejlesztették az alkalmazást. Az AMD nem véletlenül kínál Overdrive felületet, mert ebben tudják úgy kalibrálni a rendszert, hogy az úgy működjön, ahogy elgondolták. Persze erre sincs garancia, hiszen a lakatra kattintva jön a figyelmeztetés, amivel magadra vállalod a felelősséget, de erre az AMD figyel, hiszen ez a Catalyst része.

    Leírtam a cikkben a difit. 4 és 8 bin között átlag 2-3% lehet, míg ahol a GPU boost komolyan számít, ott 6-8%-ra lehet számítani.

    Maximum te nem ismered a stratégiai játékokat, mert az Anno sorozat egy nagyon kedvelt játék. Nem véletlen, hogy ennyi részt megélt.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #109 üzenetére

    A RenderDevice.ForceRenderAheadLimit a CPU és a GPU szinkronjáért felel. Megmondja a motornak, hogy mennyi jelenetet számíthat a processzor azelőtt, hogy a GPU elvégezné az első jelenet renderjét. Marhára nem ajánlott módosítani.

    Pontosan ott van, de ha használod, akkor el kell fogadnod a játékszabályokat. Semelyik gyártó sem vállal felelősséget a tuningért, és ez sosem fog megváltozni. Ha elfogadod ezt, akkor használd, és tuningolj, de ha így neked nem jó, akkor egyik gyártó sem kényszerít téged arra, hogy emeld a megvásárolt termék órajelét.

    A 6-8% akkor lehet, hogy nagyon érzékeny a program a GPU Boostra. A 2-3% az a nagy átlag. Ha pedig nem érzékeny, akkor lényegében nem lesz órajelemelés sem.
    Ahhoz képest, hogy szerinted az Anno 2070 nem teljesített jól, már érkezik hozzá a kiegészítő is. Kizárt, hogy ha rosszul teljesít, akkor kapnak pénzt a vonal folytatására.

    Lejáratókampány maximum a fejedben létezik. Ez a cikk arról szól, hogy hogyan működik a GPU Boost, amit eddig nem lehetett tudni. Azt a célt szolgálja, hogy elmagyarázza az embereknek, hogy a megvásárolt termék esetleg miért nem megy 1110 MHz-en, ahogy a tesztekben. Semmi más célja nincs, csak a tisztán látás, amire nem volt lehetőségünk korábban, mert az NVIDIA nem jól magyarázta el a GPU Boost működését. Lehet, hogy nem az volt a céljuk azzal, hogy eltitkolják azt, hogy nem mindegyik GTX 680 tud ugyanannyit, de látható, hogy általánosan zavaros az egész, amiért egyértelműen az a felelős, hogy senki sem tudta pontosan, hogy hogyan lesz meg a boost. Inkább örülj neki, hogy Damien leírta, mert most már mindenkinek világos lehet.

    Nem írtam, hogy az NV nem gamer GPU-t csinált. A Tahiti az más kategória valóban, azt az AMD már az integrációhoz tervezte, és telepakolta mindenféle extra fícsőrrel, valamint kigyúrták a compute-ra.
    Nem karteloznak a gyártók. Azért ilyen drágák a VGA-k, mert szűkül a piac. Minél tovább szűkül, annál drágább lesz generációról-generációra.

    (#110) TTomax: Egy játék értékének legjobb felmérése, ha megnézed, hogy a PH-n mennyien játszanak rajta. Hallottál már a Blacklight Retributionről? Nemrég vált elérhetővé. Ingyenes és nagyon sokan letöltötték, még én is nyomom. Az első részt jelentősen felülmúlta. És nincs normális topikja a PH-n. :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #112 üzenetére

    Láttam én is. Ezek szerint nem csak 8 egység lehet az emelés. Ezzel még nagyobb lehet a különbség az egyes termékek között.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz siriq #128 üzenetére

    Például az, hogy a teszteknél ezt nem írták le. Átlagnak írja maga az NV is a GPU Boost paramétert. Gyanítom, hogy mindenki a whitepaperből dolgozott, így ez újdonságként hat.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #133 üzenetére

    Nem az eltérő sebességgel van baj, hanem azzal, hogy ez nem így lett kommunikálva. Az NV sajtóján személyesen voltunk kint. Ott lett elmagyarázva, hogy az 1058 MHz átlagérték, és 100 MHz a GPU Boost. A whitepaperben is ez van írva. Most innentől kezdve pedig kiderült, hogy az 1058 MHz nem átlagérték, hanem ez a minimum garantált. Nem ugyanaz a kettő, mert whitepaper szerinti értelmezésben a 100 MHz plusz állandóan garantált, míg a valóságban 52 MHz plusz a garantált.
    Ha azt mondták volna, hogy 52 MHz pluszt garantálunk, de lehet, hogy pár termék gyorsabb, akkor nem lenne ebből probléma, mert az elején tudtuk volna, hogy hogyan működik a GPU Boost. Hogy az miért nem így lett kommunikálva, az a nagy kérdés, mert a GPU Boost nem úgy működik, ahogy kommunikálva lett.
    Az, hogy ez így működik nem baj. Azzal van a baj, hogy nem ezt mondták. Ha ezt mondták volna, akkor semmi gond. Leírjuk a tesztben, hogy ez hogyan működik, és nem azt írjuk, hogy 100 MHz a garantált.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #135 üzenetére

    Mi észrevettük, és többen is észrevették, csak ugye elvileg az volt elmondva normális működésnek, hogy ~100 MHz-et boostol. Azt álmunkban sem gondoltuk volna, hogy ez a kereskedelmi termékeknél nem így lesz. Miért is gondoltunk volna ilyenre? :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #137 üzenetére

    Gyanús volt itt minden, de erre az opcióra nem gondoltunk. A whitepaper alapján az jött le, hogy 100 MHz a bosst, és az NV pedig átlagértéket ad meg órajelben, ami ugye 1058 MHz, vagyis az elméleti boost fele. Ez logikusnak tűnt.

    Nekem simán bejön. :) Ami tényleg baj, hogy sok a noob és az rontja a multis élményt. De egy idő után úgyis a hardcore réteg marad meg.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    The “Boost Clock” is the average clock frequency the GPU will run under load in many typical non-TDP apps that require less GPU power consumption. On average, the typical Boost Clock provided by GPU Boost in GeForce GTX 680 is 1058MHz, an improvement of just over 5%. The Boost Clock is a typical clock level achieved running a typical game in a typical environment

    Gyakorlatilag ezzel van nekünk a problémánk. Most te ebből azt olvasod ki, amit ebben a hírben írtunk?

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz siriq #142 üzenetére

    Értem én, csak ez abból a review guide-ban megadott pár sorból nem derül ki. Ha kiderülne nem lenne miről beszélni.
    Többször írtam, hogy nem az a baj, hogy ez így működik, hanem az, ahogy ez le van írva a review guide-ban. Bemásoltam neked. Nem hiszem, hogy bárki abból a pár sorból ezt megfejtette volna.
    Itt egy alapvető kommunikációs gondról van szó. Nincs jól dokumentálva a működés. Persze viszonylag egyszerűre van véve az egész review guide, de azért a többi része valamennyire érthető. Ez nem az.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz siriq #144 üzenetére

    Erre született ez a hír.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz siriq #146 üzenetére

    Miért nem? Mert pótoltuk egy hírben a GPU Boost működéséről az adatokat?

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák