Új hozzászólás Aktív témák
-
-
Rendkívül szórakoztató topik lett, köszi minden résztvevőnek.
-
stratova
veterán
Szerintem ebben erősen közrejátszott, hogy olyan alkalmazásokban mérték össze őket ahol a Llano GPUja hathatósan tudott kis energiaigénnyel besegíteni, ahol Sandy GPU-ja már hebegett-habogott, összetettben nyomta le Llano a sarut. Ettől Llano még reméljük tényleg nagyon jó, de itt szvsz nem CPU vs. CPU mérkőzést játszottak le márpedig 1.8 vs. 2.0 GHz erősen utalónak tűnt.
-
Abu85
HÁZIGAZDA
Bréking nyúzz: Állítólag 1,8 GHz-es volt az a Llano, ami a videóban van.
-
Abu85
HÁZIGAZDA
Ez elméletben működhet. Volt azonban AMD-nél ilyen probléma nemrég. A 10.5-ös driver tartalmazott egy tökéletes CF profilt a BF: BC2-höz. A 10.7-re megváltoztatták a képkockák ütemezését, hogy egységes legyen a külön számolt tartalmak megjelenítése. A CF rutin változatlan marad, így ki gondolta volna, hogy baj lesz. Októberben csinál a HardOCP egy tesztet, amibe belefutott egy hibába, egyetlen jelenetben. Ez a jelenet jó volt a 10.5-ös driverrel. Az AMD megnézte és elkönyvelték, hogy a változó időzítések gondot okoztak, amikor nem kellett volna, hiszen a rutinok érintetlenek maradtak. Azóta javították a gondot egy új rutinnal. Bármennyire is logikus az elméleti sík, a gyakorlat nagyon ritkán különbözhet, persze ehhez az is kellett, hogy a módosításkor nem gondoltak át minden eshetőséget, vagyis mondhatjuk emberi hibának is. A rendszerprogramozók emberek, benne van a pakliban, hogy hibáznak.
-
ddekany
veterán
"Persze biztos felírták, de a szoftverben bármi hiba lehet. Bármit változtatsz egy profilon újra kell tesztelni, mert az a biztos."
Izé... előfordulhat, hogy a programozás távol esik tőled? Vannak triviális változtatások, amivel kapcsolatban könnyen gyorsan bizonyítható, hogy nem okozhat gubancot kint a vadonban sem. A soha nem tesztelt alkalmazások reakciója akkor már reálisabb kockázat, bár azok eddig is vagy mentek rendesen vagy nem...
-
erdoke
titán
Nem tűnik valós indoknak, amit írsz, ugyanis léteznek ULV-s subnotik 11" körüli méretben, és az olcsóbb változatok se sokkal nehezebbek a tipikus netbookoknál. Sokkal inkább üzleti okai vannak, próbálják szeparálva pozícionálni az Atomot az erősebb (és drágább) megoldásoktól, miközben az AMD eddig éppen összemosni próbálta a piacot. Eddig, ez talán most változik.
-
Abu85
HÁZIGAZDA
Persze biztos felírták, de a szoftverben bármi hiba lehet. Bármit változtatsz egy profilon újra kell tesztelni, mert az a biztos. Ha nem tesztelik újra akkor valamelyik júzer biztos jelzi egyszer az esetleges hibát, de az már gáz ezen a szinten, ha a júzer jelzi. Tisztában vannak vele, hogy a szoftver az futhat hibásan, így mindig benne van a pakliban a probléma, de a lehető legtöbb tesztelésre van szükség, hogy ezeket az eseteket minimálisra csökkentsék.
Nem hiszem, hogy túlzottan sokat gyorsítana az L3 írása. Kevés olyan alkalmazás van, ahol ez tényleg számottevő lenne. A méretkorlátozás nagyon bonyolult, de elméletben megoldható. Viszont az egyik procimaggal biztos kiszúrsz. Az L3 az SB-ben alapvetően négy bankra van osztva. A magok láthatják egymás bankjait, de elsődlegesen a saját bankukba írnak, a cache miss minimalizálása érdekében. A GPU-nak nincs bankja, ha ír, akkor oda ír ahova akar. A jövőben persze lehet a GPU-nak külön bankja, az nagyon is értékelhető megoldás.
-
ddekany
veterán
Ne ne... hát már csak felírták maguknak "otthon", hogy na, X alkalmazást leteszteltük, ennél nem-kellett/kellett tiltás. Ebből gépileg generálhatóak a profilok, amiket az új driver-be belecsomagolnak.
Amúgy mi van, ha feleslegesen tiltod le az L3 használatot a GPU-nak? Mennyit lassít általában? Mert ha nem sokat, de viszont nem akadozik... Ja, és mi lenne, ha megadnák, hogy a GPU max adott %-ot foglalhat az L3-ból? (Ha ezt lehet...)
-
Abu85
HÁZIGAZDA
Alapvetően nem a pénz a fő probléma, mert ha drágább az előállítás, akkor elkérsz több pénzt a végtermékért, és el ven intézve. A netbook esetében a fő gond egy Arrandale processzornál, hogy sok helyet igényel. A referencialap majdnem kétszer akkora méretben, mint az Atom és a Brazos egysége. Ez a termék súlyára is kihat.
(#179) ddekany: Célszerűbb lenne, csak eszköz kellene hozzá.
-
Abu85
HÁZIGAZDA
Mert a globális paraméter megváltozik. Van egy programra egy profil, ahol mondjuk tiltani kell az L3-at. A profil megkapja a rutin elérhetőségét és a tiltást. Ha van egy program, ahol ez nem szükséges, akkor meg sem hívják ezt a rutint, mert felesleges, ugyanis a globális paraméter az engedélyezés, és ezt akarjuk az adott programnál. Ha globálisan bevezeted a tiltást, akkor viszont amelyik programprofilhoz nem volt hozzárendelve az L3 írás rutinja, ahhoz hozzá kell rendelni, mert tiltani fogja a driver, holott engedélyezetten jobban megy az alkalmazás.Gyakorlatilag a profilbeállások esetében ezt a paramétert fel kell cserélni. Persze én úgy gondolom, hogy nem lesz itt változás. A supportra úgyis rá kell feküdni, ezt nem kerülheti el egyik megvalósítással sem az Intel. Innentől kezdve olyan mindegy, hogy a profil mit tartalmaz, ha az alkalmazásokat támogatni kell, ugyanúgy munka lesz vele.
-
dezz
nagyúr
Bocs, azok a számok az AMD-s tesztplatformra vonatkoztak, az cikkben tesztelt MSI lapra vonatkozó adatok:
Idle: 15,6W
Load (CineBench 11): 25,9W
Load (Left 4 Dead 2): 33,7Wddekany: A fogyasztói ár töredéke az anyagköltség. Az 1000 lábas tokozás maga is drágább és a hozzá szükséges, a másiknál többrétegű nyák is jelentős többletköltség, ami jelentősen befolyásolja a nyereséget.
A laptopok a saját tápjukkal mentek, így azok annyit fogyasztanak -- a mini-ITX-ek fogyasztanak kevesebbet, mint az ott szereplő számok. (Csak azt nem értem, miért nem írják mindezt oda, nem mindenki olvassa el a hozzászólásokat.)
-
ddekany
veterán
"Azért vazze mert a tokozása jóval bonyolultabb mint az atomnak,"
Na az vajon mekkora plusz költséget jelent, mikor komplett alaplapokat meg asztali CPU-kat lehet kapni 10e Ft alatt a kiskerben... Avagy kinek nem érné az a többletköltség meg, ha vesz egy netbookot, ami eleve 60e-100e Ft?
De Abu magyarázata, miszerint nem is ugyan azt a tápot használták, megválaszolja a kérdésemet. Azaz, valószínűleg valójában lényegesen többet fogyaszt.
-
-
dezz
nagyúr
Nem csak a hatásfok számít, hanem a sajátfogyasztás, ami egy 400W-osnál 15-20W! Még a 150W-os is túl nagy!
Itt találtok normális(abb) adatokat, 85W-os táppal:
http://www.pcper.com/article.php?aid=1082&type=expert&pid=10Idle: 9,3W
Load (CineBench 11): 19,1W
Load (Left 4 Dead 2): 28,8W -
Abu85
HÁZIGAZDA
Lényegében ez van most. A profilban be lehet állítani ezt a funkciót, ha az adott program nem jól viselkedik az írható L3-ra. A vita arról van, hogy melyikkel van kevesebb munka. A globális engedélyezés és a profilos tiltás, vagy a globális tiltás és a profilos engedélyezés játszhat.
-
Abu85
HÁZIGAZDA
válasz
bolcsodal #163 üzenetére
Az Intel a driverben 1x jelzéssel illeti a 0x MSAA-t. Tulajdonképpen 0x MSAA nem is létezik, mert egy színminta pixelenként kötelező. Persze a működésben nem baj, hogy így van jelölve, mert semmi változást nem ad, csak félreérthető lesz. Az AMD és az NV a 0x jelzést használja erre, jelezve, hogy az MSAA nem működik, de egy színminta biztos lesz pixelenként, másképpen nem lenne kép a kijelzőn.
(#160) ddekany: Mert az alaprutin az volt, hogy az L3 írás mindig engedélyezett, ha a profil másképp nem rendeli. Ha ezt megváltoztatod arra, hogy az L3 írás mindig tiltott, akkor az eddigi profilokat is meg kell változtatni igény szerinti engedélyezésre. Alapvetően nem probléma az átállás erre, mert csak el kell dönteni, és a kivitelezés nagyin egyszerű, de időigényes.
(#164) ddekany: Az Ipon tesztjében a notik és az asztali konfigok nem ugyanarról a tápról mentek. Ezért fogyaszt kevesebbet a Core i5, mint az Atom. Nem mindegy, hogy a táp hatásfoka 80%+, vagy 40%. Sajna ezekhez a rendszerekhez be kell szerezni egy kicsi 150 wattos tápot, amivel már jelentősen nő a hatásfok. Nyilván az Iponnak sem volt ilyen kéznél íagy marad a 400 wattos Chieftek. Nem szabad elfeledni, hogy a tápok hatásfokgörbéje 20%-nál ad értékelhető értéket. Az alatt nagyon romlik az eredmény. Mivel 400 wattos tápról beszélünk, és az Atom meg a Fusion idleben simán 2-3 watt alatt fogyaszt, így a 20%-ot ezekkel nagyon nehéz elérni.
-
ddekany
veterán
válasz
Oliverda #157 üzenetére
Elnézve az iPon tesztjét (és lehet ott néztek be valamit, nem kicsit), ez az egész "miért ilyen lassú még mindig az Atom / tudnak-e jobbat tervezni" kérdéskör teljesen értelmét veszi, mert a Core i5-520UM (1GHz-1.9GHz turboboost) ami egy boltban már ma is megvásárolható CPU, teljesen porrá alázza az Atomot, és ha nem 3D-s játékról van szó akkor Brazos-t is. Sokkal gyorsabb azoknál és a rá épült teljes rendszer is kevesebbet fogyaszt. Mármint üresjáratban 33%-50%-al kevesebbet (!?), terhelve viszont 25%-30%-al többet, de egyrészt akku időben az üresjárat sokkal fontosabb a gyakorlatban, másrészt mikor a i5-520UM teljesen le van terhelve, akkor hamarabb is végez a munkával mint az Atom vagy Brazos. Ha ez igaz... akkor lehet mondani, hogy de a Core i5-520UM sokkal drágább. OK, de akkor ez állatira nem arról szól, hogy nem tudnak jobbat, hanem hogy most nem érdekük üzletileg jobbat árulni abban a szegmensben ahol most az Atom van.
-
Zeratul
addikt
Pf... Illető a modern CPU-k fejlődését követendő dual core lett, azaz növesztettet +1 agyat? (Tudom, az emberei agy eleve erősen párhuzamos...). Ez nagy biznisz lenne a CPU gyártóknak, de kevesen képesek csak erre...
Vagy csak simán nőbűl van. 6-8 paralel taskra simán képesek.
-
Oliverda
félisten
Pár eredmény: [link]
-
dezz
nagyúr
válasz
julius666 #152 üzenetére
Megoldható lenne, hogy egyes dolgokat pl. csak flash és társai esetén alkalmazzon, vagy figyelembe vegye a felbontást. De pl. valószínű hozzá lehet rendelni a ki-be kapcsolást egy billentyűkombinációhoz. (Néhány dolgot már én is hozzárendeltem, a legújabb drivert még nem néztem.)
A sima temporális szűrés egyfajta motion-blurt csinál, de ha csak ott történik, ahol nincs mozgás, akkor nem. Ez már így is mehet real-time, elfogadható eredményt adva, kis teljesítményigénnyel. A komolyabbak persze lekövetik a mozgó részeket és ennek megfelelően eltolással végzik a temporális szűrést, stb. De egy mai GPU szerintem ezzel is megbírkózik.
Nem poszt-processzre gondoltam, hanem a dekódolás lépéseire.
A HD videobuzik bizonyára, de itt átlagemberekről beszélünk. Én nem a parasztvakító vackokat védem, hanem a valóban hasznosakat, mert úgy vélem, olyanok is vannak. Már írtam néhány példát.
(#154): "A 2-3-szorozódás teljesítmény/fogyasztás arányában szerintem simán megvan."
Többmagúsítás árán, de a single-threaded teljesítmény messze nem nőtt ilyen mértékben. A Brazos lehetett volna 4-magos, jóval kisebb IGP-vel, de lett volna annak értelme?
(#153) hohoo: Az audiót is válasszuk ketté: ha eleve nagyon jó az alapanyag (felvétel), ott minden beavatkozás sokat rombol, ami nagyon kijön egy komoly rendszeren és nincs is ezekre szükség. De ha nem jó az alapanyag, azzal kezdeni kell valamit.
-
Abu85
HÁZIGAZDA
Tekintve, hogy belekezdtek a Larrabee-be, és arról mára kiderült, hogy mi lett volna, el tudom képzelni, hogy megint a 20-ra húztak lapot. Eleve ha lenne ott pár évtizedes GPU-s tapasztalat, akkor a Larrabee elképzelése most nem létezne.
Hasonló lehetett az SB-nél is az elképzelés. Jött az ötlet, hogy a GPU írja az L3 gyorsítótárat. A különbség annyi, hogy itt nem kellett eldobni a terméket, mert az elgondolás egyszerűen korrigálható. Hatalmas előny nem lett belőle, és az a hátrány, ami technikailag él kiüthető egy szoftveres beavatkozással. Más elképzelést nem tudok, hogy mi vihet rá egy chiptervezőt arra, hogy alacsony késleltetésre alapozzon egy úgymond throughput magot.A beavatkozás egyszerű, globálisan tiltod az írást. Mivel most vannak profilok erre a módra, így biztos, hogy van a tiltásra rutin. Ezt a rutint be kell kapcsolni mindenre és kész. Ami probléma ezzel, hogy az eddig megírt profilokat kukázni kell és újra kell őket kreálni az új alaprutinnak megfelelően. Ez sem túlzottan komoly munka csak időigényes, főleg az a része, hogy mindent újra kell tesztelni.
A legegyszerűbb megoldás, hogy mindent így hagynak, és elkezdik erősíteni a fejlesztői kapcsolatokat. Az AMD és az NV is így tud minden megjelenő programra reagálni már az első napon egy jó profillal. Előre megkapják a programot és felkészítik rá a drivert. Nem hiszem, hogy az Intelnek nem lenne erre "emberben mérhető" kapacitása, csak akarat és pénz kérdése az egész.
-
Oliverda
félisten
válasz
julius666 #154 üzenetére
"A linkek nagy részén a grafikus cuccok hardveres gyorsításának az eredményét látni javarészt,"
Pontosan mely számok alatt lévő tesztek használták a GPU-t is az egymás után következő két videólejátszáson és HTML5 teszten kívül? Elég ha leírod a számokat.
"Nem voltak azért ilyen elvárásaim, megelégedtem volna olyan különbséggel is, ami kb. a lame-s tesztnél látható, de akkor mindenhol azt lássam."
Itt a baj. Mármint az elvárásoddal. Olyat jó eséllyel már soha nem fogsz látni, hogy egy totálisan eltérő architektúra minden alkalmazásban kb. ugyanannyival gyorsabb a másiknál.
"Az informatika fejlődési sebességét nézve ez baromira nem hiszem hogy olyan durva lenne, lévén az Atom pont 3 éves. Meg lehet nézni, asztali vonalon azóta mennyit fejlődtek a processzorok."
Lehet, hogy mégsem, olyan egyszerű mert az Atom sem fejlődött szinte semmit 3 év alatt. Attól, hogy nem mindentverő processzorokról beszélünk, ezeket sem gyerekjáték megtervezni, sőt. Különösen a kis lapkaméret és az alacsony fogyasztás szem előtt tartása mellett.
-
julius666
addikt
-
ddekany
veterán
"Az Intel nyilván elsősorban processzortervező, és a mérnökök fejében gondolom az élt, hogy kell az alacsony késleltetés, mert a CPU-nál hatalmas előny. Hát itt nem."
Ennyire egyszerű "vallási" gond lenne ez... Nem dolgozok a GPU fejlesztős területen, de mégis nagyon nehezen tudom elképzelni, hogy ott a szakma krémje ne kb. ugyanazokat a kutatási eredményeket ismerné. És nehogy már az Intel ne tudott volna ilyen emberekből bevásárolni... meg kinevelni cégen belül néhány ilyet, mivel laborban már elég régóta tipródnak a témán.
"Bármikor változtathatnak a driveren, ha a jelenlegi elgondolás túlzott teher."
Szóval az megtehető? Hogyan és milyen áron?
-
julius666
addikt
válasz
Oliverda #151 üzenetére
Látványosan veri, elég sok esetben. Például [..]
A linkek nagy részén a grafikus cuccok hardveres gyorsításának az eredményét látni javarészt, erre én is írtam hogy valóban csúnyán elveri az Atomot, ebben semmi meglepő nincs lévén hogy az Ati az AMD kezében van már jó ideje.
A magánvélemény is valószínűleg (a felhasználói élményről legalábbis) leginkább erre vonatkozik, hogy a GUI sokkal "simább" működésű. Az mondjuk érdekes kérdés lenne, az Atomos gép ION-os volt vagy az Intel szutykánál volt érezhetően jobb a Brazos.
Az egyedüli ahol valóban már jól látható a különbség (és értelmes maga a teszt) az a lame-s és a 7-zip-es tömörítős teszt (ezen megis lepődtem, a PH-s cikknél pont a tömörítésnél jóval rosszabb volt a Brazos, bár az WinRar benchmark volt). Az meg nem olyan "sok".
Az meg már tényleg elég őrült elvárás volt, hogy mindenben verjen legalább 200%-ot rá, plusz még GPU-ban is legyen sokkal jobb, és még kevesebbet is fogyasszon, ja és az ára se legyen csillagászati.
Nem voltak azért ilyen elvárásaim, megelégedtem volna olyan különbséggel is, ami kb. a lame-s tesztnél látható, de akkor mindenhol azt lássam. Az informatika fejlődési sebességét nézve ez baromira nem hiszem hogy olyan durva lenne, lévén az Atom pont 3 éves. Meg lehet nézni, asztali vonalon azóta mennyit fejlődtek a processzorok. A 2-3-szorozódás teljesítmény/fogyasztás arányában szerintem simán megvan.
-
julius666
addikt
Már megbeszéltük, hogy nem mozifilmekről beszélünk, hanem netes videókról.
Ha a videókártya-driverben beállítható dolgokról beszélünk, akkor mindenről beszélünk, mert az mind az asztali lejátszóban, mind a flashlejátszóban/gyorsított HTML5-ös böngészőlejátszóban érvényes lesz (a megfelelő pipát bepipálva, de miért ne pipálnád be ha már ilyeneket használsz).
Nézz utána az adaptív temporális zajszűrésnek.
Ez a zajszűrőknek egy elég tág csoportját jelenti.
Nem adja át valamely ponton a codec a dekódolandó adatcsomagokat a drivernek?
A poszt-processz filterek csak magát a dekódolt képkockát kapják meg (az elméleti esetben legalábbis, mert külön réteget képviselnek. Aztán az AMD mérnökei mit hogyan implementáltak, fene se tudja).
Az igazi HC videobuzik az ilyen beépített szutyok varásfiltereket úgy kerülik mint a leprát, a megjelenítési lánc minden elemét szeretik pontosan a kezük ügyében tudni (lásd madVR renderer és tsai). No offense, de furcsállom hogy pont te, aki saját állításod szerint már hosszú évek (évtizedek) óta videós szakmában mozogsz, véded ezeket a parasztvakító vackokat.
-
Oliverda
félisten
válasz
julius666 #148 üzenetére
Fordulhat az év végén a kocka, rá következő év elején pedig lehet, hogy ismét fordulni fog.
Látványosan veri, elég sok esetben. Például: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11
Ez nem elég látványos?
Itt pluszban egy magánvélemény.
Az Atom olyan szituációkban tud kb. egy szinten lenni vele, ahol kettőnél több szálat használnak az alkalmazások. Ennek az az oka, hogy az Atom in-order felépítése miatt elég sokat dob rajta a Hyper-Threading. Durván egy mag esetében akár +80%-ot is hozhat. Itt van pár eredmény, azokat érdemes megnézni (mást annyira nem
).
Az meg már tényleg elég őrült elvárás volt, hogy mindenben verjen legalább 200%-ot rá, plusz még GPU-ban is legyen sokkal jobb, és még kevesebbet is fogyasszon, ja és az ára se legyen csillagászati.
-
dezz
nagyúr
válasz
julius666 #149 üzenetére
Már megbeszéltük, hogy nem mozifilmekről beszélünk, hanem netes videókról.
Nézz utána az adaptív temporális zajszűrésnek.
Nem adja át valamely ponton a codec a dekódolandó adatcsomagokat a drivernek?
(#148): Figyelmedbe: [link]
"az ION2-höz hasonlítunk, akkor ott csak fogyasztásban"
Meg árban. De picivel azért gyorsabb is.
-
julius666
addikt
Megfelelő analízis után elég jól helyre lehet tenni a kontrasztot, világosságot, gammát, szaturációt alapszínenként, stb.
Igen, egy bizonyos felhasználási területeken belül (családi fotóknál/videóknál ez valóban belőhető). De honnan tudja a cucc hogyha mondjuk én egy horrorfilm sötét jelenetét nézem, hogy azon nekem ne végezzen korrekciót? Tudom, "intelligens" az algoritmus.
Egy normális zajszűrés nem befolyásolja számottevően a részleteket (nem blur).
Valóban vannak jó zajszűrők. Kár hogy real-time algoritmusokból nem nagyon van ilyen. Mutathatnál, jópár real-time/nem real-time zajszűrőt ismerek. De a részletek kiszórása csak az egyik probléma, a másik hogy artifaktokat kreál a képen, a real-time algoritmusok ebben is pl. élen járnak.
A deblockig mehet bitrátafüggően.
Sajnálom, de a videokártya driverének lövése sincs arról, milyen bitrátájú az anyagod. A deblocking a kodek dolga lenne. Szerencsésebb esetben beépített in-loop típusú deblockinggal (H264), szerencsétlenebb esetben poszt-processzként (MPEG-4 ASP vagy más néven DivX/XviD).
-
julius666
addikt
válasz
Oliverda #144 üzenetére
Jelen pillanatban mennyit számít az, hogy melyik mikori "gyerek"? Szerintem semmit.
Nem is azért mondtam, ha vesz az ember valamit akkor nem az a lényeg mi milyen idős, hanem mit tud természetesen. Jelenleg ebből a szempontból - lévén hogy ezt a kategóriát főként multimédiás célokra használják - az AMD egyértelműen jobb. Csakhogy év végén (amit te is említettél) könnyen lehet máris fordul a kocka.
Egyszerűen csak ennyi idővel az Atom megjelenése, pláne ekkora hype után én azt vártam volna, az AMD megoldása látványosan elveri az Atomot (ez a GPU terén meg is történt, bár ha az ION2-höz hasonlítunk, akkor ott csak fogyasztásban). Azt az atomot amit egyébként én elég nagy szutyoknak tartok. Teljesen lényegtelen az Intel mit csinált/mit nem csinált közben.Lehet csak én vagyok a maximalista.
-
hohoo
senior tag
válasz
julius666 #143 üzenetére
Mondjuk ez a teszt megint csak semmit sem ér fogyasztásban, mert megint 400wattos táppal sikerült... Na meg ilyen gépeket nem prociigényes dolgokra veszik, hanem inkább média igényesre (média center, házi szerver), emellett a brazos hosszú távon olcsóbb, mert összeraktak egy atomnál valamivel erősebb cpu-t egy durva gpu-val, kisebb lapkába mint az atom. Ha az intel előrukkol egy teljesen új atommal (nem sok esély erre inkább foltozgatás max), akkor előbb utóbb az amd is
Valósabb fogyasztási adat egy normális táppal készült tesztből, e-350-es brazossal, idle: 14w, full terhelés: 29w (ebbe az egész gép értendő rammal, és gondolom vinyóval)
-
dezz
nagyúr
válasz
julius666 #141 üzenetére
Nagyon tévedsz, igen fejlett megoldások vannak már ilyen téren. Ne a gyagyi tévés effektezésből indulj ki, ott nem áll rendelkezésre kellő számítási kapacitás. Megfelelő analízis után elég jól helyre lehet tenni a kontrasztot, világosságot, gammát, szaturációt alapszínenként, stb.
A profibb (tehát nem gagyibb!) fényképezőgépekben is vannak ma már képkorrekciós algoritmusok.
Pl. a monitoromon (NEC EA231WMi) van egy bizonyos fotó mód, ami mp-kénti analízis után korrigálja a megjelenített fénykép gamma-görbéjét. Teljesen jól eltalálja, hogy mihez nem kell hozzányúlni és mi túl- vagy alulexponált, stb. Egy videokártya könnyedén tudhatja ezt real-time.
Vagy nyomj egy Shift+U-t az IrfanView-ban.
Egy normális zajszűrés nem befolyásolja számottevően a részleteket (nem blur).
A deblockig mehet bitrátafüggően.
98% pompás minőségű? Hol?
(#143): 400W-os táppal nézték (Ph is, de mindegy), alapból hozzátesz 15-20W-ot és a különbségeket is elmossa. Ha más teszteket is megnézel, a Brazos 10-15%-kal jobb CPU-ban, alacsonyabb fogyasztás mellett.
A valóság prózaibb, mint ahogy képzeled: a köv. Atom generáció sem lesz valami nagy szám, amit mégjobban el fog verni a köv. gen. AMD-s ellenfél...
-
Oliverda
félisten
válasz
julius666 #143 üzenetére
"Ha azt vesszük hogy az Atom erősen nem "mai gyerek", gyenge teljesítmény az AMD-től."
Jelen pillanatban mennyit számít az, hogy melyik mikori "gyerek"? Szerintem semmit. A Brazos CPU magjai pl. a 2003-ban(!) megjelent Athlon 64 mag (K8) butított(!) utódjai. Ráadásul az Intel-nek nagyon kényelmes időbeli előnye is volt, hogy javítson az Atom-on. Nem hiszem, hogy megfenyegette őket bárki is, hogy ezt ne lépjék meg. Kicsit mintha olyan üzenete lenne ebben ismét, hogy az AMD bakija az is, hogy az Intel nem volt képes gyakorlatilag semmit javítani az Atom számítási teljesítményén a megjelenése óta.
1-2 szálas végrehajtásnál meg továbbra is igaz az, hogy az Atom gyakorlatilag esélytelen:[link]
"Ha ne adj Isten az Intel előrukkol egy teljesen új Atommal, akkor megint rá fog verni valószínűleg erősen."
Ne adj isten elő fog rukkolni, majd valamikor az utolsó negyedévben. Azt viszont senki nem tudja, hogy mire fog megint(??) ráverni rendesen, mert még jóformán semmit nem lehet tudni róla. Ja, és 1 év múlva már itt lesz a 28nm-es négymagos Brazos utód is.[link]
-
julius666
addikt
julius666: Itt találsz egy részletesebb magyar tesztet amiből kiderül, hogy mégsem.
Nah átnyálaztam, hát nem javult sokat a véleményem. Itt nem elgyepálja az Atom a Brazos-t proci terén, hanem fej-fej mellett haladnak, prociigényes alkalmazások esetén fogyasztásban is. Ha azt vesszük hogy az Atom erősen nem "mai gyerek", gyenge teljesítmény az AMD-től. Nem azt mondom hogy rossz a Brazos, csak többre számítottam. Sokkal-sokkal többre.
Ha ne adj Isten az Intel előrukkol egy teljesen új Atommal, akkor megint rá fog verni valószínűleg erősen.
-
Abu85
HÁZIGAZDA
Nem okozhat. Az NV és az AMD (inkább az ATI) évtizedes tapasztalata alapján tudja, hogy a latency nem olyan fontos a GPU-nál. A throughput a kulcstényező. Az Intel nyilván elsősorban processzortervező, és a mérnökök fejében gondolom az élt, hogy kell az alacsony késleltetés, mert a CPU-nál hatalmas előny. Hát itt nem. Idővel ők is megtanulják mi számít és mi nem. Esetleg venni kellene egy GPU-tervező céget, a Matrox zsebpénz lenne és az alaptudás ott megvan, ráadásul élvonalbeli megjelenítőtechnológiákat használnak, ami az AMD Eyefinity ellen nem jönne rosszul. Igazából nem értem miért nem lépték még meg. Örökké nem lehet azt hinni, hogy a GPU nem lesz kulcsfontosságú részeleme a gépnek.
Bármikor változtathatnak a driveren, ha a jelenlegi elgondolás túlzott teher. Az alapkérdés persze az, hogy miért kellett bekötni az IGP-nek írásjogot adni az L3 cachez.
(Offba raktad, gondoltam én is Offba rakom. De legyen On)
-
julius666
addikt
Nem csak az a két véglet van. Jelentékeny mennyiségű olyan videó van, ami nem teljesen használhatatlan, csak a színek, világosság és gamma van elcsesződve. Plusz nem túl nagy felbontású, kicsit zajos, blokkos. Itt sokat tud javítani egy intelligens minőségjavítás.
Az a baj, hogy teszem azt van egy-két elcseszett kontrasztú videó, amin a varázsfilter tényleg javít. Ellenben a maradék 98%-ban rontani fog. Nem fogok videónként a driver paneljébe rohangálni a beállításokat buzerálni, hanem inkább szívom a 2%-nál a videó készítőjét (mert ez ugye az ő hibája), és élvezem a 98%-ot eredeti pompájában.
Ja, és nincs olyan "intelligens filter" (ez a kifejezés maga roflmao kategória), ami élvezhető hatékonysággal kitalálja hol kell javítani hol nem.Ugyanezt eljátszhatjuk zajszűréssel is. Gagyi blokkzajos Youtube videók egy részénél lehet hogy javít, de rendes DVD-filmek (vagy egyéb jó minőségű anyagok esetén) is ki fogja nyírni a film graint meg a részletek jó részét. El lehet dönteni, kinek mi a fontosabb.
-
ddekany
veterán
"játszani LCD-n pedig csak natív felbontáson érdemes"
Hát... megnézem mikor lesz olyan kártyája a legtöbb embernek, ami egy 19"-es vagy 22"-es asztali LCD-t elbír az utóbbi évek játékaiból. Én már évek óta nem is játszottam 19"-esen natívban. Vagy mert nem nagyon bírta volna a videókártyám folyamatos mozgással, vagy mert annyira retró volt a játék, hogy nem is támogatta azt a felbontást.
-
ddekany
veterán
"mert ha az AMD és az NV nem talált jobb megoldást a programokhoz, akkor ők sem fognak"
De az AMD és NV esetén profil hiánya okozhat (reális eséllyel) ilyen durva gondokat? Nem inkább csak néhányszor 10% fps visszaesést? Mert az kizárt, hogy minden 3D-s cucchoz legye profil. A sok indi-hez, meg céges házi cuccokhoz... na ne.
(Amúgy ez miért lett OFF? Nagyon is ON szerintem.)
-
julius666
addikt
Sok videónak nagyon el vannak szúrva a színei, világossága, gammája, stb., ezeket helyretéve sokkal szebb lehet!
Azokat biztosan ezek a varázsfilterek fogják megjavítani...
Nekem van olyan ismerősöm, aki egyszerre néz filmet és játszik... Azt mondja, csak az egyik unalmasabb lenne önmagában és jobban úgy érzi, hogy pazarolja az időt.
Igen, az ilyen MMO-s arcoknak akik egyszerre tolják 3 karival és közben Family Gay-t néznek, azoknak baromi jó lesz az AMD megoldása
(egyébként ez nem is annyira vicc, ez tényleg létező, valós igény).
-
Abu85
HÁZIGAZDA
Az olcsó termékek között a legjobb megoldás a Llano+Turks lesz. Ez hybrid CF-ben működik, és gyorsabb lesz a HD 4770-nél is. Mindemellett a fogyasztás is alacsony, mert a VGA hardveresen hibernálva lesz. A Cata 11.4-ben lesz bevezetve a Vision Engine felület. Ott a PowerXpressen belül személyre lehet szabni a teljes gép működését. A programokhoz hozzá lehet rendelni az APU-t, a GPU, vagy akár az APU+GPU párosítást.
-
erdoke
titán
OK, GT435, nem tévedtünk el.
A kérdés az, hogy mennyit tudok leadni a HD4770 teljesítményéből. Nálunk többnyire az X800XL is elég volt, tehát valahol a kettő között van az igényem. Persze a jövőbe tekintve inkább a 4770 a cél. Még csak most kezdtem nézelődni a mobil GPU-s teszteknél, úgyhogy nem vagyok teljesen képben se a neveket, se a kusza teljesítményeket illetően.
-
Abu85
HÁZIGAZDA
A GTX 435M nincs. GT 435M van, de annál gyorsabb lesz a mobil Llano IGP-je. Azt érdemes megnézni, hogy ez egy 480 shader procis rendszer lesz, hiába az IGP jelző számos diszkrét megoldást hazavág. Azért csinálta így az AMD, hogy hazavágja, közel 600 millió tranzisztorból épül fel a vezérlő.
-
erdoke
titán
Én 1440x900 alatti felbontású laptopot nem vennék, játszani LCD-n pedig csak natív felbontáson érdemes. A legnépszerűbb laptopok a 15,6" kategória magasságában vannak, oda még nagyobb felbontás ideális, ahogy külső monitornak se érdemes 22-esnél kisebbet venni, de lassan a 23-24" FullHD lesz általános (nekem bő 5 éve WUXGA van).
Szóval igényesen (natív felbontás + medium) továbbra se lehet játszani IGP-vel, akik a gagyi laptop kategóriában gondolkodnak, és bevállalják az alacsonyabb felbontás + low játékot, azoknál meg talán úgyse számít sokat az igénytelenkedés szintje...
Szóval ha én veszek egy DTR laptopot, akkor abban minimum GTX435-ös szintű VGA-nak kell lenni, hogy FullHD-ben az egyszerűbb játékokat röccenés nélkül vigye. Ha pedig az ultra hordozhatóság a lényeg, teszek az VGA-ra a játékkal egyetemben. -
Abu85
HÁZIGAZDA
Jelen pillanatban komolyabb kérdés, hogy melyik gyártó akar ilyen IGP-k mellé VGA-t építeni?
Ezért nem érdemes elfeledni, hogy a notebookok piacán a 299-699 dolláros kategórián belül történik magasan a legtöbb eladás. Ez pont az a szint ahol az extra VGA ilyen IGP-k mellett nem hoz számottevő előnyt, de jelentősen drágítja a termék előállítási költségét.
Mellesleg a Llano mellett lehet játszani is. És az is csak egy IGP. Egy olyan IGP, ami hozza a HD 5500-5600M teljesítményét. Pontosan a gyártók problémáját veszi alapú. Aránytalanul drágán építhető be a VGA? Hát ne rakj bele. -
Abu85
HÁZIGAZDA
Hát, ha már profilt nem írtak hozzá, gondolták így jó ahogy van.
Sok helyen előnyös az L3 használata, ezért van alapból engedélyezve. A profilozás persze időigényes, de hatékony megoldás. Az AMD 11.2-es driverében is van egészen pontosan 7553 profil a különböző programokhoz. Persze ők évek óta építik az adatbázist, de egyszer az Intelnek is el kell kezdeni, mert ha az AMD és az NV nem talált jobb megoldást a programokhoz, akkor ők sem fognak.
Igazából ez a dizájnproblémája az SB-nek nem jelentős, mert szoftveresen kezelhető, de mindenképpen támadási felület, mert az új játékok esetében az első hetek problémásak lesznek, majd nyilván jön egy driver. Ezek a hetek viszont kihasználhatók a konkurenseknek. -
darál0w
Jómunkásember
válasz
- = Zk = - #125 üzenetére
na azért ennyire nem izgulok.
-
lkandris
tag
Maxban összvissz kétféle renderer támogat GPU gyorsítást, az egyik a V-ray, a másik pedig a Quicksilver. A V-ray attól eltekintve, hogy csak bizonyos dolgokat bíz a GPU-ra, nem 100%-os a kihasználás,CUDA-val működik csak együtt. A QuickSilver megy ATI Stream-mel is, de a material készlete nyúlfark és a minősége is ocsmány. Tehát ha mental-rayben gondolkozunk, akkor azt csak a CPU tudja kiszámolni.
Programozó vagyok nem dizájner, ettől eltekintve amatőr szinten foglalkozom digitális-effektezéssel is, ahol nem akarok fél napot várni egy 1080p-s objektumhalmaz kirendereléséig.
-
ddekany
veterán
De szóval ez is milyen, hogy direkt megoldják AMD-ék, hogy nehogy betöltődjön az a profil, és akkor... "Nézzétek hogy akad'!"
Amúgy elég vészesen hangzik ez így ahogy mondod, mert nehogy már minden GPU-intenzív alkalmazásra (akár csak a kismillió játékra) csináljon az Intel profilt. Ez képtelenség. Mi lenne, ha alapból letiltaná az L3 összeszemetelését full-screen 3D esetén? Vagy ha figyelne hogy van-e ilyen abnormális akadás, és akkor automatikusan csinálna hozzá egy profilt, hogy legalább azon túl ne akadjon? Vagy ha a szoftverek gyártói adhatnának valami hint-et magában a programban, mikor inicializálják a D3D-t... elvégre ők bizonyosan úgyis letesztelik a cuccot SB IGP-n.
-
darál0w
Jómunkásember
válasz
- = Zk = - #120 üzenetére
dezz válaszolt rá neked...de valoban csak tesztek után lesz biztos a dolog...
engem ez az "erősebb VGA lekapcsolása" hoz lázba inkább.
-
darál0w
Jómunkásember
válasz
- = Zk = - #118 üzenetére
asztalit váltanám vele...de jo is lenne.
-
darál0w
Jómunkásember
impozáns kis bemutato lett.
lehet elég lenne nekem még egy ilyen is.
-
dezz
nagyúr
válasz
Neovenator #110 üzenetére
Nem csak az a két véglet van.
Jelentékeny mennyiségű olyan videó van, ami nem teljesen használhatatlan, csak a színek, világosság és gamma van elcsesződve. Plusz nem túl nagy felbontású, kicsit zajos, blokkos. Itt sokat tud javítani egy intelligens minőségjavítás.
A WebGL-nél és HTML5-nél nem csak képminőségjavításról van szó, hanem GPU-s gyorsításról.
Teljesítményigényesebb dolgoknál a CPU egyszer csak kevés lesz, és a SandyB IGP-je is gyengébb, mint a Llano-é. Ez valamikor kijöhet.
Nyilván nem természetfilmre gondoltam.
-
Abu85
HÁZIGAZDA
Azok az akadások attól vannak, hogy a GPU szemeteli a cache-t. Az NV ezt a decemberi bemutatón nagyon sokáig elemezte, hogy mekkora hülyeséget csinált ezzel az Intel. Az összes olyan program ami profilozott volt, ment ahogy kell, de ahol hiányzott a profil, ott nem volt megtiltva az IGP-nek az L3 cache írása, és ez másodperces akadásokat eredményezett a jelenetekben. Volt olyan a Dead Rising 2-ben, hogy két-három másodpercre is megállt a kép, majd elindult. Profilozott játék például a Starcraft 2, és ott ez nem fordul elő. Ellenben ha átnevezed valamire az exét, akkor ugyanúgy akadozik, mint a Dead Rising 2, vagy a videóban szereplő FF14.
Igazából a lényeg ott van, hogy az Intel ezt driveresen kezeli. Sorra veszi a játékokat, és kielemzik, hogy mennyire probléma a cache szemetelése. Ahol gáz ott letiltja az IGP-nek az L3-ba történő írást. Persze ez állandó támadási felület az AMD-nek és az NV-nek, hiszen az SB dizájnja ebből a szempontból megkérdőjelezhető, és az új játékok esetében a gond gyakorlatilag addig él, amíg az Intel nem csinál profilt rájuk.
Nyilván a hatás sok helyen eltérő lesz, hiszen minden program másképp terhel, gyorsan kel dolgozni az Intelnél a szoftveres támogatáshoz. Ez a kulcsa ennek a dizájnnak. Egyébként szerintem az FF14-hez is van profil, csak az a játékhoz van, és a benchmark más nevű exét használ, vagyis a profil nem tölt be. -
Abu85
HÁZIGAZDA
válasz
Neovenator #110 üzenetére
A flashvideókra és más HTML5-ös videókra bármikor aktiválhatók a speciális szűrők. Egy pipát kell rakni a CCC-ben az "aktiválom az internetes videókra a beállításokat" részhez.
A webGL natív támogatásához OpenGL ES 2.0-s driver kell. Az Intelnek először írni kell erre egy drivert, ha egyáltalán akarják, hogy terjedjen ez a felület, de szerintem nagyon nem akarják.
-
Oliverda
félisten
"Azt én egyáltalán nem veszem kész ténynek, hogy ennyire összevesznek... erősen FUD gyanús az egész."
Nem lenne túl bonyolult reprodukálni a dolgot, gyakorlatilag "csak" a hardver kellene hozzá.
"Elvégre a játékok is esznek CPU-t rendesen, "
Nem nehéz kitalálni, hogy a Sandy Bridge esetében egy komolyabb játéknál a GPU vagy a CPU ami inkább limitál. Ergo gyanítom, hogy amíg a legtöbb játéknál a GPU 100%-on teker, addig a magok nem izzadják szét magukat közben. Olyan teszt kellene aminél mind a GPU mind pedig a magok (illetve szálak) 100%-on üzemelnek. Ilyen játék önmagában nem hiszem, hogy létezik jelenleg.
-
Neovenator
senior tag
Megtörtént már az előbb is...mit kezdjek vele? Értékeljem innovációnak azt, hogy egy telefonnal felvett, kásás, szovjet minőségű videót valami felskáláz egy kicsit kevésbé kásás, szovjet minőségű videóra?
Bravó...
Egy rossz minőségű videónak alapvetően tökmindegy, hogyan trükközöl vele, akkor is rossz minőségű marad...jó minőségű videóval meg nincs értelme trükközni, de ezt már leírtam kicsit feljebb is.Nem sima weblapokról van szó, hanem fejlettebb flash-es, WebGL-es, HTML5-ös tartalmakról.
Viszont ezekre nem vonatkoznak a képminőség javító technológiák, amikről elsősorban itt szó volt. Másodsorban: szerintem még egy WebGL-es alkalmazással is megbirkózik egy Sandy Bridge (feltéve, ha lenne egyáltalán érdemben olyan), de javíts ki, ha tévednék...
Egy normális filmet persze rendesen nézni kell, még ha nem akciódús is, de ott vannak pl. a dokumentumfilmek, amiket főleg hallgatni kell.
És milyen pompás is David Attenborough megnyugatató hangját hallgatni a szulák párzási szokásairól, miközben épp a nyolcadik fejlövést szeretnéd bevinni a gaz fricceknek vagy épp valami szörnyen magasztos dologba csöppentél a Protoss-ok bolygóján...
-
bmwk1200s
őstag
Egy picit off, de talán mégis kapcsolódik valamennyire a témához, ha nem is teljesen.
Az új Thunderbolt csatolón keresztül elvileg megoldható lehetne külső videókártya csatlakoztatása? Mármint a maximum kiadott teljesítmény és a csatoló sebessége alapján elképzelhető, hogy az AMD és partnerei kiadnak majd a Thunderbolttal kompatibilis külső videókártyát?
Ha jól emlékszem jelenleg is van az AMD-nek megoldása a külső videogyorsításra XGP néven. Nem olyanra gondolok én, hogy HD 6990es teljesítmény, de mobil megoldásokhoz egy korrekt mobil GPU-t. Kb. akkora lenne, mint egy USB-s külső vinyó.
Azt is megértem, hogy sokaknak értelmetlen lehet egy ilyen megoldás, azonban ha pl. játszani is akarnék egy olyan laptoppal, amiben csak egy alap integrált megoldás van, mindjárt lenne értelme! -
dezz
nagyúr
válasz
- = Zk = - #99 üzenetére
Kisebb kártyákkal működhet majd CrossFire-ben, de talán nagyobbak mellett is hasznát lehet venni pl. OpenCL-ben. Plusz lekapcsolhat a nagyobb kártya, ha nincs komolyabb terhelés.
Már a Llano is 4-magos! De lesz belőle 3- és 2-magos változat is.
-
Srodney
senior tag
reménykeltő cikk várjuk a folytatást
-
dezz
nagyúr
válasz
Neovenator #100 üzenetére
"vagy ha már olyan filmről beszélünk, aminél ez is számít ott rég valami baj van magával a filmmel..."
Nem csak profi filmek léteznek, tele a net vacak amatőrvideókkal. Lásd YouTube...
"ez a kérdéskör mindig is csak marketing szinten létezett minden cégnél már a kezdetektől, nem értem most miért gondolod, hogy ez bármiben is változott..."
Ez így nem igaz! Számomra nagyon meggyőző volt az Nvidia évekkel ezelőtti "felbontásjavítása", pedig az még butácska volt az újabb megoldásokhoz képest. De pl. a tévémen is nagyon jó használt vettem az intelligens dinamikus képzajcsökkentésnek. Plusz lásd még amit az előzőben írtam.
(#101) ddekany: Nem csak olyan játékok vannak, amikre folyamatosan erősen oda kell koncentrálni és nem csak olyan filmek, amikkel érdemes ugyanezt tenni. Egy normális filmet persze rendesen nézni kell, még ha nem akciódús is, de ott vannak pl. a dokumentumfilmek, amiket főleg hallgatni kell.
Miért lenne ritka, hogy pl. egy pár egyik tagja filmet néz és a másik közben játszik? (Hogy aztán ez mennyire vezet veszekedéshez, az esetre válogatja.
)
(#102) Neovenator: Akkor most légyszi olvasd el végig azt a részt és a többit is...
-
Neovenator
senior tag
De ez sem épp tömeg igény, főleg nem rendszeresen... plusz utóbbi általában már ma sem gond egy laptopnak, feltéve hogy a másik illető nem épp játszik vagy ilyesmi, ami tehát a ritka eseteken belül is ritka lenne.
Sőt, ezt már a 2006-ban vásárolt laptopom is tudta (AMD proci, még mielőtt Intel-es eretnek lennék), s közben játszottam is rajta...nyilván nem Crysis-al, de ettől függetlenül még a fent vázolt eset sem kivitelezhetetlen...azóta pedig, a 2 illetve 4 magos laptop processzorok korában azt hiszem ez még kevésbé jelent bármiféle akadályt, viszont -ahogy mondtad is- még mindig nem tömegigény és nem is hiszem, hogy azzá válna a közeljövőben.
-
ddekany
veterán
válasz
Neovenator #100 üzenetére
"Ezek olyan dolgok, amik mozgásban nem, vagy alig észrevehetőek..."
Ebben mondjuk nem lennék biztos... Azért ha megvan hozzá a kraft, akkor talán jól jöhet pl. a skálázás után valami Photshop-minőségű élesítés, effélék. Amiért persze én igen pesszimistán állok ezekhez, az az, hogy úgyis túlszínezik/túlkontrasztosítják/túlmindenik a képet, mert azt élvezi az átlagember... és ők a piac, tehát, nincs kegyelem. Örülj amíg lekapcsolhatod az effekteket (mert van, hogy akadályoznak ebben, mivel amit te használsz, az nekik reklámfelület, és ők harsogóan dögösre akarják).
-
Neovenator
senior tag
Igen, tisztában vagyok vele, de már elnézést...ha valaki azt szeretné velem elhitetni, hogy -még ha az IGP-ket teljesen figyelmen kívül is hagyjuk- egy Sandy Bridge vagy akár még egy Phenom II teljesítménye nem elegendő egy flash videó lejátszására, szerinted tudok valami mást tenni, mint körberöhögni az illetőt? Itt nyilván nem a nettopokba szánt, nemlétező CPU teljesítménnyel bíró APU-kra gondoltam ahol az IGP természetesen vitális kérdés, hanem normális, átlagos asztali számítógépekre.
Ez az egész kérdéskör vihar egy pohár vízben... -
ddekany
veterán
"Nekem van olyan ismerősöm, aki egyszerre néz filmet és játszik..."
Pf... Illető a modern CPU-k fejlődését követendő dual core lett, azaz növesztettet +1 agyat?
(Tudom, az emberei agy eleve erősen párhuzamos...). Ez nagy biznisz lenne a CPU gyártóknak, de kevesen képesek csak erre...
"Ráadásul úgy tudom, ma már a jobb laptopokon a videokimenet egy 2. képkimenet, így két ember más-mást nézhet, csinálhat a gépen, ha rá van kötve külső megjelenítőre."
Van, de továbbra is egy időben egy felhasználósak az asztali OS-ek (alap Ubuntu is, gondolom), szóval pl. nincs két független egér meg bill. Marad, hogy lehet filmet nézni a 2. kimeneten. De ez sem épp tömeg igény, főleg nem rendszeresen... plusz utóbbi általában már ma sem gond egy laptopnak, feltéve hogy a másik illető nem épp játszik vagy ilyesmi, ami tehát a ritka eseteken belül is ritka lenne.
"Egyébként azt is megtudhattuk, hogy van egy igen gyenge pontja a SandyB-nek: "összeveszhetnek" a L3-on a CPU-magok és az IGP"
Azt én egyáltalán nem veszem kész ténynek, hogy ennyire összevesznek... erősen FUD gyanús az egész. Azok az akadások annyira durvák, hamarabb lesz az valami dirver optimalizálási gond vagy hasonló, mintsem hardveres adottság. Elvégre a játékok is esznek CPU-t rendesen, és ott is erősen korlátos az átfedés a GPU és a CPU által használ adatstruktúrákban, tehát csak játékot futtatva is akadozna már annyira, hogy teli lenne ezzel a Net az IGP-s SB-s kapcsán. Ehhez képest elég pozitív volt a fogadtatás a független tesztekben, ahogy én elnéztem.
Új hozzászólás Aktív témák
- Műholdaktól is képes segítséget kérni az Apple Watch Ultra 3
- Nők, nőügyek (18+)
- Építő/felújító topik
- Törvényben kötelezné az USA a hazai AI igények elsődleges kiszolgálását
- Eredeti játékok OFF topik
- 3D nyomtatás
- iPhone topik
- Kerékpárosok, bringások ide!
- Apple iPhone 16 Pro - rutinvizsga
- Dacia topic
- További aktív témák...
- Intel Core i7 - 12700 12Mag / 20Thread - LGA1700 - 3.6GHz - 4.90 GHz, 25M Cache
- Használt Intel I5-12600K
- AMD Ryzen 7 5700X BOX - Új, 3 év garancia - Eladó!
- Amd ryzen 5950x + Msi x570s carbon wifi + Team Group 8Pack Edition 32GB samsung b die .
- Intel Core Ultra 7 265K - Új, Gari 2028.09.27. -ig - Eladó!
- Bomba ár! Dell Latitude E7240 - i7-4GEN I 16GB I 256SSD I 12,5" HD I HDMI I Cam I W10 I Garancia!
- Apple iPhone 15Pro 128GB Kártyafüggetlen 1Év Garanciával
- Samsung Galaxy S23+ 256GB, Kártyafüggetlen, 1 Év Garanciával
- Telefon felvásárlás!! iPhone 11/iPhone 11 Pro/iPhone 11 Pro Max
- GYÖNYÖRŰ iPhone 13 Pro Max 128GB Graphite -1 ÉV GARANCIA - Kártyafüggetlen, MS3063
Állásajánlatok
Cég: CAMERA-PRO Hungary Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest