-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
válasz
ggbuffon1897
#70274
üzenetére
Mindenki érti szerintem, hogy egy 6 magos 65W TDP-s CPU nagyjából egy szinten van
teljesítményben mint egy 6+8 magos "hasonszőrű" 125W TDP-s CPU. (Single threaden egyik, multiban mások jobb. Utóbbi ugye nem csoda hiszen +8 low power magja van.)
Az tény, hogy árban is ugyanott van ami nem túl jó pozicionálás.Na de CPU nem ide való és itt én végeztem. Csak azért írtam le, hogy legyen újabb bizonyték az elfogulatlanságodra.

-
válasz
ggbuffon1897
#70268
üzenetére
-
válasz
ggbuffon1897
#70260
üzenetére
És még mindig többszöri idézésre sem arról beszélsz amire mindenki válaszolt... (AMD béka segge alatt CPU terén is.. papíron jobb...) Tipikus elvakult fanboy. AMD pedig annyira nincs sehol mint brand, hogy összes eladási CPU toplistán leszorítja az Intelt. Annyira sehol sincs, hogy már több cég (köztük nálunk) is AMD laptopokra kezd áttérni. A market share tendencia is azt mutatja... Ki kéne nyitni azt a szemet, mert nagyon elöregedett és még az 1000 ember beszél hülyeséget az egy ellenében.

-
válasz
ggbuffon1897
#70220
üzenetére
Amire mindenki reagált az valójában ez, amit mondtál: "Ez a cpu fronton is tetten érhető, hiába csinálnak papiron jobb termeket."
Méghogy nem egy elvakult fanboy vagy.
6 év alatt +20% egyébként kiemelkedő eredmény egy alattomos gyakorlatot használó monopol cég ellenében.
-
válasz
Quadgame94
#70215
üzenetére
Túl sokan nem is vesznek. Meg kell nézni bármelyik best seller listát és ez már hónapok, de talán már 2 éve így van. AMD egyeduralom van CPU fronton. Intel a megkérdőjelezhető módszereivel az OEM eladásokkal tudja tartani magát úgy-ahogy, de ahogy a market share grafikonokból és a tőzsdei fogadtatásából is látszik még így sem megy neki. (Meg is érdemli annak ellenére, hogy engem is érint mivel INTC részvényeim is vannak
) -
válasz
ggbuffon1897
#70199
üzenetére
Úristen te hány éves kisgyerek vagy? Papíron? Leszakad a vakbelem a röhögéstől

-
válasz
Sundesz
#68996
üzenetére
Az árazás nincs az AMD kezében egyáltalán. Akkor lehetne csak az ár feletti kontrollt kézben tartania többynire, ha kizárólag közvetlen tőlük vehetnénk kártyát és mindenki csak egy darabot.
Ennek oka pedig, hogy a kisker/nagyker beárazza úgyis teljesítmény szerint a konkurenciához. Itt be is zárul a kör. Minek adna olcsóbban valamit bármelyik cég ha a kisker beárazza saját maga. -
válasz
pRoject22
#67049
üzenetére
Esélyes, hogy semmi köze a VGA-hoz hanem valami áramköri-földelési zavar okozza valahol. (Illetve több tényező együtthatása.) Munkahelyemen pl. volt időszak amikor én vagy szemben ülő kollégám felállt akkor ment el így a kép, de nem a saját monitoron hanem a szemben lévőn. Vicces volt.

-
válasz
newwave0507
#67035
üzenetére
Nekem HDMI-vel ugyanez van. Hasraütök, de kb. 4-5 óránként 1-2 másodpercre fekete kép és mintha mi sem történt volna visszajön a kép. Nincs driver vagy hasonló crash, legalábbis a driver nem dobja fel az ablakot, hogy a driver hiba után helyreállt. Különböző kábelekkel is próbáltam talán eredmény nélkül. Mivel ritka nem szántam rá időt, hogy próbáljam pl. az alapórajelet megemelni vagy a max órajelet visszavenni és tesztelgetni.
Akár driver bug islehet, de régóta van. -
Az a baj AMD-vel, hogy nem fogja fel a pszichét. Hiába vannak jó kártyáik X kategóriában, ha a legjobb kártyával rendelkezőnek is van kártyája abban a kategóriában akkor az emberek többsége azt fogja venni. Szimpla pszichológia.
Ahhoz, hogy adott kategóriában az AMD kártyáit vegyék rettenetes módon alá kell árazni a pszchihés hatás ellensúlyozásához. Amíg nem az AMD lesz a top-on addig véleményem szerint esélye nincs piaci részesedést növelnie, mert az áraikat nem fogják annyira lenyomni, meg sem tehetik talán. -
Fejlesztőként azért elmondom, hogy valamennyire AI még a DLSS első verzióinál volt használva, de ott is csak tréningelt adatokból dolgozott mivel a számításigény valóban kevés volt (és még az is) valós idejű generálásra.
Ugyanakkor a tenzor magok lehetővé teszik complexebb, nagyon jó minőségű felskálázó algoritmusok kifejlesztését, majd használatát. Ezek sok terhet vesznek le a GPU egyéb részegységeiről adott algoritmusoknál.
Valós AI tartalomgenerálás valóban nincs, mert ahhoz kevés a teljesítménye. Aki kíváncsi valós AI általi tartalomgenerálásra felskálázűshoz nézze meg a MadVR legjobb minőségre beállítva az AI skálázó engine-t. Anno 3080Ti-vel teszteltem és reggelire megette a kártyát. Tulajdonképpen slide showt csinál belőle pedig a GPU erejét használja mindenestől tenzort stb. is beleszámítva. Viszont az eredmény megdöbbentő, azonnal látszik, hogy mi a különbség valóban AI által generált tartalom és egy - akár előbb említett nagyon komplex skálázó - algo között.
Az NVidia érdeme, hogy a DLSS fejlesztése során, biztos vagyok benne, hogy - sok munkával egy rendkívül jó felskálázó algoritmust fejlesztettek ki amit nem csoda, hogy úgy őriznek mint az Unicum receptjét.
-
A bug amiről beszéltek az mind csak hit kérdése. Semmi tény nem szerepel sehol. Anno pletykák voltak, hogy milyen teljesítménye lesz az RDNA3-nak, de azok is pletykák. Aztán kijött és nem lett és jött egy pletyka, hogy bugos. De csak pletyka.
Innentől kezdve az, hogy ki mit hisz az az egyén döntése és nem tény. Ismétlem: csak HIT, melyet páran tényként kezelnek és úgy beszélnek róla. -
válasz
Petykemano
#62836
üzenetére
Tehát akkor az összes többi esetben pedig az nVidia szabotált igaz? Istenem az a bizonyos álltakert milyen nagy

-
válasz
Raymond
#62105
üzenetére
Mert ha annyira jók akkora pont most miért nem? Csupán arra akarok rámutatni, mennyire kettősmércét használnak az emberek. Annyira, hogy még az is ami alátámaszt egy állítást arra is azt mondják, hogy nem. Éppen ezért pontosan ezt a választ vártam.

Amúgy tuti driver probléma áll mögötte (attól függetlenül, hogy ez nem zárja ki a másik "összeesküvés" elméletet). Sajnos a DX11-et jelentősen turbozó driver óta vannak adott körülmények között jelentkező instabilitási gondjai az AMD drivernek. -
válasz
huskydog17
#61413
üzenetére
Na pontosan erről beszéltem. A valaki "véletlenül" elfelejti honnan indult. Ez pedig: #61344
Azt írta a valaki, hogy "screen space alapú GI" ami nem igaz. Nem az. A Brixelizer egy sparse distance fields generátor és ennek outputját fel lehet GI-hez is használni. Szóval nem. A Brixelizer még mindig nem GI. -
válasz
huskydog17
#61410
üzenetére
Az állítás amiből ez az egész elindult az volt emlékeim szerint, hogy Brixelizer == GI, de nem. A Brixelizer =! GI. Persze az a valaki ezt elfelejti, mert kiderült hogy valóban nem egyenlő a GI-vel.
-
-
válasz
Petykemano
#59334
üzenetére
Gyári volt nem babrált. Fórumokon is utánanéztem és ennél a típusnál eléggé ismert probléma a rossz gyári pasztázás. Valószínű volt egy rosszul MEO-zott hibás széria.
Azért a fejlesztők nem hülyék, mint én voltam (annak ellenére, hogy magam is az vagyok
). Ők monitorozva igyekeznek reprodukálni a hibákat. -
Kicsit off, de ide írnám, mert talán többen olvassák és okulhatnak más "kárából".
Mire jutottam néhány hónap után a black screennel, véletlenszerű gép lekapcsolódással, illetve akadozással (stuttering) kapcsolatban az 6900XT kártyámmal?
A problémát több dolog is okozta. Egyik valószínűleg az ismert driver bug volt, de nem ez volt a fő oka mivel nálam a driveres black screen hiba javítása után is ugyanúgy jelentkezett.
A DOTA 2-nél meccsek után volt egy időszak amikor elég nagy eséllyel jelentkezett a gép lekapcsolása. Tudom hülye voltam, hogy nem tettem meg előbb de mivel akkoriban enél a játéknál fixen lehetett számítani rá elkezdtem monitorozni a GPU és VR/VRAM hőmérsékleteket és észrevettem, hogy pár 1-2 másodpercre 110-115 fokra hirtelen felugrik a GPU hőmérséklete.
Ezután stresszteszteket csináltam. A GPU és VRAM hőmérséklete hirtelen ugrott fel nagyon magasra (110-115 és 85-95 fok). Volt még itthon Noctua NT-H2 paszta, a VR/VRAM-okhoz pedig a legjobb hővezető képességű Gelid thermal padot vettem, majd kicseréltem a thermal padokat és újra pasztázam a GPU-t.
A GPU-n már szétszereléskor láttam, hogy gyárilag rosszul volt pasztázva, mert a GPU felületének kb. negyedén nem igazán maradt nyoma pasztának.
Végezetül ellenőrzés stressz teszttel. A GPU és VRAM hőmérséklete rendre visszaesett 80-ra és 40-re. Végezetül kikapcsoltam az MPO-t, ami mint megtudtam közismert oka a black screennek és minden gyártó kártyáját érinti.
Az eredmény: nincs black screen, nincs lekapcsolás és az akadozás megszűnt. Tanulság: azután fogom ezentúl szidni a drivert, ha már mindennek utánajártam. -
Azért, mert szóba került, hogy márpedig az RT milyen sokat hozzáad és ennek úm. bizonyítására a CP-t hozzák fel általában. Holott ez az engine pont egy rossz példa, mert az RT előtérbe helyezésével arra építve készült és a legacy megoldásokat hanyagolták emiatt. Ha utóbbiba is energiát fektetnek ahogy egy kell, akkor az óriási különbségek nem lennének annyira szembetűnők. Főleg azokon a területeken amikre hivatkoznak a laikus, hozzá nem értő emberek. RT teljesítményt mérni jó, de hivatkozási alapnak arra, hogy milyen szembeötlő különbséget tud okozni némi RT nagyon rossz.
-
válasz
Komplikato
#58576
üzenetére
Én sose vettem az elnevezés részének, de a YouTuberek és nagyobb oldalak többsége sem. Szerintem még az nVidia sem. Csupán arra utalt, hogy van 12 és 16 GB-os verzió belőle. Átnevezve éppen azért lett 4070-re, mert egyértelmű volt, hogy nem ugyanaz a chip. Nem csak RAM különbségről van szó és ezt a fajta marketinget erősen szóvátették.
-
A 4080 12GB nem elnevezés. A 4080 a név, a 12GB a RAM mennyisége. Szezont a fazonnal. Bagoly. Tipikus. Nem lepődött meg senki ugye rajta nem igaz?

-
válasz
Busterftw
#58536
üzenetére
Azt én sem tudom felfogni miért nem ismer fel AMD egy olyan alapvető tényt, hogy a csúcskártya a legfontosabb. Akié a csúcskártya annak a portfóliójából fog választani a vevők nagy része, mivel a nagy része laikus.
Meglátjuk milyen lesz valóságban az az RT RDNA3-on, de ha nem lesz olyan fényes az sem lesz nagy baj, mert a többséget szintén nem érdekli annyira. Jobban számít a raszter stb. Ha az sem lesz 4090 közelében.. na akkor bajban lehet az eladásokkal. -
Nem értesz semmit, de ezt megszoktuk. Fel tudod fogni, hogy az SSR-rel nem foglalkoznak azért, hogy az RT-t nyomassák attól függetlenül, hogy vannak olyan effekteket amikhez valóban jelentősen tud az RT hozzáadni az SSR-hez képest.. Nem az első ilyen fajta megmozdulás lenne ez a játékok terén. Azt írtad marketingben dolgozol. Hát nem úgy néz ki.

-
válasz
Petykemano
#58352
üzenetére
Szerintem úgy érti, hogy számos potenciális 4090 vevőt - főként akiknek az RT annyira nem nagy kunszt - átcsábít.
-
Az RT teljesítménye azért eléggé kiábrándító még akkor is, ha akár engem akár mást jelenleg nem érdekel. Az oka a jövőállóság. Ha most vesz valaki egy ilyen AMD VGA-t amikor az RT kezd terjedni és 2 év múlva nagyobb arányban lesz jelen a játékokban, akkor már nem lesz mindegy. Hiszen ha már minden 3. játékban be lehet majd kapcsolni és még lényeges értelme is lesz, akkor ez nagy hátránya lesz a jövőben.
(Ugyanakkor addigra valószínű már jön a következő gen
) -
Állítólag (én nem vettem észre) egyik dián fel volt tüntetve eldugott helyen a 7950 XTX neve is. Valami erről? Elírás lett volna?

-
válasz
FLATRONW
#58266
üzenetére
Számomra meg marha szar képminőséget ad mindegyik 1080p-ről 4K-ra skálázós gaming cucc akár FSR, akár DLSS. Ég és föld a különbség natívhoz képest. Természetesen még mindig jó hogy van, mert segít gyengébb kártyákon illetve választhat a felhasználó számára melyik az elfogadhatóbb megoldás (natív vagy DLSS/FSR stb.).
Egyetlen tényleg nagyon jó minőségű 1080p-ről 4K-ra skálázást láttam eddig életemben, de az egy real-time AI algoritmus és legjobb minőségen egy teljes 1080 Ti is kevés neki még 24 képkocka/sechez is. -
válasz
Petykemano
#58202
üzenetére
nVidia a leggyorsabb, ezért ezt ajánlják vagy veszik. Az emberek többsége laikus, nem néz utána, nem olvas, nem ért hozzá és hallja hogy a leggyorsabb vagy azt ajánlják (mert a leggyorsabb vagy stabil a driver stb.) és ennyi. (Itt most ne térjünk ki az egyedi szerződésekre amiért ez+az jobban terjed mint az+ez.
) -
válasz
paprobert
#58194
üzenetére
"...driver már nem crashel."
Olyan szinten crashel már 7 hónapja öröm nézni és tudnak is róla, de azóta sem javították ki. Mivel tudni miért ezért akármikor el tudom crasheltetni a drivert ami soksor húzza az egész gépet maga után és csak reset segít.
"játékok már jól futnak"
Ha a user tudja miért is van akkora stutter amekkorát a világ még sosem látott, akkor meg tudja oldani, hogy ne legyen. Alapból nagyon durva szaggatást okoz a driver.A helyzet az, hogy AMD még mindig nem tud drivert írni (sajnos).
-
Piaci részesedést azért is nehéz szerezni (ennyi év lemaradás után főleg), mert az emberek pszichés alapon is döntenek. Hiába van a vásárolni szándékozott alacsonyabb ársávban esetleg még picit többet is adó termék a másik oldalon akkor is abból a márkából fog választani amelyiknek a legjobb terméke van.
-
válasz
Petykemano
#58178
üzenetére
Azt mondja AMD RDN3-ba lesznek új gaming featurök. Kíváncsi leszek rá mik lesznek azok.
-
válasz
Devid_81
#57977
üzenetére
Így van és pontosan ezért írtam, hogy jó a fogyasztása. Le lehet vinni 300 alá és még úgy is jóval gyorsabb mint a 3090. Az "OC" pedig most is a userre van bízva. Ugyanúgy Ő dönti el kell-e neki az a 10%. A különbség, hogy most tutira olyan kártyát kap ami "OC"-zhető.

-
Nem lesz gyorsabb leakek szerint. AMD-s mérnöki szivárogtatás alapján raszterben elérheti talán, de RT-vel messze lesz. Akkor még nem is beszéltünk a DLSS3 igencsak erős újításairól.
Ráadásul fogyasztásban is jó lett a 4000-es.
Szerintem AMD-nek nagyon nyomott áron kell adnia 4000-esekhez képest, hogy vegyék. -
Elmagyarázom: TV automatán átvált game mode-ba ha VRR van. Ekkor viszont nincs teljesen kalibrált kép, movie mode stb. Azért kéne, hogy lehessen a VRR-t automatán ki-bekapcsoltatni, hogy ne kézzel kelljen szórakozni az AMD vezérlőpultban vagy a TV menüjében ha éppen nem játszom, hanem pl. filmet néznék stb. A driver tudná egyértelműen, bizonyítottan, de AMD driver készítői is olyan emberek akik nem használják amit fejlesztenek...
-
Nehéz kérdés:
Meg lehet oldani, hogy az Adaptive Sync-et automatikusan kapcsolja ki és be a driver attól függően, hogy játék vagy full screen app fut-e? Az biztos, hogy a driver tudja mikor melyik megy ugyanis a TV jelzi mikor kapcsolja ki és be a game mode-ot. Tehát elvileg meg lehet csinálni amit szeretnék, de tudja-e az AMD driver? -
válasz
sakal83
#56141
üzenetére
Naná, hogy a kategóriájába áraz (amit msot az Nvidia emelt szépen az évek során egyre feljebb). Te máshogy tennél?

Egyébként nem az Nvidia thet róla. Ők csak éltek a birkahorda adta lehetőséggel. Azok tehetnek róla, akik megvették jóval drágábban az 5-10% plusz teljesítményért.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- PowerColor RX 6700 XT 12GB GDDR6 Hellhound Eladó!
- ASUS ROG Strix RTX 4090 OC 24GB GDDR6X Videókártya! BeszámítOK!
- AZONNAL VÁSÁROLOK RTX 4090 és RTX 5090 videokártyákat! Akár nem működő, hiányos, sérült is lehet!
- Nvidia geforce rtx 5070 ventus 3x 12gb(vram)
- 3év! AKCIÓ! ÚJ ASUS TUF GAMING Geforce RTX 5080 OC Edition 16GB VRAM Ray Tracing DLSS4
- GYÖNYÖRŰ iPhone 12 Pro Max 256GB Graphite -1 ÉV GARANCIA - Kártyafüggetlen, MS2927, 100% Akkumulátor
- BESZÁMÍTÁS! 2TB Kingston KC3000 NVMe SSD meghajtó garanciával hibátlan működéssel
- DELL Latitude 5480, 14",HD,i3-7100U,8GB DDR4,256GB SSD,WIN11
- Dell XPS 13 9333,13.3",FHD,i5-4210U,8GB RAM,256GB SSD,WIN10,TOUCH
- ÁRGARANCIA! Épített KomPhone Ultra 9 285K 32/64GB RAM RTX 5070 Ti 16GB GAMER PC termékbeszámítással
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest


Ja varj, nem is, hanem epp az ellenkezoje."
