-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Tehát akkor összefoglalva: azáltal csökken a késleltetés, hogy a képkocka számításának megkezdése a GPU-n azelőtt történik, hogy a CPU elkészült volna. Ez mondjuk vet fel problémákat, de ezen lépjünk túl, el tudom képzelni, hogy egy 60 FPS-sel futó hajszimulációban nincs jelentőségük. Az is világos, hogy a mindenféle varázslások eredményeképpen a GPU-ra jutó számítási feladat rövidebb lesz.
Ellenben:
- Ha a GPU frametime rövidebb, mint a CPU frametime, akkor vagy CPU-limit van, vagy tudna gyorsulni a GPU is
- A GPU nem jelenít meg több frame-et, mint amit a CPU kiad, csak másképp lesznek időzítveUgye?
-
Abu85
HÁZIGAZDA
válasz
Jack@l
#25097
üzenetére
A latency azért más fogalom, mert lehet eltérő a flip-queue méret, és akkor máris jelentősen módosult a késleltetés annak ellenére, hogy az fps minden paraméterrel ugyanaz. Ezért nem szabad a késleltetést belekeverni a CPU fps-be és a GPU fps-be. A VR esetében azért egyszerű a történet, mert a flip-queue méret mindig 1, illetve a pufferelés is közvetlen, front bufferes megoldás. Egy nem VR játékban azért számos lehetőség van még ezeken kívül.
-
Abu85
HÁZIGAZDA
A következő képkockára egy másik present vonatkozik, ami a grafikai parancslistába kerül.
Az a trükk, hogy úgy kezdjék meg a következő képkocka számítását, hogy az előzőt még nem fejezték be. A legelső képkocka mindenképpen hosszú lesz, de minden azutáni már rövidebb, és ezzel csökken a késleltetés. Az egyetlen hátrány, hogy ezzel mutatsz egy fityiszt a 3rd party mérőprogramoknak, mert nem érzékelik a presenteket a compute parancslistákon.
A Deus Ex hasonlóan trükkös. Ott az történik DX12-ben, hogy a haj szimulációja hamarabb kezdődik, meg mint maga a képszámítás, illetve ennél a játéknál már aszinkron DMA is van, ami még jobban bonyolítja a dolgokat. -
Jack@l
veterán
Akkor lehet kevertem a másik techdemóval.
CPU fps-nél másra gondoltam, arra az fps számra amit maga a proci ki tudna számolni, ha nem kellene várnia a gpu-ra plusszban. 20 éve mérhető ez így ebben a formában, persze csak a motoron belül.
Amit te mondassz az a latency vagy response time, fura hogy mostanában ezt nyomod orrba szájba a vr kapcsán, de nem tudod mi az. -
Abu85
HÁZIGAZDA
válasz
Jack@l
#25093
üzenetére
A Doomban a programba épített statisztikában csak GPU fps-t ír ki. Valószínűleg képes lenne egyébként CPU fps-t is kiírni, csak a fejlesztők nem tartották fontosnak a kijelzését, mivel sokat trükköznek.
A kérdésedből egyébként rosszul értelmezed már magát a fogalmakat is. A CPU fps az a presentek között eltelt idő, míg a GPU fps a bemeneti adatok megérkezésétől a kimeneti kép elkészültéig eltelt idő. Ilyet régebben is csak maga a motor tudott mérni, mert egy 3rd party program nem kapott hozzáférést az alkalmazáshoz és az alkalmazás által lefoglalt erőforráshoz, amit a driver vezérelt. -
Abu85
HÁZIGAZDA
válasz
Petykemano
#25091
üzenetére
Nem létezhet ilyen eszköz. Az új API-k felépítése miatt a valós fps 3rd party szoftverekkel kimérhetetlen. Ezért látsz a legtöbb DX12-es alkalmazásban beépített tesztprogramot. Egyedül maga az alkalmazás képes kimérni a valós GPU fps-t az új API-kkal.
(#25092) gbors: A CPU-GPU sync pointokkal lehet így trükközni. A felhasználás módjától függ, hogy miképpen, de az új API-kkal az alkalmazásnak nagy a kontrollja a hardver fölött, így rengeteg apró trükk vethető be, ami a régi API-k alatt lehetetlen. A fejlesztők oldaláról ez hasznos, és az lesz az utolsó negatívum, amit mérlegelnek, hogy 3rd party programmal nem lesz mérhető az fps.
-
Jack@l
veterán
"Régen nem. Nyilván single-engine volt az API, nem lehetett más a CPU és a GPU fps."
Az esetleg nem-e lehet netán, hogy fogja a doom a cpu időt, fogja a gpu időt ami egy frame kiszámításához kell és azt kiirja, mint "cpu fps" meg "gpu fps".
Csak az egyszerűség kedvéért, mielőtt multi engine és hasonló mesékbe kezdenénk?
Meg aztán felettébb okos döntés lenne fullra járatni a cpu-t, miközben a gpu ugyse tud több fps-t megjeleníteni. Memória és latency overheadről már nem is teszek említést. -
Abu85
HÁZIGAZDA
Régen nem. Nyilván single-engine volt az API, nem lehetett más a CPU és a GPU fps.
Az aszinkron compute egyik egzotikus felhasználási módja a késleltetés csökkentése. Elsődlegesen a konzolokon használják ezt a lehetőséget, de a Doom és az új Deus Ex áthozta PC-re is. Valamivel kisebb lesz az egész rendszer input lagja ilyen formában, ezért szerencsés ezt alkalmazni.(#25082) lee56: Akármilyen külső program jön, semmi sem fog tudni GPU fps-t mérni. Erre csak az alkalmazás képes, ha a fejlesztő beépített egy ilyen mérőt a programba. Ez ma szerencsére jellemzően megtörténik.
-
#35434496
törölt tag
Én a következő csúcs Radeont megveszem. Eldöntöttem és kész. Sapphire powa!

-
tailor74
addikt
-
sulu1701
aktív tag
Sziasztok!
Érdeklődni szeretnék szerintetek amikor megjelenik A Vega várható,hogy az RX480 ára csökkeni fog? Azért kérdezném mert lehet lecserélném most a 970 et a "kevés" Vram miatt, és ha megjelenik a Vega akkor arra cserélem.
Köszi előre is.
-
Abu85
HÁZIGAZDA
A multi-engine felépítés miatt ilyeneket lehet csinálni az új API-kban. Nem minden játék csinál ilyet, de a Doom és az új Deus Ex igen. Régen nem lehetett, de ma eléggé jó ötlet mondjuk meghívni egy presentet a compute futószalagra, aminek nincsen a CPU oldalon látható nyoma. Ez elég nagy eltérést okozhat a CPU fps és a GPU fps között. A Doom az kijátszható azokkal a beállításokkal, amire nincs aszonkron compute. A Deus Ex nem játszható ki, de arra szerencsére van beépített mérő.
-
Akkor ez továbbra sem világos. A CPU és a GPU oldalon mért FPS között csak akkor lehet különbség, ha nem ugyanannyi a CPU oldali presentek száma, mint a GPU oldaliaké. Ez csak akkor lehet, ha a GPU eldob frame-eket és / vagy olyanokat is megjelenít, amihez nem volt CPU-oldali present. Csinál ilyet a Vulkan renderer?
A frame-time-ok persze shiftelődhetnek ide-oda, és emiatt valóban jobb lenne a GPU-oldalt látni, de az átlagos FPS tekintetében nem szabadna eltérésnek lenni. -
Yany
addikt
válasz
#85552128
#25074
üzenetére
Bizony, de itt a fő gond nem is azzal lesz, hogy várni kell és az addig bevétel-kiesés, hanem az előre befektetett bizalmat is elveszti az egész és azt újra felépíteni sok idő lesz. Egy Doom nem csinál nyarat és a BF1-re legalább annyi figyelő szempár tapad, ha nem sokkal több...
-
HSM
félisten
válasz
Jack@l
#25075
üzenetére
Másfél hónap elég sok idő, ha csak annyi a dolgod, hogy rázd gatyába a DX12 kódot.... Nyilván csodát sem lehet ennyi idő alatt tenni. Majd meglátjuk. A sebesség amúgy DX11 alatt is pocsék volt, szval lesz mit csináljanak.
Ez inkább állhat a DX12 optimalizálgatás útjába.... Ahogy annak idején is a DX11 gatyába rázás kellett a prioritás legyen, és csak utána rázták gatyába a Mantle-t. -
Jack@l
veterán
válasz
Jack@l
#25068
üzenetére
UI: a link lemaradt
http://www.pcgameshardware.de/Battlefield-1-2016-Spiel-54981/Specials/Technik-Systemanforderungen-Benchmarks-1206197/Abu: Akkor majd az évek óta mantle-el mesteri szintre fejlődött Frostbite motor most megmutathatja.
-
Yany
addikt
válasz
Jack@l
#25063
üzenetére
Az nagyon durva, orbitális blama lenne mind az AMD felé, mind a DX12 felé. Gyakorlatilag a DX12-be vetett hitet és az AMD egész jövőképét kérdőjelezné meg... hogy akkor most mire is ez a nagy áldozás?
Miért írom ezt? Minden AMD vásárló a megjelenés előtt álló játékoktól várja a megváltást és a manifesztálódó ígéreteket, miszerint azért jobbak ár/teljesítmény/fogyasztás mutatói a GeForce-nak, mert csak az aktuális/elavult játékok meghajtására koncentrál, de szépen lemaradnak, amint az új gémek jelennek meg. De ha a BF1 képtelen jobbat mutatni DX12-n, mint DX11-en, az Vulkan-os Doom ide vagy oda, le fogja húzni csúnyán a DX és a GCN imidzsét is egy DX11 only BF, vagy egy azonos/rosszabb tempójú DX12 mód.
-
HSM
félisten
A 7870XT-men nekem se ment jól. Kevés hozzá a 2GB ram, mediumra kéne venni a grafikát, úgy egyébként a 7870-en is szépen megy Mantle-vel, de ilyen kártyával nyilván érdemesebb eggyel magasabb beállításon DX11 alól tolni.

A 290-eken viszont 4GB rammal nincs ezzel gond, és szépen, stabilan megy. Bár nekem a DX11 móddal sem volt semmi komolyabb bajom.

-
Abu85
HÁZIGAZDA
Nem teljesen. Mindenképpen lesz egy grafikai present, csak nem az lesz, amit a PresentMon-nak mérnie kellene.
Igazából akkor mér jó CPU fps-t a Doomban a PresentMon, ha az AA nincs kikapcsolva és nem 8xTSAA van beállítva.Valójában egyébként GPU fps-t kellene mérni, mert a DX12 és a Vulkan is multi-engine API. A CPU fps-t mérő Fraps azért volt jó régen, mert a GPU fps is lényegében ugyanaz volt, hiszen a DX11 és az OpenGL single-engine API volt. A CPU fps és a GPU fps között nem volt csak 1-2% különbség. Persze nyilván a Fraps esetében is voltak problémák, amire az FCAT rávilágított, de az fps akkor is jó volt. A DX12 és Vulkan alatt a CPU fps a GPU fps-től 10-20%-ot is simán eltérhet.
-
Jack@l
veterán
-
Jó, tehát akkor, ha jól értem:
- Ha van 8xTSAA, akkor a presenteket a compute parancslista küldi, és a PresentMon pontosan 0 frame-et fog detektálni
- Ha nincs 8xTSAA, akkor nincs compute listás varázslás, és a PresentMon helyes eredményeket ad visszaMagyarul, ami mérés készült a DOOM-ról PresentMonnal, az mind helyes, mert ami nem lenne helyes, az 0 FPS

-
Yany
addikt
válasz
#85552128
#24991
üzenetére
Őszintén szólva a BF1-től én félek picit. Az early tesztek szerint nem gyorsul DX12-től, de inkább lassul. Igen, tudom, hogy beta, de a Mantle fejlesztésének is óriási reklámértéke volt, közben mégsem bevethető BF4 alatt, DX11-ben meg állva hagyja az NV a pirosakat. Pedig AMD barát engine. (?) Szóval a BF1-be vetett hitet látva én mindig inkább tartok tőle, semmint együtt éreznék.
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
válasz
#85552128
#25051
üzenetére
Igazából nem hack, hanem gyári tuning. Olyan, mint a G-Sync 165 Hz-re emelése, csak fordítva. Csak akkor működik, ha Radeont használsz. Ellenkező esetben az LFC nem aktiválódik. Ezért van így megadva a tartomány, hogy normál Adaptive-Sync+LFC. Például Intellel az LFC nem fog már működni, ha majd lesz Adaptive-Sync implementációjuk.
-
Abu85
HÁZIGAZDA
A post-process 8xTSAA-val átlapolja az új frame elejét. Ehhez kell egy present a compute parancslistán. Ezt a PresentMon nem látja. A Doom minden frame-nél csinál ilyet. Külső programból is van rá megoldás, de ilyenkor a PresentMont úgy kell tervezni, hogy az adott alkalmazás adott GPU-n való futásához igazodjon az elemzése. Ilyen verzió még nincs belőle.
-
#85552128
törölt tag
válasz
Venyera7
#25050
üzenetére
A "hack" nem mintha garantált megoldás lenne, elég szomorú, hogy állítólag a Freesync jobb/okosabb mégis a Gsync monitorok tartománya a gyakorlatban sokkal szélesebb, pedig ugyanazokat a paneleket használják...
(#25049) HSM: 39 használhatóbb mint a 30, ahol a 1080 50 felett lenne ott a Fury X még a 40-et sem érné el, ráadásul a Gsync monitoroknál sokkal szélesebb az adaptive sync tartomány is, akár 30-ig lelehet menni, Freesyncnél meg egy kivételével 40-től kezdődik. Persze lehet itt hackekre meg hasonlókra alapozni csak több százezres kiadásoknál nem éppen okos dolog
Egy erősebb kártya kéne belátható időn belül. Vicces, hogy tavaly 4K mániával promózták a Fury X-et mostanra meg gyakorlatilag az nV után legjobb esetben is 4. opcióként van kártyájuk erre a célra.(#25052) gollo91: Tudom mi a range mod. Nem garantált, hogy adott típuson belül minden monitor panelje bírni fogja - máskülönben nem 35-40-től kezdődnének gyárilag sem. Az egyéb mellékhatásokról (frame skipping, villogás) nem is beszélve.
-
#85552128
törölt tag
Hány olyan 4K monitort látsz itt amelyik támogatja az LFC-t ? A max értéknek 2.5x kell nagyobbnak lennie mint a minimum, hogy ez működjön, s mivel az összes 4K monitor 35/40 - 60 Hz-es így nem fog működni (na nem mintha a tartós 30-35 FPS amúgy olyan jó lenne főleg egy FPS-nél, azért a freesync sem csinál csodát).
-
#85552128
törölt tag
válasz
Venyera7
#25040
üzenetére
Na és mi van azokkal a játékokkal amelyek nem 150+ FPS-sel futnak 1080p-n hanem ott is csak épp hogy megvan/nincs a 60 FPS ?
Mert az új Deus Ex például még a legtöbb Freesync monitor tartományába se lenne benne 4K-n az avg <30-35 FPS mellett...
4K-ra minimum 1080 jelenleg és még az sem ultra, hanem med-high-vhigh mellett ha stabil játékot akarsz.
A Battlefront elég jól fut mindenen, de 200% res scale mellett már olyan durva frametimeok vannak nálam azzal is, hogy inkább levettem 140-re + bekapcsoltam az FXAA-t - pedig utálom... -
robertosz91
tag
Jelenleg egy kölcsön 270x van a gépben, és azt kell mondjam közel se elég 4k-ra (tudom nagyon meglepő
) Régebbi gammák még csak csak, de a 2012-től felfelé már nagyon kevés. Pl most witcher 1-et játszom, az kb tudja tartani a 60fps-t. Mass Effect 1 kb 40-50. De a witcher 3 pl full lowon 10-15 fps. Persze itt a 2gb limitál. A Fury jó lenne, de a 4gb ram sztem hamar limitálni fogja. Pedig az ereje megfelelne.Ha a 490 vagy mi lesz a neve, kb 1070 szinten lenne kb 130e magasságába, akkor azonnal rárepülnék.
-
Abu85
HÁZIGAZDA
Az a különbség, hogy a CPU fps nem tudja mérni az aszinkron compute előnyét, ha az képátlapolást csinál, mint mondjuk a Doomnál. Ez egyszerűen láthatatlan egy külső program számára.
Nem véletlen az előny, mert a shader intrinsics előnyét képes a PresentMon is mérni. Természetesen jobb lesz a Vulkan mód, mert gyors kódokat futtathat a Radeon. De egyébként, ha lenne ilyen lehetőség OpenGL-en, és leportolnák ezeket a kódokat erre az API-ra, akkor itt is mérne ekkora gyorsulást. -
-Solt-
veterán
A lényeg az, hogy nincs (és még hónapok kérdése, hogy legyen) olyan AMD kártya ami az 1080/Titan ellenfele. Ez sajnos fájó tény, én is szívesen váltanék már egy FreeSync monitorra és egy combosabb AMD kártyára.
Más kérdés, hogy akkor sem lesz ha ezt pár naponta egy új arc beírja ide ami mentén aztán kezdődhet a vihar a biliben...
-
HSM
félisten
válasz
Jack@l
#25033
üzenetére
Azért ne bohóckodjunk már... Egy 7850 lepkefing egy 390/Fury kaliberű kártya mellett....Talán ezek sebességének a harmadát tudja, jó esetben....
Itt arról volt szó, hogy ezekkel a kártyákkal a legtöbb játékban valószínűleg már találni olyan beállítást, amivel kis kompromisszummal (FPS, képminőség) már játszhatóak elfogadható sebességgel 4K-n. A 7850-en erre vajmi kevés esélyt látok. -
Ren Hoek
veterán
válasz
MongolZ
#25030
üzenetére
Hát de ez abszolút relatív. Ha neked van igazad a 480 is alkalmas 4Kra, ha nekem akkor meg az 1080 Ti sem.
Kvalitatívan nehéz nézni... de azért sokan a 60FPS-t ultrán veszik, mint fix pont. Persze én is játszanék a beállításokkal...
Akkor azt mondom, hogy nem elég az U60FPS-hez.
Furyt én max FullHD-re ajánlanék. Majdnem annyi, mint a 480, és nyilván erősebb.
A probléma az, hogy kivégzi majd a Vega és a Volta... akkor kb teljesen értétkelenné fog válni. -
-
Ren Hoek
veterán
válasz
#45997568
#25024
üzenetére
Nem a 4 GB a gond, hanem hogy nem jó 4K-ra. Ennyi. Persze kompromisszummal minden jó, de nehogy azt mondjuk már, hogy a Fury (X nélkül) ultrán viszi a játékokat. Mikor még az 1080 se alkalmas rá.
Talán majd ha jönnek kifelé az új motorok akkor, de a 4 GB előbb utóbb belimitálja már. -
Ren Hoek
veterán
válasz
Balazs_
#25022
üzenetére
Ja de 4K-ra mióta alkalmas a Fury 4 GB rammal? Felejtős... Kb egy dual 1080, vagy a csúcs NV. Épphogy elviszi.
Meg Fury-t ha jól tudom már nem is gyártják, tehát ez már csak ilyen utolsó darabos készlet lehet. Nem adtak el belőle túl sokat valsz. Most itthon ilyen 110K-ért láttam már újonnan... de még ezt is soknak tartom igazából..
-
Balazs_
senior tag
válasz
robertosz91
#25021
üzenetére
Amerikában kezdenek beesni a Fury-k $300 körülre, ha szerencséd van, itthon is elkezdenek esni addig az árak.
Bár itthon kicsitgyanúsérdekes árak vannak. -
robertosz91
tag
Szomorúan látom, hogy az évben már nem várható erősebb kártya a 480-tól. Abu battlefield jóslata úgy látszik nem jött be. Hát ez így nagyon gáz... Pedig reménykedtem benne, hogy október végén már ott csücsül a gépházba. Freesync monitor mellé 4k-hoz nincs AMD kártya...
-
#35434496
törölt tag
Ha volt már akkorelnézést. RADEONCRIMSON16.9.2 Support For:
Forza Horizon 3™ -
TESCO-Zsömle
titán
válasz
MiklosSaS
#25003
üzenetére
Tényleg nem kötekedés szintjén, de én nem sok árversenyt láttam az elmúlt években. Ha egyik cég kiadott vmi kártyát, ami egy kicsit jobb volt a másikénál, akkor nem árcsökkentés volt, hanem kiadtak egy kicsit tuningolt/kicsit herélt új kártyát árában. Ugyanez az esetleges piaci résekkel. Nem árversennyel igyekeznek őket betömni, hanem herélt GPU-kból tákolt kártyákkal. Árverseny meg nincs. Mindenki annyit húz le a vevőkörről, amennyit csak tud. Lásd legutóbb: Founders Edition. Ez se volt újdonság, megjelenéskor eddig is ennyivel votlak drágábbak az adott kártyák, csak eddig nem volt nevesítve a dolog. Most azzal, hogy nevesítették, a régi árakra pluszba tudták rápakolni az összeget. És nem volt hőbörgés, hogy pár hónap múlva, ha vége a Founders-nek, akkor lesz majd annyi a kártya, amennyi megjelenéskor lehetett volna...
-
Hmmm, én azért szívesen megnéznék egy olyan mérést, ahol a CPU és a GPU FPS egymás mellé van téve. Mekkora lehet a különbség közöttük? Puszta véletlen lenne, hogy a PresentMon ugyanúgy 25%-os sebességnövekedést mutatott a DOOM-ban az OGL és a Vulkan között RX 460-on, mint a többi site-okon?
-
Abu85
HÁZIGAZDA
válasz
#85552128
#24997
üzenetére
A bundle csak attól függ, hogy a gyártó kifizeti-e a kódokért a pénzt. A Battlefield 1-re úgy érezték, hogy nem éri meg bevállalni a magas árat, lesz mellette még más cím is.
Persze, hogy rossz lesz a frame time, amikor a PresentMon nem észleli a compute parancslitákon meghívott presenteket. Még nem végzett az adott frame mérésével, miközben már a sokadik képkocka is kiment a kijelzőre.
Volt már problémás eset az AotS-nél, csak más okból, de ott is a mérőprogram hibázott: [link]
A DX12 és a Vulkan nem DX11! Teljesen máshogy működő API-król van szó, amikben totál fals eredményeket adhatnak vissza a külső mérőprogramok.(#24998) Z_A_P: De, a Guru3D beépítettel mért. Lesz amúgy erre a gondra PresentMon továbbfejlesztés.
Jap mi erre figyelünk.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Hegesztés topic
- AMD vs. INTEL vs. NVIDIA
- PlayStation 5
- Steam, GOG, Epic Store, Humble Store, Xbox PC Game Pass, Origin Access, uPlay+, Apple Arcade felhasználók barátságos izgulós topikja
- Amerika kész lemondani a kormányról
- ASUS blog: 2K-tól a 4K-ig és tovább a Radeon RX 9000-es szériával
- sziku69: Fűzzük össze a szavakat :)
- Luck Dragon: Asszociációs játék. :)
- Vicces képek
- Le Mans Ultimate
- További aktív témák...
- Keresünk dokkolókat
- AKCIÓ! Asrock B450M R5 5600 16GB DDR4 512GB SSD GTX 1080 8GB Zalman T3 Plus ADATA 600W
- REFURBISHED és ÚJ - DELL Universal Dock UD22 (DisplayLink)
- Samsung Galaxy A33 5G / 6/128GB / Kártyafüggetlen / 12Hó Garancia
- HIBÁTLAN iPhone 12 Pro 128GB Pacific Blue- 1ÉV GARANCIA -Kártyafüggetlen, MS3948
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest


Ez inkább állhat a DX12 optimalizálgatás útjába.... Ahogy annak idején is a DX11 gatyába rázás kellett a prioritás legyen, és csak utána rázták gatyába a Mantle-t.


Bár már a DX11 mód is egészen felzárkózott.
Nem gond, senki sem lehet tokeletes, ugy hullo mester?

