Új hozzászólás Aktív témák
-
caprine
senior tag
"Példával élve tervezhető egy 32 magos 8 nm-es többmagos processzor, de terhelés mellett nagyjából 16 mag működhet." Ezt nem értem. ez most olyan mintha lenne egy V8-as autóm, de abban csak 4 henger mehet a 8-bóül egyszerre? Akkor mi értelme van ennek? Bár a 16 mag még mindig több mint a mostani 4
de akkor is.
-
djgeg
őstag
Felhozol egy olyan példát ahol értelemszerűen amúgy is nehezen és nyögvenyelősen fejlesztenek informatikai rendszereket. Nem erről volt szó. Hanem az olyan üzletágakról, olyan óriás cégekről akár mint a NASA, vagy a CERN a hatalmas kutatóintézetek tudományos laborok. Na ezeknél a lényeg. Amikor egy-egy ilyen kutatóintézetnek ki kell bérelnie egy szuperszámítógép számítási kapacitását egy időre és az említett szuperszámítógép meg végez a számítással 2-4 hét alatt minimum...
Értelem szerűen a teljesítmény és számítási kapacitás igényes területek azok amik mindig elöbb lecserélődnek, mint a pista cégénél a 30 alkalmazott exceles gépe -
Crucio
aktív tag
Egy vállalat, ahol már esetleg évtizedek óta kiépített informatikai rendszer van, egy Nagy vállalat nem fogja azért lecserélni a rendszerét, mert az Excel tábla fele olyan gyorsan tölt be, ami itt olyan két másodperces időnyereség. Nagyon drága volna, az architektúra váltás lassú lenne, bonyolult, a sebességelőny a kezdetekben nem, vagy alig létezne, a programozásának az ismeretének hiányában. Egy PS-t meg nem fognak csak azért átfordítani, vagy teljesen újraírni, mert hogy ott gyorsabb, nagyon drága volna. Persze egy idő után a fejlődés elkerülhetetlen, én csak a nehézkességét próbálom kiemelni.. Egyébként a HSA alapítvány térnyerése megkönnyítheti ezeket a váltásokat.
-
Sir Ny
senior tag
,,Egyébként szerintem nem érted, amit mondtam. Senki nem fog az új architektúrára programokat írni, ha nem veszi meg senki, és senki nem fogja megvenni, ha nincsenek rá programok. "
Sokan meg fogják venni - például a programozók, vagy akik programozókat dolgoztatnak - akkor is, ha nincsenek rá programok.
Sokan fognak rá programokat írni - jellemzően a tulajdonosok, vagy akik tulajdonosnak dolgoznak - akkor is, ha nem veszi meg senki. -
Crucio
aktív tag
válasz
Teclis1993 #32 üzenetére
Nyelvenként éltérő kódot kell írni, és most nem csak arra gondolok, hogy pl a C#-ban és a JAVA-ban átírsz pár szót, és a kód lefordul (bár ebben az esetben nagyjából helytálló ez a kijelentés) hanem vannak egymástól ennél a kettőnél jóval eltérőbb nyelvek. Azokat is meg kell tanulni, nem elég ismerni a megfelelő algoritmust.. De azért jópofa ötlet.
#38 E.Kauffman
Persze, lehet emulálni, bizonyos esetekben. Pl normális PS3 emulátor még mindig nem készült, de ha emulálunk, akkor pont az új architektúrából adódó többlet teljesítmény vész el..
Egyébként szerintem nem érted, amit mondtam. Senki nem fog az új architektúrára programokat írni, ha nem veszi meg senki, és senki nem fogja megvenni, ha nincsenek rá programok. Csak azért mert nem fogják a vásárlók megvenni, mert modernebb architektúra, ennyiszer meg annyiszor gyorsabb satöbbi, ha nem tudnak rajta dolgozni, akkor veszett ügy. Pl a Windows RT-nek szerintem nagyon is lenne értelme, pl vennék egy 12-13 colost, hozzá billentyűzetes dokkolóval, amiben van aksi, 16-17 órás üzemidő, honlapot szerkeszteni meg PHP-ni elég lenne a jövőre érkező csúcsmodellekkel, csak sajnos ez nem ilyen egyszerű. Ha még épp nem ezeket csinálnám, akkor meg tabletként funkcionálna, de nincsenek rá megfelelő programok, szóval nem veszem meg, mivel nem veszi senki, ezért nincsenek rá programok. Nem rossz ötlet az RT, csak nem veszik. Pedig engem érdekelne, ha lenne rá XAMPP meg ilyenek. Annyira nem nagy számításigényű dolgok, pl részecske szimulációt nem akarnék rajta futtatni, de ezekre bőven elég lenne és két napot kibírna töltés nélkül vagy egy hosszabb napot.
Látod, nem is kell a jövőbe menni hogy az architektúra váltás hátrányai kiütközzenek. -
Sir Ny
senior tag
,,Nyilván, ha a gyártók összeállnának egy kezdeményezésben, hogy valami egységes megoldást keressenek a problémára, akkor az lenne a legjobb. De kicsi az esélye, hogy ez megtörténjen."
nyílván ha minimum 20, de inkább 50-100 különböző projekt elkezdi fejleszteni egymástól koncepcionlisan tök különbözően a maga saját kis projektjét, az lenne a legjobb. Még jó, hogy erre nagy az esély hogy megtörténjen, mert szerencsére nem abufejben élünk ahol egy heurisztikus jellegű kutatást egy szálon akarnának végezni.
-
cer
tag
Kérem szépen... elnézést, de mit jelent az ISA kifejezés?
Előre is köszönöm! -
Rickazoid
addikt
válasz
Grim.Reaper #49 üzenetére
"ha eljön a 8nm-es stop" Akkor váltunk a következő technológiára.
-
djgeg
őstag
válasz
Grim.Reaper #49 üzenetére
Aztán "összeomlik" a jelenlegi tömegfogyasztásos gazdasági rend a CPU "iparágban"? Persze...
-
Grim.Reaper
tag
ha eljön a 8nm-es stop, akkor megmondom mi lesz: abbahagyódzik rohanni előre a sok hüyye embernek, és megtanulják megbecsülni, ami VAN
-
Abu85
HÁZIGAZDA
Is-is, nyilván a DARPA nem hülye ... tudják, hogy az ARM és x86 kompatibilitás fontos. De elég sokat foglalkoznak azzal a kérdéssel, hogy mi lesz, ha vége a CMOS-nak. Tehát várják a reálisan kivitelezhető ötleteket, és azokat támogatják.
(#44) mzso: Azért ez nem teljesen így van. Minden jöttmentnek nem adnak pénzt. Ha valaki előáll valamivel, és bemutatja azt a világnak, vagy csak a DARPA-nak, és a szakértők úgy ítélik meg, hogy ebből akár lehet is valami, akkor arra adnak pénzt. Tehát ha azt olvasod, hogy valakinek adtak zsetont, de nem írják mire, akkor zárt körben azért a DARPA megnézte.
Nyilván, ha a gyártók összeállnának egy kezdeményezésben, hogy valami egységes megoldást keressenek a problémára, akkor az lenne a legjobb. De kicsi az esélye, hogy ez megtörténjen.
-
mzso
veterán
válasz
hugo chávez #34 üzenetére
Más egyéb próbálkozásokat tudsz esetleg?
-
mzso
veterán
válasz
Teclis1993 #30 üzenetére
"Nem értem mért nem lépünk az IBM optikai megoldására vagy ha már nagyban játszunk akkor Kvantumszámítógépek felé"
Pont amiért nincs hidegfúziós elem a mobiltelefonban, meg holokijelző a monitorban. Csak arra lehet lépni ami létezik. Az hogy vannak ötletek meg primitív prototípusok nem sokat érnek. -
mzso
veterán
De a DARPA emlékeim szerint úgy működik hogy különböző csoportok segge alá tol egy csomó pénzt, hogy jöjjenek elő valamivel.
Nincs valami kezdetleges koncepció legalább ami felbukkant új hatékony ISA-kra?"de ki fog programot írni arra az új ISA-ra, és mi lesz a régi alkalmazásokkal?"
Ez leginkább a kompiler készítőket érdekli, nem?
Az agyonoptimalizált alkalmazások meg mindig nulláról indulnak."hogy ha folyamatosan az ISA leváltásával érjük majd el a gyorsulást, akkor a programok fussanak az új ISA-n is."
Csak egy ISA kell mind felett. Ha most egy-két év alatt összedobnának minden tudást/tapasztalatott felhasználva egy szuperhatékony ISA-t erősen kétlem hogy utána jelentős javulást tudnának elérni újabbakkal. Ez nem olyan mint a csíkszélesség, hogy folyamatosan növelhetik amíg elérik a limitet. Nem lehet beütemezni, hogy 2 évente kétszer gyorsabbat kitaláljanak. -
cszn
őstag
válasz
Depression #35 üzenetére
Az architektúrán még lehet javítgatni (és ezzel kitolni a határokat), de a gyártástechnológia fizikailag ütközik korlátokba. Eddig nem ez volt a probléma, most kicsit más a helyzet.
A nem lecserélés meg egy olyan világban, ami a folyamatos, szükségtelen fogyasztásra épül, elég nehezen elképzelhető. -
ddekany
veterán
Tehát akkor nem igazán az x86/ARM helyett akarnak új ISA-t, hanem mellé, mert ismét párhuzamosításban keresik a megoldást. Tehát gondolom nagy javulást csak bizonyos területeken várják ettől, a szokványos kód meg maradt jobbára olyan amilyen. Bár... mint mindig elmondom, ha lenne hatékony módja a nagyon rövid életű párhuzamosításnak, tehát amikor akár csak pár száz órajelnyi munka kedvéért csinálsz X szálat, akkor már kezd felsejleni, hogy szokványos kódban párhuzamosítsunk. Csak akkor viszont nyelvet is kell váltani, hogy ez igazán jól menjen.
-
Zealot80
tag
Moore altalanositva leirt egy megfigyelest..."a fejlődés üteme nem fog jelentősen változni, de nem kizárt, hogy növekedés lesz tapasztalható. Hosszabb távon már bizonytalannak írta le a növekedést"...vagyis lehet de lehet nem, de talan, esetleg megsem
Es ebbe a gyartok megkapaszkodnak mert van mivel magyarazni miert annyi amennyi, maskepp en is csak haborognek hogy milyen draga es biztos nem vennem meg.
Ezek szerint eleg lenne nagy szajjal kurtolni mindenfele azt amit latok, merre fejlodik az ipar pl vidkarik meg ultrabook-ok stb teren es kodositve bedobni hogy 10-20-30 ev mulva mi lessz, persze ugy hogy barmi tortenik azt ra lehessen huzni akkor is ha igen akkor is ha nem. Ami ebbol nekem lejon azt mar regen tudom...birkak vagyunk. -
Angel1981
veterán
Odébb van ez még, én egyelőre a Broadwell fejlesztéseit figyelem.
-
E.Kaufmann
veterán
Valahogy archetektúraváltásnál bejött azért többször is az emuláció, átmeneti megoldásnak mindenféleképp ott van. Tudom inkább a kisebb erőforrásigényű programokkal működik a dolog, de pl sok üzleti-ügyviteli program ilyen.
A Photoshoppot meg ne féltsd, úgy is fog csinálni az Adobe, vagy mi lesz akkor a neve az új architektúrához valót.
Amúgy semmit se tudunk milyen lesz akkor az architektúra, lehet hogy akkorra előszednek valami Trancmetához hasonlót, csak lehet natív és legacy kódot is majd küldeni neki. Itanium-os windows változatokon is futottak a 32 bites x86-os progik, persze a tesztek alapján pocsékul.
Inkább tényleg az a kérdés, lesz-e időre új Windows, már ha lesz még addig Windows(lesz, vállalati környezetben tuti)
-
julius666
addikt
válasz
Teclis1993 #32 üzenetére
Tételezzük fel hogy egy program megírása során megoldani való problémák és maga az algoritmus megirtsa veszi el az idő 90%-kát
Ne tételezzük fel, mert ez rohadtul nem így van. Ha fordított arányt vennénk, még lehet az is túlzás lenne.
ha már nekem nem kell csak egy másik nyelvre átírnom egy programot akkor az már nem egy nagy durranás és változás
Maga a kódolás része hogy mennyire "nem nagy durranás", nyelvfüggő. Lehet viszonylag egyszerű és kevésbé az, adott esetben akár közel lehetetlen is (pl. erősen szekvenciális algoritmus párhuzamosítása). De a fejlesztés még mindig nem csak ebből áll.
Neked ez nem szakmád, ugye?
-
bali93
tag
Vagy szimplán a 7-8 nm-es 32 magos cpu-kat mindenki folyékony nitrogénnel fogja hűteni otthon.
-
Depression
veterán
Életem 2/3-án keresztül a Moore törvény végének riogatását hallgattam. 2020-ban ez már 3/4 lesz. Furcsamód ez mindig 5 év múlva lesz, és mindig tolódik kicsivel. Az elsőt a 100nm-es határnál hallotam, ha jól rémlik.
Mindegy is, ha nem fejlesztenek a cégek, lehúzhatják a rolót. Ez nem az az ipar, mint a kenyérsütés, hogy tökéletesen megfelel ugyanaz, mint tegnap. Ha nem lesz gyorsabb, akkor nem cseréljük le a régit.Úgy is kitalálnak valamit.
-
hugo chávez
aktív tag
Folyamatosan mennek a próbálkozások, csak nem kapnak túl nagy publicitást. És általában a prototípus fázisból nem is nőnek ki sajnos...
Itt van pl. egy akkoriban, ~10 éve még nagyon ígéretesnek tűnt DARPA-projekt: The TRIPS Project -
#10691584
törölt tag
"Valamelyik cikkben esett szó Gallium vagy Germánium alapú megoldásról és a processzormagok egymásra helyezéséről"
Alig van gallium ezen a retkes bolygón, ráadásul azt a keveset is a már meglévő félvezetőipar használja "szennyezésre", szóval nem hinném, hogy tömegtermelésre alkalmas lenne az a csökött mennyiség..
Anno, mikor a napneutrínók "rejtélyét" próbálták megfejteni, mert az oszcilláció még nem merült fel, kölcsönkérték a gyártóktól a föld majdhogynem egész (elérhető) gallium készletét egy évre, mert kellett a kísérletekhez. Az egész pár mázsa volt ha jól emlékszem. Aztán imádok tévedni, főleg így hajnal 4 körül
-
Teclis1993
tag
A programozás ép ugyan úgy egy tudomány mint bármi más és teszünk benne felfedezéseket vannak kutatások problémákat oldunk meg stb. Tételezzük fel hogy egy program megírása során megoldani való problémák és maga az algoritmus megirtsa veszi el az idő 90%-kát, ha már nekem nem kell csak egy másik nyelvre átírnom egy programot akkor az már nem egy nagy durranás és változás.
-
Crucio
aktív tag
válasz
Teclis1993 #30 üzenetére
Persze, jó mondani hogy lépjünk meg minden, de egy új utasítás architektúrára kell egy rendszer, jó, megírják, de akkor kellenek programok is, a felhasználók nem fogják az újat választani, ha nincs rá semmi.
Pl WinRT...
Szóval egyszerűen hangzik a váltás, de nem a gyártók oldalánál hasalna el, hanem felhasználói oldalon.
Ha pl valaki Photoshoppol az nem váltana át az új technológiára, mert nem tudna dolgozni, ráadásul az új technológiát ki is kell ismerni, megtanulni kezelni, fejlesztői környezetet írni rá, stb stb... A probléma a támogatottság, hidd el, ha mégérné, aki az elsők között tenné meg, az szakítaná a legtöbbet, ők sem hülyék.. -
Teclis1993
tag
Nem értem mért nem lépünk az IBM optikai megoldására vagy ha már nagyban játszunk akkor Kvantumszámítógépek felé. Nem az a probléma hogy nem lenne alternatíva a fentebbi csak a két legkézenfekvőbb, itt nem a fejlődés az 1-2-re lépés a lényeg hanem a profit. Amíg erről az 50-éves technológiáról lehet még lehúzni bőrt addig csinálják. Azért remélem amikor az új okos telefonotokat vagy gépeteket fogjátok és ugye tisztában vagytok hogy gyakorlatilag egy 50-60-éves elven működik az egész csak picit hatékonyabban. A motor ugyan az.
-
Abu85
HÁZIGAZDA
Igen. Meg úgy összességében kellene valami új elv arra, hogy az ISA folyamatos leváltása ne legyen sose gond.
(#26) ddekany: Tervezéstől függ. De az x86 és az ARM is pokoli komplex már, és ahogy egészülnek ki ezek, annál jobban bonyolódnak, és ez rányomja a bélyeget a pJ/FLOP-ra, ami magas lesz.
A DARPA elsősorban azt javasolja, hogy ne csak skalár ISA-kat tervezzenek a cégek, mert azok sosem hatékonyak. Mivel a jövőben úgyis durván kell párhuzamosítani, így párhuzamosságra tervezett ISA lenne a legjobb. Az implementáció szintjén sok lehetőség van. Igazából a legjobb javaslat pár processzormag skalár ISA-val, de FPU nélkül. Ennek a feladatát egy rakás koprocesszorként működő multiprocesszor venné át párhuzamos ISA-val. A pJ/FLOP mutató szempontjából messze ebből lehet a legtöbbet kihozni. -
ddekany
veterán
válasz
#32839680 #27 üzenetére
"Mindegyik kód lefordítható még egy kenyérpirítóra is, ha valaki meg bírja írni rá a fordítót"
Csak nem biztos, hogy hatékonyan fog futni. Ha ilyen gyorsulásról beszélnek ISA kapcsán, akkor azt tippelem ott már valami komolyabb paradigmaváltásnak kell lennie, ami viszont már kihathat arra is, hogy magas szinten hogyan szervezed a programot, tehát újrafordítani kevés. De persze az is lehet, hogy félreértés az egész, és csak valami célterületre gondoltak, ami nekik kelleni szokott (mit tudom én, képfelismerés).
"Sok embertől hallottam már hogy az x86 egy vérbeli őslény"
Az ARM-ot is "leszólták"...
-
ddekany
veterán
Én azon csodálkozok, hogy új ISA-kban ennyi tartalék lenne. Pláne 10x meg 100x-os gyorsulás. Van ilyenről valami ismertebb kutatás? Annyira máshogy közelít meg valamit az új ISA? Milyen jellegű programot gyorsítana így? A meglévő C/C++ programok és managed kód lefordítható lenne rá, vagy nem lenne értelme, mert annyira máshogy próbálkozik? Nem igazán tudom elképzelni...
-
Abu85
HÁZIGAZDA
Mert nem olyan egyszerű ez a szituáció. A DARPA gyakorlatilag azt mondja, hogy x86 és ARM legyen kuka és kell egy új, hatékonyabb ISA. A gyártók erre lehet, hogy a problémákat látva rábólintanak elvben, hogy bizony ez a kijelentés helytálló, de ki fog programot írni arra az új ISA-ra, és mi lesz a régi alkalmazásokkal?
Szóval előbb azt kell megoldani, hogy ha folyamatosan az ISA leváltásával érjük majd el a gyorsulást, akkor a programok fussanak az új ISA-n is. Na ezért nincs ezekről hír, mert a DARPA véleménye csak kimondva egyszerű.
-
mzso
veterán
" A DARPA alapvetően ezért ragaszkodik az olyan új utasításarchitektúrák kidolgozásához, melyek a jelenlegieknél tízszer vagy akár százszor is hatékonyabbak, ugyanis jelen pillanatban ez tűnik az egyetlen olyan iránynak, ami úgymond meghosszabbítja a CMOS technológia egyre közeledő zsákutcáit."
Jó, jó. De ezekről miért nincs hír?! Konkrétan még egy hírrel sem találkoztam ami új hatékony ISA-król szólna.
(Kivéve talán az Icube MVP-jét, de arról nem sokat lehet tudni.) -
Stonerice
őstag
Ha 2020-ban még találnak egy 10 éves tervet a fejlesztéshez, már akkorra(vagyis 2030-ra) talán a Goolgle & Nasa közös kutatása alapján lesz hétköznapi embereknek készített kvantumszámítőgép.
-
Kronos3000
senior tag
Addigra talán összehoz valaki egy tisztességes OP.rendszert is...
-
#16939776
törölt tag
Ha a részvényesek követelik az osztalékot, tolni kell a szekeret.
(#13) Crytec210: Mindenki tudja hogy szemetet termelnek. Nem kell ehhez diploma.
-
ati3x
senior tag
meggyőződésem, hogy lassan jöbbek a "vertikális" vagy jobban tetszik a "3D"-s processzorok.. Logikus lépés lenne..
-
Rickazoid
addikt
Hát, 2020-ig még van idő, addig még lehet valami a grafénnal vagy a karbinnal, ráadásul a memrisztorra épülő mikrochipek sem elképzelhetetlenek, ha jól tudom.
Ha meg nagyon megrekedünk, még mindig válthatunk ternáris számrendszerre
-
Killer01
őstag
Amíg van pénz a mostani technológiában, addig nem lesz váltás. Nem érdeke a gyártóknak, kifacsarnak belőle mindent amit lehet.
-
djgeg
őstag
Talán ha tudják, hogy több sebből vérzően a végéhez közeledik a technológia, akkor talán át kéne állni új technológiára. Mi a helyzet a Grafénnal? Fejlesszenek arra
-
S-eye
senior tag
2020-ra remélem bevetik a grafént, és a most még nem használt MeRAM,PRAM, stb technológiákat is.
-
cer
tag
Valamelyik cikkben esett szó Gallium vagy Germánium alapú megoldásról és a processzormagok egymásra helyezéséről.
Azokkal mi a helyzet? Van róla valami hír, dokumentum? -
lapa
veterán
és akkor gyakrabban kell elemet cserélni a skynetben brühühü.
Új hozzászólás Aktív témák
- Bomba ár! HP 255 G7 - AMD A4 I 4GB I 128SSD I HDMI I 15,6" FHD I Radeon I HDMI I W11 I Cam I Gari!
- Samsung Galaxy A55 5G / 8RAM 256GB / Gyárifüggetlen / 12 Hó Garanciával
- Lenovo ThinkPad dokkolók: USB-C 40A9/ 40AY/ 40AS/ Thunderbolt 3 40AC/ Hybrid USB-C DisplayLink 40AF
- Apple iPhone 13 128GB, Kártyafüggetlen, 1 Év Garanciával
- LG 55C4 - 48" OLED evo - 4K 144Hz - 0.1ms - NVIDIA G-Sync - FreeSync - HDMI 2.1 - A9 Gen7 CPU
Állásajánlatok
Cég: CAMERA-PRO Hungary Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest