Új hozzászólás Aktív témák
-
leviske
veterán
4 hónapos hsz-ra nem illik válaszolni, de azért megjegyezném, hogy az Intel kb a 2000-es évek eleje óta sejtheti, hogy mekkora durranás lesz a mobil kütyük területén mivel az iPad-ben lévő ponteciált nyilván látták. Gondolom ebből is fakadt még anno az Intel Atom ötlete.
A Samsung esetében meg lehetne vitatkozni arról, hogy a mobil és bérgyártás mekkora részét teszi ki a bevételeknek és igény esetén ezekbe mennyivel többet képesek esetleg belenyomni mint a konkurencia.
-
Fiery
veterán
válasz
stratova #102 üzenetére
Nem mintha ez barmire is bizonyitek lenne, de en is R9 M295X-rol tudok. A 300-as szeria me'g odebb van, sajnos, nem haladnak vele tul jol az AMD-sek. De mondjuk ha mostanra nem tudott piacra kerulni (azaz oktober kozepere), akkor mar nem is erdemes rohanni vele, a karacsonyi shoppingrol mar lemaradtak, most mar raernek.
-
stratova
veterán
Csak elvi síkon, mi logika lenne az R9 295X névben, amikor éppen a mobil piac az a terület, ahol a leggyorsabban (és legtovább) nevezgetnek át? Pláne, ha még kvázi új is lesz a lapka.
AMD (GCN 1.0 Pitcairn) 1280:80:32
HD 7970M (850 MHz / 256 bit 4,8 GHz)
HD 8970M (850-900 MHz / 256 bit 4,8 GHz)
R9-M290X (850-900 MHz / 256 bit 4,8 GHz)Nvidia (Kepler GK-104) 1536:128:32
GTX 680MX (720MHz/ 256 bit 5GHz)
GTX 780M (823 MHz/ 256 bit 5 GHz)
GTX 880M (954 MHz/ 256 bit 5 GHz)
csak az órajelet emelgették.Persze lehet, hogy M295X lesz a neve, csak furcsa főleg ha tényleg ekkora változás lesz:
Pitcairn (GCN 1.0) 1280:80:32 850MHz / 256 bit 4,8 GHz
Tonga (GCN 1.2) 2048:128:32 750-800 MHz / 256 bit 5,5 GHz**Szvsz ez még spekuláció wikin.
-
stratova
veterán
iFixit szétlegózta az 5K-t, szerintük is egy (módosított?) R9 M290X lapul benne.
-
alevan
őstag
Komolyan gondolkodom egy vásárlásán. Mondjuk a DP-s haxx kicsit eltántorít. Ha eddig kibírtam Mac nélkül, még egy évet talán kibírok.
-
lenox
veterán
-
Az 5K-s panel kapcsán sokat kutakodtam ma, mert érdekelt a dolog, számolgattam kicsit, és baromira nem jött ki sehogy pl. a sávszélesség
Használjanak bármit is, semmibe se férne bele, csak a displayport 1.3-ba, az meg ott tart, hogy 1 hónapja fogadta el a draftot a VESA.
Szóval keresgéltem kicsit a neten, és azt találtam, hogy már-már majdnem elindult egy REFRESHGATE, mert sokan meg voltak győződve róla hogy 30Hz-en hajta az Apple a burtális displayt. Bevallom, egy darabig én is elhittem.
Aztán úgy pár órája kiderültek a dolgok, az Apple meg is erősítette. Gyakorlatilag fogták a displayport 1.2-őt, és overclockolták. A displaybe éptettek hozzá egy saját DP TCON-t a fogadó oldalra, az R290-es vga-t pedig az AMD-vel karöltve módosították.
Azért beszarás ez, mert még a 4K monitorok sem működnek jól, mindenféle multi-tile MST megoldásokkal próbálkoznak (mert a 4K-hoz is kevés 1db dp 1.2, annál nagyobb sebességű port meg nincs jelenleg), de elég megnézni az Amazon vásárlói rewieveket a Dell meg a Sharp 4K kijelzői kapcsán, konkrétan parasztlázadás van, mert szétesik a szinkron, szellemképes a monitor, meg egybek.
Persze így az 5K imac nem kompatibilis semmivel, pl. 5K target displaynek nem lehet használni külső eszközzel.
-
Abu85
HÁZIGAZDA
A compute shadereket egyszerűbb benne megcsinálni. Ahogy írtam oké, hogy ott a DX-ben a DirectCompute, de egyre több fejlesztő gondolkodik el azon, hogy a compute shadereket átírják OpenCL-re. És innen egy ugrás még a Mantle, amiben még nagyobb kontrollt kapsz a memória kezeléséhez, ami jól jön a bonyolult compute shaderekhez. Ráadásul nincs is szükség DX-OCL interopra.
Szerintem ott érted félre, hogy általános programokra gondolsz. Ott nem valószínű, hogy a Mantle-t használják, de GPGPU-s grafikai effektekre sokkal előnyösebb bárminél. -
Fiery
veterán
Oke, de akkor se ertem mi koze a Mantle-nek a compute-hoz. A Mantle-ben van compute queue, de amikor a konkret Mantle compute tamogatasra rakerdeztunk az AMD-nel, azt mondtak, meg van ra a lehetoseg, de valoszinuleg nem nagyon fognak ezzel mokolni (vagyis nem implementaljak), mert arra ott (lesz, majd, egyszer) a HSA. Ezert sem ertem, miert kapcsolja ossze valaki az OpenCL-t a Mantle-vel, miert jut eszebe barkinek is, hogy az OpenCL(-re valo fejlesztes) utan a Mantle(-re valo fejlesztes) egy minosegi ugras. De biztos en gondolom csak azt, hogy pongyolan fogalmazott a twitben az illeto. Vagy csak mindenbe belekostol, es utana ide-oda csapongva irja, hogy valami sz*r, a masik meg tok jo.
-
AAAgold
senior tag
hiába van ennyi pénze almáéknak, ha mondjuk nem engedélyezik számukra a felvásárlást
illetve túl nagy kiadás lenne ahhoz, hogy csak almának gyártson az intel - és ha már nem csak az almának gyárt, akkor meg menedzselni is kell az egészet és máris nem lehet csak alma központúan gondolkodni
harmadrészt, minek megvenni a tehenet, ha lehet pohárban is kapni a tejet?
-
lenox
veterán
Azért megnézem, ha bármilyen gépen 20 GB memóriát kipinnelsz..
Hat ez az, OpenCL-lel nem is megy. Cudaval igen. Raadasul nekem altalaban 3-4 gpu van ezekben a gepekben, mindnek van sajat feladata, kulonbozo kernelek futnak rajtuk, kulon context-tel, es a pinned memory kulonbozo reszeire hol egyiknel hol masiknal van szukseg (hol meg cpu-n), ez cudaval tok egyszeruen megy, mert amit pinneltel, az mindegyik gpun elerheto full pcie bandwidth-szel, OpenCL-lel ez meg nem megy, a CL_MEM_ALLOC_HOST_PTR-rel allocalt buffert az adott contextben tudod hasznalni, es annyi.
-
Abu85
HÁZIGAZDA
Aki akarja. Nyilván nem kötelező támogatni, de a fejlesztők szeretnék. Ezért lesz nyílt a specifikáció, viszont csak a végleges lesz nyilvánosságra hozva. És csakis a publikus SDK-ban. Az előzetes speckókat az érdeklődők megkapták, hogy véleményezzék.
Nagyon nagy szerepe lesz a grafikában a compute-nak. A jövőben szinte az összes effekt compute-ban lesz írva, mert gyorsabb lehet a feldolgozás. Például a Firaxis, a tesszellálást is compute shaderben csinálja, vagyis nem használják a hardverek fixfunkciós motorját. Így a saját mérésük szerint 24%-kal gyorsabb a teljes képkocka feldolgozása.
Ezek miatt az is felmerült, hogy bizonyos effekteket érdemes lenne OpenCL-ben megcsinálni DX-OCL interoppal. Pusztán azért, mert az OpenCL többet enged meg a memória kezelése szempontjából. Erre vonatkozóan sokat kísérleteznek a fejlesztők. A Mantle még többet enged meg a memória kezelése szempontjából. Ezért írja azt a twitteren, amit ír.De a GPGPU állandóan fókuszban volt a Mantle-nél. Később csak még nagyobb fókuszt kap.
Ha speciel a Firaxis működésére gondolsz, akkor két programozó dolgozik a LORE motor grafikai részén. Joshua Barczak a vezető programozó, és főleg a motor alapját és a leképzőt írja, míg John Kloetzli ezt a munkát egészíti ki, és még az effekteken, a speciális eljárásokon, illetve a GPGPU-s feladatokon dolgozik. Ma már nem érdemes a GPGPU-t annyira elválasztani a grafikától a program fejlesztésénél, mert rengeteg grafikai effekt pont, hogy GPGPU.Ilyet lehet csinálni, csak John Kloetzli egy elismert fejlesztő. Évekig Dan Baker munkáját segítette, vagyis technikailag igen magasan képzett. Ő és Dan a világon egyedüliként írtak olyan motort pár éve, amely hatékonyan működött többszálú DC leképzéssel. Erre máig nem volt képes senki más! Tucatnyian próbálkoztak és mind elbuktak. Ez azért elég jó ajánlólevél arra, hogy ne csak egy Twitter-huszárként tekintsünk rá.
-
Tigerclaw
nagyúr
Azért én szívesen elolvasnák egy cikket erről az 5k-s oxide TFT panelről amiről már kiderült, hogy az LG szállítja.
-
Fiery
veterán
"Ha ki tudják erőszakolni, hogy támogassák a PC-s gyártók"
Melyik gyarto? Erdekelne, kirol van szo, mert jelen allas szerint a Mantle-t pontosan 1 db hardver gyarto szandekozik tamogatni, az AMD. Lehet ebbol akarmilyen hiper-szuper nyilt szabvany, ha egyszer egy adott ceg fejleszti es karbantartja az API-t, es o is hasznalja kizarolag hardver gyartokent. Ennyi erovel akkor felesleges nyiltta tenni. Errol egyebkent az jutott eszembe, hogy milyen nagy elannal hirdette a nyiltsagot az AMD, ahhoz kepest me'g NDA alatt se adjak ki csak ugy a _modern_ GPU-k specifikacioit a fejlesztoknek. 1-2 generacioval ezelottiket egy ideig publikaltak, aztan jott egy fiasko, es lealltak a nagy nyiltsaggal. Es hogy mi volt a fiasko? Az egyik idiota AMD-s dolgozo veletlenul kirakott egy olyan toolt az NDA site-ra, ami mar "tul" nyilt volt. Ott derult ki, hogy amire azt mondja az AMD, hogy nyilt meg mindenre jo tool meg doksi, az valojaban felig nyilt, mert csomo minden hianyzik belole. Amit kirakott a dolgozo, abban meg erdekes modon kb. 5x tobb info volt, rendkivul hasznos technikai reszletekkel. Koszonjuk, AMD, hogy nyilt lesz a Mantle, ezek utan csupa jora szamitok!
A linkelt twit meg egyszeruen megmosolyogtato. DX utan OpenCL? Az meg mi a frasz? Vagy D3DCS-t akart irni valojaban? Ha igen, akkor meg utana hogy jon a kepbe a Mantle? Tudtommal most (még) baromira nincs fokuszban a GPGPU-tema a Mantle-nel. Akkor meg hogyan valt OpenCL-rol Mantle-re? Vagy o egy olyan fejleszto, aki mindenhez ert, csinal 3D grafikat, GPGPU-t, zenet szerkeszt, foz, vasal, konyvet ir, es eloadast tart kvantumfizikarol is? Vagy csak OpenCL helyett OpenGL-t akart irni?
Egyebkent ilyen twitteres beböfögést en is tudnek csinalni barmikor. En is le tudnam irni, hogy a Mantle mennyivel jobb, mint az OpenGL meg a D3D11, de kozben mennyi jovot josolok neki a D3D12 miatt. En miert lennék kevesbe hiteles forras egy ilyen twit kapcsan? Vagy mar mindent igaznak fogadunk el, amit az interneten barhol olvasunk?
Vagy csak az az automatikus igazsag, ami a Mantle kapcsan pozitiv allitast fogalmaz meg?
-
Abu85
HÁZIGAZDA
Egyáltalán nem. A Mantle egy olyan API lesz, ami a fejlesztők számára lesz fenntartva. Ha valami kérésük van, akkor elintézik, hogy gyorsan be legyen építve a Mantle-be. Csupán ez lesz a célja. És rengeteg kérésük van a fejlesztőknek még ma is, illetve feltételezhető, hogy egy év múlva is lesznek ötletek, amivel kiegészíthető az API. Ez persze az AMD-nek is fontos, mert terveztek egy GCN-t, ami egy elég furcsa GPU-architektúra, ha ránézünk arra, hogy mit csinálnak a többiek. Mert felépítésben és karakterisztikában megvannak a szokásos GPU-s jellemzői, de eközben tudásban CPU-s jellemzőket hordoz magán. Ha ezt más nem teszi kihasználhatóvá, akkor megteszik maguk egy saját API-val.
A szoftvercégek azért Mantle hívők, mert ők tudják, hogy már ki van adva a Mantle nyílt specifikációjának előzetese. Ez benne lesz a publikus SDK-ban, ami december/január környékén érkezik, vagyis innentől kezdve a Mantle specifikáció olyan nyílt lesz, mint az OpenGL. Ezért koncentrálnak a Mantle-re, mert innentől kezdve egy OpenGL alternatívát látnak benne, amit bárhova be lehet rakni, vagy bárki által lehet támogatni, hiszen nyílt a specifikáció. Gyakorlatilag egyszerű a koncepció. Ha ki tudják erőszakolni, hogy támogassák a PC-s gyártók, akkor Windows mellett mehet Linuxra, Mac OS-re, SteamOS-re, akárhova, és így e platformokra is nagyon kedvező lesz a portolási lehetőség.
Igen, állandóan lesznek béta fícsőrök, de ez minden API-ra jellemző. Ezek viszont el lesznek zárva az aktuális publikus SDK-ban.
Már elérték az 1.0-t, a specifikációkat véglegesítik épp, mert ugye open lesz. Elküldték már a gyártóknak, hogy ha valami könnyen változtatható dolgon akarnak módosítani, akkor most szóljanak, mert publikálás után késő lesz.
Elég stabil a Mantle. Állandóan ezzel játszom a PvsZ-n és a Sniper Elite 3-on.
Crossfire nem a Mantle-ön múlik. Minden low-level API esetében a fejlesztőnek kell implementálnia a multi-GPU rutint. Ez átkerül a programba. A DX12-ben is, csak a Microsoft annyira nem koncentrál rá, mert a multi-GPU nem tömeges igény. Az AMD csak azért tartja fontosnak, mert nekik számít, hogy fennmaradjon ez az irány a 4K és a VR miatt is. A Microsoftot annyira ez nem érdekli. Ez persze semmi személyes. Egyszerűen túl sok egyéb problémát kell egyszerre megoldani, így egy maréknyi hardcore gamer extrém igénye most nem annyira fontos.
A Mantle 2 igazából csak egy belső kódnév. Valójában nem lesz verziózva, csak új kiterjesztések jönnek a mostani verzióhoz. A 2 mint belső elnevezés azért él, mert egy kiemelkedően fontos újítás érkezik.Oké nézzünk konkrét fejlesztői véleményt: [link] - nem tűnik lehangolónak a béta miatt.
-
lenox
veterán
Tud mar olyat az opencl, hogy mondjuk 20 gb memoria barmelyik reszet oda-vissza lehessen tolteni a cpu es a gpu kozott full sebesseggel? Mert cudaval a pinned memory jol mukodik, de opencl-ben nem sikerult meg osszehozni, hogy ne legyen valami baja (ne legyen lassu). Vagy mindig egy plusz copyt csinalt, vagy kell egy ugyanakkora meretu gpu buffer a cpu buffer melle (ami ugyebar 20 gb nem lesz).
-
Raysen623
addikt
Nem azért mondom, de szerintem te egy borzasztóan rossz kapitalista lennél...mindenesetre mondanék pár élő példát is: nem kell messzire menni, ott van az Apple...gondolom mindenki tisztában van vele hol tartanak és mi a cég története, honnan indult, hová jutott, majd ismét hova került.
Attól mert egy cég kint van a tőzsdén, nem jelenti azt hogy csak úgy csettintésre megveszi a ki akarja. Ugyanis ha bárki minden szó, jelzés nélkül elkezdené felvásárolni a céget két dolog történne: az AMD részvényeinek árfolyama valószínűleg gyorsan elkezdene növekedni, tehát mire megvenné az illető már sokkal több pénzt kellene befektetnie! Másodszor, amint ennek híre megy mások is ráharapnának és ők is vinnék mint a cukrot. Tőzsdén céget csak egy nagyon komoly tárgyalási procedúra révén lehet felvásárolni, ami több évbe is telhet mint folyamat.
Erre idejössz te és mondogatod a mantráidat...a tény a következő: jelen állás szerint jobb az Intel (ezt eddig senki senm vittatta) és lehet kikiáltani nyertesnek az NV-t is. Ennek ellenére érdekes mód minden évben kijön egy olyan AMD videókártya, ami lekörözi az összes addig kintlévőt, beleértve az NV kártyáit is. Utána hónapokkal késöbb gyorsan kiadja az NV is az övét, ami gyorsabb lesz megint mindegyiknél. Te erre azt mondod hogy az AMD szar, én meg azt hogy ezt hívják versenynek és kapitalizmusnak.
Ezt követően jön a vásárló, aki eldönti melyiket veszi meg. Te veszel NV-t Intellel minden évben, kívánom légy vele boldog, én meg veszek egy full AMD-s gépet és használom 3 évig. Mivel volt mindkét chipgyártótól sajátkezűleg összerakott gépem, és volt NV kártyám is korábban, hidd el van összehasonlítási alapom. Nekem jobban tetszik az AMD megoldása, ezért inkább azt veszek. Biztos vagyok benne higy többen vagyunk így, mint ahogyan ti is.
Különbség köztünk az, hogy én nem köpködök egyfolytában az ellentábor fórumain, nekem valahogy erre nincs energiám. DE ne várd el hogy szó nélkül hagyom.Abunak meg köszönöm hogy helyrerakta a kollégát. Peace.
-
stratova
veterán
Az Alienware üdvöskéjében i7-4710HQ mellé társított R9 is érdekes eredményt ért el.
-
Fiery
veterán
Nagyjabol ahhoz hasonlit az AMD az utobbi par evben, mint amikor elmegy az aram a nyaraloban, kint sz*r az idojaras, es az ember azon kezd el gondolkozni, hogy mit lehet csinalni, amihez nem kell kimenni es nem kell hozza aram. Nincs tv, nincs internet, lemerult a notebook is mar. Elokerul a gyertya, a tarsasjatek, a pakli kartya meg a szekrenybol az ezereves konyvek
Ahogy az AMD is eladott mindent, elveszitette a hardveres kompetenciajat, a hardver mernokok elhagytak a ceget, korbeneztek a fonokok: mit tudunk csinalni vas nelkul? Mihez kell csupan nehany okos ember, papir, ceruza, es semmi mas? API, szoftver, nyilvan
-
decibel
aktív tag
Nem értem miért nem ismeritek el az AMD stratégiájának zsenialitását. Évek óta csökkentik az eszközállományt, a készpénzállományt, a piaci értéküket és az alkalmazotti létszámot. Mindeközben mivel versenyképes hardvert csak bizonyos területekre tudnak csatasorba küldeni, szépen a szoftveres oldalt kezdik mantrázni. Egy zárt apival amit eddig itt nagyon elítélt a PH, most pedig minden második hír ezt fényesíti.
Gyorsan változik a világ na, nincs itt semmi elfogultság.
-
arn
félisten
válasz
Raysen623 #53 üzenetére
he? nem azert van szarban, mert xedik, hanem alig kepes nyereseget termelni, es nem is ugy nez ki, hogy fog a kozeljovoben. es ez nem eppen most kezdodott. prohardveren kivul is olvass hwhireket.
intelnek a nyeresege is vagy 2x az amd bevetelenek (amibol eppen hogy vmicske nyereseg van).
-
Tigerclaw
nagyúr
Mondjuk totál nem értek hozzá, de a két új konzol a PS4 és az XBOX ONE AMD architektúrára épül és gondolom a mantle ott is működik, ha a két cég is rábólint. A Sonynak nincs oka elleneznie, a Microsoftnak meg szerintem nincs más választása, amíg a DX12 nagy lemaradásban van, mert ellenkező esetben a konkurencia előnybe kerül.
-
Fiery
veterán
Oke, tehat akkor a Mantle-bol effektive csinalni akarnak egy olyan platformot, ami egyszerre valthatja ki a DX11-et es az OpenGL 4.x-et, ha jol ertelmezem. Ebben van is racio, csak ugye mennyi ideje is van piacon (ilyen-olyan formaban) a Mantle? 1 eve kb? Az ido alatt mennyivel tudta novelni az AMD a piaci reszesedeset a PC gaming piacon ill. a professzionalis piacon? Vagy ez megint a kovetkezo 2 evrol szol, 2 ev mulva pedig az azutani 2 evrol?
Ha meg nem a piacszerzesrol szol a Mantle, akkor minek bohockodni vele, amikor ott van mar (az ugyanolyan betas) DX12 is?
Azt persze abszolut ertem es aterzem, hogy a jatek/szoftver fejlesztok mennyire orulnek annak, ha vegre egy hardvergyarto nagyjabol ugy ugral, ahogy ok futyulnek, de vajon a gyartok akkor is ilyen lelkesek lesznek, ha majd 3-4-5 fele kell fejleszteni? DX11, DX12, Mantle, konzolok, OpenGL 5, esetleg bedob valami proprietary cuccot az Intel es az nVIDIA is... Vajon egy ilyen szituban is majd ennyire Mantle-hivok lesznek a szoftvercegek?
A Mantle gyors fejlodesevel van egyebkent egy komoly problema is: folyamatosan beta allapotban lesz a cucc, ha igy folytatjak. Mint amikor egy szoftver elindul 0.1 betaval, es me'g 10 ev mulva se erik el az 1.0-t, pedig mar milliok hasznaljak. Ahhoz nincs az AMD-nek elegendo eroforrasa (plane ha folyamatosan rugjak ki az embereket, mint a mostani -7%), hogy egyszerre fejlesszenek is, es validaljanak is szeleskorben, ez mar most jol latszik. Lenyegeben 1 eve van mar Mantle, de me'g mindig nem stabil, legalabbis CF kiepitesben semmikepp. Es akkor most jon a Mantle 2? Minek? Hogy a betas cucc mellé jojjon még egy alfas is?
Nehogy azt hidd, a jatek/szoftver fejlesztok szeretik, ha nekik kell betatesztelni az API-t, az az egyik legsz*rabb dolog. Csinalsz valamit, nem mukodik, es talald ki, hogy Te mint fejleszto vagy a hulye, vagy megint beleszaladtal egy API/driver bugba...
-
Abu85
HÁZIGAZDA
Igen. Specializálódni akarnak. Nem mondják ki, de egyértelmű cél a professzionális és a HC gaming piac kisajátítása.
Van pár dolog, ami még nincs bejelentve. Például az, hogy azok a megoldások, amelyeket a Mantle és a DX12 kínál nem elegek. Új problémák vannak, ezek egy részét korábban is tudták, de egy másik részét csak az elmúlt két évben vették észre. Ez a vezető oka annak, amiért a szoftverfejlesztők a Mantle-ön akarnak maradni, mert a megoldások már tesztelés alatt vannak. DX-ben csak most kezdik el tárgyalni, hogy milyen megoldásokat lehetne megfontolni, majd 2016 környékén elkezdik kidolgozni az alapokat hozzá. A fejlődés szempontjából a Mantle útja a leggyorsabb, és ezt a partnerek is nagyon értékelik, hogy a DX minden eddiginél gyorsabban fejlődjön.
-
Fiery
veterán
Az alapjan, amit irsz, 3Dlabs es Matrox-szeru palya var az AMD-re, azaz marginalizalodas, specializalodas. A Mantle a Windows PC jatekpiacon lof***t nem er, ha megjon a DX12, tehat marad maximum a profi piac. Az meg a piac hany %-a is? Es mennyi penz is van benne? Kb. annyi mint a konzolokban, vagy me'g kevesebb. Pont arra eleg, hogy ne haljanak ehen, mint ahogy most is epp hogy megelnek a konzolokbol meg az olvado PC-piaci reszesedesbol. A mainstream dGPU piac se szarnyal, es nincs kilatas arra, hogy valaha is erore kapna a jovoben. Gyakorlatilag minden piac, ahol az AMD jelenleg focizik, eselytelen az AMD szamara, hogy szamottevo novekedest tudjon felmutatni. Az x86-piacon az Intel agyonnyomja, es ezen a HSA meg egyeb okossagok sem segitenek semmit. Az ARM-piacon mindenki mas fogja agyonnyomni (Samsung, Qualcomm, Apple, a kinaiak, stb). A dGPU-k piaca zsugorodik, es az nVIDIA-t sem konnyu lenyomni tovabbra sem, akarmilyen jo is a GCN meg a Mantle. A konzolokbol meg max. vegetalni lehet, latszik jol az aktualis es az elozo negyedeves penzugyi jelenteseken. Ezt igy vegignezve az a hulye befekteto, aki 5x (sot, 2x) aron nem adja el ASAP az AMD-t -- mar ha lenne vevo jelolt ra ugyebar, ami nyilvan nincs.
"Most ez az év a szoftveres építkezésről szól"
Meg az elozo 2 is, meg a kovetkezo 2 is, tudjuk jol. Epitkeznek, csak kozben a vilag meg elmegy mellettuk. Amit kisakkoznak, azt mas sikerre viszi, ld. AMD64, HT, IMC. Ugyanez lesz a Mantle-vel meg az SVM/HSA-val is
-
7time
senior tag
Azért az AMD sorsa nem ezen a fórumon fog eldőlni és amúgy is el lett temetve az utóbbi 9 évben legalább 10x úgyhogy szerintem kár lenne előre örülni.
A másik dolog hogy a kérészlicenc szerződés értelmében az Intel egyetlen x64 CPU-t sem adhatna el ez pedig nagyon érzékenyen érintené a szerver piacon.
-
Abu85
HÁZIGAZDA
Miért olyan nagy probléma, hogy a nem akarnak továbbadni a cégen? El kell fogadni, hogy nem éri meg most eladni, mert később többet kaphatnak a részvényekért. A nagyobb részvényeseknek egy-két év várakozás semmi, ők elég hosszútávra dolgoznak.
A Mantle vezető szempont lesz az AMD életében jövőre. Most még nem tudjátok, de rengeteg technológiájuk lesz ehhez kötve. Majd az év végén, vagy az év elején beszámolnak a rövidtávú tervekről. Az biztos, hogy a professzionális piacot meggyőzték annyira, hogy támogassák Mantle-t, amíg nem jön az új OpenGL. A játékfejlesztőket is meggyőzték, hiszen jelenleg 80-an támogatják az API-t. Idén 9-12 játék van ígérve, míg jövőre 20-30. A Mantle 2-ről még nem is tudunk semmit, azon kívül, hogy 2015-ben itt lesz. Most ez az év a szoftveres építkezésről szól.
-
smkb
őstag
Az Intel 100mrd +, ami felvásárlás esetén megugorna akár 200 fölé... horribilis brutális összeg, ráadásul stratégiai cég az USA-ban. Amennyiben USA-n belüli cég akarná valaki felvásárolni, az onnantól kezdve kb már csak a versenyhivatal szólna abba bele, csak egyszerűen ennyi pénze nincs senkinek.
Egy AMD a maga kis semmi 2mrd piaci értékével, meg azzal, hogy nem is stratégiai cég, ráadásul évek óta a top csődveszélyes cégek listájának tagja, kb semmilyen hivatalt nem érdekelne.
Szimplán azért nem kell senkinek mert nincs benne ráció. Nem egy feltörekvő cég, ahol ott a potenciál. Egy szenvedő, nyögő, szerencsétlenkedő cég, ami a beleölt milliárdokból nem hozna semmit.
-
Abu85
HÁZIGAZDA
Most nem éri meg 10 milliárdra igent mondani. Most készítették elő a terepet, hogy teljesen kisajátítsák a professzionális piac nagy részét. Sorra állnak át a gyártók AMD-re, és nem azért, mert annyival jobb a FirePro/Radeon, hanem azért, mert ők már tudják, hogy a professzionális piacon érdekelt szoftvercégek 80%-a Mantle-ben utazik addig, amíg nem lesz újraírt OpenGL.
Ha el is akarják adni, akkor a mostani időpont biztosan a legrosszabb. Inkább várnak egy évet a nagyobb ajánlatra, ha valaki nagyon meg akarja venni az AMD-t. De igazából már 10 milliárd dollár is olyan pénz, amit nem szívesen adnak ki a cégek. -
smkb
őstag
Tehát, egy cég bejelenti, hogy 10mrd usd-t adna az AMD-ért, felvásárolná, ami jelen pillanatban 5 szörös ár az AMD részvényekért. Ekkor a részvényesek meg csak mantrázzák, nem adom el, nem adom el, hiába realizálnának 500%-os hasznot, amit beforgathatnának utána olyan cégbe ahonnan jön profit, van osztalékfizetés, van részvényárfolyam nyereség, mert épp egy feltörekvő cég.
Ilyen kérlek nincs. A pénz beszél. Az a helyzet, hogy senki nem tesz vételi szándékot.
Tehát ők, amiknek jórésze befektetési cég, azaz a profit érdekli őket, mert az ügyfeleik azért adták nekik a pénzüket, hogy abból többet kapjanak vissza, nemet mondanának... a Mubadalának mégcsak nincs is valami nagy részesedése.
-
-
7time
senior tag
A rossz anyagi helyzet miatt pedig az öngerjesztő negatív spirál mentén egyre jobban és jobban marad le technológiailag.
Technológiailag éppen hogy előrébb van viszont eddig nem nagyon volt rendes gyártó aki 14nm normális kihozatalon tudott volna nyújtani valamit, reméljük ez a Samsung révén most megoldódik, ezzel majdnem utolérik az Intel gyártástechnológiáját is.
-
Abu85
HÁZIGAZDA
Az Apple esetében az iMac váltás még nem olyan kritikus. Az OpenCL-en elég jól lehet optimalizálni más architektúrára, szimplán arról van szó, hogy a szoftverfejlesztők most ezt nem akarják megtenni. Ez részben érthető, elment egy csomó pénzük arra, hogy GCN-re optimalizáljanak, és nem akarják, hogy még több elmenjen. Ez csak üzlet.
A másik oldalon igazad van. A DX12-Mantle sokkal kritikusabb kérdés. Ott már rég a DX12-re kellene fókuszálni, de többen a Mantle-t tekinti elsődlegesnek. A GameBryo nemrég bejelentette, hogy akkor is a Mantle lesz a kulcstechnológia náluk, ha itt lesz a DX12, és ide még felkerülhet a Frostbite Team, az Oxide, a Rebellion... Ez már egy nagyobb probléma, mert a fejlesztők ki akarják kényszeríteni, hogy a Mantle legyen a szabvány, amint megnyitják.
-
Abu85
HÁZIGAZDA
Tele vannak olyan technológiával, ami megérné, csak korábban már többször is kijelentették, hogy nem eladó a cég. Innentől kezdve nincs miről beszélni, mert az eladást mindkét félnek akarnia kell.
Rory-t nem rúgták ki, hanem távozott, mert elvégezte a munkáját. Lisa Su nem véletlenül ment oda közvetlenül Rory után. Ő jobban ért a technikai dolgokhoz, illetve a szoftverfejlesztők bezárásához. Mert jelenleg éppen az történik, hogy az AMD folyamatosan láncolja magához a professzionális és a gaming piacot.
-
smkb
őstag
válasz
Raysen623 #50 üzenetére
A valóságban viszont ott van, nem véletlen volt újabb vezetőváltás, nem véletlen jönnek újabb leépítések, nem véletlen a konzol gpu eladások sem tudják már fedezni a folyamatosan csökkenő pc cpu, apu, vga eladásokat, és nem véletlen borzalmasan szar előrjelzést adtak a következő negyedévre is, és nem véletlen van jelenleg már a vicc kategória szintjén az AMD piaci értéke (1/5-ét éri az NVidiának), és nem véletlen nem is akarja felvásárolni sem senki (pedig potom áron lehetne), mert nincs jövője a cégnek, nincs olyan IP-je, ami megérné bárkinek az akvizíciót. A rossz anyagi helyzet miatt pedig az öngerjesztő negatív spirál mentén egyre jobban és jobban marad le technológiailag.
-
-
Raysen623
addikt
Ja mert nálatok, aki nem az első helyen áll az sz@rban van ugye?! Tipikus magyar gondolatmenet...
Arról nem is beszélve hogy az Intel sem csak a PC piacból él...már az AMD sem. De ellenpéldának ott van pár autógyár is, amik ugye jó pár évig veszteségesek voltak a csökkenő vásárlóerő miatt, de gondolom senki nem mondta róluk hogy rossz autókat gyártanak... -
Cathulhu
addikt
Persze mindenkinek meg vannak az okai miert megy szarul vagy epp jol, az intel sem kivetel, mint ahogy a tobbi sem. A samsungnak most annyira szarul megy, hogy epp nem lett meg a 4 milliard USD profit 3 honap alatt. Nem erzem ugy egyelore, hogy vissza kellene menekulniuk a biztos mikrosuto piachoz. Jah a qualcomm nem gyart, csak tervez, csak epp ennyi penzbol barkit megengedhet maganak, hogy jo procit tervezzen (64 bittel ok is elaludtak). Sot valakinek le is kell gyartani, amiert meg a Qualcomm orommel fizet (vagy az intel a terveidben mitn bergyarto maradna meg?). A kinai csoda SoCokat is gyartatni kell, szoval az maximum az Exynos tervezo reszleget erintheti kellemetlenul, mert a gyartokapacitas kell, siman elofrdulhat, hogy majd a Samsungnal gyartjak a konkurens chippeket is. A GloFoval nem szamolok, nekik egyszeruen keves a tokejuk (szellemi es penzbeli egyarant), hogy a Common Platform nelkul versenykepesek maradjanak. Szoval mindenki aki nem intel es versenykepes akar maradni, az vagy TSMC vagy Samsungnal gyartat, egyik ceget se feltem, hogy eheznenek a jovoben (megha a Samsung mobil mar nem lesz annyira dominans mint eddig).
-
duc
aktív tag
Hátha ez egy kicsit segítene AMD-nek kimászni a sz@rból.
-
arn
félisten
a kerdes inkabb koltoi volt... egyik oldalrol, a kocsogok mindig elszabotaljak a technologiai fejlodest, mert hogy sajat apit hasznalnak, a masikrol meg a fejlesztok megmentoi, hogy alacsonyszintu hozzaferest biztositanak a hwukhoz. kiki helyettesitse be maganak a megfelelo neveket, de egyik se jobb a masiknal.
-
Fiery
veterán
Ha az Apple kifizet 150 milliardot az Intelert, azt nem azert teszi, hogy leirja nullara az Intelt. Mert ha az Apple altal felvasarolt Intel nem szallit senki masnak, csak az Apple-nek, akkor az erteke azonnal a nullahoz konvergal, erosen. Az Intel abbol el, hogy mas gyartoknak szallit CPU-t...
-
Fiery
veterán
Az ultramobil vonalon azert tartott ennyi ideig a versenykepes termek osszelapatolasa, mert elaludtak. Pontosabban, nem gondoltak azt, hogy erdemes lenne beszallni egy olyan piacra, ami ilyen alacsony profittal kecsegtet. Nem akartak focizni a telefonok teruleten, de nem gondoltak arra, par ev leforgasa alatt ilyen nagy biznisz lesz a telefonokban. Arra meg plane nem szamitottak 2007-2008 kornyeken, hogy a tabletek es phabletek is milyen fontosak lesznek majd. Amikor berobbant az ultramobil orulet, csak a regi Atom architektura volt meg nekik, az meg f*s volt. Elkezdtek lohalalaban csinalni a Silvermont-ot, mostanra meg beert a dolog, ilyen egyszeru. A duskalas pedig nem feltetlenul igaz minden vallalatra. Lattad peldaul, hogy a Samsungnak ujabban mar baromira nem megy olyan jol?
Ami egyik oldalrol az Intel-fele, most me'g nem annyira komolyan veheto fenyegetes (= x86 ultramobil procik), az a masik oldalrol sokkal durvabb fenyegetes, valos, es mar most is erezheto (= kinai konkurensek jonnek tucatjaval). A Samsungot mar most is vagy 20 masik kinai es koreai ceg akarja legyozni, es ha a Samsungnak lealdozik a mobil piacon, a PC-piacon meg ugye tudjuk mi megy, akkor maximum a mikrohullamu sutokbol befolyo penzbol tudja tovabbfejleszteni az igen-igen koltseges gyartastechnologiajat. En a Samsungra nem fogadnek, az fix. A Qualcommnak meg nem igazan van sajat gyartastechnologiaja, ergo marad a TSMC (a benazasaival) meg a GloFo
Egy TSMC+GloFo egyutt sem kepesek arra, hogy tartsak a lepest az Intellel...
-
Abu85
HÁZIGAZDA
Nem. Az a baj, hogy a kínai gyártók nem akarnak az Inteltől vásárolni. Ezért csinálja azt az Intel, hogy akkor összeállnak például a Rockchippel, és utóbbi cég készít egy olyan SoC-ot, amelyik Silvermont magokat használ. Lesz is egy ilyen hamarosan. Abban négy mag lesz PowerVR grafikával és Intel LTE modemmel. A TSMC fogja gyártani 28 nm-en, és a Rockchip fogja árulni, majd az eladásokból az Intel is részesül. Ez már egy olyan stratégia lesz, ahol életképes lehet az Intel, és nem csak az ablakon dobálják ki a milliárdokat. A kínai gyártókhoz is egyenes az út a Rockchip kiépített kereskedelmi hálózatán keresztül.
-
Raysen623
addikt
Abban nincs vitánk hogy megtehetik e vagy sem. Én anno mikor kijött az első Inteles mac gép, úgy gondoltam hogy ezt azért lépték meg, hogy könnyű legyen fejlesztőknek átportolni a szoftvereiket. IBM architektúra eléggé más volt, míg ugye Intel van Windows-Linux platformon és most már jó ideje OSX-nél is. Szerintem ezen nem is akarnak változtatni.
A mobil platform meg megint teljesen más! Az egy sokkal nagyobb piaci szelet az Apple eladásainak mint a számítógép. Az integráció a különféle eszközök közt pedig már most is megvan nekik. Ennek nem hiszem hogy lényeges eleme lenne ha a számítógépeik is ARM-el mennének...iOS ugy nem egy az egyben OSX tudtommal. -
jegesib
aktív tag
Persze, de benne van h invesztál a TSMC-be, mind gyártosori kapacitás, mind technológia terén. Megteheti, gyakorlatilag filléres kiadás. Kérdés miért tegye. Procijai a konkurenciával teljesen versenyképesek a kütyükben. Desktop fronton szintén senkit nem kell legyőznie, szerver bizniszből kiszállt, ezért nem várok gyakorlatilag semmiféle akvizíciót. Sztem az intel roadmapja perpill teljesen elfogdaható az apple-nek is, egy-egy frissítése lapos, de amig az intel független, a konkurencia sem tud ugyanazon időben nagyot lépni.
-
Cathulhu
addikt
Az intel baromi nagy elonye a tobb eves gyartastechnologiai elony volt, ami mostmar kb 1 evre apadt (jo tudom, varjuk meg a veget). Az, hogy x86-on ennyire dominal, az csak egy gyengelkedo AMD-nek koszonheto, de ez se volt mindig igy. Meg lehet nezni, hogy a fene nagy elonyukkel mennyire tudtak versenykepes ultramobil CPU-t gyartani, csak mostanaban kezdenek versenykepes ajanlatokkal eloallni, eddig a kozepkategoria aljat sikerult csak megcsipni, es ehhez is evek kellettek. Kozben a Samsung csak osszeszedte vegre magat, es farvizen talan majd igy GloFo is, a TSMC toketlenkedik altalaban, de azert csak fejlodik, mindemellett a smartphone es tablet boom-nak koszonhetoen olyen merteku penz aramlik be manapsag ezekhez a cegekhez, amirol eddig almodni sem mertek (kozben az intel gyartosorok allnak), a qualcommal meg ugy elszaladt a lo az utobbi idoben, hogy hamarosan jobban az intel nyakara nohet, mint amennyire az AMD valaha is tudott. Mostmar ezek is duskalnak a penzben, ezek is "korlatlan" R&D budgetbol gazdalkodhatnak, kell par ev, es ez nagyon be fog erni. Es ilyen tokeeros, kpben gazdag es nehany piacon monopol helyzetben levo vallalattal szemben sokkal kevesbe fognak ervenyesulni az intel trukkjei, mint az azonos piacon mindig is masodhegedus AMDvel szemben.
Talagatas ez is termeszetesen, mint minden ami a jovore vonatkozik, csak ugy mint amit te is mondtal, maradjunk annyiban, hogy ez az en joslatom -
Fiery
veterán
Miert lenne per? Teljesen siman atmenne. Csak a szandek hianyzik hozza. Az Apple -- mint ahogy a legtobb normalis ceg -- nem fogja a teljes tartalekat elverni egy akviziciora. A felét, talan. De ahhoz meg 300 milliard dollarnyi tartalekra lenne szukseg, ami nem egyhamar fog osszejonni, hacsak nem forgatjak meg kockazatos uzletekben a penzt
-
Fiery
veterán
Tehat csupan az a baj, hogy eleg jo termekeket gyartanak (ertsd: eleg gyors + eleg keveset fogyaszt), csak azok epp nem idealisak az Android-fele rendszerekbe, az x86 miatt -- mikozben a Windows rendszerekben meg pont jol passzolnak. Ezt mondjuk eleg egyszeru megoldani, sot, magatol is megoldodik, amint az x86-os megoldasok gyorsabbak lesznek, mint az ARM-osok. Maguk a fejlesztok lesznek rakenyszerulve arra, hogy x86 nativ kodot is keszitsenek mindenbol. De ezen a peldan, ezen a csapdan is jol latszik, mennyire sz*r rendszer az Android: ird meg Javaban a kodot, az majd futni fog mindenen (ARM, MIPS, x86, whatever), igeri a Google. De kozben meg ha nagy teljesitmenyt akarsz, lehet nativ kodot forditani minden architekturara kulon. Agyrem.
-
Abu85
HÁZIGAZDA
Egyik sem, de nem is ez a cél, hanem a mobilitás. A Cortex-A57 gyorsabb 2 GHz-en, mint a 800 MHz-es Broadwell. De az Applenek saját magja van, ami még az A57-nél is gyorsabb azonos órajelen.
Nehéz már megmondani, hogy hány alkalmazás van Metalra. Amikor legutóbb néztem, akkor 15-nél tartottak. De év végére 40-at ígérnek, míg a következő év során inkább azt érdemes számolni, amelyik nem Metalt használ.
-
Fiery
veterán
"Csak arra próbáltam rávilágítani, h a pénzen nem múlik h gyártókapacitást vásároljon bérgyártóktól"
Ez addig mukodhet jol, amig a bergyartok tartjak a lepest az Intellel... Ami pedig mar most sem megy, es a jovoben sem latszik, hogyan fog menni nekik. Egyszeruen tul sok fele vannak toredezve, nagyjabol csak akkor tudnak tartani a lepest az Intellel, ha mindannyian osszefognanak. TSMC+Samsung+GloFo egyesult vallalat peldaul.
-
Abu85
HÁZIGAZDA
Csak az aktuális mobil stratégiájuk problémás. Egyszerűen nem érdekli a gyártókat, és ezzel nem tudnak mit kezdeni. Erre készült a Sofia projekt. Ott egyszerűen nem foglalkoznak majd a gyártók meggyőzésével, hanem szövetkeznek másokkal, hogy a készülő chipeknél az ARM helyére Intel magot rakjanak, a többi részegységet pedig oldják meg. A TSMC-nél már elérhető a Silvermont mag a partnereknek. Ez már egy életképesebb stratégia lehet.
-
Fiery
veterán
Melyik ARM megoldas skalazodik 4+ GHz-re, mint a Broadwell? Es vajon a 2 GHz-es A57 futtatja gyorsabban a tipikus desktop alkalmazasokat, vagy a 800 MHz-es Broadwell? Tippelhetek?
A Metalra pedig ha nem tevedek, jelenleg 0 alkalmazas keszult eddig. Varjunk me'g kicsit szerintem, mielott azt mondjuk, az majd mindent megold.
-
jegesib
aktív tag
üzletileg óriás butaság lenne felvásárolni az intelt. Csak arra próbáltam rávilágítani, h a pénzen nem múlik h gyártókapacitást vásároljon bérgyártóktól. Sőt láttunk már olyat h invesztált pénzt egy egy beszállító felemlésére, ha éppen technológiai érdeke megkívánta. Aztán persze volt ellenpélda, h ki is dobta mint macskát szarni. Nem is oly rég pl a zafírkristályos cég...
-
Abu85
HÁZIGAZDA
A teljesítmény az órajeltől is függ. A Cortex-A57 2 GHz-en fogyaszt annyit, amennyit a Broadwell mag 800 MHz-en. És itt már az A57 gyorsabb. A Cyclone ennél még gyorsabb, tehát ez a dolog az Apple számára most még nagyon jó. Másrészt mindenki a GPGPU-ba dobálja a pénzt, mert elfogadták, hogy ez a kifizetődőbb irány.
És láthatod, hogy az Apple nem teszi ezt. Ők két magon állnak, és négy magig terveznek belátható időn belül. Nekik ez meg is éri, mert a Metal miatt skálázódni fog a rendszerük. Ez egy szoftveres kérdés, amit az Androidon a Google szimplán nem tud megoldani. De ez a Google szegénységi bizonyítványa.
-
Fiery
veterán
Miert nem? Mi a baj az Intel strategiajaval? Az x86 a baj? Arrol ok is valthatnak barmikor ARM-ra vagy barmi masra, ha ugy adodik a helyzet. Ha nem az x86, akkor mi? A gyartastechnologiajuk in-house, a legjobb a vilagon jelenleg, ugyhogy az biztos nem veszelyezteti a jovojuket
Mi mas lehet a baj veluk? Hogy nem HSA-val foglalkoznak? Vagy ha megis azzal foglalkoznak, akkor nem mondjak ki?
-
-
Fiery
veterán
Ki beszelt magszamrol? Orajelrol van szo, meg az egyszalas teljesitmenyrol. Pont az, amiben pl. az AMD se remekel. Egy ultrabooknal, notebooknal, desktop gepnel nem elhanyagolhato szempont az egyszalas teljesitmeny.
Megjegyzem, a magok beszorasa egy alacsony orajelu processzorba mar az Androidnal se jott be... Van nyilvan egy csomo helyzet, amit jol lehet kezelni egy csomo alacsony orajelu maggal, de legalabb ugyanannyi van, ahol meg 1-2 magas orajelu mag az idealis. Egy 8 magos A8X-szel sem lehetne kivaltani egy i5-4690-et az iMacben...
-
Abu85
HÁZIGAZDA
Garantáltan tud skálázódni az ARMv8. Az ARM már 48 magos rendszereket is tesztel, és elég jók az eredmények. Tehát 48 magig kb. oké, de ennek az Apple a közelébe sem fog menni, tehát nekik az egyclusteres négymagos dizájn számít belátható időn belül. Az IGP, ami extrém mértékben fejlődik, amihez lesz egy Metal compute kiegészítés, hogy az OpenCL-t ne kelljen iOS-re lehozni. Helyette mindenki compute Metalban írhat GPGPU programot. Ennek az előszele az MSL.
Innen nehéz bárhova váltani, mert a szoftveres alap az ARM-hoz és az Imaginationhöz köti az Apple-t. Drágább ezt lecserélni és mindenkinek mondani, hogy dobjatok ki minden kódot, amit írtatok évekig. A hardvert sokkal olcsóbb és sokkal egyszerűbb fejleszteni. -
Tigerclaw
nagyúr
válasz
Raysen623 #10 üzenetére
Nézd, annak sincs igazán értelme, hogy szinte mindenből egyedi megoldást használnak, hogy ne legyenek kompatibilisek semmivel és senkivel, de még azt teszik pont azért, hogy zárt maradjon az Apple ökoszisztéma és ne történhessen olyan mint anno az IBM-el és a többi régi nagy PC gyártóval. Azt akarják, hogy az ő szoftverüket és hardverüket használják minél többen és csak tőlük vehessék meg ezeket. Az x86-64 miatt viszont nyitottá váltak, de most hogy nagyon megy a szekér, szerintem újra teljesen zárni akarják a rendszert és a kirakós hiányzó eleme egy olyan CPU vagy APU, amit csak ők gyártanak. Attól nem tartok hogy az x86-64-ARM váltás nagy gondot jelent nekik. Idejük van és lehet hogy már évek óta dolgoznak a dolgon.
Maga az Apple volt az aki anno az A7-et bemutató keynote slide-ján azt írta, hogy "64 bit desktop class architecture". Azóta már van A8, sőt az új iPad-ban A8X is. Volt elemző aki azt írta, hogy az Apple processzorai már nem pl. a Qualcomm mobil megoldásainak konkurenciái, hanem az Intel CPU-inak.
Az is lehet hogy az OS X 10.x után valami más jön. Ahogy a Swift-re is szántak időt, erre is bőven volt, van, lesz idejük. A processzorgyártás fejlődése is nekik dolgozik, mert ma már egy pár wattos mobil processzor is szépen képes futtatni a legelterjedtebb alkalmazásokat és ők eddig sem készítettek erős gépeket, a Mac Pro kivételével.
-
LordX
veterán
Olyan nincs, amit képtelenség portolni, viszont nagyon más szintaxist használ a kettő, ami miatt nem triviális mit kell csinálni.
Van egy csomó beépített függvény OpenCL 2.0-ban, amiből alapból nincs CUDA, bár gondolom valami liben keresztül mind létezik (workgroup függvényekre gondolok itt első sorban).
Másik irányba meg elsősorban az adja a gondot, a CUDA C++ alapú (már), amit megint nehéz OpenCL C-be portolni. (Legyen végre egy használható SYCL implementáció!)
Szerk: "Pipes" nem tudom van-e CUDA-ban, bár nem is használom..
-
Fiery
veterán
Semmi garancia nincs arra, hogy az ARMv8 felfele is skalazhato olyan mertekben, mint az Intel-fele Nehalem csalad. Raadasul, epp mostanaban eri utol az Intel mindenben az ARM-ot (kiveve az ár, de az "alakithato"), tehat pont most atallni ARM-ra veszelyes es felelotlen dontes lenne. Az Intel jelenleg csaknem minden piacon a legjobb CPU-t gyartja, a legmodernebb gyartastechnologiaval. Nincs ellenfeluk, ez ilyen egyszeru. A tobbieknel leginkabb igeretek vannak, hogy majd X ev es befut, amit csinalnak, majd X honap es nekik is lesz 14 meg 16 meg ki tudja hany nanojuk, stb. Na meg persze ar/ertek aranyban lehet az Intel ala vagni, pl. Kaveri. Az Apple is csak addig majerkedik az A7 es A8 chipekkel, amig talalnak ra bergyartot. Ha a gyartok nem fognak tudni 20 nano ala menni nagy volumenben, idoben, akkor az Apple hiaba keszit qrva jo CPU-t papiron, nem lesz aki legyartsa neki. A vegen odaig fajulhat a dolog, hogy inkabb atmennek az Intelhez egy x86-os ultramobil prociert, mert nem fogjak tudni legyartatni a sajat dizajnjukat... Wait and see.
-
Cathulhu
addikt
válasz
Raysen623 #10 üzenetére
Pont azert mert mar megtettek, megtehetik megegyszer. Nem veletlen vasaroltak SoC fejleszto cegeket es licenszeket, az apple utal fuggni masoktol es ha ugy erzi akkor dobbant. 64 bit pipa (szerinted az 1 gigas iPhone-ok miatt tertek at 64bit-re a vilagon elsokent?), fogyasztas pipa, szerintem mar csak az igazan nagy teljesitmenyu ARM magokra varnak es akkor elobb a laptopok aztan az asztali gepeken is at lehet allni (kulon jol jonne ehhez vegre a nagy teljesitmenyu AMD ARMok amig a sajat keszulget).
Pont azert erdemes egy ilyen atallast meglepni, mert utana soha tobbet nem kell majd, hiszen hazon belul lesz. Gyartok kozul meg azert lehet majd valogatni, most meg vagy intel vagy intel... -
Raysen623
addikt
Ezt a lépést már nem fogják megtenni...nincs igazán sok értelme. Eltöltöttek 3 OSX verziót azzal hogy átírjanak mindent Intel proci architektúrára, ezek után ne m fognak visszafordulni.
Videókártya ügyileg még megoldható a váltás, bár én nem díjazom az Intel megoldásait e téren. Irodai alkalmazásokhoz még elmegy, mert keveset fogyaszt, de tervező-modellező és grafikus oldalra már kevés. -
Tigerclaw
nagyúr
Lehet hogy csak ők adták olcsóbban a modult. Az Apple elég gyakran váltott már oda-vissza a két cég között, sőt ahol lehetett, pontosabban ahol az Appe úgy gondolta, már megelégedett az Intel megoldásaival. Most a 4k-5k visszakényszerítette őket újra a komolyabb megoldások felé, de amint az Intel elér egy szintet, megint visszatérnek a dGPU mentes megoldásokra.
Én egyébként arra lennék kíváncsi, hogy funkcionalitásban és számítási teljesítményben hol áll jelenleg az Apple A8 - A8X és és fogyasztásban hozzá igazodó Intel megoldás. Úgy tudom az OS X és az iOS közeli rokonságban áll egymással vagyis ha szándék lenne rá akár pár éven belül piacra kerülhetnének az első Apple chipes macbookok, sőt talán asztali mac-ek is és visszatérhetnének a szinte teljesen zárt és egyedi hardveres platformra, amiről kényszerből váltottak.
-
Abu85
HÁZIGAZDA
Az OpenCL esetében sok dolog függ attól, hogy mennyire hardverközeli az optimalizálás. Ha nagyon az, akkor a célzott architektúrán nagyon gyors a kód, de más architektúrán már lassú. A Mac Pro miatt a szoftverfejlesztők erre nagyon rágyúrtak. Ez azt is jelenti, hogy ezt az optimalizálást csak akkor lehetett iMacbe menteni, ha oda is GCN-t használnak.
Az általános API, különösen a low-level alternatívák csak kompatibilitást kínálnak, de a teljesítményt már nem garantálják. Ugyanezért van beleírva a DirectX 12 performance guide-ba is, hogy az Xbox One kód csak GCN-en fut jól, így nem szabad egy az egyben másolni PC-re. Más architektúra a direkt másolásból 40-60%-os mínuszt is szerezhet. De még a GCN-ek között is a nem C.I. verziók is kapnak 10-20%-os deficitet.
-
arn
félisten
Pedig epp ez lenne az a gep, ahol maxwell lenne az optimalis valasztas.
Azt meg vegkepp nem ertem, hogy a le a gyartospecifikus cuda felkialtas utan miert hasznalnak openclt specifikusan. Akkor mi ertelme altalanos apit hasznalni?
-
Meteorhead
aktív tag
Hogy mióta ne támogatja? Körülbelül 3 éve, amióta nem nyúlt hozzá az OpenCL implementációjához.
Nem rég volt szerencsém találkozni egy tök értelmes NV-s csókával, és beszélgettünk a cég terveiről, amiről nyílván csak személyes véleményt alkothatott, hivatalosat nem. Azonban elmondta, hogy NV oldalról ne számítsunk OpenCL változásokra. Amíg nincsenek igazán rákényszerítve, addig továbbra is folytatni fogják az elszigetelő/elszabotáló taktikájukat.
Ezen úgy lehetne változtatni, ha OpenGL Next sokkal erősebben ráfeküdne az OpenCL interopra egy értlmes és gyors ABI-val, amivel az interop is piszok gyors tud lenni. Ha az OpenGL Next compute részéhez megkerülhetetlen lenne az OpenCL implementációjuk ráncfelvarrása, akkor megtennék. Az új OpenGL mellett ők sem mehetnének el.
-
Abu85
HÁZIGAZDA
Pont ezért kérték az Apple-t, hogy váltsanak GCN-re legalább azokon a termékeken, ahol szóba jöhet a professzionális felhasználás. Erre optimalizálták agyon a kódot, és nem akarják még egyszer megtenni egy másik architektúrára. Lehet hülyeségnek nevezni ezt, de így döntöttek, és az Apple esetében ez még realitás is, mert ahogy említetted bármikor váltanak GPU-t. Most éppen azért, mert a szoftveres optimalizálásnak ez használ.
-
Fiery
veterán
Az OpenCL akkor low-level, ha low-level-kent hasznaljak. Nyilvan szenne lehet optimalizalni egy OpenCL kodot, olyan melysegig, amikor mar megszunik portolhatonak lenni, legalabbis ha a csucsteljesitmenyt nezzuk. De aki igy tesz, arra szamitva, hogy az Apple nem fog megint GPU vendort valtani, az szerintem egesz egyszeruen hulye. Az Apple hires arrol, hogy barmikor hardver gyartot valt, attol fuggoen, ki kesziti az epp aktualisan cutting-edge cuccot. Nyilvan emiatt CUDA-val se igazan erdemes dolgozni Apple vasakon.
-
Abu85
HÁZIGAZDA
Az OpenCL egy low-level platform. Az az optimalizálás, amit a GCN-re elvégeztek a Mac Pro miatt teljesen hasztalan az NVIDIA architektúrái számára. Ezért tartják meg sokan még mindig a CUDA kódot, mert bár egy körrel le van maradva az OpenCL path mögött, mégis jobban fut az NVIDIA hardverein.
Még ha OpenCL-en maradnak, akkor is szükségesek specifikus optimalizálások, mert eltérő az architektúra. Ott az Adobe, aki most már az Intel OpenCL-ére is kínál támogatást. Az eredeti AMD-re szabott kód nagyon lassú volt, de ahogy optimalizálják úgy lesz egyre gyorsabb. -
Fiery
veterán
"Amennyiben az Apple nem váltja le a grafikus vezérlőt az új iMacben, akkor a szoftverfejlesztőknek az elmúlt egy év OpenCL-es optimalizálását a CUDA platformra is át kellene ültetni, ami ismét igen sok pénzbe és időbe kerülne."
Az nVIDIA GPU-k miota nem tamogatnak OpenCL-t?
Es a CUDA miota kulonbozik radikalisan az OpenCL-tol? Eleg csak megnezni az nVIDIA idevonatkozo iranymutatasait --> [link] Nem egy rocket science atallni CUDA-rol OpenCL-re, es vice versa.
Új hozzászólás Aktív témák
- PlayStation 5
- Google Pixel topik
- Multimédiás / PC-s hangfalszettek (2.0, 2.1, 5.1)
- gban: Ingyen kellene, de tegnapra
- Kertészet, mezőgazdaság topik
- Battlefield 6
- Audi, Cupra, Seat, Skoda, Volkswagen topik
- Honor Magic7 Pro - kifinomult, költséges képalkotás
- A fociról könnyedén, egy baráti társaságban
- Opel topik
- További aktív témák...
- BESZÁMÍTÁS! AOC 24B1XHS 60Hz FHD IPS 7ms monitor garanciával hibátlan működéssel
- Felsőkategóriás Gamer PC-Számítógép! Csere-Beszámítás! I9 13900K / RTX 4080 / 32GB / 1TB SSD
- DELL Precision 5560 i7-11850H 32GB 1000GB T1200 FHD+ 1 év garancia
- BESZÁMÍTÁS! ASRock Z370 i7 9700KF 16GB DDR4 512GB SSD RX 7600 XT 16GB ZALMAN I3 NEO ADATA 600W
- HIBÁTLAN iPhone 13 mini 256GB Midnight -1 ÉV GARANCIA - Kártyafüggetlen, MS3041, 96% Akkumulátor
Állásajánlatok
Cég: FOTC
Város: Budapest