
Boj o počet jader nebude trvat dlouho, tvrdí Donald Newell z AMD
Donald Newell dělá v AMD technologického šéfa přes serverové produkty, a to od letošního léta. Do té doby pracoval jako „senior principal engineer“ vedoucí skupiny přes SoC a datacenter networking architektury v Intelu. Možná právě tento přehled o situaci jak v Intelu, tak v AMD jej může pasovat do role někoho, kdo by mohl důvěryhodně hovořit o budoucnosti boje o počet jader v procesorech. A právě Donald Newell tvrdí, že tento boj brzy odezní. Důležitější budou podle něj schopnosti procesorů…
Jak pro koho. Ono pro BFU je lepší nějaký dual core s 3Ghz. Pro servery zase s šesti nebo dvanácti jádry. Záleží na co to kdo chce.
no nevím, tohle musí pocítit i BFU.
Nepredpokladam, ze bfu nechava renderovat video takovymto sofistikovanym zpusobem. To neni Click, click, Finish.
kdyby tam bylo hezký gui, velikánský tlačítka procesorů a benchmark na pozadí s okamžitým výsledkem, jak dlouho to bude trvat - věř, že i bfu to pochopí.
MC chybí to gui a tlačítka, zase to má průvodce pro začátečníky- takže v tom bych problém nehledal, šlo by to. Čim víc pruhů, tím víc Adidas
tak tak, spravne hovori, az mi je to divnuo :)
Uz davno by mohli byt SSE instrukcie rozsirene na tisice bitov aby bolo CPU konkurencieschopne s CUDA predsa. Naco robia blbosti ked vypoctovym vykonom v specialnych aplikaciach ich lavou zadnou prevalcuje nejaka pasivne chladena grafika, to co su za CPU? Ano, na ho***. Cela PC (intelsrot) architektura je uplne na hlavu. Uz nech to bude jak pise, alebo nech to skrachuje konecne :)
... aby som to trochu rozviedol ze preco nadavam:
1. V kazdom dnesnom PC je v grafike technika ktora by napr kodovanie videa alebo bruteforcing prelamovanie niecoho alebo X dalsich veci zvladla 10-100x rychlejsie ako CPU. Ale donedavna (a vo vacsine dnes pouzivanych PC) neexistoval ziaden interface cez ktory by to mohol SW vyuzit. T.j. kodujem video a ten komponent ktory to vie najlepsie nic nerobi, a namiesto toho CPU zhavi svoje 3 skvele ALU navrhnute niekedy v roku 1970 :D, zhavi zbytocne L1 cache ptz kvoli tomu ze CPU ma neuveritelne mnozstvo registrov (az 8, jak v roku 1980 :) sa furt musia ZBYTOCNE presuvat data medzi registrami a cache. Takze malo ALU, malo registrov.
2. Aj ked ma clovek nejake nove PC s CUDA (konecne) tak to nie je vyuzite efektivne, ptz grafika nema pristup na ziadnu cache CPU, presuvat data medzi CPU a grafikou je silne neefektivne (su tam zbernice) atd. T.j. sice zlepsieie ale tiez onicom.
Logickejsie by bolo keby sa komplet graficke core integrovalo priamo do CPU a rozsirila by sa instrukcna sada tak aby nebola vobec potrebna grafika. T.j. graficke core bny mali priamo pristup na cache atd. T.j. grafika integrovana v CPU. Bolo by to napr. v kodovani videa tipujem tak 100 az 1000x rychlejsie jak dnes, dokonca aj lacnejsie ptz by odpadla nutnost zbytocnych zbernic. Tak hura ze to konecne pomaly mozno pojde tym smerom a ze sa mozno toho dozijem :D