Díváte se do příliš krátké vzdálenosti. Architektura se postupně změní, od dnešních sběrnicových systému s N procesory (omezeného do nějakého počtu 8) se přejde postupně na architektury N rozměrné, NCube, a podobně. Tam se problém paměti řeší tak jako tak, a tak každý procesor má kus vlastní paměti a s ostaními se synchronizuje.
Operační systému už dnes kolikrát řeší problém, jak do paměti, ke které má procesor nejblíž namapovat zrovna tu paměť, kterou bude potřebovat. Různé systémy Dual Channel a podobně jsou přesně ty systémy, které tuhle úlohu musí řešit, aby byly efektivní.
Stejně tak jako dnes existují GPU bez vlastní paměti, kompletně pracující s operační paměti, viz různé integrované grafické karty. Tam pak se skoro stírá výhoda vlastní GPU, protože přístup do paměti grafické karty je stejně rychlý jak z CPU tak z GPU.
Nevím, proč si myslíte, že procesory x86 jsou špatné pro výpočet grafiky. Čím se liší GPU od CPU co se instrukčních sad týče? Kromě specializovaných instrukcí, jejich efekt je diskutabilní, ... a kolikrát nás už vývoj překvapil, například k přechodem od CISCkových architektur k RISCovým. Současná CPU mají velmi dobré instrukční sady a umí často mnohem víc, než specializované pipelinové instrukce GPU.
Jinak ten přechod nebude náhlý, půjde postupně. Začne to u software, až se programátoři naučí programovat aplikace pro multicore systémy. Postupně se ukáží některé části grafických karet zbytečné a časem je firmy začnou vypouštět ve snaze ušetřit .... a nahrazovat je softwarovou emulací.