Vypada to, ze mitigation nebude az tak bolestiva jako v pripade CPU:
Citace z odkazovaneho clanku:
We evaluate reducing the leakage by:
• Rate limiting: limit the rate an application can call the mem-
ory API. In the memory based attack, we can query the API
every 60 us (about 16000 times per second), leading to pre-
cise identification of memory events corresponding to every
object uploaded to the GPU. As we reduce the allowable
rate, individual allocation and deallocation events start to be
missed, reducing the information in the signal.
• Precision limiting: limit the granularity of the measurement.
For example, for the memory API, we set a granularity (e.g.,
4Mbytes) and report the memory allocation rounded up to
this granularity. Small size allocations can be missed, and
the precise size of allocations becomes unknown, weakening
the signal.
O tomhle se ví, je to i u AMD a todle tuším už bylo před 3 měsíci na cnews a k té chybě jen jedna cesta, přes cpu. A když fixneš CPU tak grafiku teoreticky nemusíš řešit. (bezpečnostní technici mě asi těď pověsí do průvenu za koule, ale proč zabezpečovat 2 věci, když lze 1 a obájit tím 2?)
2jdsulin2: Zjisti si jak to funguje, GPU nepotrebuje CPU ani na sit ani na disk. Jenom vzhledem k tomu ze je to specializovanej CPU tak nektery ulohy delat primo na nem je neefektivni, ale nikoli nemozny. Pokud napises sitovej stack kterej pobezi na GPU, tak komunikovat se sitovkou naprimo uz je to nejmensi.
Naprosto bezne si muzes koupit sitovku, ktera ma vlastni procesor, ram, ... a muze si se siti komunikovat i v pripade, ze zbytek pocitace vubec nebezi. Japa to jen dela ... GPU neni nic jinyho. Pameti ma hromadu, a pro to sitovani jen potrebuje poslat data sitovy karte, coz muze.
S tym sietovym stackom nad GPU to skuste trochu rozviest. Akym konkretnym sposobom posle GPU packety sietovym kartam? Mozete uviest odkaz na API pripadne uviest ktora jednotka GPU by toto mala udajne dokazat? Az tak mnoho ich na takom GPU nie je. Poznate vy vobec aspon priblizne architekturu modernych GPU? Pretoze mi to pride ako placanie piateho cez deviate.
Ano GPU to vypočte, ale někdo mu to musí zadat. A to bez CPU nejde, když fixneš už v CPU tak GPU se toho ani nedotkne. Ještě jsem neviděl PC či jakékoliv hw sestavení bez cpu a vše běželo na grafice. Ještě jsem to neviděl a ani neuvidím, protože to co tu vykládáte je dost mimo.
>Ale kdyz chces neco zverejnit a komunikovat s okolim, tak musis jit pres CPU. Napriklad odeslat packet,
To nie je pravda. Ethnernet a teda aj TCP/UDP sockety v sieti idú. A teda NAS by išiel...
DisplayPort v1.2 finalized: 3D, multi-monitor & USB/ethernet support
DisplayPort v1.2 doubles the data rate to 21.6 Gbps (useful for bigger resolutions or for 3D graphics), supports multiple monitors from a single connector, and can simultaneously carry bi-directional USB 2.0 and ethernet as well as graphics.
https://www.slashgear.com/displayport-v1-2-finalized-3d-multi-monitor-usbethernet-support-1870188/
Vysokorychlostní (high-speed) HDMI kabel s ethernetem: Podporuje stejná rozlišení jako výše uvedený (včetně 3D funkcionality), a navíc ještě přidává podporu pro 100-Mbps ethernet.
https://www.slashgear.com/displayport-v1-2-finalized-3d-multi-monitor-usbethernet-support-1870188/
Rekl bych, ze protoze GPU nepouzivaji nejake slozite mechanismy na ochranu dat, myslim, ze tam budou mnohem vetsi problemy a nebude zase tak velky problem precist z jednoho procesu GPU pamet jineho. Je mozne, ze se pletu a nejaky mechanismus oddeleni existuje a je funkcni, mozna v Teslach a lepsich procesorech, kde tyto chyby mohou byt problem, ale pochybuji, ze se to vubec resi na kartach primarne urcenych ke hrani her.