Pridam vlastni anekdotu ktera souvisi primo s autorem clanku.
Jako doktorand jsem pouzival na vypocty Metacentrum, tj. spolecnou ceskou vypocetni infrastrukturu tvorenou stroji ruznych ceskych ustavu a univerzit. Slo o diagonalizaci velkych ridkych matic, kde bylo potreba do pameti ulozit par vektoru o velikosti nekolik stovek GB, nekdy az pres TB. Takovych stroju s dostatecnou pameti tehdy nebylo moc a casto jsem cekal nekolik dnu, nebo treba i vic nez tyden, az se uloha spustila.
I tady platilo neco jako Paretovo pravidlo, tedy ze velmi maly pocet uzivatelu zabiral podstatnou cast vsech zdroju. Konkretne autor clanku pan Barina tehdy zabiral neco jako 25% vsech CPU jader celostatniho Metacentra svymi vypocty - ve fronte mel desetitisice jobu typu (2CPU, 2GB), ktere provadeli algoritmus overujici Collatzovu domnenku pro jednotliva prirozena cisla. Nevim, jaky byl cil: prejit vsechno az do nekonecna? Nebo autor doufal, ze najde protipriklad nekde kolem 2^100?.
Je tezke z pohledu laika odhadnout uzitecnost vyzkumu v teorii cisel a nechci aby to vyznelo, ze takove vypocty znevazuji. To, ze byly zablokovane stroje s 2TB pameti tisicem jobu po 2GB pameti je chyba scheduleru Metacentra, ne zadavatele. Uznavam ale, ze v te dobe me takove uziti celostatnich zdroju trochu zvedalo ze zidle.
30. 10. 2024, 16:06 editováno autorem komentáře