OK, ale co v pripade, ze je dokazane, ze najlepsi obecny algoritmus na dany problem bezi trebars v Ω(f(n))? V tom pripade je nevyhnutne, ze jediny sposob jak algoritmus urychlit, je pouzit nejake odhady na "bezne pouzitie", ako cachovanie apod.
Konkretny priklad: filesystemy. Tam najvacsi bordel robi sucasna konstrukcia diskov (cas na seek s prehladom "prakticky zabije" aj O(1) algoritmus, kvoli tej konstante). Preto sa vymyslaju rozne sposoby, ktore optimalizuju FS struktury pre dany sposob pouzitia, cachovanie mmapovanych stranok, ale ziadny algoritmus nema "kristalovu gulu" (orakulum?), ktory by mu dopredu povedal jak sa bude FS pouzivat.
Preto jeden FS vyjde lepsie na jeden sposob pouzitia a iny vyjde lepsie na iny (modulo extremne nepodarky ala FATx; ak vam bude niekto tvrdit, ze "jeden FS is the best", tak ho bez rozmyslania zastrelte). Mimochodom, spravit dobry benchmark na rozlicne FS v rozlicnych situaciach je otazka tak na PhD, vybrat spravne situacie na benchmarkovanie vyzaduje podrobne poznat architekturu benchmarkovanych FS.