Samozřejmě, že je dobré dělat věci správně. Zajímavější otázka je, jak to udělat. :) Problém se IMO skrývá ve slově "správně". Bohužel nejsme ve škole, kde existují jednoznačně správné odpovědi.
Abych nemluvil obecně, tak se konkrétně zaměřím na to zmiňované "ch". Je to vlastně dokonalý příklad, protože věci kolem textu jsou výsledkem decentralizovaného vývoje, který už trvá staletí.
Ch není nic výjimečného. Podobných grapheme clusterů se v různých jazycích vyskytují mračna. Velice podobné, ale zároveň nekompatibilní jsou třeba taky ligatury. Takže různá normalizace textu podle použití je něco, čeho se prostě nezbavíme. Jsou v tom staletí poznatků o sazbě, aplikované psychologii a kdoví čem ještě.
Když to bez normalizace nepůjde, tak nedává nejmenší smysl přidávat další a další znaky. Nic to nevyřeší a jen to přidá další speciální případy a výjimky. A proto jde taky unicode opačným směrem. Jednoznakové písmena s diakritikou jsou spíš historický pozůstatek. Kombinace jsou flexibilnější a nepřinášejí žádné nové problémy. Ono už jenom mluvit o "znacích" je v unicode trochu problém, protože je to dost závislé na kontextu.
Tady fakt není problém v tom, že by to bylo implementované blbě. Texty jsou brutálně komplikovaný problém, který se nedá zjednodušit víc než na úroveň toho, co se snažíme modelovat.