Když jsem četl tu část popisující princip spojování koncových uzlů (tj. koncové uzly se pokouší spojit prostřednictvím nějakého registry uzlu (tedy NAT traversal/punchtrhough) a když to selže, komunikace běží skrz relay uzly) - pokud to chápu správně, tak ten samý princip jsem už viděl u aplikací jako je Tox, Syncthing nebo Hamachi, snaží se tak fungovat některé hry (a enginy) a pokud tomu rozumím, tak fungoval podobně i třeba Skype, než si jej zpacifikoval Microsoft.
Celé to mě vede na myšlenku a otázku - jak moc by byl blbý nápad tu nejnižší vrstvu sdílet? Ve výsledku jde o to posílat data mezi koncovými body, které jsou potenciálně za NATem a zůstat co nejvíce decentralizovaný, jinými slovy co nejvíce P2P v NATovém prostředí. Nebyla by při použití sdílené „infrastruktury“, či jak to pojmenovat, mnohem lepší dostupnost a potenciálně rychlost? Protože místo několika samostatně izolovaných registry a relay serverů by byly všechny sdílené.
Samozřejmě šifrování a komunikační protokol by si řešila každá služba kompletně izolovaně. Jde mi jen o to zprostředkování komunikace.
Nebo je to moc crazy..?
Btw. moje znalosti ohledně bezpečnosti i síťování jsou omezené, proto se ptám. A samozřejmě chápu, že první praktickou komplikací by byl problém 927.