Smysl algoritmu? Prý by to šlo s úpravou použít na generování rovnoměrně rozložených náhodných čísel, ale bylo by potřeba QEC, aby se zamezilo šumu.
Google se šumu zbavuje teď tak, že je jim jedno, jaká čísla jsou generována, ale počítá z nich cross-entropy, což zase asi žádný hlubší žádný význam nemá, ale chyba této veličiny s počtem měření klesá jako 1/sqrt(N), tedy po velkém počtu měření ji budeme mít s předem známou přesností.
Podle mne je tedy jediným důvodem a využitím tohoto algoritmu právě dokázání kvantové nadřazenosti.
Je velice nadsazene rikat o nejake prevaze, kdyz ten akcelerator umi jenom jednu jedinou specifickou vec - a to takovou, kterou jsme si ani nezvolili. Dle starsich popisu jsem nabyl dojmu ze jde o generator nahodnych cisel.. (ano chapu, ze distribuce je specificka, ale.. co si budem povidat, je to jenom sum).
Vetsinou se mluvi o konci kryptografie prichodem kvantovych pocitacu - so come on, ukazte jak ta vase lednicka lame RSA nebo tedy rovnou - jak to tezi bitcoiny :-)
Prijde mi to cele jako hype na urovni dnesniho AI. Vytvorime neuronove site, ktere ale nejdou pouzit primo na genericky ukol (jako napr. zde je binarka, ukaz co je jejim ultimatnim vysledkem), ale hledaji se ruzne nesmyslne aplikace ktere jsou vhodnejsi na onen stroj, jez dela vice ci mene povedenou klasifikaci - a nedejboze tam prijit trocha zaruseneho vstupu, mate vystup zcela nesmyslny. A porad neexistuje zadna aplikace, ktera by byla dukazem nezbytnosti celeho dnesniho AI nesmyslu.
Ono se totiz zda, ze se nekteri vyzkumnici snazi prolomit fyzikalni zakony (jo.. k tomu maji kvantaci vice nez blizko).
třeba předpovídání skládání proteinů https://deepmind.com/blog/article/alphafold , samořídící auta ...
[RDa]
Vitejte v klubu skeptiku.
Poznani, ze porad jeste existuji lide, kteri dokazi pouzit hlavu k tomu k cemu je urcena, ve me znovu ozivala nadeji a zaroven obavu, ze se jednou v budoucnosti k Umele Inteligenci preci jen dohrabem. I kdyz pochybnosti pretvavaji.
S jednou veci nesouhlasim:
"A porad neexistuje zadna aplikace, ktera by byla dukazem nezbytnosti celeho dnesniho AI nesmyslu."
Myslim, ze jednou z moznosti, jak vyuzit dnesni strojove uceni, je identifikovat s urcitou pravdepodobnosti falesne zpravy, hoaxy, ci strojove upravovana videa urcena k sireni dezinformaci (nemuzu si vzpomenout odpovidajici buzzword). Pro opacnou cinnost je dnes jiz udajne zneuzivana, tak si myslim, ze neni od veci, to nasadit pro odhalovani podbnych aktivit.
Myslím, že pojem "kvantová nadvláda (převaha)" je zde použit jako terminus technicus, který má vyjadřovat, že s daným kvantovým počítačem lze spočítat něco, co konvenčním počítačem spočítat nelze (případně lze, ale za řádově výrazně delší dobu). A účelem nebylo demonstrovat skutečnou nadvládu/převahu v tom smyslu, jak ji chápeme obvykle, ale ukázat, že máme skutečně kvantový počítač. O dosavadních údajných kvantových počítačích (např. od D-Wave) se totiž spekuluje, zda jsou to skutečné kvantové počítače, protože podobně náročný výpočet zatím nepředvedly.
Vyzkum i potencialni aplikace jdou zatim doslova ode zdi ke zdi. Na jedne strane se snazime na, byt velice specifickem, problemu demonstrovat, ze kvantove pocitani je skutecne rychlejsi nez to klasicke. Na strane druhe tady mame aktivity typu AQCC (https://www.airbus.com/innovation/tech-challenges-and-competitions/airbus-quantum-computing-challenge.html), ktere uz ted zjistuji, zda se daji pomoci kvantovych pocitacu resit opravdu prakticke problemy.
Aktulani situace je bohuzel stale takova, ze kvantove pocitace jsou stale velice delikatni HW, ktery zvlada resit pouze velice specificke problemy (cca nekolik malo algoritmu) pro dosti omezeny pocet qubitu a bohuzel spolehlivost i techto, znacne jednodusenych HW realizaci kvantoveho pocitace, je zatim velice diskutabilni. Takze se kazdy "uspech" prezentuje jako zasadni prulom, aby se z toho vytezilo maximum alespon na PR urovni. Aktivita AirBus-u musi za teto situace vysumet zcela do prazdna ... ale PR maji slusne, ne?
V principe aj elektronicke pocitace boli vo svojej dobe v stadiu, ked boli nespolahlive a dali sa pouzivat iba na specificke algoritmy. "Zhodou okolnosti" islo o desifrovanie, teda to co bude pravdepodobne jednou z prvych aplikacii prakticky pouzitelnych kvantovych pocitacov - ak ho uz nejaka trojpismenkova agentura na takuto cinnost utajene nepouziva.
https://en.wikipedia.org/wiki/Colossus_computer
A dokaze vas ucetni program pracovat 100% samostatne, bez uzivatelskeho vstupu, co a jak provest? Spis ne. Ani dnes, po 20-ti letech. Je to jenom vykonnejsi kalkulacka, ale zastoupit cloveka v kategorizaci ucetnich ukonu prilis nedokaze - zakony, jak jsou definovany, totiz umoznuji velice volny vyklad.
No jo, celý daňový systém má vestavěnou míru entropie, aby se dal ohýbat dle libosti. S algoritmizovatelným daňovým systémem by nešlo dát voličům daňové úlevy za "miiliiardu" tak, aby to nestálo ani desetinu, a taky by nešlo si vycucat z prstu daňový delikt a zajišťovacími příkazy zruinovat libovolnou nepohodlnou firmu.
To je o úhlu pohledu a pravdu mají oba. Z jedné strany to vypadá, že mzdová účetní je stále potřeba a žádný počítač ji nedokáže nahradit. Z druhého úhlu pohledu se jedna mzdová účetní efektivně postará o 5000 zaměstnanců. Což by s papírem a kalkulačkou nedala ani náhodou.
Účetní, mzdové, ekonomické, ERP, CRM apod. systémy nemají za úkol nahradit člověka. Jejich úkol je automatizovat činnosti natolik, aby se člověk mohl soustředit jen na to, co je důležité. Tedy zadávání nových zaměstnanců do systému, evidence změn apod. Už řadu let se navíc prosazuje EDI, takže ubylo i administrativy typu zadávání faktur do systému. Na co jste dříve potřeboval 10 účetních a fakturantek, na to vám dnes stačí jediná. Díky EDI, automatickému párování faktur a plateb apod., vám pak účetní řeší denně tak 10 faktur a plateb, zatímco zbývajících 800 se zpracuje "samo".
Podobně plánování nákupu - dnes se používají jen variace na MRP nebo kanban/pojistné zásoby. Na plánovacím oddělení vám zbyli jen dva lidé, kteří dělají kvalifikované odhady na prodej různých výrobků, modelů apod. Těch dalších deset, kteří tyhle "forecasty" přepočítávali na jednotlivé podsestavy, polotovary a komponenty, sestavovali z nich optimální dávky a kalendář dodávek, už tam dávno nepracuje. Jak píšu v prvním odstavci - počítač nedokáže správně sestavit forecast, na to je potřeba člověk. Ale rozpočítat forecast stovek výrobků podle kusovníků na komponenty, zvolit optimální výrobní a nákupní dávky, následně naplánovat výrobu a nákup, na to už díky počítači nepotřebujete člověka ani jednoho.
Další věc pak je, že se dá "nekvalifikovaná" práce předat někomu jinému. Takže i když třebas nemáte EDI a faktury musíte opisovat ručně, tak se vám o to postará i někdo se mzdou výrazně nižší, než kolik by stála účetní. Těmhle pozicím se pak říká "data entry" a je to ideální práce pro brigádníky.
To jako sorry, ale na VŠ jsem si hrál s Fourierkou. Na procesoru (8085) to běželo nějakou rychlostí. Kopnul jsem to na jiný, RISC s Harvardskou architekturou a dvojnásobnou šířkou sběrnice. No a bum ho, ukázlo se, že RISC je nadřazen CISCu. No a pak jsem to hodil fo FPGA, prostě pár MAC bloků za sebou a řadič RAMky, nic extra. Ale valilo to přes pipeline bez načítání programu a s trojnásobným taktem. No a ono to bylo zase o 500% nadřazenější tomu RISCu!
Ale mělo to jednu malou slabinu. Pokud o mělo jet univerzálně, stejně se na tom nadřazeným FPGA vyrobil klasický procesor (NiOS u Altery, ARM7 u ProASIC řady od Actelu, MIcro8 nebo Micro32 u Lattice,... ), nebo se dělají FPGA s klasickým CPU (Xilinx Zynq například). Připojila se RAMka, nějka se do toho krmil ještě klasický program a jelo to srovnatelně s klasickým CPU/MCU, jenom větší deska, složitější návrh, vít to žralo (a topilo) a celý to bylo o větších nákladech na vývoj, výrobu i provoz. Tolik k té nadřazenosti.
A nějak si nedokážu představit, proč bych měl mít na přehrávání videa, který dá normálně CPU/GPU, z telky vedený optický kabely do sklepa, kde se bude nějaké potvora s topit v tekutým héliu a pálit 10kW, aby simulovala dnešní Cortex A53 na 800MHz.
"A nějak si nedokážu představit, proč bych měl mít na přehrávání videa, který dá normálně CPU/GPU, z telky vedený optický kabely do sklepa, kde se bude nějaké potvora s topit v tekutým héliu a pálit 10kW, aby simulovala dnešní Cortex A53 na 800MHz."
V roku 1950 si tiez nedokazali predstavit, ze "potvoru" so spotrebou mensieho mesta, ktora vyzaduje klimatizovanu salu, armadu technikov okolo a jej doba bezporuchovej prevadzky neprekrocila niekolko hodin, raz bude nosit vacsina ludi (a to dokonca aj v rozvojovych krajinach) vo vrecku.
To nikomu neberu. Jenom říkám, že ta "technologická nadřazenost" je relativní. Plno věcí se dá vyřešit líp i bez klasickýho CPU, třeba zpracování signálu - proženu to analogově operákem, nebo pipeline v zadrátované logice a je to pro danou úlohu kolikrát lepší řešení, než to louskat v software. Minulý měsíc jsem navrhoval nějaký nový HW, neměl ani procesor v žádné formě a celý zařízení jede na analogu. Schéma hotovo za den (stejně dlouho, jako počítání, sebere rozložení vývodů na jednočipu a jeho výběr), deska za den (funkční bloky se drátují líp, než kličkovat kolem jednoho velkýho brouka), dva dny dokumentace, 0 dní software. Zpracování signálu to zvládne za 0.27us.
Procesor - HW za stejnou dobu + 3 dny programování a z toho, co jsem našel ve skladu, by vypadl výsledek za cca 0.1ms. 60ks je u zákazníka a plná spokojenost, analog vyhrál na celé čáře. Ale řídit tímhle způsobem třeba grafický displej, nebo ládovat komunikační linku přes pár desítek hradel řady 74xxx bych už fakt nechtěl.
Problémů s kvantovkou je celá řada, hlavně to není univerzální, má to obrovskou chybovost, přehřeje se to i při teplotě pod 10K, potřebný předělání všech algoritmů,... I kdyby tohle všechno nějak zlomili, tak budu raděj, když při žádosti o důchod vrátí klasická SQL za 10s "tento člověk platil sociální X let a zaplatil Y Kč", než když kvantová obluda vybleje za 0.001s "S pravděpodobností 52% tenhle člověk opravdu existuje, platil sociální X+/-350 let a s 20% pravděpodobností zaplatil Y+/-20%" . Taková odpoveď je totiž pěkně na houby, když je v zákoně jasně daná hranice a díky kvantové obludě ji současně splňuješ i nesplňuješ a pro systém jsi i nejsi současně. A ve volbách vyhraješ i nevyhraješ současně, povinný ručení máš zaplacený s pravděpodobností 30%, i když jsi před třemi týdny posílal složenku,... No a s 30%ní pravděpodobností pračka bude napřed ždímat a potom se hned spustí předpírka. A v lednici pivo současně bude i nebude, to se dozvíš až po jejím otevření přesně jako před 20 lety. Dík za ty kvantový dary.
A po pravdě, když vidím pokroky v supravodičích za poslední roky (věčně omílaný "Do pěti let najdeme slitinu, která je supravodivá při pokojové teplotě"), jadernou fúzi, která už 80 let bude použitelná za 50 let, thoriový cyklus,... Že se to náhodou povedlo u "klasických" počítačů ještě neimplikuje, že se to povede všude.
> A nějak si nedokážu představit, proč bych měl mít na přehrávání videa, který dá normálně CPU/GPU, z telky vedený optický kabely do sklepa, kde se bude nějaké potvora s topit v tekutým héliu a pálit 10kW, aby simulovala dnešní Cortex A53 na 800MHz.
Myslím, že to přirovnání dost kulhal. Dnes jsou normálně k dispozici notebooky, které mají dvě grafárny ( nebo jednu ze dvou části), která je schopna podle potřeby se přepínat. Na video a kancelářskou práci jede odlehčená nízkoenergetická, v případě náročné hry se to přepne do nabušené a nenažrané.
To, že budeme mít k dispozici specializovaný výkon kvantových počítačů asi nebude znamenat zánik těch klasických. Stejně jako v dnešní době 64bitovejch mnoho jadrovejch potvor se stále vyrábí a prodávají osmi- a dokonce čtyř- bity.
Tak nevím za mne je to jednoznačně převaha viz níže... Kdyby googlu nevypadl jeden qbit, bylo by to dvě na padesátou čtvrtou. Takový počítač se už na planetě zvané Země nenachází a jen tak nacházet nebude (18PB) , nehledě na to, že s přidáním každého dalšího se náskok zdvojnásobuje, čtyřnásobuje, osminásobuje...
Za pár měsíců až se představí např. 100QBit počítač jej už nikdo konvenčně nedokáže překonat. Rozdíl bude zničující. Naprostá nadvláda. To co takový počítač spočítá za desítky sekund, klasický počítač nespočítá nikdy... nekonečno.
Další důležitá informace je, že vývojáři dle vlastních slov "vidí cestu". To co bylo dříve z říše fantazie, a nikdo moc netušil jak na to už dnes dává smysl. Vědí jak pokračovat. Mají hromady peněz...
Už chystejte kvantové šifry... Všichni kdo mají rozum (bezpečností agentury) začali nahrávat komunikaci.
Citace:
IBM má na mysli jeden konkrétní počítač, a to Summit v Oak Ridge National Lab, který je v současnosti nejsilnějším počítačem na světě (cca 200 petaflopů) a který – což je v tomto případě extrémně důležité – má také úložiště o velikosti 250 petabytů. Do takového úložiště se (zjednodušeně řečeno) vejde úplný výpis všech možných stavů kvantového 53bitového čipu Sycamore, který Google použil. Díky tomu může pracovat rychleji, než předpokládala simulace.
Zdroj: https://www.idnes.cz/technet/veda/kvantova-dominance-nadrazenost-supremacy.A191026_090209_veda_mla
29. 10. 2019, 21:48 editováno autorem komentáře
Ta soustava 53 (54) qbitu ale neni zcela uniformni - nektere qubity se ovlivnuji vice a nektere mene. A to, co vlastne ten experimentalni kvantovy cip vlastne svym "vypoctem" predvedl (spis rekneme, behem dokazal) je, ze ta distribuce vzajemnych vlivu je presne takova, jaka se teoreticky ocekava.
Takze vase hypoteticka narocnost na "18PB", je jen z pohledu simulace onoho kvantoveho udelatka. Nesouvisi to s praktickou vypocetni kapacitou vseobecne univerzalniho kvantoveho pocitace.