Nejlepší odpověď HaLuMa , 24 říjen 2017 - 7:13
Tohle jsou navic jeste prkotiny. Informace o limitech se daji zjistit z API. Horsi je to s pouzitim v praxi. Jen si predstav tuto situaci:
- Spustis neco, co potrebuje 20 volani API. Je duvod to zdrzovat? Proc? 20 volani se do limitu hrave vejde, proc to neudelat maximalne rychle a uzivatele zdrzovat?
- Pak hned uzivatel spusti neco, co potrebuje take dvacet volani. Samo o sobe zase neni duvod to zdrzovat. Jenze zalezi na tom, kolik toho bylo volano pred tim, v teze minute.
- Kazda API operace neco trva. Kazda jinak. To samo o sobe vytvari nejake to zpomaleni.
A ted si to cele zkomplikuj tim, ze ne vzdy dopredu tusis, kolikrat bude potreba to API volat. Nekdy to nevis, protoze pracujes stylem "jeste to neni vsechno? Tak mi daj dalsi stranku udaju...".
K tomu navic k obecnemu limitu X volani za minutu maji nektere konkretni funkce sve individualni limity.
Takze:
- K obecnemu zpomalovani "o neco" neni duvod, jsou operace, ktere by tozbytecne zpomalilo.
- rozhodovani, jestli a kdy zpomalit, je zavisle na tolika faktorech, ze by se kolem toho musel vystavit pomerne slozity aparat. To se nevyplati.
- Kdyz se to vezme kolem a koukolem, tak soucasny system je jednoduchy na implementaci, a z hlediska celkoveho casu vychazi i vcelku efektivne.
Nejak nemuzu prijit na to, proc by navrhovany brzdeny system mel byt lepsi?
Přejít na celý příspěvek