чёт, оффтопом загадили соседнюю тему (
viewtopic.php?f=5&t=1845&start=120 ), поэтому напишу здесь. тут в соседней теме про приём данных идёт обсуждение точности этих самых 600мс, 1200мс и т.д. в качестве примера - реальная картинка с лог. анализатора (уже светилась на этом форуме). первый канал - щуп на ноге тсопа, нулевой - на ноге ик-диода. и в выделении видно как лагает тсоп (смещение данных с канала), плюс какова его точность (длинна выбранного периода). файлик датирован июлем 2011г. но, если надо, могу переснять (на этом примере чёт большая какая-то погрешность - 20мс.). общий смысл примерно в том, что тсоп ждёт тактов 10, только потом начинает передавать. и погрешность в длине периода всегда немного разная. хз, от чего она зависит, может, от освещённости?
т.ч. даж если мы наговнокодили в прерывании 200тактов при 8МГц, то это 1/40000 секунды = один лишний зубчик в передаче. лучше уж в прерывании укладываться тактов в 10-20 и заняться более важными вещами. imho, конечно (ну, кроме данных). если кто-нить снимет, что выдаёт тсоп на границе чувствительности - было бы круто. можно былоб понять что за помехи надо учитывать, чтоб дальность повысить.