2 Paul_II
Причем как его увеличение, так и его уменьшение уводит от правильного вида восстановленную кривую.
Если я правильно помню, то теорема говорит что есть такой шаг дискретизации при котором можно восстановить исходную недискретную функцию с заданной точностью, уменьшение шага не "уводит" ф-ю от правильного вида, но при уменьшении шага возрастают затраты ресурсов - например вырастают требования к полосе пропускания для передачи данных , быстродействие процессоров для обработки и т.д.
Т.е. все хорошо в меру
Согласен