Ну вот, по вечерам уже месяц понемногу систему управления пишу. Да
чтобы сформулировать, как мне из одной огромной структуры
преобразовать данные в другую, я больше времени потрачу, чем сам
напишу. А недавно хотел от него получить оптимальный алгоритм морфологических операций - эрозии и дилатации. Он мне такую пургу нес... Там не то, что аж миллисекунду, как у меня, потратишь на 16Мп изображение, а все 50! А меж тем, мне нужно вообще весь цикл обработки свести к 20мс максимум (50Гц хочется, типа, почти адаптивная оптика). Как только я заикнулся, что надо работать с бинаризованным битовым изображением, оно мне выдало пару старых статей и сказало, типа, сам пиши :)