Evgeny_CDАрхитектор (10.06.2023 03:45, просмотров: 79) ответил Evgeny_CD на Я так понял следующее. Есть коды, 100% исправляюще все ошибки
некоторого количества битов в слове. Круто, но за это надо платить
либо избыточностью, либо сложностью декодера. Переходим к
вероятностному подходу. Синтезирируем код, который исправляет не
все ошибки при заданном их количестве, но вероятность неисправимых
комбинаций очень мала, их буквально можно подсчитать, эти
неисправимые ошибки. Получаем очень хороший баланс между
корректирующей способностью, избыточностью и
Тот же подход используется при ортогональном кодировании LPDC
кодами. Там частно используют для одного кодирования канонический
код Хемминга, например (12,8), а второй код делают укороченный.
Так, например, в ePMR сделано. И вроде в DMR тоже. Укороченный код
он не все может исправить, но вероятность неисправимых комбинаций
мала. За счет сокращения скорости энергия на бит растет, и это
очень хорошее ECC кодирование.