ЛН
-
- float8 это практически логарифмический тип, имеющий хорошую точность на низах и большой диапазон в 8 байтах. Просто почитал про минифлоаты и стало интересно. Применение - запись звука, изображения. там, где абсолютная точность не требуется. - michas(04.12.2018 16:29)
- Смысл в энергопотреблении железного перемножителя флоатов за 1 такт. - PlainUser(04.12.2018 15:15)
- Для 8 бит, самото. Ух как я на АВРке флотопойнтил! ;О) Правда, у меня мантисса была 16 бит. Но то такэ... - mse homjak(04.12.2018 11:39)
- Смысл тот, что для ИИ высокая точность не нужна - достаточно float16, а в наборе инструкций "AVX-512 Vector Neural Network Instructions (VNNI) - vector instructions for deep learning" в векторный регистр длиной 512 бит поместится таких флоатов аж Ксения(124 знак., 04.12.2018 04:10 - 04:19, ссылка)
- +1 - Codavr(04.12.2018 04:25)