-
- Какая интересная статья. Спасибо. - SciFi(Сегодня, 14:44)
- Концептуальная, я бы сказал! :-) - _volkanaft_(Сегодня, 14:51)
- Странно, лингвисты об этом говорят уже лет 5. О том, что язык это
чистая нейронка, без теории. Точнее существующая теория может
объяснить существующие закономерности языка, а предсказать не
может. Сейчас, упрощенно, старые лингвисты объясняют это так - 1.
человек мыслит "образами", 2. с помощью "кривого" речевого аппарата
переводится в звуки, 3. еще кривее переводится в буквы 3. Потом,
ВДРУГ КАРЛ, вставляется какая-то теория и переводится и все обратно
в образы другого Anvar(143 знак., Сегодня, 14:23)
- Наоборот! _volkanaft_(229 знак., Сегодня, 14:35)
- Мне нравится, как мистер Чомски у нас называется Хомским. Всё-таки
"Чомски" - слишком несерьёзная фамилия для такого солидного дедушки
:-) - SciFi(Сегодня, 14:10)
- Все проще, Чомски для русского речевого аппарата слишком затратно в
калориях и нейронах. Попробуйте найти русские слова начинающиеся на
слог чом. А их отсутствие означает, что надо целый нейрон на
произношение этого чередования звуков - Anvar(Сегодня, 14:28)
- Зачем же тогда Шерлок Холмс? Вот где затраты. Лучше Хомс, было бы
гораздо ближе к оригиналу. - SciFi(Сегодня, 14:30)
- Вам не знакомо русское слово "холм"? - Anvar(Сегодня, 14:51)
- Заявки ещё принимаются? Нужно сократить его до "хом", если вам интересно моё мнение :-) - SciFi(Сегодня, 15:00)
- Вам не знакомо русское слово "холм"? - Anvar(Сегодня, 14:51)
- Зачем же тогда Шерлок Холмс? Вот где затраты. Лучше Хомс, было бы
гораздо ближе к оригиналу. - SciFi(Сегодня, 14:30)
- Все проще, Чомски для русского речевого аппарата слишком затратно в
калориях и нейронах. Попробуйте найти русские слова начинающиеся на
слог чом. А их отсутствие означает, что надо целый нейрон на
произношение этого чередования звуков - Anvar(Сегодня, 14:28)
- И опять всевышний оказался на стороне большого батальона. Как
мерзко. - Kpoк(Сегодня, 13:30)
- ИИ работает на статистическом предсказании. Но без обратной связи предсказание слишком утрируется и скатывается в тупиковые ветки. Когда люди ржали над переводчиком Гугля, который позволял корректировать переводы, то на самом деле, устаривая флеш-мобы с "неправильным переводом", участвовали в обратной связи статистики "попаданий". Предсказание с помощью моделирования тоже имеет место быть, но проблема в том, что модель должна быть модифицируемой обратными связями reZident(1 знак., Сегодня, 14:43)
- Какая интересная статья. Спасибо. - SciFi(Сегодня, 14:44)