ВходНаше всё Теги codebook 无线电组件 Поиск Опросы Закон Вторник
23 декабря
1561525 Топик полностью
SciFi (Сегодня, 10:52, просмотров: 33) ответил 3m на Нет, в лоб не получится - не хватит размера контекста. Разбивайте программу на части и давайте задание AI создать описание, для каждого компонента отдельно.
Клевещут, контекст 1М токенов - это 75000 строк кода. Если как-то в этот объём поместиться, что-то можно попробовать. При этом LWIP туда пихать не нужно, модель вроде бы должна была в обучении всё это видеть. 

https://claude.com/blog/1m-context

ส็็็็็็็็็็็็็็็็็็็็็็็็็༼ ຈل͜ຈ༽ส้้้้้้้้้้้้้้้้้้้้้้้