Жизнь есть способ борьбы белковых тел со вторым началом термодинамики.
-
- Сейчас это выглядит смешно, как раньше смеялись над первыми
текстами или рисунками, которые генерили ИИ. Теперь уже не так
громко смеются. У генерации схем с помощью ИИ есть большой
потенциал: количество разных элементов (резисторов, конденсаторов,
транзисторов, ...) очень ограничено, в сравнении с количеством
слов, плюс есть программы типа SPICE, которые могут проверять что
получилось. В итоге, обучение ИИ составлению схем может идти очень
эффективно, и на выходе у него AlexBi(97 знак., Сегодня, 09:15)
- Давайте все таки называть их БЯМ (LLM). И надо понимать, что это
пока суперсправочник. И соответственно первый цимус это минимизация
ошибок в решении, особенно в рутинных местах. Но что многие не
осознают, главный цимус БЯМ не в этом, а возможность диалога с БЯМ,
который на порядки ускоряет поиск решения по сравнению с обычным
подбором/перебором поисковых запросов в поисковых системах. И если
вы это понимаете, то БЯМ это очень мощный инструмент - Anvar(Сегодня, 09:28)
- Причем тут LLM.. это лишь молоток.. или даже не так - это законы
природы, которые надо уметь использовать. Решает все прокладка,
например, чат. Или иной более продвинутый инструмент. - POV(Сегодня, 09:54)
- что такое чат? - Anvar(Сегодня, 11:08)
- То, через что общаешься с ИИ. И это простейший инструмент
подсовывания (указания?) нейросетке нужных параметров. И над чатом
еще есть надстройки, типа Copilot, Cursor (для программирвоания) и
т.п. - они ж всё делают, а не сама нейросеть. Чисто нейронка
столько бы не наработала. - POV(Сегодня, 11:13)
- Продолжаю осваивать ИИ. Месячная подписка на Copilot кончилась. Установил Opencode, купил подписку на Z.ai Coding Plan Lite. Там есть модель GLM-4.7, про неё говорят вполне приличная и недорого. Задал вопрос про один из своих загрузчиков, там была старая проблемка, которая мало напрягала, но тем не менее. Он пошарил по исходникам пару минут, покумекал, и указал на корень проблемы, предложив решение. Работает, кароч. - SciFi(Сегодня, 11:27)
- Я же говорю большинство не понимает. Интерфейс, не обязательно с
человеком, является неотъемлемой частью БЯМ. Без выдачи результатов
БЯМ бессмысленна. У нее именно, что не тупой чат-бот с набором
паттернов. Она способна вести диалог, понимать контекст,
подстраиваться под собеседника, в зависимости от степени его
тупости. Именно это второй и главный цимус, ее способность понимать
твои запросы. - Anvar(Сегодня, 11:19)
- LLM помогает (обеспечивает) вести общение. Но не она сама заадчу
решает. - POV(Сегодня, 11:25)
- в смысле не она? Спроси у своей она LLM или нет? - Anvar(Сегодня, 11:30)
- LLM типа болталка. Человечкую речь формализует так что бы робот мог
какбы размышлять. Но решение (нарисовать схему, написать прогармму)
делает не LLM. - POV(Сегодня, 11:40)
- Я так понял, LLM - это и есть "думалка". Ей дают на входе текст,
она "думает" и выдаёт текст на выходе. "Агент" не думает, он
подготавливает входной текст для LLM по чётким алгоритмам. Он же
парсит выходной текст и вылавливает оттуда инструкции для агента и
исполняет их (редактирование файлов, запуск тулзов и т.д.). Ну и
всё это вместе кружится в хороводе и порой создаёт нетривиальные
вещи. - SciFi(Сегодня, 11:44)
- Как я прочитал, и я примерно так и размышлял, нейросетка не
фиксированная - ей подгоняют параметры (условно - веса нейронов)
согласно тому как понята задача. LLM что-то поняла, вытянула набор
подходящих параметров на каждом этапе решения задачи - далее сетка
уже выдает эти частные решения... POV(221 знак., Сегодня, 11:49)
- Говорят, веса (те самые миллиарды параметров) фиксированы. И есть "контекст" порядка 100 тыс. токенов (плюс-минус, в зависимости от модели). Вот что в контексте поместилось, на основании этого оно и думает. Там и исходники, и история чата, и запросы, что мы от него хотим. Новый чат - пустой контекст. - SciFi(Сегодня, 11:53)
- Как я прочитал, и я примерно так и размышлял, нейросетка не
фиксированная - ей подгоняют параметры (условно - веса нейронов)
согласно тому как понята задача. LLM что-то поняла, вытянула набор
подходящих параметров на каждом этапе решения задачи - далее сетка
уже выдает эти частные решения... POV(221 знак., Сегодня, 11:49)
- Я так понял, LLM - это и есть "думалка". Ей дают на входе текст,
она "думает" и выдаёт текст на выходе. "Агент" не думает, он
подготавливает входной текст для LLM по чётким алгоритмам. Он же
парсит выходной текст и вылавливает оттуда инструкции для агента и
исполняет их (редактирование файлов, запуск тулзов и т.д.). Ну и
всё это вместе кружится в хороводе и порой создаёт нетривиальные
вещи. - SciFi(Сегодня, 11:44)
- LLM типа болталка. Человечкую речь формализует так что бы робот мог
какбы размышлять. Но решение (нарисовать схему, написать прогармму)
делает не LLM. - POV(Сегодня, 11:40)
- в смысле не она? Спроси у своей она LLM или нет? - Anvar(Сегодня, 11:30)
- LLM помогает (обеспечивает) вести общение. Но не она сама заадчу
решает. - POV(Сегодня, 11:25)
- То, через что общаешься с ИИ. И это простейший инструмент
подсовывания (указания?) нейросетке нужных параметров. И над чатом
еще есть надстройки, типа Copilot, Cursor (для программирвоания) и
т.п. - они ж всё делают, а не сама нейросеть. Чисто нейронка
столько бы не наработала. - POV(Сегодня, 11:13)
- что такое чат? - Anvar(Сегодня, 11:08)
- Причем тут LLM.. это лишь молоток.. или даже не так - это законы
природы, которые надо уметь использовать. Решает все прокладка,
например, чат. Или иной более продвинутый инструмент. - POV(Сегодня, 09:54)
- Это вряд ли. Для кодинга есть гигантский объём материала для
обучения, вот там и есть результаты. Со схемами ничего похожего
нет. Человеки (не все, конечно) могут обучаться на гораздо меньшем
объёме материалов, чем современный ИИ. Ну, может, это ещё
изменится. - SciFi(Сегодня, 09:23, +1)
- ++ Eddy_Em(142 знак., Сегодня, 10:02)
- Я-то как раз не сомневаюсь. Просто не сейчас, чуть позже. - SciFi(Сегодня, 10:05)
- просто методика будет другая. спецязык для описания задачи и
результат в виде какого-то специфического нетлиста. В общем все
будет по другому как-то. И даташиты будут как библиотеки бинарные. - ГocтьИзБyдyщeгo(Сегодня, 10:57,
)
- Да уже играются с формализацией запросов в JSON формате. - =AlexD=(Сегодня, 12:12)
- просто методика будет другая. спецязык для описания задачи и
результат в виде какого-то специфического нетлиста. В общем все
будет по другому как-то. И даташиты будут как библиотеки бинарные. - ГocтьИзБyдyщeгo(Сегодня, 10:57,
- Я-то как раз не сомневаюсь. Просто не сейчас, чуть позже. - SciFi(Сегодня, 10:05)
- ++ Eddy_Em(142 знак., Сегодня, 10:02)
- Давайте все таки называть их БЯМ (LLM). И надо понимать, что это
пока суперсправочник. И соответственно первый цимус это минимизация
ошибок в решении, особенно в рутинных местах. Но что многие не
осознают, главный цимус БЯМ не в этом, а возможность диалога с БЯМ,
который на порядки ускоряет поиск решения по сравнению с обычным
подбором/перебором поисковых запросов в поисковых системах. И если
вы это понимаете, то БЯМ это очень мощный инструмент - Anvar(Сегодня, 09:28)
- Сейчас это выглядит смешно, как раньше смеялись над первыми
текстами или рисунками, которые генерили ИИ. Теперь уже не так
громко смеются. У генерации схем с помощью ИИ есть большой
потенциал: количество разных элементов (резисторов, конденсаторов,
транзисторов, ...) очень ограничено, в сравнении с количеством
слов, плюс есть программы типа SPICE, которые могут проверять что
получилось. В итоге, обучение ИИ составлению схем может идти очень
эффективно, и на выходе у него AlexBi(97 знак., Сегодня, 09:15)