1. Изо всех сил стараюсь не кормить троллей. 2. Продаю импортные ЭК - https://shop.fulcrum.ru/buy
-
- ИИ который умел только генерировать правдоподобные тексты теперь
рисует правдоподобные схемы. Гигантский прогресс. ;)) - ЫЫyкпy(Сегодня, 07:53)
- Сейчас это выглядит смешно, как раньше смеялись над первыми
текстами или рисунками, которые генерили ИИ. Теперь уже не так
громко смеются. У генерации схем с помощью ИИ есть большой
потенциал: количество разных элементов (резисторов, конденсаторов,
транзисторов, ...) очень ограничено, в сравнении с количеством
слов, плюс есть программы типа SPICE, которые могут проверять что
получилось. В итоге, обучение ИИ составлению схем может идти очень
эффективно, и на выходе у него AlexBi(97 знак., Сегодня, 09:15)
- Я полный баран в этой теме. Задал Дипсику вопрос о частотной компенсации цепи ООС LLC преобразователя. На что он выдал мне довольно развернутое текстовое описание предварительного и более точного расчета, ссылаясь на схему в каком-то документе Ti, на который дал ссылку. Но по этой ссылке ничего нет, документ давно удалили или переименовали. Без рисунков и графиков воспринимать даже правильно написанный текст сложно, а ведь он может быть еще и неправильным... Чувствую себя Yurasvs(93 знак., Сегодня, 12:41)
- Давайте все таки называть их БЯМ (LLM). И надо понимать, что это
пока суперсправочник. И соответственно первый цимус это минимизация
ошибок в решении, особенно в рутинных местах. Но что многие не
осознают, главный цимус БЯМ не в этом, а возможность диалога с БЯМ,
который на порядки ускоряет поиск решения по сравнению с обычным
подбором/перебором поисковых запросов в поисковых системах. И если
вы это понимаете, то БЯМ это очень мощный инструмент - Anvar(Сегодня, 09:28)
- Причем тут LLM.. это лишь молоток.. или даже не так - это законы
природы, которые надо уметь использовать. Решает все прокладка,
например, чат. Или иной более продвинутый инструмент. - POV(Сегодня, 09:54)
- что такое чат? - Anvar(Сегодня, 11:08)
- То, через что общаешься с ИИ. И это простейший инструмент
подсовывания (указания?) нейросетке нужных параметров. И над чатом
еще есть надстройки, типа Copilot, Cursor (для программирвоания) и
т.п. - они ж всё делают, а не сама нейросеть. Чисто нейронка
столько бы не наработала. - POV(Сегодня, 11:13)
- Продолжаю осваивать ИИ. Месячная подписка на Copilot кончилась.
Установил Opencode, купил подписку на Z.ai Coding Plan Lite. Там
есть модель GLM-4.7, про неё говорят вполне приличная и недорого.
Задал вопрос про один из своих загрузчиков, там была старая
проблемка, которая мало напрягала, но тем не менее. Он пошарил по
исходникам пару минут, покумекал, и указал на корень проблемы,
предложив решение. Работает, кароч. - SciFi(Сегодня, 11:27)
- Можно узнать почему отказались от Copilot в пользу Opencode? Вроде как и Opencode и Copilot являются в каком-то смысле интерфейсами для разных LLM (можно выбрать с чем работать), только Copilot хорошо интегрирован в VSCode, а Opencode какой-то свой "терминальный" интерфейс. По стоимости они вроде как идентичны. - AlexBi(Сегодня, 12:44)
- Один проектишко в спешке допиливаю. Изначально код весь мой до буковки. Но тут две прошивки в одну надо сливать, программно режимы переключать. Рискнул болвану поручить... POV(168 знак., Сегодня, 11:38)
- Я же говорю большинство не понимает. Интерфейс, не обязательно с
человеком, является неотъемлемой частью БЯМ. Без выдачи результатов
БЯМ бессмысленна. У нее именно, что не тупой чат-бот с набором
паттернов. Она способна вести диалог, понимать контекст,
подстраиваться под собеседника, в зависимости от степени его
тупости. Именно это второй и главный цимус, ее способность понимать
твои запросы. - Anvar(Сегодня, 11:19)
- LLM помогает (обеспечивает) вести общение. Но не она сама заадчу
решает. - POV(Сегодня, 11:25)
- в смысле не она? Спроси у своей она LLM или нет? - Anvar(Сегодня, 11:30)
- LLM типа болталка. Человечкую речь формализует так что бы робот мог
какбы размышлять. Но решение (нарисовать схему, написать прогармму)
делает не LLM. - POV(Сегодня, 11:40)
- Я так понял, LLM - это и есть "думалка". Ей дают на входе текст,
она "думает" и выдаёт текст на выходе. "Агент" не думает, он
подготавливает входной текст для LLM по чётким алгоритмам. Он же
парсит выходной текст и вылавливает оттуда инструкции для агента и
исполняет их (редактирование файлов, запуск тулзов и т.д.). Ну и
всё это вместе кружится в хороводе и порой создаёт нетривиальные
вещи. - SciFi(Сегодня, 11:44)
- Как я прочитал, и я примерно так и размышлял, нейросетка не
фиксированная - ей подгоняют параметры (условно - веса нейронов)
согласно тому как понята задача. LLM что-то поняла, вытянула набор
подходящих параметров на каждом этапе решения задачи - далее сетка
уже выдает эти частные решения... POV(221 знак., Сегодня, 11:49)
- Говорят, веса (те самые миллиарды параметров) фиксированы. И есть
"контекст" порядка 100 тыс. токенов (плюс-минус, в зависимости от
модели). Вот что в контексте поместилось, на основании этого оно и
думает. Там и исходники, и история чата, и запросы, что мы от него
хотим. Новый чат - пустой контекст. - SciFi(Сегодня, 11:53)
- Ключевое в обмене мнениями "говорят" )) "Роботы делают роботов, а
люди не понимают как работы фукнционируют" (с) Азимов - POV(Сегодня, 12:20)
- С прикладной точки зрения важно понимать, как управлять контекстом, чтобы машина не теряла нить в самый неподходящий момент. Там бывает автоматическое сжатие контекста: когда он близок к исчерпанию, ИИ делает немногословный пересказ из более старой порции контекста. Это не секрет, всё это легко гуглится. - SciFi(Сегодня, 12:39)
- Ключевое в обмене мнениями "говорят" )) "Роботы делают роботов, а
люди не понимают как работы фукнционируют" (с) Азимов - POV(Сегодня, 12:20)
- Говорят, веса (те самые миллиарды параметров) фиксированы. И есть
"контекст" порядка 100 тыс. токенов (плюс-минус, в зависимости от
модели). Вот что в контексте поместилось, на основании этого оно и
думает. Там и исходники, и история чата, и запросы, что мы от него
хотим. Новый чат - пустой контекст. - SciFi(Сегодня, 11:53)
- Как я прочитал, и я примерно так и размышлял, нейросетка не
фиксированная - ей подгоняют параметры (условно - веса нейронов)
согласно тому как понята задача. LLM что-то поняла, вытянула набор
подходящих параметров на каждом этапе решения задачи - далее сетка
уже выдает эти частные решения... POV(221 знак., Сегодня, 11:49)
- Я так понял, LLM - это и есть "думалка". Ей дают на входе текст,
она "думает" и выдаёт текст на выходе. "Агент" не думает, он
подготавливает входной текст для LLM по чётким алгоритмам. Он же
парсит выходной текст и вылавливает оттуда инструкции для агента и
исполняет их (редактирование файлов, запуск тулзов и т.д.). Ну и
всё это вместе кружится в хороводе и порой создаёт нетривиальные
вещи. - SciFi(Сегодня, 11:44)
- LLM типа болталка. Человечкую речь формализует так что бы робот мог
какбы размышлять. Но решение (нарисовать схему, написать прогармму)
делает не LLM. - POV(Сегодня, 11:40)
- в смысле не она? Спроси у своей она LLM или нет? - Anvar(Сегодня, 11:30)
- LLM помогает (обеспечивает) вести общение. Но не она сама заадчу
решает. - POV(Сегодня, 11:25)
- Продолжаю осваивать ИИ. Месячная подписка на Copilot кончилась.
Установил Opencode, купил подписку на Z.ai Coding Plan Lite. Там
есть модель GLM-4.7, про неё говорят вполне приличная и недорого.
Задал вопрос про один из своих загрузчиков, там была старая
проблемка, которая мало напрягала, но тем не менее. Он пошарил по
исходникам пару минут, покумекал, и указал на корень проблемы,
предложив решение. Работает, кароч. - SciFi(Сегодня, 11:27)
- То, через что общаешься с ИИ. И это простейший инструмент
подсовывания (указания?) нейросетке нужных параметров. И над чатом
еще есть надстройки, типа Copilot, Cursor (для программирвоания) и
т.п. - они ж всё делают, а не сама нейросеть. Чисто нейронка
столько бы не наработала. - POV(Сегодня, 11:13)
- что такое чат? - Anvar(Сегодня, 11:08)
- Причем тут LLM.. это лишь молоток.. или даже не так - это законы
природы, которые надо уметь использовать. Решает все прокладка,
например, чат. Или иной более продвинутый инструмент. - POV(Сегодня, 09:54)
- Это вряд ли. Для кодинга есть гигантский объём материала для
обучения, вот там и есть результаты. Со схемами ничего похожего
нет. Человеки (не все, конечно) могут обучаться на гораздо меньшем
объёме материалов, чем современный ИИ. Ну, может, это ещё
изменится. - SciFi(Сегодня, 09:23, +1)
- ++ Eddy_Em(142 знак., Сегодня, 10:02)
- Я-то как раз не сомневаюсь. Просто не сейчас, чуть позже. - SciFi(Сегодня, 10:05)
- просто методика будет другая. спецязык для описания задачи и
результат в виде какого-то специфического нетлиста. В общем все
будет по другому как-то. И даташиты будут как библиотеки бинарные. - ГocтьИзБyдyщeгo(Сегодня, 10:57,
)
- Да уже играются с формализацией запросов в JSON формате. - =AlexD=(Сегодня, 12:12)
- просто методика будет другая. спецязык для описания задачи и
результат в виде какого-то специфического нетлиста. В общем все
будет по другому как-то. И даташиты будут как библиотеки бинарные. - ГocтьИзБyдyщeгo(Сегодня, 10:57,
- Я-то как раз не сомневаюсь. Просто не сейчас, чуть позже. - SciFi(Сегодня, 10:05)
- ++ Eddy_Em(142 знак., Сегодня, 10:02)
- Сейчас это выглядит смешно, как раньше смеялись над первыми
текстами или рисунками, которые генерили ИИ. Теперь уже не так
громко смеются. У генерации схем с помощью ИИ есть большой
потенциал: количество разных элементов (резисторов, конденсаторов,
транзисторов, ...) очень ограничено, в сравнении с количеством
слов, плюс есть программы типа SPICE, которые могут проверять что
получилось. В итоге, обучение ИИ составлению схем может идти очень
эффективно, и на выходе у него AlexBi(97 знак., Сегодня, 09:15)
- ИИ который умел только генерировать правдоподобные тексты теперь
рисует правдоподобные схемы. Гигантский прогресс. ;)) - ЫЫyкпy(Сегодня, 07:53)