AGI.place

Форум создателей искусственных интеллектов


Логин (email) 
Пароль 
Настройки

Сообщения участника "AlexPar"
1
2
3
create
AGI как агент с искусственной системой гомеостаза
08:11 09.07.2024 №10016
Влад:
Т.е. в самом сухом остатке, Вы разрабатываете некую разновидность системы (само)управления механизма?
Самоадаптирующуюся систему.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
08:34 09.07.2024 09:12 09.07.2024 №10019
Prosolver:
Сам раньше так думал, но это ошибка. Гомеостаз призван выполнять исключительно биологическую роль - сохранение целостности организма. Но интеллект паразитирует на этом целостном организме, он использует эту целостность как базу и выводит организм из гомеостаза для достижения своих, совершенно чуждых биологии целей. Поэтому интеллект не только не выводится из гомеостаза, он прямо ему противоречит.
Интеллект всего лишь инструмент, которым пользуется сознание для достижения своих субъективных целей. Это просто калькулятор разной степени крутости у разных существ. Если вы будете на нем решать глупые задачи, при чем тут его математические функции? Субъективные цели ставятся на основании субъективной значимости, которым могут перекрывать гомеостатические. Теперь боль, преодолевать страх, сдерживать ярость - все это становится возможным только при абстрагировании от первичной гомеостатической значимости, поэтому субъективная значимость перекрывает гомеостатическую. А если кто то найдет в этом субъективное удовольствие и займется мазохизмом - это его проблемы, а не механизма.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
08:34 09.07.2024 №10020
Luarvik.:
AlexPar:
Это будет живое существо, с которым придется договариваться, а не указывать.
Будет ли размножаться Ваше т.н. "существо" ?
Сейчас это не актуально, но при желании можно организовать.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
09:46 09.07.2024 №10023
Egg:
AlexPar:
Поэтому как сеть будет адаптироваться, зависит от того, что в нее закачают, и мало зависит от алгоритмов сети. В живой реализации зависимость начинается с гомеостаза, на которую потом наворачивается культурный слой.
Не согласен. Да, сеть - это универсальный алгоритм создания алгоритмов. Иными словами - адаптивная универсальная машина Тьюринга. А Языковые Модели - это не просто сеть, это сеть, способная моделировать реальность, стоящую за корпусом токенов. И совершенно неважно, что это за корпусы, китайской ли литературы или видеопотоки камеры. В этом смысле LLM не зависят от данных, поскольку имеют дело с реконструируемой реальностью. У человека ровно также, "гомеостаз и культурный слой" нужны для того, чтобы построить свой индивидуальный семиотический процессор мышления.
Как она моделирует, можете рассказать в общих чертах?
0 | 0
create
AGI как агент с искусственной системой гомеостаза
12:01 09.07.2024 №10027
Egg:
Основная идея заключается в том, что по поведению имени (слова) в тексте мы можем судить о смысле, который это имя адресует. Грубо говоря, если кошка пьет воду и собака пьёт воду, значит есть такой смысл как "собака и кошка имеют рот", "существует жидкость", "жидкость можно пить", "животные испытывают жажду", "если будет много жидкости - то это океан" и так далее.
Я так понимаю, вы бы из структуры кадров ЭП выкинули свойство "Эффект" как ненужный. В самом деле: воробей летает, ворона летает, корова не летает. Если дать эту инфу для обобщения LLM, она быстро обнаружит, что у вороны и воробья есть крылья, а у коровы нет - в этом причина, почему она не летает. Зачем тут какая то значимость? Для таких обобщений не нужна. А для того, чтобы LLM задалась таким вопросом, почему корова не летает и захотела разобраться нужна. Вы все время забываете, что пока нейронку не спросят, она не ответит. Нет у нее целей и желаний, только алгоритмы. Она не может сама возбуждаться и чем то интересоваться. Конечно, можно заложить алгоритм, чтобы в режиме тишины она продолжала барабанить свои тарабайты, но опять же: в каком порядке? Снова нужен алгоритм сортировки по какому то признаку. Я понимаю, куда вы клоните: добавляя все больше исходных данных и погружаясь все глубже в обобщения теоретически можно докопаться до всех тонкостей человечьей культуры и создать практически не отличимую от человека по внешним проявлениям машину. Она будет в тему смеяться, плакать, врать, выдумывать какие то цели и добиваться их - все как у людей. После того как она пережует всю человечью культуру. Но это по прежнему будет машина, лишенная субъективного мнения, вместо него - коллективный опыт огромного кол-во людей. Ребенок не перелопачивает столько инфы, чтобы научиться отличать кошек от собак потому, что он с первого же стимула может определить, стало ему лучше или хуже при контакте с объектом. Поэтому он быстро узнает кошку не по миллиону признаков, а по тем, которые привлекли внимание и стали для него значимы, и их совсем немного.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
15:18 09.07.2024 №10030
Luarvik.:
И из чего следует, что жизнь с потомством лучше жизни без потомства?
Luarvik.:
Разве Вы назовёте жизнь некоего существа ущербной, если оно, противостоя агрессивной среде и полагаясь лишь на свой ум и сообразительность, живёт вполне себе сытую и довольную свою собственную жизнь, ни с кем ею не делясь?
Я не про жизнь существа, которое в любой момент может выпрыгнуть в окно, если захочет, а про жизнь как одну из форм существования. Она возможна только при наличии определенных стилей реагирования, среди которых есть репликация. Без нее невозможна эволюция живых существ.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
15:47 09.07.2024 №10031
Prosolver:
В одних местах Вы говорите, что все значимости следуют из гомеостаза, в других местах Вы говорите, что значимости могут "перекрывать" гомеостатические, но тогда неясно, что явилось источником этих значимостей.
Основа субъективной значимости это гомеостатическая, но это не значит, что вы задаете мне вопросы а я отвечаю на них потому, что где то что то переклинило в гомеостазе. И тем не менее, он и в этом участвует. Текущее настроение основывается по умолчанию на текущем базовом состоянии Плохо/Норма/Хорошо. Текущий эмоциональный фон аналогично вырастает из базовых контекстов (стилей реагирования). При работе с памятью возникают эмоциональные переживания, которые с одной стороны просто возникают, когда прикидываешь варианты событий, и потому вопрос, зачем они нужны, не стоит. А с другой - они создают возмущения в общей инфо-картине восприятия. И тогда они нужны - как иначе вырваться из гомеостатического контекста и сделать например шаг назад, потерпеть боль, чтобы затем прыгнуть вперед за ништяком. Нет эмоций - нет "помех" - работает гомеостатическая значимость. Началось мышление - появились эмоции - возникли "помехи", теперь гомеостаз уже не главный барабан в оркестре, включились скрипки.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
16:07 09.07.2024 00:47 10.07.2024 №10032
Egg:
Это неверное представление. По трём серьезным причинам. Во-первых, нейронка имеет ЭТАП ОБУЧЕНИЯ, офигенный по сложности, длительности и недокументированным в среде журналистов приёмам. Можете вполне считать, что она интересуется и возбуждается именно в этот момент. Во-вторых, вас ведь не раздражает, что вся макрофизика и бытовая техника основана на десятке законов, которые ничем не интересуются и совсем не возбуждаются, однако, работают))) В-третьих, как только вы задаете контекст, нейронка может начать интересоваться, возбуждаться и менятся. Собственно, хранить контекст общения - это самый простой способ обратной связи.
Есть ведь разница: смотреть как горит огонь, и самому гореть в нем. Он вроде в обоих случаях просто горит - а разница колоссальная. Не для огня. А того кто смотрел и теперь вот жарится в нем. Поэтому не корректно просто так сказать: "можете считать, что нейронка возбуждается". Возбуждение - это несколько другое. Это субъективное. Вы подменяете понятия, приравнивая имитацию действия с реальным действием - и потому не видите разницы. Она не видна, пока вы не становитесь непосредственным участником действия - при условии конечно, что вы не тупой механизм, а порядочный кожаный мешок с гомеостазом.
Egg:
Смешно для AGI или ASI пытаться походить на человека, когда она САМА, по убогим корпусам, строит картины мира. Еще раз, забудьте про человека, это пройденный этап, LLM - это новый эволюционный цивилизационный фронт.
Но строит на основании чего? Данных о человеках: как они воспринимали реальность, что делали в разных ситуациях. Потом обобщает их опыт по алгоритмам, придуманным человеками - и заявляет, что они тут вообще не при чем, это все она сама. Нейронка - это очередная моднявая палка-копалка, превращающая обезьяну с палкой в обезьянопалку. Нейронка без человеков ничто, как оторванный хвост без мартышки. Если обобщить культурный опыт человечества в сверхглубокой LLM и потом заявить, что вот и природа так же обобщала, обобщала - и родила наконец человека, то возникает вопрос: до того момента как родила - он как определял свои нормы поведения? Ведь опыт его предков использовался для обобщения. Если так рассуждать и опускаться все глубже в историю, то выходит, мы обобщили опыт миллионов сумасшедших, их случайные тыки, как те миллион обезьян на пишущих машинках, натыкавших войну и мир. Гипотетически. А практически ничего у них не выйдет, будь их хоть триллион и бесконечность. Чтобы сработало надо, чтобы с самого начала был верификатор, который безо всяких обобщений сразу понимает, что есть правильно/не правильно. Вот тогда получается адекватный опыт, который можно и обобщить. Под эволюцией человека я имею в виду слияние технологий и человека, что приведет к качественно другому виду живого существа, где даже сам процесс эволюции изменится. Это не значит, что будет лучше и или хуже. Ведь даже базовые гомеостатические значимости изменятся, что повлияет на все восприятие реальности. Мы сегодняшние скорее отдалимся в понимании их мотивации, отдалятся ли они от нашего понимания прошлого развития живых существ - думаю, скорее углубятся в области, нам не понятные, как для 2-мерных не понятен мир 3D. А тем станет доступно для понимания много больше. Ваш вариант развития эволюции через нейронки это скорее регресс, чем прогресс. Ведь выкидываются на ненужностью эмоциональные контексты восприятия, играющие принципиально важную роль в мышлении живых существ. Прикручивать эмоции и гомеостаз к нейронке нет никакой необходимости, все что нужно - оптимизировать алгоритмы обучения, чтобы ускорить процесс и удешевить девайс. Но это так и останется придатком человека, а не его эволюцией. Ведь они же в конечном итоге будут верифицировать ответы нейронки. А то, что это приведет к эволюционному тупику, где люди как игрушки, или просто как "читатели" инфы от нейронки, разучившиеся читать - это вполне возможный вариант апокалипсиса. Виды рождаются, эволюционируют и вымирают. Как в машине времени Г. Уэлса: одни тупо работают, другие тупо жрут - и никто не понимает, зачем это все. Просто живут как насекомые.
Egg:
Это противоречит фактам, у меня в ленте где-то даже есть совсем свежая ссылка на то, что ребенок строит персональную модель мира в первый год, а уже затем, поверх нее кладет слои few shot обучения. Инфа ребенка - это архитектура нервной системы и головного мозга, которая перелопачивалась эволюцией в течение миллиарда лет с использованием отбора триллиона носителей. Пустячок такой)))
Тут да, тут я наврал конечно. В первые месяцы киндер отличает только мать, все остальное - просто остальное, всякое разное и непонятное. До сличения кошек и собак еще далеко.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
04:29 10.07.2024 №10037
Egg:
Нет никакой имитации действия, если это действие, а не намерение, если оно совершается как действие и куда-то направлено. Мне показалось, что вы под "возбуждением" понимаете сознание и субъективный опыт. Сделать систему активной несложно, достаточно двух вещей: заложить в нее представление о каком-то идеальном состоянии, которая она должна достичь и запустить процесс переодического сравнения текущего состояния с идеальным. Это не будет сознанием. Но здесь важнее то, что вы никогда не сможете различить, обладает система сознанием или у нее есть механизмы подобной рефликсии. Трудная проблема сознания и состоит в том, что мы не можем объективизировать субъективный опыт переживания, а значит - установить наличие или отсутствие сознания у собеседника.
Да, пардон. Не "имитация действия", а "имитация осознанного действия". Камень катится с горы "куда то", или кто то столкнул его с каким то умыслом, и он куда то покатился. Тут есть разница, хотя финальное действие одно и тоже. По поводу "сравнения текущего состояния с идеальным". На уровне автоматического реагирования так и есть, идет постоянная оценка выполненного автоматизма и определяется стало лучше/стало хуже. На уровне психики уже не так: там понятия хорошо и плохо становятся "плавающими". Это уже переменная, определяемая по умолчанию на основе гомеостатической значимости, но которую всегда можно переписать на основе субъективных представлений. То есть правильнее будет сказать не "сделать систему активной", а "запустить процесс самоадаптации системы". Это да, начинается с прописывания глобальных констант.
Egg:
Нейронная сеть ВООБЩЕ не имеет с человеком НИЧЕГО ОБЩЕГО. Искусственный нейрон - это математическая функция, а не клетка. Нейронная сеть - это гиганский эмерджентный алгоритм, а не живое существо. В процессе создания интеллекта нам, создателям ИИ, не требуется гипотеза о том, что существует разумная обезьянка без шерсти, которая мнит себя вершиной эволюции вселенной. Да, в качестве источника данных выступают человеческие тексты. Это явление временное, просто это самый простой путь. Человеческие тексты уже обладают семиотической структурой, в них есть указание на явления, наличие системы понятий и язык описания. Иными словами - тщательно пережеванное описание мира. Но через какое-то время появится агенты, где камера и прочие датчики будут источниками данных для обучения, а сами системы будут на движущихся платформах. И вот эти модели мира мы уже никогда не сможем понять, они будут сверхчеловеческими. Человеческий мозг как носитель интеллекта уступает нейронной сети типа LLM во всём. Во всём. Сети или уже делают лучше, чем человек или видны реальные перспективы этого. Киборги, может быть и будут, но Сверхразуму нужны слуги, а не хозяева))) На роль Сверхразума ни человек, ни его цивилизация не годится...
Конечно нейронка не имеет отношения к сознанию и человечий мозг не способен так глубоко обобщать потому, что это не нужно. Задача о больших крабах по 5 и маленьких по 3 решается на основании текущей инфо-картины восприятия, где достаточно обобщить лишь небольшую выборку личного опыта, отфильтрованную по текущему состоянию. А как решит нейронка ту же задачу, если в нее загрузят только два варианта решения: один чел купил по 3, другой чел купил по 5. Думаю, она скажет, что ей мало данных.
Egg:
Вот это ключевая ошибка людей, которые интеллектуально остались в прошлом, в символьном ИИ, в экспертных системах. Они предполагают, что есть истина как объективный независимый феномен, более того, они предполагают, что истину можно выразить словами. Где истина в лопате? Где истина в красном цвете? Где истина в улье? Истина - это микроскопический инструментик, который работает в микроскопических рафинированных задачках. Мышление не имеет ничего общего с логической обработкой.
В теории МВАП нет никакой глобальной истины, только субъективная. Какое воздействие оказывает объект на систему адаптивности зависит от того, как изменилось ее общее состояние. А оно меняется не только от внешних, но и от внутренних переживаний. Вам стукнули по руке молотком - стало больно, негативная эмоция. Вы представили, что вот сейчас вам стукнут по руке молотком - поморщились в предвкушении боли, опять негативная эмоция, снова изменилось состояние. Если в этот момент вам кто то просто протянет молоток, типа возьми, вы вздрогнете, ведь сейчас молоток - это возможный негатив, только что об этом думали. А в другой раз спокойно возьмете.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
14:28 10.07.2024 №10088
Влад:
Вопрос для упорядочения восприятия Вашего материала: Т.е. речь идет о системе, её регуляции, способах ее регуляции?
Да, фактически это модель живого существа.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
15:06 10.07.2024 №10093
Prosolver:
Эмоции - это ведь и есть индикаторы гомеостаза. Они не изменяются со временем, врождены, отображают состояние организма и предоставляются интеллекту как есть (as is).
Нет. Врожденными являются рефлексы. Индикация состояния системы гомеостаза определяется базовыми состояниями.
Prosolver:
Про норму это мне понятно, это мне зело нравится, это хорошо. Плохо - это мне тоже понятно, это не-норма, не-хорошо. Но мне не понятно, в чём отличие между "хорошо" и "норма" и зачем оно надо?
Давайте представим себе самое простое живое существо, типа губки. У нее есть жизненный параметр Энергобаланс с порогом 30%. Если энергии меньше порога, срабатывает датчик и запускается реакция питания - раскрываются поры и начинают фильтровать и пытаться переваривать все что туда попадет. Так как управление механизмами у губки химическое, то "запуск реакции" означает выброс в ее кровоток какого то специфического химиката-катализатора, провоцирующего расслабление пор. Начался процесс питания, постепенно уровень заряда растет и наконец превышает порог. Выброс катализатора прекратился. И тут 2 варианта: подождать пока он сам разложится и поры вернутся в тонус и сожмутся, либо выбросить другой химикат-ингибитор, который быстрее разложит первый химикат и потом сам так же быстро растворится. Второй вариант предпочтительнее, так как более надежен. В итоге получаем три возможных состояния системы управления питанием у существа: голод - выброс химиката 1, сытость - выброс химиката 2, который разлагает химикат 1 и сам разлагается. А третье состояние - когда в крови нет ни хим 1, ни хим 2 - нейтральное состояние. 3-х позиционный переключатель, запускающий 2 процесса-антагониста, с нейтральным положением. Выброс Хим 1 - это Плохо, хим 2 - Хорошо, когда нет ничего - Норма. То есть само по себе, на уровне гомеостаза, состояние Хорошо не имеет функциональности. Это не поощрение за реакцию, так как все реакции гомеостаза - это рефлексы, не имеющие значимости. Но такие состояние неизбежно возникли потому, что иначе просто не возможно организовать эффективное управление корректирующих действий. Надо ведь не только их запускать, но и гасить потом. А раз возникнув, оно так и осталось, став основой для будущих психических наворотов.
Prosolver:
Всё-равно не понятно. Для комплементарности тогда нужно добавить четвёртое состояние, например, "херовато", возникающее при переходе из Норма в Плохо... На мой взгляд, достаточно: 1) фундаментального понятия "Норма" и 2) отклонений от него. Разные отклонения требуют разных корректировок, в этом и есть суть знание.
Выше показал предположение, как могло возникнуть состояние Хорошо. Но даже если бы хим 1 просто саморазлагался, все равно потом пришлось бы создавать датчик перехода их Плохо в Норма, когда дошло бы до оценки выполненных реакций. Это касается автоматизмов - адаптирующих действий, способных в отличие от рефлексов оцениваться и модифицироваться в течении жизни одной особи. Поэтому такое промежуточное состояние, когда происходит переход их Плохо в Норму оказался весьма кстати. Но еще лучше оценивать не по перешагиванию порога, а по приближении или удаления к нему/от него. Тогда можно отличать реакции, дающие частичное улучшение, а не скачкообразное. Оценка делается при сравнении состояния до и после реакции по принципу: если было приближение к порогу со стороны критической зоны - это улучшение состояния, если было удаление, углубление в критическую зону значений ЖВП, это ухудшение. А со стороны комфортной зоны значений все наоборот. В статье по ссылке есть картинки по этому поводу, там показано, как определяется Стало лучше/Стало хуже. Вообще такие вопросы возникают ровно до тех пор, пока не начнешь моделировать систему адаптивности. И сразу станет очевидно, что минимальный кол-во состояний системы для успешной адаптации получается 3, а не 2. По многим причинам, некоторые из которых озвучил выше.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
15:13 10.07.2024 №10096
Prosolver:
Меня смущает в МВАП только вот это тотальное упование на всесильный гомеостаз. Полностью упуская из виду другие мотиваторы. В частности социальные (из моего предыдущего сообщения). Попытка всё свести к гомеостазу примерно то же самое, что попытка свести эволюцию к всемогущим случайным мутациям. Уж лучше всё сводить к достижению "нормы", это более последовательно и не противоречит фактам, тем более, что таким понятием МВАП уже оперирует.
Вы просто не до конца вникли в суть иерархической организации адаптивности. С гомеостаза все начинается - и только. В психических явлениях он служит фоном. Например решать задачу с больной головой или здоровой - будет ведь разница, это и есть влияние гомеостаза. И в МВАП не сводится все к нему. В сложных поведенческих реакциях учитывается внутреннее состояние организма, внешние стимулы, прогнозы развития событий по правилам, сопровождающие эмоциональным фоном, текущие фоновые циклы мышления, среди которых особенно важны доминирующие. Все это в итоге составляет результирующую инфо-картину восприятия реальности, которая с каждым актом действия, и даже с каждой мыслью о предполагаемом действии меняется. И в этом ведьмином супе есть соус Гомеостаз, задающий определенный фоновый вкус.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
15:38 10.07.2024 №10100
Egg:
А зачем гадать, когда можно взять и поговорить с ней, я использую в своей работе chatGPT4o. Красным цветом мои слова, зеленым цветом ответы LLM.
Я говорил, что если нейронке дать только 2 варианта развития события, она не сможет выбрать: один купил по 3, другой по 5. То есть больше никакой инфы ей не давать, чтобы не было возможности ничего обобщить. Она никогда не сможет уверенно решить потому, что 50/50 выходит. А гомеостатический агент может. Потому, что у него ответ еще и от внутреннего состояния зависит. И даже если нейронке прикрутить внешние датчики это ничего не меняет, просто больше инфы в разном ракурсе будет поступать для обобщения. Другое дело, если добавить ей например зависимость ответа от уровня заряда аккумулятора. Тогда получатся новые срезы реакций. Но тут же встанет вопрос: а как их обобщать? До сих пор все обобщения, если выражаться в новой интерпретации, были в одном нейтральном состоянии, а теперь их множество, смотря по стрелке индикации заряда. И тогда неизбежно придем к необходимости понятия значимости, чтобы разделять события/реакции в разных состояниях уровня заряда аккумулятора. А там не далеко и до целевого управления зарядом: если окажется, что решение находится в срезе реакций при определенном уровне заряда, а текущее явно меньше, значит... нужно срочно бежать заряжать батарею, чтобы выдать решение в том состоянии. Хотя казалось бы, при чем тут батарея и решение. Раньше было не при чем, но стоило прикрутить самый простой гомеостаз с 1 параметром - и все кардинально поменялось.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
15:49 10.07.2024 №10103
Цап:
AlexPar, fornit:
Согласно нашей теории: Интеллект - жизненный опыт, не требующий осмысления, база моторных и ментальных автоматизмов высокой степени уверенности, и потому выполняемых без осмысления.
А как вам такое определение: "Интеллект - способность решить проблему при отсутствии наработанных автоматизмов и без наличия подобного жизненного опыта?" ...звучит совершенно противоположно к вашему определению, и, по-моему, это ближе к сути интеллекта.
Этим задача осознанного уровня мышления с погружением в глубокие ассоциации и прогнозы - ассоциативный поиск новой реакции, альтернативной привычному. А при отсутствии навыков не будет вообще никакого мышления, не с чем будет ассоциировать. Если вы кошке покажете энциклопедию, она ее просто понюхает, но читать не станет. Нет у нее никаких, даже мало-мальски похожих навыков для этого. Интеллект, как уже не раз тут говорил, согласно МВАП - это просто мастерство. Музыкант бегло играет, не задумываясь, только вдохновляясь. Но если задумается, тут же будет прерывание и сбой. Потому, что осознание всегда означает прерывание текущей деятельности с целью ее осмысления и поиска нового варианта. Как вы предполагаете в процессе выполнения действия, когда оно уже выполняется, его корректировать без прерывания? Если пошла команда, чтобы ее изменить, ее сначала надо прервать и осмыслить новую.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
15:55 10.07.2024 №10105
Egg:
Она поступила ровно наоборот, она написала развернутый анализ того как можно выбрать, потом выбрала один вариант, потом противоположный. Что такое "только", "инфы не давать" мне не очень понятно, это за пределами обучения и LLM и человека.
Развернутый ответ был потому, что у нее до вопроса было загружено и обобщено много инфы. Возьмем нейронку пустую, файлов данных 0. И дадим ей 2 варианта ответа. Она не сможет обобщать потому, что хоть сикось, хоть накось будет 50/50. Или вы хотите сказать, что нейронка с пустой базой данных с первого же вопроса начинает обобщения? Что с чем?
0 | 0
create
AGI как агент с искусственной системой гомеостаза
15:57 10.07.2024 №10106
Luarvik.:
AlexPar:
Да, фактически это модель живого существа.
Раз уж Вы здесь, то https://agi.place/?ai=9&msg=10033#10033
Это вопрос уводящий в бесконечный флуд, потому и не отвечаю.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
16:04 10.07.2024 №10110
Luarvik.:
AlexPar:
Как вы предполагаете в процессе выполнения действия, когда оно уже выполняется, его корректировать без прерывания? Если пошла команда, чтобы ее изменить, ее сначала надо прервать и осмыслить новую.
С таким подходом даже на велосипеде невозможно научиться ездить.
Езда на велосипеде - это цепочка моторных действий: м1 + м2 + м3 +... В процессе обучения происходит выборочная корректировка звеньев цепи, пока они все не начнут слаженно работать в цепочке. Сам процесс происходит так: сделал Мn - оценил эффект - подумал, сделал поправку - сделал Mn - оценил эффект... И т.д. Постоянно идут прерывания на размышление. Но в момент выполнения действия, раздумий нет, оно просто выполняется. Ведь почва для размышлений - эффект от действия. Поэтому, чтобы о нем подумать, сначала нужно его сделать.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
00:51 11.07.2024 №10118
Цап:
Когда музыкант играет "не задумываясь", значит ли это, что он играет "на автомате"? И чем во время такой игры заняты его мысли?
У него запускаются цепочки автоматизмов. Вы когда говорите, разве задумываетесь, какую букву как сложить в слове, как затем сами слова сложить? Когда идете, перешагиваете на автомате лужу, если споткнулись, машинально восстанавливаете равновесие. В психологии эту машинальность называют подсознанием, мы в своей теории зовем это начальными уровнями мышления, когда происходит быстрая переоценка штатных автоматизмов и сканирование правил реагирования без глубоких ассоциаций. То есть это просто попытка решить возникшую проблему "по быстрому" простыми механизмами. А с позиции эволюции, это доставшиеся нам по наследству от предков начальные попытки развить функционал осознанного реагирования. Наш человечий феномен сознания ведь не возник вдруг, а является результатом постепенного развития адаптивности психики. На 1 уровне мышления происходит переоценка штатных автоматизмов. На каждый стимул могут быть несколько вариантов ответов, так как в процессе обучения было множество отзеркаленных от учителя-родителя авторитарных действий и самостоятельных пробных попыток с разными уровнями успешностями. Один из автоматизмов,самый успешный, закрепляется как штатный. И так как обучение никогда не прекращается, эта база вариантов постоянно обновляется. В итоге перед каждым выполнением штатного автоматизма есть смысл проверить, а он точно самый успешный на текущий момент? Это приводит к тому, что с одной стороны можно постоянно переобучаться, а с другой - если успешность, которая накручивается и откручивается при каждом запуске автоматизма (происходит оценка выполненного действия стало лучше/стало хуже), то возникает эффект инертности опыта: чем больше было успешных активаций автоматизма, тем больше нужно не успешных, чтобы отмотать ему счетчик назад и стало возможным сделать штатным другой. Такой примитивный анализ. На 2 уровне более продвинутый - сканирование правил, которые пишутся при каждом выполнении автоматизма, фиксируя кадры памяти в структуре: стимул - ответ - эффект. Тут становится возможным учитывать не только текущий стимул, но и предыдущие. Если найти кадр, соответствующий текущему стимулу, и посмотреть, к чему приведет выполнение штатного автоматизма не только на следующем шаге, но и на предполагаемых по правилам последующих. Но такой прогноз более менее адекватен на 1-2 шага, дальше вероятность развития событий по старым правилам понижается. Эти два уровня обеспечивают "быстрое мышление", сопровождаемое мимолетными ощущениями, или даже вообще не ощущаемо, поэтому практически нами не замечаются. С их помощью мы играем, говорим, шагаем через лужи и т. д.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
02:26 12.07.2024 02:29 12.07.2024 №10127
Prosolver:
Это интересное объяснение, возьму себе на заметку. В моём понимании любое корректирующее действие направлено на ликвидацию/уменьшение раздражителя, запустившего данную корректировку. В этом суть корректировки. И тогда она должна действовать по принципу: "делать Х до тех пор, пока Y не придёт в норму", или как в программном цикле "do X while Y". В таком случае, нет необходимости в дополнительных контурах контроля. Вот Вы говорите: "выброс химиката 2, который разлагает химикат 1", а ведь этот выброс, сам по себе, является также корректирующим действием, для которого химикат 1 является раздражителем, и тогда нужно придумывать химикат 3 для ингибирования химиката 2 и т.д. в бесконечность. И если для губки и гуморальной регуляции такой способ может быть и оправдан, то для реализации программных аналогов такой многоступенчатый процесс выглядит достаточно искусственно.
Пример химической реализации смены базовых состояний гомеостаза я привел как менее очевидный, где казалось бы можно обойтись двумя состояниями Норма и Плохо. Но по факту, природа и люди в своих кинетических механизмах для торможения выполняемого действия всегда используют контр-действие, а не ждут, пока оно само остановится, лишенное энергетической подпитки. Тормоза не трусы придумали, а просто иначе механизм становится крайне разболтанным и не эффективным. Вы бы никогда не научились попадать ложкой в рот, а только все время куда то в голову. Но даже на уровне химии неизбежно возникнет потребность выбрасывать ингибитор для разложения катализатора. Ведь в противном случае, для получения более-менее точного механизма, катализатор должен быстро разлагаться, чтобы не "передергивать". Это значит, что по срабатывании Плохо надо постоянно, ритмично его впрыскивать - а железы не бездонные, синтез химиката тоже энерго-ресурсно-затратный. Иначе реакция будет только на такие критические отклонения, которые можно быстро вернуть за время, пока катализатор не разложился. Живучесть особи будет не высокой. Поэтому в идеале, катализатор должен быть устойчивым, и разлагаться только при встрече с ингибитором. То есть они взаимоуничтожаются. В итоге на всех уровнях реализации системы адаптивности, кроме программной, неизбежно возникают 3 состояния системы. А по поводу программной: мы исходим из того, что прежде чем рассуждать о природе сознания, разума, сначала нужно повторить природную реализацию до этого уровня, а для этого придется последовательно пройти все эволюционные этапы развития адаптивности. Иначе все модели будут фантазийные химеры, или как в случае с нейронкой, вырванное звено из цепи связанных иерархической зависимостью механизмов.
Prosolver:
Когда пьеса разучена, "вошла в спинной мозг" и пальцы сами попадают по нужным клавишам/струнам, то музыкант переходит на другой уровень сознательного контроля. Его мысли заняты соблюдением правильного темпа, правильных акцентов и усилий, прохождением трудных мест. Если же и этот слой контроля будет автоматизирован, тогда музыкант может думать о том, чем займётся сегодня вечером и потом даже не вспомнить, что играли его руки.
В процессе игры каждое действие проверяется на адекватность на начальных, простых, быстрых уровнях мышления, не требующих осознания, практически никак не ощущаемых, психологи называют это подсознанием. И только если такая проверка выявила неадекватность, активируются более высокие уровни для более серьезного анализа. Они более медленные и потому автоматическая игра начинает спотыкаться: нижние исполнительные уровни ждут решения начальства, что делать. Если все нормально, процесс идет без сбоя, начальство может заниматься другими проблемами. В мозге в параллельном режиме может быть множество активных циклов мышления, которые конкурируют между собой по значимости, но осознается всегда только один наиболее актуальный, остальные отрабатываются в фоне. Поэтому в процессе игры, мызыкант может параллельно думать (осознанно решать другие проблемы) о своем, но лишь до того момента, пока не случится сбой в игре. В этом случае фокус внимание переключится на игру, как наиболее значимое из всех выполняемых действий.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
14:49 12.07.2024 №10131
Цап:
Вы таки идете путем приведения сознания к автоматизмам... жаль. Дело не в автоматизмах. Совсем не в автоматизмах. Работа сознания это работа внимания. Обучаясь игре на фортепиано, ваше внимание будет сосредоточено сначала на одном пальце, потом вы перейдете к способности рассредоточить внимание на все пальцы одновременно, на локти позвоночник ... При этом вы не уходите в автоматизм каждого пальца, вы свое внимание рассредотачиваете. Профессиональный музыкант во время игры не думает ни о чем другом, его внимание рассредоточено по всему телу и, ежемгновенно, он "отслеживает" движение каждого сустава и все ритмы ... Здесь все осознанно, в игре нет автоматизма. Он сам и всецело - мелодия. ....ну, конечно, ....не составит труда свести все это к алгоритму алгоритмов для каждого пальца, кисти, итд. Ну тогда это разговор о музыкальном калькуляторе, и об LLM.....
Вы путаете действие с командой, его запустившей. А еще видимо цепочки действий воспринимаете как целое. Нажать клавишу это не одно действие, а последовательная цепочка, где каждое звено можно произвольно менять и ветвить от него другую цепочку. Говоря об автоматизме я имею в виду одно звено цепочки, а не цепь, и тем более не ветвления цепей.
0 | 0
1
2
3

Главная Участники Жалобы  Поиск Исходный код О форуме