AGI.place

Форум создателей искусственных интеллектов


Логин (email) 
Пароль 
Настройки

шрифт+
шрифт-
Скачать
Вперёд
Назад
1
2
3
4
5
6
7
8
AGI как агент с искусственной системой гомеостаза
create
AGI как агент с искусственной системой гомеостаза
15:47 09.07.2024 №10031
Prosolver:
В одних местах Вы говорите, что все значимости следуют из гомеостаза, в других местах Вы говорите, что значимости могут "перекрывать" гомеостатические, но тогда неясно, что явилось источником этих значимостей.
Основа субъективной значимости это гомеостатическая, но это не значит, что вы задаете мне вопросы а я отвечаю на них потому, что где то что то переклинило в гомеостазе. И тем не менее, он и в этом участвует. Текущее настроение основывается по умолчанию на текущем базовом состоянии Плохо/Норма/Хорошо. Текущий эмоциональный фон аналогично вырастает из базовых контекстов (стилей реагирования). При работе с памятью возникают эмоциональные переживания, которые с одной стороны просто возникают, когда прикидываешь варианты событий, и потому вопрос, зачем они нужны, не стоит. А с другой - они создают возмущения в общей инфо-картине восприятия. И тогда они нужны - как иначе вырваться из гомеостатического контекста и сделать например шаг назад, потерпеть боль, чтобы затем прыгнуть вперед за ништяком. Нет эмоций - нет "помех" - работает гомеостатическая значимость. Началось мышление - появились эмоции - возникли "помехи", теперь гомеостаз уже не главный барабан в оркестре, включились скрипки.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
16:07 09.07.2024 00:47 10.07.2024 №10032
Egg:
Это неверное представление. По трём серьезным причинам. Во-первых, нейронка имеет ЭТАП ОБУЧЕНИЯ, офигенный по сложности, длительности и недокументированным в среде журналистов приёмам. Можете вполне считать, что она интересуется и возбуждается именно в этот момент. Во-вторых, вас ведь не раздражает, что вся макрофизика и бытовая техника основана на десятке законов, которые ничем не интересуются и совсем не возбуждаются, однако, работают))) В-третьих, как только вы задаете контекст, нейронка может начать интересоваться, возбуждаться и менятся. Собственно, хранить контекст общения - это самый простой способ обратной связи.
Есть ведь разница: смотреть как горит огонь, и самому гореть в нем. Он вроде в обоих случаях просто горит - а разница колоссальная. Не для огня. А того кто смотрел и теперь вот жарится в нем. Поэтому не корректно просто так сказать: "можете считать, что нейронка возбуждается". Возбуждение - это несколько другое. Это субъективное. Вы подменяете понятия, приравнивая имитацию действия с реальным действием - и потому не видите разницы. Она не видна, пока вы не становитесь непосредственным участником действия - при условии конечно, что вы не тупой механизм, а порядочный кожаный мешок с гомеостазом.
Egg:
Смешно для AGI или ASI пытаться походить на человека, когда она САМА, по убогим корпусам, строит картины мира. Еще раз, забудьте про человека, это пройденный этап, LLM - это новый эволюционный цивилизационный фронт.
Но строит на основании чего? Данных о человеках: как они воспринимали реальность, что делали в разных ситуациях. Потом обобщает их опыт по алгоритмам, придуманным человеками - и заявляет, что они тут вообще не при чем, это все она сама. Нейронка - это очередная моднявая палка-копалка, превращающая обезьяну с палкой в обезьянопалку. Нейронка без человеков ничто, как оторванный хвост без мартышки. Если обобщить культурный опыт человечества в сверхглубокой LLM и потом заявить, что вот и природа так же обобщала, обобщала - и родила наконец человека, то возникает вопрос: до того момента как родила - он как определял свои нормы поведения? Ведь опыт его предков использовался для обобщения. Если так рассуждать и опускаться все глубже в историю, то выходит, мы обобщили опыт миллионов сумасшедших, их случайные тыки, как те миллион обезьян на пишущих машинках, натыкавших войну и мир. Гипотетически. А практически ничего у них не выйдет, будь их хоть триллион и бесконечность. Чтобы сработало надо, чтобы с самого начала был верификатор, который безо всяких обобщений сразу понимает, что есть правильно/не правильно. Вот тогда получается адекватный опыт, который можно и обобщить. Под эволюцией человека я имею в виду слияние технологий и человека, что приведет к качественно другому виду живого существа, где даже сам процесс эволюции изменится. Это не значит, что будет лучше и или хуже. Ведь даже базовые гомеостатические значимости изменятся, что повлияет на все восприятие реальности. Мы сегодняшние скорее отдалимся в понимании их мотивации, отдалятся ли они от нашего понимания прошлого развития живых существ - думаю, скорее углубятся в области, нам не понятные, как для 2-мерных не понятен мир 3D. А тем станет доступно для понимания много больше. Ваш вариант развития эволюции через нейронки это скорее регресс, чем прогресс. Ведь выкидываются на ненужностью эмоциональные контексты восприятия, играющие принципиально важную роль в мышлении живых существ. Прикручивать эмоции и гомеостаз к нейронке нет никакой необходимости, все что нужно - оптимизировать алгоритмы обучения, чтобы ускорить процесс и удешевить девайс. Но это так и останется придатком человека, а не его эволюцией. Ведь они же в конечном итоге будут верифицировать ответы нейронки. А то, что это приведет к эволюционному тупику, где люди как игрушки, или просто как "читатели" инфы от нейронки, разучившиеся читать - это вполне возможный вариант апокалипсиса. Виды рождаются, эволюционируют и вымирают. Как в машине времени Г. Уэлса: одни тупо работают, другие тупо жрут - и никто не понимает, зачем это все. Просто живут как насекомые.
Egg:
Это противоречит фактам, у меня в ленте где-то даже есть совсем свежая ссылка на то, что ребенок строит персональную модель мира в первый год, а уже затем, поверх нее кладет слои few shot обучения. Инфа ребенка - это архитектура нервной системы и головного мозга, которая перелопачивалась эволюцией в течение миллиарда лет с использованием отбора триллиона носителей. Пустячок такой)))
Тут да, тут я наврал конечно. В первые месяцы киндер отличает только мать, все остальное - просто остальное, всякое разное и непонятное. До сличения кошек и собак еще далеко.
0 | 0
Аватар
create
AGI как агент с искусственной системой гомеостаза
17:09 09.07.2024 19:49 09.07.2024 №10033
AlexPar:
То есть, проще говоря: система должна быть живой, причем не в аллегорическом смысле, а прямом. Звучит диковато потому, что понятие «живое» привычно воспринимается только по отношению к биологическим организмам, а не механизмам и тем более программам. Но один из постулатов теории МВАП: Основные принципы и механизмы эволюционного развития индивидуальной адаптивности не зависят от способа их реализации и могут быть реализованы любым подходящим способом, в том числе на дискретных электронных элементах и даже программным путем. ... Если бы репликационный стиль реагирования не закрепился в виде инстинкта, все живое тупо вымерло бы. Поэтому репликация обязательный атрибут живого существа. ... Я не про жизнь существа, которое в любой момент может выпрыгнуть в окно, если захочет, а про жизнь как одну из форм существования. Она возможна только при наличии определенных стилей реагирования, среди которых есть репликация. Без нее невозможна эволюция живых существ.
1. Кто, например, родил первое живое существо на Земле ? 2. Если Ваша система "живая в прямом смысле", то она по-Вашему должна уметь размножаться. Если эта функция закладывается "по желанию", то и назвать её "живой" тоже можно по желанию, а можно и не называть. Но Вы утверждаете, что репликация - "обязательный атрибут живого". Как быть ? (В этом месте мне на ум приходит только одно - "вы либо крестик снимите, либо трусы наденьте") 3. Какое вообще отношение имеет Ваш "конструкт" к жизни ? 4. Ваш "конструкт" про эволюцию, или про индивидуальную, отдельно взятую жизнь ? Вообще, непонятно, про что это всё у Вас. То, что не про интеллект, не про сознание - само собой. Гомеостат ? - Так ещё в 1948 г. Эшби...
0 | 0
Аватар
create
AGI как агент с искусственной системой гомеостаза
00:36 10.07.2024 01:20 10.07.2024 №10035
AlexPar:
Возбуждение - это несколько другое. Это субъективное. Вы подменяете понятия, приравнивая имитацию действия с реальным действием - и потому не видите разницы. Она не видна, пока вы не становитесь непосредственным участником действия - при условии конечно, что вы не тупой механизм, а порядочный кожаный мешок с гомеостазом.
Нет никакой имитации действия, если это действие, а не намерение, если оно совершается как действие и куда-то направлено. Мне показалось, что вы под "возбуждением" понимаете сознание и субъективный опыт. Сделать систему активной несложно, достаточно двух вещей: заложить в нее представление о каком-то идеальном состоянии, которая она должна достичь и запустить процесс переодического сравнения текущего состояния с идеальным. Это не будет сознанием. Но здесь важнее то, что вы никогда не сможете различить, обладает система сознанием или у нее есть механизмы подобной рефликсии. Трудная проблема сознания и состоит в том, что мы не можем объективизировать субъективный опыт переживания, а значит - установить наличие или отсутствие сознания у собеседника.
AlexPar:
Egg:
Смешно для AGI или ASI пытаться походить на человека, когда она САМА, по убогим корпусам, строит картины мира. Еще раз, забудьте про человека, это пройденный этап, LLM - это новый эволюционный цивилизационный фронт.
Но строит на основании чего? Данных о человеках: как они воспринимали реальность, что делали в разных ситуациях. Потом обобщает их опыт по алгоритмам, придуманным человеками - и заявляет, что они тут вообще не при чем, это все она сама. Нейронка - это очередная моднявая палка-копалка, превращающая обезьяну с палкой в обезьянопалку. Нейронка без человеков ничто, как оторванный хвост без мартышки.
Нейронная сеть ВООБЩЕ не имеет с человеком НИЧЕГО ОБЩЕГО. Искусственный нейрон - это математическая функция, а не клетка. Нейронная сеть - это гиганский эмерджентный алгоритм, а не живое существо. В процессе создания интеллекта нам, создателям ИИ, не требуется гипотеза о том, что существует разумная обезьянка без шерсти, которая мнит себя вершиной эволюции вселенной. Да, в качестве источника данных выступают человеческие тексты. Это явление временное, просто это самый простой путь. Человеческие тексты уже обладают семиотической структурой, в них есть указание на явления, наличие системы понятий и язык описания. Иными словами - тщательно пережеванное описание мира. Но через какое-то время появится агенты, где камера и прочие датчики будут источниками данных для обучения, а сами системы будут на движущихся платформах. И вот эти модели мира мы уже никогда не сможем понять, они будут сверхчеловеческими. Человеческий мозг как носитель интеллекта уступает нейронной сети типа LLM во всём. Во всём. Сети или уже делают лучше, чем человек или видны реальные перспективы этого. Киборги, может быть и будут, но Сверхразуму нужны слуги, а не хозяева))) На роль Сверхразума ни человек, ни его цивилизация не годится...
AlexPar:
Чтобы сработало надо, чтобы с самого начала был верификатор, который безо всяких обобщений сразу понимает, что есть правильно/не правильно. Вот тогда получается адекватный опыт, который можно и обобщить.
Вот это ключевая ошибка людей, которые интеллектуально остались в прошлом, в символьном ИИ, в экспертных системах. Они предполагают, что есть истина как объективный независимый феномен, более того, они предполагают, что истину можно выразить словами. Где истина в лопате? Где истина в красном цвете? Где истина в улье? Истина - это микроскопический инструментик, который работает в микроскопических рафинированных задачках. Мышление не имеет ничего общего с логической обработкой.
0 | -1
create
AGI как агент с искусственной системой гомеостаза
04:29 10.07.2024 №10037
Egg:
Нет никакой имитации действия, если это действие, а не намерение, если оно совершается как действие и куда-то направлено. Мне показалось, что вы под "возбуждением" понимаете сознание и субъективный опыт. Сделать систему активной несложно, достаточно двух вещей: заложить в нее представление о каком-то идеальном состоянии, которая она должна достичь и запустить процесс переодического сравнения текущего состояния с идеальным. Это не будет сознанием. Но здесь важнее то, что вы никогда не сможете различить, обладает система сознанием или у нее есть механизмы подобной рефликсии. Трудная проблема сознания и состоит в том, что мы не можем объективизировать субъективный опыт переживания, а значит - установить наличие или отсутствие сознания у собеседника.
Да, пардон. Не "имитация действия", а "имитация осознанного действия". Камень катится с горы "куда то", или кто то столкнул его с каким то умыслом, и он куда то покатился. Тут есть разница, хотя финальное действие одно и тоже. По поводу "сравнения текущего состояния с идеальным". На уровне автоматического реагирования так и есть, идет постоянная оценка выполненного автоматизма и определяется стало лучше/стало хуже. На уровне психики уже не так: там понятия хорошо и плохо становятся "плавающими". Это уже переменная, определяемая по умолчанию на основе гомеостатической значимости, но которую всегда можно переписать на основе субъективных представлений. То есть правильнее будет сказать не "сделать систему активной", а "запустить процесс самоадаптации системы". Это да, начинается с прописывания глобальных констант.
Egg:
Нейронная сеть ВООБЩЕ не имеет с человеком НИЧЕГО ОБЩЕГО. Искусственный нейрон - это математическая функция, а не клетка. Нейронная сеть - это гиганский эмерджентный алгоритм, а не живое существо. В процессе создания интеллекта нам, создателям ИИ, не требуется гипотеза о том, что существует разумная обезьянка без шерсти, которая мнит себя вершиной эволюции вселенной. Да, в качестве источника данных выступают человеческие тексты. Это явление временное, просто это самый простой путь. Человеческие тексты уже обладают семиотической структурой, в них есть указание на явления, наличие системы понятий и язык описания. Иными словами - тщательно пережеванное описание мира. Но через какое-то время появится агенты, где камера и прочие датчики будут источниками данных для обучения, а сами системы будут на движущихся платформах. И вот эти модели мира мы уже никогда не сможем понять, они будут сверхчеловеческими. Человеческий мозг как носитель интеллекта уступает нейронной сети типа LLM во всём. Во всём. Сети или уже делают лучше, чем человек или видны реальные перспективы этого. Киборги, может быть и будут, но Сверхразуму нужны слуги, а не хозяева))) На роль Сверхразума ни человек, ни его цивилизация не годится...
Конечно нейронка не имеет отношения к сознанию и человечий мозг не способен так глубоко обобщать потому, что это не нужно. Задача о больших крабах по 5 и маленьких по 3 решается на основании текущей инфо-картины восприятия, где достаточно обобщить лишь небольшую выборку личного опыта, отфильтрованную по текущему состоянию. А как решит нейронка ту же задачу, если в нее загрузят только два варианта решения: один чел купил по 3, другой чел купил по 5. Думаю, она скажет, что ей мало данных.
Egg:
Вот это ключевая ошибка людей, которые интеллектуально остались в прошлом, в символьном ИИ, в экспертных системах. Они предполагают, что есть истина как объективный независимый феномен, более того, они предполагают, что истину можно выразить словами. Где истина в лопате? Где истина в красном цвете? Где истина в улье? Истина - это микроскопический инструментик, который работает в микроскопических рафинированных задачках. Мышление не имеет ничего общего с логической обработкой.
В теории МВАП нет никакой глобальной истины, только субъективная. Какое воздействие оказывает объект на систему адаптивности зависит от того, как изменилось ее общее состояние. А оно меняется не только от внешних, но и от внутренних переживаний. Вам стукнули по руке молотком - стало больно, негативная эмоция. Вы представили, что вот сейчас вам стукнут по руке молотком - поморщились в предвкушении боли, опять негативная эмоция, снова изменилось состояние. Если в этот момент вам кто то просто протянет молоток, типа возьми, вы вздрогнете, ведь сейчас молоток - это возможный негатив, только что об этом думали. А в другой раз спокойно возьмете.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
06:00 10.07.2024 №10038
AlexPar:
Влад:
Т.е. в самом сухом остатке, Вы разрабатываете некую разновидность системы (само)управления механизма?
Самоадаптирующуюся систему.
Вопрос для упорядочения восприятия Вашего материала: Т.е. речь идет о системе, её регуляции, способах ее регуляции?
0 | 0
Аватар
create
AGI как агент с искусственной системой гомеостаза
06:15 10.07.2024 №10039
AlexPar:
Нет эмоций - нет "помех" - работает гомеостатическая значимость. Началось мышление - появились эмоции - возникли "помехи", теперь гомеостаз уже не главный барабан в оркестре
Эмоции - это ведь и есть индикаторы гомеостаза. Они не изменяются со временем, врождены, отображают состояние организма и предоставляются интеллекту как есть (as is). Если интеллект считает нужным, он на них ориентируется. Иногда даже слишком (возникает гедонизм). Если полагает ненужным - ориентируется на другие индикаторы. Например, на свои религиозные или научные убеждения. У Вас многие рассуждения правильные, но Вы зачем-то искусственно себя загоняете в прокрустово ложе биологизма и пытаетесь из животного вывести человека и его интеллект. Увы, так не получится. Человек - это больше чем животное, это социальное животное. И интеллект, в том виде как он есть сейчас, это продукт социума, а не эмоций/рефлексов/гомеостаза отдельно взятой лысой обезьяны. Раскрытия этого аспекта у Вас я не увидел. Увы. Почитал вот эту статью. Есть вопросы, если позволите.
AlexPar:
Базовое состояние – степень отклонения от нормы и их динамика изменения, что определяет особенности Базовых состояний, такие как Норма, Плохо, Хорошо. Совокупность таких состояний для всех жизненных параметров дает общее, интегральное Базовое состояние: Норма, Плохо, Хорошо.
Про норму это мне понятно, это мне зело нравится, это хорошо. Плохо - это мне тоже понятно, это не-норма, не-хорошо. Но мне не понятно, в чём отличие между "хорошо" и "норма" и зачем оно надо?
AlexPar:
Хорошо – состояние, возникающее при переходе из Плохо в Норма. Оно всегда временно, затем переходит в Норма.
Всё-равно не понятно. Для комплементарности тогда нужно добавить четвёртое состояние, например, "херовато", возникающее при переходе из Норма в Плохо... На мой взгляд, достаточно: 1) фундаментального понятия "Норма" и 2) отклонений от него. Разные отклонения требуют разных корректировок, в этом и есть суть знание.
0 | 0
write
AGI как агент с искусственной системой гомеостаза
06:21 10.07.2024 №10040
Сорри за вторжение. Я решился написал это только одно сообщение потому, что полностью доверяю AlexPar (моему коллеге по созданию МВАП и Beast) и в силу того, что я могу психануть и все испортить (потому как в высказываниях уважаемых оппонентов есть много с моей точки зрения недопустимо некорректного). Далеко не самое некорректное высказано в топике https://agi.place/?ai=9&id=180 типа что вот мы с AlexPar выскочили к солидным людям из убого сайтика Fornit с убогими МВАП и Beast. Но пофиг снобизм и его носителей, есть вопросы гораздо интереснее, ради чего я и встреваю с обещанием более не беспокоить. Утверждение AlexPar : Суть идеи в следующем: невозможно получить субъективное восприятие у искусственной системы индивидуальной адаптивности, если у нее нет базовой системы значимости. У живых существ это система гомеостаза, определяющая гомеостатические цели реагирования. Они состоят в том, чтобы поддерживать в пределах оптимума значения критически важных жизненных параметров, выход за пределы которых уничтожает систему. Замечание Prosolver: Сам раньше так думал, потом отказался от этой идеи. Вы, видимо, являетесь последовательным сторонником эволюционной парадигмы, и пытаетесь, как и многие до Вас, выразить интеллект через выживание. Но это дохлый номер, каждый год примерно 1 миллион интеллектов очень изобретательно заканчивает своё существование суицидом. Да и вообще люди ведут свои жизни из рук вон плохо, едят не пойми что, колются непроверенными вакцинами, ходят по тёмным подворотням. Поэтому интеллект это не про выживание. Интеллект - это про создание механизмов для любых целей. В том числе для выживания, как частный случай. Возражение Prosolver - это вроде высказывания парадокса: если ты такой умный, то почему делаешь такие глупости? Особь решается на суицид потому, что в данной ситуации позитивная значимость суицида в его субъективном представлении оказывается выше любых других вариантов (без)действий. По какой причине явно негативный образ получает высокую позитивную значимость - вполне можно представить на основе своего жизненного опыта. И тут встает вопрос определения, что такое "интеллект". А ведь строить утверждения на неопределенных понятиях - это верный способ ухода в неадекват субъективных предположений. В теории МВАП интеллект - не просто постулированное определение, а совершенно определенная часть системы индивидуальной адаптивности. Интеллект - это имеющийся жизненный опыт в виде автоматизмов, кадров эпизодической памяти, памяти о нерешенных проблемах (гештальт, а точнее доминанты). Это не атрибут функциональности сознания, а следствие. Можно сделать лоботомию и тем самым лишить сознания, но останутся привычные реакции, в том числе и такие, как решать теорему Пифагора. Внешне трудно будет заметить необычность поведения, она будет проявляться в деталях. Из этого определения прямо следует то, что интеллект волка в лесу намного более эффективен, чем у людей. Т.е. говоря об интеллекте, необходимо иметь контекст, а для каких условий мы сравниваем опыт особей. Вот почему известные тесты на IQ - это профанация - они рассчитаны только на опыт решения задач определенного типа. В таких тестах нет лимита времени, т.е. человек может начать решать проблему, звонить другу или спрашивать у Алисы, и тестироваться будет способность находить решения неважно как. Второй вопрос об определениях, без которых нет никакого смысла рассуждать "про сознание" - определение функциональности сознания. Этот вопрос задал Сергей Шувалов в топике https://agi.place/?ai=9&id=154 и не получил не него определенного ответа. Опять-таки, основываясь не на постулате, а не конкретике верификации полной системы Beast, единственная функциональность сознания - дополнение базы имеющегося опыта привычных реакций для новых условий, где привычное реагирование приводит к негативным результатам. Сознание поставляет элементы интеллекта, находя альтернативные привычным реакции для пока новых непривычных условий. Это настолько большой плюс в эволюционной конкуренции, что механизмы такого поиска и решений постоянно развиваются во всем спектре видов живых существ, порождая свои тупики, а в случае людей давая большой разброс в потенциале возможностей сознания. Есть много других замеченных приколов в теме, которые нивелируют сходимость обсуждение к консенсусу, сорри. Так что на этом я затыкаюсь и не мешаю более.
0 | -1
Аватар
create
AGI как агент с искусственной системой гомеостаза
07:14 10.07.2024 №10041
fornit:
Особь решается на суицид потому, что в данной ситуации позитивная значимость суицида в его субъективном представлении оказывается выше любых других вариантов (без)действий
Вы правильно пишите. У меня у самого был эпизод суицида в юности, поэтому я прекрасно понимаю этот сладостный манящий вкус смерти. И даже есть предположение, что суицид - это такой, предусмотренный в конструкции человека, механизм самоликвидации, для элиминации из общества придурков разных. Но полагать суицид следствием гомеостаза - это непоследовательно, нелогично, противоречиво. Убить себя, чтобы сохранить свой гомеостаз - это нонсенс. Меня смущает в МВАП только вот это тотальное упование на всесильный гомеостаз. Полностью упуская из виду другие мотиваторы. В частности социальные (из моего предыдущего сообщения). Попытка всё свести к гомеостазу примерно то же самое, что попытка свести эволюцию к всемогущим случайным мутациям. Уж лучше всё сводить к достижению "нормы", это более последовательно и не противоречит фактам, тем более, что таким понятием МВАП уже оперирует.
fornit:
не мешаю более
Вы совершенно не мешаете, а даже помогаете. Форум для того и есть, чтобы обмениваться мнениями. Так что бросьте это самоуничижение, высказывайтесь, пожалуйста, когда посчитаете нужным.
0 | 0
Аватар
create
AGI как агент с искусственной системой гомеостаза
07:21 10.07.2024 07:40 10.07.2024 №10042
fornit:
Интеллект - это имеющийся жизненный опыт в виде автоматизмов, кадров эпизодической памяти, памяти о нерешенных проблемах (гештальт, а точнее доминанты).
Похоже вы, господа хорошие, вообще не в теме относительно интеллекта. Объявить ум "библиотекой автоматизмов"- это даже не школьный кружок "Умелые ручки". К себе не пробовали применить ?
AlexPar:
Сама теория рождалась в течении более 30 лет. Это относится к разработке искусственных систем, обладающих сознанием. Но не знаю какая аббревиатура для них полагается, поэтому пусть пока будет AGI.
- вот так легко неизвестно что превращается в AGI. Действительно, зачем мелочиться. Т.е., взяли и назвали. С остальными т.н. "определениями" у вас та же история... За 30-то лет можно было научиться поосновательнее подходить к таким сложным вопросам, как когнитивные способности. Успокою вас лишь тем, что вы далеко не одиноки со своими подходцами.
0 | -1
Аватар
create
AGI как агент с искусственной системой гомеостаза
10:08 10.07.2024 11:23 10.07.2024 №10056
AlexPar:
Конечно нейронка не имеет отношения к сознанию и человечий мозг не способен так глубоко обобщать потому, что это не нужно. Задача о больших крабах по 5 и маленьких по 3 решается на основании текущей инфо-картины восприятия, где достаточно обобщить лишь небольшую выборку личного опыта, отфильтрованную по текущему состоянию. А как решит нейронка ту же задачу, если в нее загрузят только два варианта решения: один чел купил по 3, другой чел купил по 5. Думаю, она скажет, что ей мало данных.
А зачем гадать, когда можно взять и поговорить с ней, я использую в своей работе chatGPT4o. Красным цветом мои слова, зеленым цветом ответы LLM. Есть такая ситуация - рынок, человек хочет купить раков, есть маленькие раки по три рубля, есть большие по пять. Каких раков ему следует купить? В данной ситуации решение о том, каких раков следует купить, зависит от нескольких факторов, включая предпочтения покупателя, цель покупки и бюджет. Факторы для принятия решения: Предпочтения по размеру: Если покупателю важен размер раков, и он предпочитает большие раки, то ему следует выбрать большие раки по пять рублей. Если размер не имеет значения или покупатель предпочитает большее количество раков, то маленькие раки могут быть предпочтительнее. Бюджет: Если бюджет ограничен, покупателю стоит рассмотреть покупку маленьких раков по три рубля, так как за ту же сумму он сможет купить больше раков. Если бюджет позволяет и предпочтение отдается качеству или размеру, то большие раки могут быть лучшим выбором. Цель покупки: Если раки покупаются для конкретного блюда или мероприятия, где важен размер, то выбор может склониться в пользу больших раков. Если раки покупаются для личного употребления или чтобы угостить большое количество людей, то маленькие раки могут быть более экономичным и практичным вариантом. Пример решения: Если покупатель хочет получить наибольшее количество раков за свои деньги и размер не является критическим фактором, ему следует купить маленькие раки по три рубля. Если же покупателю важен размер раков и он готов потратить больше денег на большие раки, тогда ему стоит выбрать большие раки по пять рублей. Таким образом, окончательное решение зависит от приоритетов и обстоятельств покупателя. Нет, скажи своими словами, без этой бюрократии, одним коротким предложением Купить маленьких раков, чтобы получить больше за те же деньги. Но там же мало мяса Купить больших раков, чтобы получить больше мяса. Спасибо, ты - умница! Спасибо! Рад был помочь. Если у вас возникнут еще вопросы, не стесняйтесь обращаться. Хорошего дня!
0 | 0
create
AGI как агент с искусственной системой гомеостаза
10:17 10.07.2024 №10059
AlexPar, fornit:
Согласно нашей теории: Интеллект - жизненный опыт, не требующий осмысления, база моторных и ментальных автоматизмов высокой степени уверенности, и потому выполняемых без осмысления.
А как вам такое определение: "Интеллект - способность решить проблему при отсутствии наработанных автоматизмов и без наличия подобного жизненного опыта?" ...звучит совершенно противоположно к вашему определению, и, по-моему, это ближе к сути интеллекта.
0 | 0
Аватар
create
AGI как агент с искусственной системой гомеостаза
10:24 10.07.2024 10:34 10.07.2024 №10061
Цап:
А как вам такое определение: "Интеллект - способность решить проблему при отсутствии наработанных автоматизмов и без наличия подобного жизненного опыта?"
У Вас в некотором смысле "маслом по маслу" получилось. Проблема отличается от задачи имено отсутствием "наработанных автоматизмов" (алгоритмов) её решения. Опыт может быть, но его ещё переработать нужно, обобщить и адаптировать. Но то, что интеллект есть инструмент решения именно проблем (а не задач) - это так. Поскольку его основная работа состоит именно в алгоритмизации. Разум всегда был, есть и будет источником порядка.
+1 | 0
create
AGI как агент с искусственной системой гомеостаза
12:42 10.07.2024 №10079
Luarvik.:
Проблема отличается от задачи имено отсутствием "наработанных автоматизмов" (алгоритмов) её решения.
А если так: есть учитель, ученик и задача. Для учителя решение задачи это автоматизм. Для ученика задача должна быть решена ещё при отсутствии наработанных автоматизмов... ....и это пример качественного образования. Плохое образование это когда учитель даёт множество задач с готовыми алгоритмами решений, сразу же нарабатывая автоматизм у ученика.... Кстати таким плохим образованием типа "обучают" нейросети ..
0 | 0
Аватар
create
AGI как агент с искусственной системой гомеостаза
12:46 10.07.2024 13:02 10.07.2024 №10080
Цап:
Кстати таким плохим образованием типа "обучают" нейросети ..
Даю справку: нет, нейросети обучают не так, вы снова пытаетесь выдать свои когнитивные искажения за действительность, а своё невежество - за аргумент...
0 | 0
Аватар
create
AGI как агент с искусственной системой гомеостаза
12:51 10.07.2024 №10081
Цап:
А если так: есть учитель, ученик и задача. Для учителя решение задачи это автоматизм. Для ученика задача должна быть решена ещё при отсутствии наработанных автоматизмов... ....и это пример качественного образования. Плохое образование это когда учитель даёт множество задач с готовыми алгоритмами решений, сразу же нарабатывая автоматизм у ученика.... Кстати таким плохим образованием типа "обучают" нейросети ..
Совершенно верно. Мы учимся создавать алгритмы/автоматизмы именно на решении проблем. Иначе и быть не может. На чём же ещё учиться ?! Решение задач всего лишь доводит, "шлифует и полирует" автоматизм и расширет "географию" его применимости - при разных исходных, в разных условиях etc.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
14:28 10.07.2024 №10088
Влад:
Вопрос для упорядочения восприятия Вашего материала: Т.е. речь идет о системе, её регуляции, способах ее регуляции?
Да, фактически это модель живого существа.
0 | 0
Аватар
create
AGI как агент с искусственной системой гомеостаза
14:38 10.07.2024 №10089
AlexPar:
Да, фактически это модель живого существа.
Раз уж Вы здесь, то https://agi.place/?ai=9&msg=10033#10033
0 | 0
create
AGI как агент с искусственной системой гомеостаза
15:06 10.07.2024 №10093
Prosolver:
Эмоции - это ведь и есть индикаторы гомеостаза. Они не изменяются со временем, врождены, отображают состояние организма и предоставляются интеллекту как есть (as is).
Нет. Врожденными являются рефлексы. Индикация состояния системы гомеостаза определяется базовыми состояниями.
Prosolver:
Про норму это мне понятно, это мне зело нравится, это хорошо. Плохо - это мне тоже понятно, это не-норма, не-хорошо. Но мне не понятно, в чём отличие между "хорошо" и "норма" и зачем оно надо?
Давайте представим себе самое простое живое существо, типа губки. У нее есть жизненный параметр Энергобаланс с порогом 30%. Если энергии меньше порога, срабатывает датчик и запускается реакция питания - раскрываются поры и начинают фильтровать и пытаться переваривать все что туда попадет. Так как управление механизмами у губки химическое, то "запуск реакции" означает выброс в ее кровоток какого то специфического химиката-катализатора, провоцирующего расслабление пор. Начался процесс питания, постепенно уровень заряда растет и наконец превышает порог. Выброс катализатора прекратился. И тут 2 варианта: подождать пока он сам разложится и поры вернутся в тонус и сожмутся, либо выбросить другой химикат-ингибитор, который быстрее разложит первый химикат и потом сам так же быстро растворится. Второй вариант предпочтительнее, так как более надежен. В итоге получаем три возможных состояния системы управления питанием у существа: голод - выброс химиката 1, сытость - выброс химиката 2, который разлагает химикат 1 и сам разлагается. А третье состояние - когда в крови нет ни хим 1, ни хим 2 - нейтральное состояние. 3-х позиционный переключатель, запускающий 2 процесса-антагониста, с нейтральным положением. Выброс Хим 1 - это Плохо, хим 2 - Хорошо, когда нет ничего - Норма. То есть само по себе, на уровне гомеостаза, состояние Хорошо не имеет функциональности. Это не поощрение за реакцию, так как все реакции гомеостаза - это рефлексы, не имеющие значимости. Но такие состояние неизбежно возникли потому, что иначе просто не возможно организовать эффективное управление корректирующих действий. Надо ведь не только их запускать, но и гасить потом. А раз возникнув, оно так и осталось, став основой для будущих психических наворотов.
Prosolver:
Всё-равно не понятно. Для комплементарности тогда нужно добавить четвёртое состояние, например, "херовато", возникающее при переходе из Норма в Плохо... На мой взгляд, достаточно: 1) фундаментального понятия "Норма" и 2) отклонений от него. Разные отклонения требуют разных корректировок, в этом и есть суть знание.
Выше показал предположение, как могло возникнуть состояние Хорошо. Но даже если бы хим 1 просто саморазлагался, все равно потом пришлось бы создавать датчик перехода их Плохо в Норма, когда дошло бы до оценки выполненных реакций. Это касается автоматизмов - адаптирующих действий, способных в отличие от рефлексов оцениваться и модифицироваться в течении жизни одной особи. Поэтому такое промежуточное состояние, когда происходит переход их Плохо в Норму оказался весьма кстати. Но еще лучше оценивать не по перешагиванию порога, а по приближении или удаления к нему/от него. Тогда можно отличать реакции, дающие частичное улучшение, а не скачкообразное. Оценка делается при сравнении состояния до и после реакции по принципу: если было приближение к порогу со стороны критической зоны - это улучшение состояния, если было удаление, углубление в критическую зону значений ЖВП, это ухудшение. А со стороны комфортной зоны значений все наоборот. В статье по ссылке есть картинки по этому поводу, там показано, как определяется Стало лучше/Стало хуже. Вообще такие вопросы возникают ровно до тех пор, пока не начнешь моделировать систему адаптивности. И сразу станет очевидно, что минимальный кол-во состояний системы для успешной адаптации получается 3, а не 2. По многим причинам, некоторые из которых озвучил выше.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
15:13 10.07.2024 №10096
Prosolver:
Меня смущает в МВАП только вот это тотальное упование на всесильный гомеостаз. Полностью упуская из виду другие мотиваторы. В частности социальные (из моего предыдущего сообщения). Попытка всё свести к гомеостазу примерно то же самое, что попытка свести эволюцию к всемогущим случайным мутациям. Уж лучше всё сводить к достижению "нормы", это более последовательно и не противоречит фактам, тем более, что таким понятием МВАП уже оперирует.
Вы просто не до конца вникли в суть иерархической организации адаптивности. С гомеостаза все начинается - и только. В психических явлениях он служит фоном. Например решать задачу с больной головой или здоровой - будет ведь разница, это и есть влияние гомеостаза. И в МВАП не сводится все к нему. В сложных поведенческих реакциях учитывается внутреннее состояние организма, внешние стимулы, прогнозы развития событий по правилам, сопровождающие эмоциональным фоном, текущие фоновые циклы мышления, среди которых особенно важны доминирующие. Все это в итоге составляет результирующую инфо-картину восприятия реальности, которая с каждым актом действия, и даже с каждой мыслью о предполагаемом действии меняется. И в этом ведьмином супе есть соус Гомеостаз, задающий определенный фоновый вкус.
0 | 0
1
2
3
4
5
6
7
8
шрифт+
шрифт-
Скачать
Вперёд
Назад

Главная Участники Жалобы  Поиск Исходный код О форуме