| |
AGI как агент с искусственной системой гомеостаза | |
| |
create
|
AGI как агент с искусственной системой гомеостаза |
11:37 09.07.2024 |
|
11:40 09.07.2024 |
|
№10026 |
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
Egg: Основная идея заключается в том, что по поведению имени (слова) в тексте мы можем судить о смысле, который это имя адресует. Грубо говоря, если кошка пьет воду и собака пьёт воду, значит есть такой смысл как "собака и кошка имеют рот", "существует жидкость", "жидкость можно пить", "животные испытывают жажду", "если будет много жидкости - то это океан" и так далее. Я так понимаю, вы бы из структуры кадров ЭП выкинули свойство "Эффект" как ненужный. В самом деле: воробей летает, ворона летает, корова не летает. Если дать эту инфу для обобщения LLM, она быстро обнаружит, что у вороны и воробья есть крылья, а у коровы нет - в этом причина, почему она не летает. Зачем тут какая то значимость? Для таких обобщений не нужна. А для того, чтобы LLM задалась таким вопросом, почему корова не летает и захотела разобраться нужна. Вы все время забываете, что пока нейронку не спросят, она не ответит. Нет у нее целей и желаний, только алгоритмы. Она не может сама возбуждаться и чем то интересоваться.
Конечно, можно заложить алгоритм, чтобы в режиме тишины она продолжала барабанить свои тарабайты, но опять же: в каком порядке? Снова нужен алгоритм сортировки по какому то признаку. Я понимаю, куда вы клоните: добавляя все больше исходных данных и погружаясь все глубже в обобщения теоретически можно докопаться до всех тонкостей человечьей культуры и создать практически не отличимую от человека по внешним проявлениям машину. Она будет в тему смеяться, плакать, врать, выдумывать какие то цели и добиваться их - все как у людей. После того как она пережует всю человечью культуру. Но это по прежнему будет машина, лишенная субъективного мнения, вместо него - коллективный опыт огромного кол-во людей.
Ребенок не перелопачивает столько инфы, чтобы научиться отличать кошек от собак потому, что он с первого же стимула может определить, стало ему лучше или хуже при контакте с объектом. Поэтому он быстро узнает кошку не по миллиону признаков, а по тем, которые привлекли внимание и стали для него значимы, и их совсем немного.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
AlexPar: Интеллект всего лишь инструмент, которым пользуется сознание для достижения своих субъективных целей. Верно.
AlexPar: Субъективные цели ставятся на основании субъективной значимости, которым могут перекрывать гомеостатические. Снова верно.
AlexPar: людской опыт содержит в себе в том числе и гомеостатические значимости, он же на них создавался. Но представьте ситуацию: робот с нейросетью высаживается на другую планету, где все не так, как у нас. И...? Тут уже с конца не подойдешь, надо с самого начала плясать, от гомеостаза. AlexPar: Субъективные цели ставятся на основании субъективной значимости, которым могут перекрывать гомеостатические. Вы только не подумайте, что я придираюсь, мне глубоко симпатичен Ваш подход, но всё же я не могу понять, как Вы видите механизм целеполагания. В одних местах Вы говорите, что все значимости следуют из гомеостаза, в других местах Вы говорите, что значимости могут "перекрывать" гомеостатические, но тогда неясно, что явилось источником этих значимостей.
Если робот высадится на другой планете, то многие его гомеостатические знания (например, ходьба) придётся переучивать. И здесь гомеостаз, действительно, хороший источник значимости для автономного обучения. Но, что касается других знаний, например, социальных, то гомеостаз здесь не при чём. Грубо говоря, мораль и этика не выводятся из физики и физиологии. Каннибализм, например - это один из лучших способов пропитания, если следовать гомеостазу. Или убийство - лучший способ конкуренции. Но в обществе есть нормы, запрещающие такие "прекрасные" (с точки зрения гомеостаза) методы. А есть социальные нормы, которые, порой вообще ниоткуда явно не следуют, а являются, видимо, элементом поиска оптимальной идеологии. Вот, например, есть такая организация CO2 Coalition, участники которой смотрят научные данные и утверждают, что никакого изменения климата, связанного с выбросами СО 2 нет, что это всё блеф, фейк и политически мотивированная пропаганда. А есть другие организации, которые смотрит те же самые данные и утвеждают что нужно всё декарбонизировать, закрыть все тепловые станции и запретить коров, иначе СО 2 нас погубит. Гомеостаз у них +/- одинаковый, а значимости - прямо противоположные.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
Luarvik.: И из чего следует, что жизнь с потомством лучше жизни без потомства?
Luarvik.: Разве Вы назовёте жизнь некоего существа ущербной, если оно, противостоя агрессивной среде и полагаясь лишь на свой ум и сообразительность, живёт вполне себе сытую и довольную свою собственную жизнь, ни с кем ею не делясь?
Я не про жизнь существа, которое в любой момент может выпрыгнуть в окно, если захочет, а про жизнь как одну из форм существования. Она возможна только при наличии определенных стилей реагирования, среди которых есть репликация. Без нее невозможна эволюция живых существ.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
Prosolver: В одних местах Вы говорите, что все значимости следуют из гомеостаза, в других местах Вы говорите, что значимости могут "перекрывать" гомеостатические, но тогда неясно, что явилось источником этих значимостей. Основа субъективной значимости это гомеостатическая, но это не значит, что вы задаете мне вопросы а я отвечаю на них потому, что где то что то переклинило в гомеостазе. И тем не менее, он и в этом участвует. Текущее настроение основывается по умолчанию на текущем базовом состоянии Плохо/Норма/Хорошо. Текущий эмоциональный фон аналогично вырастает из базовых контекстов (стилей реагирования).
При работе с памятью возникают эмоциональные переживания, которые с одной стороны просто возникают, когда прикидываешь варианты событий, и потому вопрос, зачем они нужны, не стоит. А с другой - они создают возмущения в общей инфо-картине восприятия. И тогда они нужны - как иначе вырваться из гомеостатического контекста и сделать например шаг назад, потерпеть боль, чтобы затем прыгнуть вперед за ништяком.
Нет эмоций - нет "помех" - работает гомеостатическая значимость. Началось мышление - появились эмоции - возникли "помехи", теперь гомеостаз уже не главный барабан в оркестре, включились скрипки.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
16:07 09.07.2024 |
|
00:47 10.07.2024 |
|
№10032 |
Egg: Это неверное представление. По трём серьезным причинам. Во-первых, нейронка имеет ЭТАП ОБУЧЕНИЯ, офигенный по сложности, длительности и недокументированным в среде журналистов приёмам. Можете вполне считать, что она интересуется и возбуждается именно в этот момент. Во-вторых, вас ведь не раздражает, что вся макрофизика и бытовая техника основана на десятке законов, которые ничем не интересуются и совсем не возбуждаются, однако, работают))) В-третьих, как только вы задаете контекст, нейронка может начать интересоваться, возбуждаться и менятся. Собственно, хранить контекст общения - это самый простой способ обратной связи.
Есть ведь разница: смотреть как горит огонь, и самому гореть в нем. Он вроде в обоих случаях просто горит - а разница колоссальная. Не для огня. А того кто смотрел и теперь вот жарится в нем. Поэтому не корректно просто так сказать: "можете считать, что нейронка возбуждается". Возбуждение - это несколько другое. Это субъективное. Вы подменяете понятия, приравнивая имитацию действия с реальным действием - и потому не видите разницы. Она не видна, пока вы не становитесь непосредственным участником действия - при условии конечно, что вы не тупой механизм, а порядочный кожаный мешок с гомеостазом.
Egg: Смешно для AGI или ASI пытаться походить на человека, когда она САМА, по убогим корпусам, строит картины мира. Еще раз, забудьте про человека, это пройденный этап, LLM - это новый эволюционный цивилизационный фронт.
Но строит на основании чего? Данных о человеках: как они воспринимали реальность, что делали в разных ситуациях. Потом обобщает их опыт по алгоритмам, придуманным человеками - и заявляет, что они тут вообще не при чем, это все она сама. Нейронка - это очередная моднявая палка-копалка, превращающая обезьяну с палкой в обезьянопалку. Нейронка без человеков ничто, как оторванный хвост без мартышки.
Если обобщить культурный опыт человечества в сверхглубокой LLM и потом заявить, что вот и природа так же обобщала, обобщала - и родила наконец человека, то возникает вопрос: до того момента как родила - он как определял свои нормы поведения? Ведь опыт его предков использовался для обобщения. Если так рассуждать и опускаться все глубже в историю, то выходит, мы обобщили опыт миллионов сумасшедших, их случайные тыки, как те миллион обезьян на пишущих машинках, натыкавших войну и мир. Гипотетически. А практически ничего у них не выйдет, будь их хоть триллион и бесконечность. Чтобы сработало надо, чтобы с самого начала был верификатор, который безо всяких обобщений сразу понимает, что есть правильно/не правильно. Вот тогда получается адекватный опыт, который можно и обобщить.
Под эволюцией человека я имею в виду слияние технологий и человека, что приведет к качественно другому виду живого существа, где даже сам процесс эволюции изменится. Это не значит, что будет лучше и или хуже. Ведь даже базовые гомеостатические значимости изменятся, что повлияет на все восприятие реальности. Мы сегодняшние скорее отдалимся в понимании их мотивации, отдалятся ли они от нашего понимания прошлого развития живых существ - думаю, скорее углубятся в области, нам не понятные, как для 2-мерных не понятен мир 3D. А тем станет доступно для понимания много больше.
Ваш вариант развития эволюции через нейронки это скорее регресс, чем прогресс. Ведь выкидываются на ненужностью эмоциональные контексты восприятия, играющие принципиально важную роль в мышлении живых существ. Прикручивать эмоции и гомеостаз к нейронке нет никакой необходимости, все что нужно - оптимизировать алгоритмы обучения, чтобы ускорить процесс и удешевить девайс. Но это так и останется придатком человека, а не его эволюцией. Ведь они же в конечном итоге будут верифицировать ответы нейронки. А то, что это приведет к эволюционному тупику, где люди как игрушки, или просто как "читатели" инфы от нейронки, разучившиеся читать - это вполне возможный вариант апокалипсиса. Виды рождаются, эволюционируют и вымирают. Как в машине времени Г. Уэлса: одни тупо работают, другие тупо жрут - и никто не понимает, зачем это все. Просто живут как насекомые.
Egg: Это противоречит фактам, у меня в ленте где-то даже есть совсем свежая ссылка на то, что ребенок строит персональную модель мира в первый год, а уже затем, поверх нее кладет слои few shot обучения. Инфа ребенка - это архитектура нервной системы и головного мозга, которая перелопачивалась эволюцией в течение миллиарда лет с использованием отбора триллиона носителей. Пустячок такой)))
Тут да, тут я наврал конечно. В первые месяцы киндер отличает только мать, все остальное - просто остальное, всякое разное и непонятное. До сличения кошек и собак еще далеко.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
17:09 09.07.2024 |
|
19:49 09.07.2024 |
|
№10033 |
AlexPar:
То есть, проще говоря: система должна быть живой, причем не в аллегорическом смысле, а прямом.
Звучит диковато потому, что понятие «живое» привычно воспринимается только по отношению к биологическим организмам, а не механизмам и тем более программам. Но один из постулатов теории МВАП:
Основные принципы и механизмы эволюционного развития индивидуальной адаптивности не зависят от способа их реализации и могут быть реализованы любым подходящим способом, в том числе на дискретных электронных элементах и даже программным путем.
...
Если бы репликационный стиль реагирования не закрепился в виде инстинкта, все живое тупо вымерло бы. Поэтому репликация обязательный атрибут живого существа.
...
Я не про жизнь существа, которое в любой момент может выпрыгнуть в окно, если захочет, а про жизнь как одну из форм существования. Она возможна только при наличии определенных стилей реагирования, среди которых есть репликация. Без нее невозможна эволюция живых существ.
1. Кто, например, родил первое живое существо на Земле ?
2. Если Ваша система "живая в прямом смысле", то она по-Вашему должна уметь размножаться. Если эта функция закладывается "по желанию", то и назвать её "живой" тоже можно по желанию, а можно и не называть. Но Вы утверждаете, что репликация - "обязательный атрибут живого".
Как быть ?
(В этом месте мне на ум приходит только одно - "вы либо крестик снимите, либо трусы наденьте")
3. Какое вообще отношение имеет Ваш "конструкт" к жизни ?
4. Ваш "конструкт" про эволюцию, или про индивидуальную, отдельно взятую жизнь ?
Вообще, непонятно, про что это всё у Вас.
То, что не про интеллект, не про сознание - само собой.
Гомеостат ? - Так ещё в 1948 г. Эшби...
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
Egg: Нет никакой имитации действия, если это действие, а не намерение, если оно совершается как действие и куда-то направлено. Мне показалось, что вы под "возбуждением" понимаете сознание и субъективный опыт. Сделать систему активной несложно, достаточно двух вещей: заложить в нее представление о каком-то идеальном состоянии, которая она должна достичь и запустить процесс переодического сравнения текущего состояния с идеальным.
Это не будет сознанием. Но здесь важнее то, что вы никогда не сможете различить, обладает система сознанием или у нее есть механизмы подобной рефликсии. Трудная проблема сознания и состоит в том, что мы не можем объективизировать субъективный опыт переживания, а значит - установить наличие или отсутствие сознания у собеседника.
Да, пардон. Не "имитация действия", а "имитация осознанного действия". Камень катится с горы "куда то", или кто то столкнул его с каким то умыслом, и он куда то покатился. Тут есть разница, хотя финальное действие одно и тоже.
По поводу "сравнения текущего состояния с идеальным". На уровне автоматического реагирования так и есть, идет постоянная оценка выполненного автоматизма и определяется стало лучше/стало хуже. На уровне психики уже не так: там понятия хорошо и плохо становятся "плавающими". Это уже переменная, определяемая по умолчанию на основе гомеостатической значимости, но которую всегда можно переписать на основе субъективных представлений. То есть правильнее будет сказать не "сделать систему активной", а "запустить процесс самоадаптации системы". Это да, начинается с прописывания глобальных констант.
Egg: Нейронная сеть ВООБЩЕ не имеет с человеком НИЧЕГО ОБЩЕГО. Искусственный нейрон - это математическая функция, а не клетка. Нейронная сеть - это гиганский эмерджентный алгоритм, а не живое существо. В процессе создания интеллекта нам, создателям ИИ, не требуется гипотеза о том, что существует разумная обезьянка без шерсти, которая мнит себя вершиной эволюции вселенной.
Да, в качестве источника данных выступают человеческие тексты. Это явление временное, просто это самый простой путь. Человеческие тексты уже обладают семиотической структурой, в них есть указание на явления, наличие системы понятий и язык описания. Иными словами - тщательно пережеванное описание мира. Но через какое-то время появится агенты, где камера и прочие датчики будут источниками данных для обучения, а сами системы будут на движущихся платформах. И вот эти модели мира мы уже никогда не сможем понять, они будут сверхчеловеческими.
Человеческий мозг как носитель интеллекта уступает нейронной сети типа LLM во всём. Во всём. Сети или уже делают лучше, чем человек или видны реальные перспективы этого. Киборги, может быть и будут, но Сверхразуму нужны слуги, а не хозяева))) На роль Сверхразума ни человек, ни его цивилизация не годится...
Конечно нейронка не имеет отношения к сознанию и человечий мозг не способен так глубоко обобщать потому, что это не нужно. Задача о больших крабах по 5 и маленьких по 3 решается на основании текущей инфо-картины восприятия, где достаточно обобщить лишь небольшую выборку личного опыта, отфильтрованную по текущему состоянию. А как решит нейронка ту же задачу, если в нее загрузят только два варианта решения: один чел купил по 3, другой чел купил по 5. Думаю, она скажет, что ей мало данных.
Egg: Вот это ключевая ошибка людей, которые интеллектуально остались в прошлом, в символьном ИИ, в экспертных системах. Они предполагают, что есть истина как объективный независимый феномен, более того, они предполагают, что истину можно выразить словами.
Где истина в лопате? Где истина в красном цвете? Где истина в улье? Истина - это микроскопический инструментик, который работает в микроскопических рафинированных задачках. Мышление не имеет ничего общего с логической обработкой.
В теории МВАП нет никакой глобальной истины, только субъективная. Какое воздействие оказывает объект на систему адаптивности зависит от того, как изменилось ее общее состояние. А оно меняется не только от внешних, но и от внутренних переживаний. Вам стукнули по руке молотком - стало больно, негативная эмоция. Вы представили, что вот сейчас вам стукнут по руке молотком - поморщились в предвкушении боли, опять негативная эмоция, снова изменилось состояние. Если в этот момент вам кто то просто протянет молоток, типа возьми, вы вздрогнете, ведь сейчас молоток - это возможный негатив, только что об этом думали. А в другой раз спокойно возьмете.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
AlexPar:Влад: Т.е. в самом сухом остатке, Вы разрабатываете некую разновидность системы (само)управления
механизма? Самоадаптирующуюся систему.
Вопрос для упорядочения восприятия Вашего материала:
Т.е. речь идет о системе, её регуляции, способах ее регуляции?
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
AlexPar: Нет эмоций - нет "помех" - работает гомеостатическая значимость. Началось мышление - появились эмоции - возникли "помехи", теперь гомеостаз уже не главный барабан в оркестре Эмоции - это ведь и есть индикаторы гомеостаза. Они не изменяются со временем, врождены, отображают состояние организма и предоставляются интеллекту как есть (as is). Если интеллект считает нужным, он на них ориентируется. Иногда даже слишком (возникает гедонизм). Если полагает ненужным - ориентируется на другие индикаторы. Например, на свои религиозные или научные убеждения. У Вас многие рассуждения правильные, но Вы зачем-то искусственно себя загоняете в прокрустово ложе биологизма и пытаетесь из животного вывести человека и его интеллект. Увы, так не получится. Человек - это больше чем животное, это социальное животное. И интеллект, в том виде как он есть сейчас, это продукт социума, а не эмоций/рефлексов/гомеостаза отдельно взятой лысой обезьяны. Раскрытия этого аспекта у Вас я не увидел. Увы.
Почитал вот эту статью. Есть вопросы, если позволите.
AlexPar: Базовое состояние – степень отклонения от нормы и их динамика изменения, что определяет особенности Базовых состояний, такие как Норма, Плохо, Хорошо. Совокупность таких состояний для всех жизненных параметров дает общее, интегральное Базовое состояние: Норма, Плохо, Хорошо. Про норму это мне понятно, это мне зело нравится, это хорошо. Плохо - это мне тоже понятно, это не-норма, не-хорошо. Но мне не понятно, в чём отличие между "хорошо" и "норма" и зачем оно надо?
AlexPar: Хорошо – состояние, возникающее при переходе из Плохо в Норма. Оно всегда временно, затем переходит в Норма. Всё-равно не понятно. Для комплементарности тогда нужно добавить четвёртое состояние, например, "херовато", возникающее при переходе из Норма в Плохо...
На мой взгляд, достаточно: 1) фундаментального понятия "Норма" и 2) отклонений от него. Разные отклонения требуют разных корректировок, в этом и есть суть знание.
|
| |
write
|
AGI как агент с искусственной системой гомеостаза |
Сорри за вторжение. Я решился написал это только одно сообщение потому, что полностью доверяю AlexPar (моему коллеге по созданию МВАП и Beast) и в силу того, что я могу психануть и все испортить (потому как в высказываниях уважаемых оппонентов есть много с моей точки зрения недопустимо некорректного). Далеко не самое некорректное высказано в топике https://agi.place/?ai=9&id=180 типа что вот мы с AlexPar выскочили к солидным людям из убого сайтика Fornit с убогими МВАП и Beast. Но пофиг снобизм и его носителей, есть вопросы гораздо интереснее, ради чего я и встреваю с обещанием более не беспокоить.
Утверждение AlexPar : Суть идеи в следующем: невозможно получить субъективное восприятие у искусственной системы индивидуальной адаптивности, если у нее нет базовой системы значимости. У живых существ это система гомеостаза, определяющая гомеостатические цели реагирования. Они состоят в том, чтобы поддерживать в пределах оптимума значения критически важных жизненных параметров, выход за пределы которых уничтожает систему.
Замечание Prosolver: Сам раньше так думал, потом отказался от этой идеи. Вы, видимо, являетесь последовательным сторонником эволюционной парадигмы, и пытаетесь, как и многие до Вас, выразить интеллект через выживание. Но это дохлый номер, каждый год примерно 1 миллион интеллектов очень изобретательно заканчивает своё существование суицидом. Да и вообще люди ведут свои жизни из рук вон плохо, едят не пойми что, колются непроверенными вакцинами, ходят по тёмным подворотням. Поэтому интеллект это не про выживание. Интеллект - это про создание механизмов для любых целей. В том числе для выживания, как частный случай.
Возражение Prosolver - это вроде высказывания парадокса: если ты такой умный, то почему делаешь такие глупости? Особь решается на суицид потому, что в данной ситуации позитивная значимость суицида в его субъективном представлении оказывается выше любых других вариантов (без)действий. По какой причине явно негативный образ получает высокую позитивную значимость - вполне можно представить на основе своего жизненного опыта.
И тут встает вопрос определения, что такое "интеллект". А ведь строить утверждения на неопределенных понятиях - это верный способ ухода в неадекват субъективных предположений. В теории МВАП интеллект - не просто постулированное определение, а совершенно определенная часть системы индивидуальной адаптивности. Интеллект - это имеющийся жизненный опыт в виде автоматизмов, кадров эпизодической памяти, памяти о нерешенных проблемах (гештальт, а точнее доминанты). Это не атрибут функциональности сознания, а следствие. Можно сделать лоботомию и тем самым лишить сознания, но останутся привычные реакции, в том числе и такие, как решать теорему Пифагора. Внешне трудно будет заметить необычность поведения, она будет проявляться в деталях.
Из этого определения прямо следует то, что интеллект волка в лесу намного более эффективен, чем у людей. Т.е. говоря об интеллекте, необходимо иметь контекст, а для каких условий мы сравниваем опыт особей. Вот почему известные тесты на IQ - это профанация - они рассчитаны только на опыт решения задач определенного типа. В таких тестах нет лимита времени, т.е. человек может начать решать проблему, звонить другу или спрашивать у Алисы, и тестироваться будет способность находить решения неважно как.
Второй вопрос об определениях, без которых нет никакого смысла рассуждать "про сознание" - определение функциональности сознания. Этот вопрос задал Сергей Шувалов в топике https://agi.place/?ai=9&id=154 и не получил не него определенного ответа.
Опять-таки, основываясь не на постулате, а не конкретике верификации полной системы Beast, единственная функциональность сознания - дополнение базы имеющегося опыта привычных реакций для новых условий, где привычное реагирование приводит к негативным результатам. Сознание поставляет элементы интеллекта, находя альтернативные привычным реакции для пока новых непривычных условий. Это настолько большой плюс в эволюционной конкуренции, что механизмы такого поиска и решений постоянно развиваются во всем спектре видов живых существ, порождая свои тупики, а в случае людей давая большой разброс в потенциале возможностей сознания.
Есть много других замеченных приколов в теме, которые нивелируют сходимость обсуждение к консенсусу, сорри. Так что на этом я затыкаюсь и не мешаю более.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
fornit: Особь решается на суицид потому, что в данной ситуации позитивная значимость суицида в его субъективном представлении оказывается выше любых других вариантов (без)действий Вы правильно пишите. У меня у самого был эпизод суицида в юности, поэтому я прекрасно понимаю этот сладостный манящий вкус смерти. И даже есть предположение, что суицид - это такой, предусмотренный в конструкции человека, механизм самоликвидации, для элиминации из общества придурков разных. Но полагать суицид следствием гомеостаза - это непоследовательно, нелогично, противоречиво. Убить себя, чтобы сохранить свой гомеостаз - это нонсенс. Меня смущает в МВАП только вот это тотальное упование на всесильный гомеостаз. Полностью упуская из виду другие мотиваторы. В частности социальные (из моего предыдущего сообщения). Попытка всё свести к гомеостазу примерно то же самое, что попытка свести эволюцию к всемогущим случайным мутациям. Уж лучше всё сводить к достижению "нормы", это более последовательно и не противоречит фактам, тем более, что таким понятием МВАП уже оперирует.
fornit: не мешаю более Вы совершенно не мешаете, а даже помогаете. Форум для того и есть, чтобы обмениваться мнениями. Так что бросьте это самоуничижение, высказывайтесь, пожалуйста, когда посчитаете нужным.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
07:21 10.07.2024 |
|
07:40 10.07.2024 |
|
№10042 |
fornit:
Интеллект - это имеющийся жизненный опыт в виде автоматизмов, кадров эпизодической памяти, памяти о нерешенных проблемах (гештальт, а точнее доминанты).
Похоже вы, господа хорошие, вообще не в теме относительно интеллекта.
Объявить ум "библиотекой автоматизмов"- это даже не школьный кружок "Умелые ручки".
К себе не пробовали применить ?
AlexPar:
Сама теория рождалась в течении более 30 лет. Это относится к разработке искусственных систем, обладающих сознанием. Но не знаю какая аббревиатура для них полагается, поэтому пусть пока будет AGI.
- вот так легко неизвестно что превращается в AGI.
Действительно, зачем мелочиться.
Т.е., взяли и назвали. С остальными т.н. "определениями" у вас та же история...
За 30-то лет можно было научиться поосновательнее подходить к таким сложным вопросам, как когнитивные способности.
Успокою вас лишь тем, что вы далеко не одиноки со своими подходцами.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
AlexPar, fornit:
Согласно нашей теории:
Интеллект - жизненный опыт, не требующий осмысления, база моторных и ментальных автоматизмов высокой степени уверенности, и потому выполняемых без осмысления.
А как вам такое определение:
"Интеллект - способность решить проблему при отсутствии наработанных автоматизмов и без наличия подобного жизненного опыта?"
...звучит совершенно противоположно к вашему определению, и, по-моему, это ближе к сути интеллекта.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
10:24 10.07.2024 |
|
10:34 10.07.2024 |
|
№10061 |
Цап:
А как вам такое определение:
"Интеллект - способность решить проблему при отсутствии наработанных автоматизмов и без наличия подобного жизненного опыта?"
У Вас в некотором смысле "маслом по маслу" получилось.
Проблема отличается от задачи имено отсутствием "наработанных автоматизмов" (алгоритмов) её решения.
Опыт может быть, но его ещё переработать нужно, обобщить и адаптировать.
Но то, что интеллект есть инструмент решения именно проблем (а не задач) - это так.
Поскольку его основная работа состоит именно в алгоритмизации.
Разум всегда был, есть и будет источником порядка.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
Luarvik.:
Проблема отличается от задачи имено отсутствием "наработанных автоматизмов" (алгоритмов) её решения.
А если так: есть учитель, ученик и задача. Для учителя решение задачи это автоматизм. Для ученика задача должна быть решена ещё при отсутствии наработанных автоматизмов...
....и это пример качественного образования. Плохое образование это когда учитель даёт множество задач с готовыми алгоритмами решений, сразу же нарабатывая автоматизм у ученика....
Кстати таким плохим образованием типа "обучают" нейросети ..
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
Цап:
А если так: есть учитель, ученик и задача. Для учителя решение задачи это автоматизм. Для ученика задача должна быть решена ещё при отсутствии наработанных автоматизмов...
....и это пример качественного образования. Плохое образование это когда учитель даёт множество задач с готовыми алгоритмами решений, сразу же нарабатывая автоматизм у ученика....
Кстати таким плохим образованием типа "обучают" нейросети ..
Совершенно верно.
Мы учимся создавать алгритмы/автоматизмы именно на решении проблем. Иначе и быть не может. На чём же ещё учиться ?!
Решение задач всего лишь доводит, "шлифует и полирует" автоматизм и расширет "географию" его применимости - при разных исходных, в разных условиях etc.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
Влад: Вопрос для упорядочения восприятия Вашего материала:
Т.е. речь идет о системе, её регуляции, способах ее регуляции?
Да, фактически это модель живого существа.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
Prosolver: Эмоции - это ведь и есть индикаторы гомеостаза. Они не изменяются со временем, врождены, отображают состояние организма и предоставляются интеллекту как есть (as is).
Нет. Врожденными являются рефлексы. Индикация состояния системы гомеостаза определяется базовыми состояниями.
Prosolver: Про норму это мне понятно, это мне зело нравится, это хорошо. Плохо - это мне тоже понятно, это не-норма, не-хорошо. Но мне не понятно, в чём отличие между "хорошо" и "норма" и зачем оно надо?
Давайте представим себе самое простое живое существо, типа губки. У нее есть жизненный параметр Энергобаланс с порогом 30%. Если энергии меньше порога, срабатывает датчик и запускается реакция питания - раскрываются поры и начинают фильтровать и пытаться переваривать все что туда попадет. Так как управление механизмами у губки химическое, то "запуск реакции" означает выброс в ее кровоток какого то специфического химиката-катализатора, провоцирующего расслабление пор. Начался процесс питания, постепенно уровень заряда растет и наконец превышает порог. Выброс катализатора прекратился. И тут 2 варианта: подождать пока он сам разложится и поры вернутся в тонус и сожмутся, либо выбросить другой химикат-ингибитор, который быстрее разложит первый химикат и потом сам так же быстро растворится. Второй вариант предпочтительнее, так как более надежен. В итоге получаем три возможных состояния системы управления питанием у существа: голод - выброс химиката 1, сытость - выброс химиката 2, который разлагает химикат 1 и сам разлагается. А третье состояние - когда в крови нет ни хим 1, ни хим 2 - нейтральное состояние. 3-х позиционный переключатель, запускающий 2 процесса-антагониста, с нейтральным положением. Выброс Хим 1 - это Плохо, хим 2 - Хорошо, когда нет ничего - Норма.
То есть само по себе, на уровне гомеостаза, состояние Хорошо не имеет функциональности. Это не поощрение за реакцию, так как все реакции гомеостаза - это рефлексы, не имеющие значимости. Но такие состояние неизбежно возникли потому, что иначе просто не возможно организовать эффективное управление корректирующих действий. Надо ведь не только их запускать, но и гасить потом.
А раз возникнув, оно так и осталось, став основой для будущих психических наворотов.
Prosolver: Всё-равно не понятно. Для комплементарности тогда нужно добавить четвёртое состояние, например, "херовато", возникающее при переходе из Норма в Плохо...
На мой взгляд, достаточно: 1) фундаментального понятия "Норма" и 2) отклонений от него. Разные отклонения требуют разных корректировок, в этом и есть суть знание.
Выше показал предположение, как могло возникнуть состояние Хорошо. Но даже если бы хим 1 просто саморазлагался, все равно потом пришлось бы создавать датчик перехода их Плохо в Норма, когда дошло бы до оценки выполненных реакций. Это касается автоматизмов - адаптирующих действий, способных в отличие от рефлексов оцениваться и модифицироваться в течении жизни одной особи. Поэтому такое промежуточное состояние, когда происходит переход их Плохо в Норму оказался весьма кстати. Но еще лучше оценивать не по перешагиванию порога, а по приближении или удаления к нему/от него. Тогда можно отличать реакции, дающие частичное улучшение, а не скачкообразное.
Оценка делается при сравнении состояния до и после реакции по принципу: если было приближение к порогу со стороны критической зоны - это улучшение состояния, если было удаление, углубление в критическую зону значений ЖВП, это ухудшение. А со стороны комфортной зоны значений все наоборот. В статье по ссылке есть картинки по этому поводу, там показано, как определяется Стало лучше/Стало хуже.
Вообще такие вопросы возникают ровно до тех пор, пока не начнешь моделировать систему адаптивности. И сразу станет очевидно, что минимальный кол-во состояний системы для успешной адаптации получается 3, а не 2. По многим причинам, некоторые из которых озвучил выше.
|
|
|