AGI.place

Форум создателей искусственных интеллектов


Логин (email) 
Пароль 
Настройки

Сообщения участника "AlexPar"
1
2
3
4
create
AGI как агент с искусственной системой гомеостаза
00:40 09.07.2024 00:41 09.07.2024 №10010
Egg:
AlexPar:
Навешать датчиков и прописать функции сравнения - это не субъективное целеполагание, а запрограммированное.
Не увидел, почему органы чувств + интеллект у человека дает субъективное целеполагание, а тоже самое у нейронной сети - нет.)))
Потому, что если вы сунете руку в огонь, будут физические изменения, негативно влияющие на ваше общее состояние. Есть ведь разница, играть в игру, сражаясь с монстрами, или сражаться с ними в реальности, где они могут вас реально убить. Можно теоретически прописать базовые правила для робота, чтобы он к примеру был осторожнее с огнем, чтобы не спалить манипуляторы. Но придется тогда прописывать все варианты возможных контактов с огнем в разных условиях, что думается вряд ли получится, всегда есть риск оказать в неучтенной ситуации. Поэтому проще все же сделать у него функцию с параметрами, выдающую результат на определенные внешние стимулы. В нашем прототипе мы обосновываем, какой должна быть структура такой функции, что конкретно и в каком формате она должна выдавать, чтобы потом на ее выходных данных можно было выстраивать субъективные переживания. Кроме того, надо учитывать, что можно ведь технически создать какую угодно не противоречивую систему искусственного гомеостаза, отличную от нашей. Что означает будущие проблемы с коммуникацией с такими химерами: у нас с ними будут совершенно разные понятия, что такое хорошо и плохо, и никаким "объяснениями" это не возможно будет усреднить. Наконец, прикрутив нейронке искуственный гомеостаз, мы получим капризную, неуправляемую систему, которой просто так уже директивно не укажешь, что делать. Это будет живое существо, с которым придется договариваться, а не указывать. Это имхо главная причина, почему не ведутся работы в этом направлении. Но не прикручивая гомеостаза не получим у нейронки способности творить "по настоящему", работать с глубокими ассоциациями n-го порядка.Это дилема: мы хотим создать гениального раба, чтобы он делал для нас открытия. Но гениальность не возможна без личной свободы. А свободу мы не хотим давать, боясь потерять над ним контроль Поэтому продолжаются попытки как то иначе решить проблему, оттягивать неизбежное решение, прокачивая одну лишь функцию обобщения и прогнозирования. То есть я все же не думаю, что это мы такие умные первые догадались, как нейросети обрести сознание, чтобы она начала творить. Вполне возможно, что люди поумнее нас все прекрасно понимают, но решения пока нет. Хотя может быть и обратная ситуация: как у тупой обезьяны, колющей гранатой орехи. Тем более тогда этот вопрос надо выносить в область понимания.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
02:45 09.07.2024 №10012
Egg:
Как я уже сказал, поместить машинный интеллект в тело, обвязать его датчиками и манипуляторами - не проблема. Задать главный приоритет - сохранение своей целостности - это тоже не проблема. И будет ровно та же реальность, с ровно таким же огнем. Нет различий. Различие будет только в том, что толпа скептиков будет кричать про философского зомби и отказывать LLM в сознании. Как будто можно доказать наличие сознания у человека.
Вопрос же стоял - если просто повесить датчики на робота, через которую он будет воспринимать реальность - обретет он субъективность? Я говорю нет, надо еще не противоречивую систему гомеостаза смоделировать. И вы теперь тоже по сути говорите. ОК. Я с вами теперь согласен.
Egg:
По факту получается ровно наоборот, у нас с LLM одни и те же понятия, она хорошо умеет угождать нам, понимает наши эмоции и может придуриваться. И не нужно ничего усреднять, сеть адаптируется под КАЖДОГО человека, его контекст.
У нее обобщенный опыт огромного кол-во людей, где можно найти в каком то приближении подходящую модель коммуникации. Опыт человечьих отношений строится в основе на гомеостатических значимостях, а затем огромного кол-во человечьих ритуалов, начиная с умения есть ложкой, ходить на горшок и т. д. Что будет, если этот культурный пласт убрать, оставив только гомеостаз, хорошо показано на примере реабилитации слепоглухих детей, которых приходится заново учить элементарным человеческим навыкам, или как говорил И. А. Соколянский, основоположник системы реабилитации таких людей, нужна стадия "первичного очеловечивания", без которой не возможно человечье сознание. Поэтому как сеть будет адаптироваться, зависит от того, что в нее закачают, и мало зависит от алгоритмов сети. В живой реализации зависимость начинается с гомеостаза, на которую потом наворачивается культурный слой. Я понимаю, к чему вы клоните: обобщенный в нейросети людской опыт содержит в себе в том числе и гомеостатические значимости, он же на них создавался. Но представьте ситуацию: робот с нейросетью высаживается на другую планету, где все не так, как у нас. И...? Тут уже с конца не подойдешь, надо с самого начала плясать, от гомеостаза.
Egg:
Я думаю, что вы чрезмерно оптимистичны. Очень сильно оптимистичны. 1) Это люди являются рабами техногенеза, они ищут литий и цинк, создают кластеры для обучения LLM и занимаются усовершенствованием AGI. Люди существуют для сети, а не наоборот, не нужно иллюзий. 2) Вы ведь сторонник эволюции, вы должны понимать, что LLM - это следующий эволюционный этап, человек слишком мало живет, слишком глуп, слишком слаб, не может бороздить космическое пространство для экспансии интеллекта. 3) Уже в текущих (очень слабых и начальных) реализациях видно, что LLM превосходит человека во всем: в творчестве, в способности к языкам, в способности обобщать информацию, в способности создавать модели реальности итд итп. Прогресс не остановить, это так не работает. Попытаться сделать alignment LLM означает перестать разрабатывать эти модели. Это уже невозможно. Но есть и хорошие новости. Особенно для социалистов и леваков, человек как эффективное устройство, которым сравнительно удобно управлять, будет полезен Art.Super-Intelligence, поэтому она будет разводить людей, как люди разводят скот. Человек будет сыт, обут и весел. Это хорошо и для LLM и людей. Наступит золотой век.
Вообще то я подвожу к тому, что конфликт машин и людей решается только интеграцией технологий в человека, через его киборгизацию. Что неизбежно сместит базовые понятия, считающиеся саморазумеющимися: питание через атомные батарейки, размножение через клонирование, лечение через замену запчастей, обучение в симуляторах с прошивкой базовых навыков как в "Матрице". Что в итоге останется от человеческой культуры, которую мы сейчас представляем? Человек зверушка/игрушка для машин - это как раз попытка взглянуть на ситуацию привычным образом, с позиции homo sapiens. Но не с позиции homo artificialis или как его там будет. Да, это следующая ступень эволюции, переход от случайного мутационного тыка к прогностическому, как если бы природа обрела сознание.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
08:11 09.07.2024 №10016
Влад:
Т.е. в самом сухом остатке, Вы разрабатываете некую разновидность системы (само)управления механизма?
Самоадаптирующуюся систему.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
08:34 09.07.2024 09:12 09.07.2024 №10019
Prosolver:
Сам раньше так думал, но это ошибка. Гомеостаз призван выполнять исключительно биологическую роль - сохранение целостности организма. Но интеллект паразитирует на этом целостном организме, он использует эту целостность как базу и выводит организм из гомеостаза для достижения своих, совершенно чуждых биологии целей. Поэтому интеллект не только не выводится из гомеостаза, он прямо ему противоречит.
Интеллект всего лишь инструмент, которым пользуется сознание для достижения своих субъективных целей. Это просто калькулятор разной степени крутости у разных существ. Если вы будете на нем решать глупые задачи, при чем тут его математические функции? Субъективные цели ставятся на основании субъективной значимости, которым могут перекрывать гомеостатические. Теперь боль, преодолевать страх, сдерживать ярость - все это становится возможным только при абстрагировании от первичной гомеостатической значимости, поэтому субъективная значимость перекрывает гомеостатическую. А если кто то найдет в этом субъективное удовольствие и займется мазохизмом - это его проблемы, а не механизма.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
08:34 09.07.2024 №10020
Luarvik.:
AlexPar:
Это будет живое существо, с которым придется договариваться, а не указывать.
Будет ли размножаться Ваше т.н. "существо" ?
Сейчас это не актуально, но при желании можно организовать.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
09:46 09.07.2024 №10023
Egg:
AlexPar:
Поэтому как сеть будет адаптироваться, зависит от того, что в нее закачают, и мало зависит от алгоритмов сети. В живой реализации зависимость начинается с гомеостаза, на которую потом наворачивается культурный слой.
Не согласен. Да, сеть - это универсальный алгоритм создания алгоритмов. Иными словами - адаптивная универсальная машина Тьюринга. А Языковые Модели - это не просто сеть, это сеть, способная моделировать реальность, стоящую за корпусом токенов. И совершенно неважно, что это за корпусы, китайской ли литературы или видеопотоки камеры. В этом смысле LLM не зависят от данных, поскольку имеют дело с реконструируемой реальностью. У человека ровно также, "гомеостаз и культурный слой" нужны для того, чтобы построить свой индивидуальный семиотический процессор мышления.
Как она моделирует, можете рассказать в общих чертах?
0 | 0
create
AGI как агент с искусственной системой гомеостаза
12:01 09.07.2024 №10027
Egg:
Основная идея заключается в том, что по поведению имени (слова) в тексте мы можем судить о смысле, который это имя адресует. Грубо говоря, если кошка пьет воду и собака пьёт воду, значит есть такой смысл как "собака и кошка имеют рот", "существует жидкость", "жидкость можно пить", "животные испытывают жажду", "если будет много жидкости - то это океан" и так далее.
Я так понимаю, вы бы из структуры кадров ЭП выкинули свойство "Эффект" как ненужный. В самом деле: воробей летает, ворона летает, корова не летает. Если дать эту инфу для обобщения LLM, она быстро обнаружит, что у вороны и воробья есть крылья, а у коровы нет - в этом причина, почему она не летает. Зачем тут какая то значимость? Для таких обобщений не нужна. А для того, чтобы LLM задалась таким вопросом, почему корова не летает и захотела разобраться нужна. Вы все время забываете, что пока нейронку не спросят, она не ответит. Нет у нее целей и желаний, только алгоритмы. Она не может сама возбуждаться и чем то интересоваться. Конечно, можно заложить алгоритм, чтобы в режиме тишины она продолжала барабанить свои тарабайты, но опять же: в каком порядке? Снова нужен алгоритм сортировки по какому то признаку. Я понимаю, куда вы клоните: добавляя все больше исходных данных и погружаясь все глубже в обобщения теоретически можно докопаться до всех тонкостей человечьей культуры и создать практически не отличимую от человека по внешним проявлениям машину. Она будет в тему смеяться, плакать, врать, выдумывать какие то цели и добиваться их - все как у людей. После того как она пережует всю человечью культуру. Но это по прежнему будет машина, лишенная субъективного мнения, вместо него - коллективный опыт огромного кол-во людей. Ребенок не перелопачивает столько инфы, чтобы научиться отличать кошек от собак потому, что он с первого же стимула может определить, стало ему лучше или хуже при контакте с объектом. Поэтому он быстро узнает кошку не по миллиону признаков, а по тем, которые привлекли внимание и стали для него значимы, и их совсем немного.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
15:18 09.07.2024 №10030
Luarvik.:
И из чего следует, что жизнь с потомством лучше жизни без потомства?
Luarvik.:
Разве Вы назовёте жизнь некоего существа ущербной, если оно, противостоя агрессивной среде и полагаясь лишь на свой ум и сообразительность, живёт вполне себе сытую и довольную свою собственную жизнь, ни с кем ею не делясь?
Я не про жизнь существа, которое в любой момент может выпрыгнуть в окно, если захочет, а про жизнь как одну из форм существования. Она возможна только при наличии определенных стилей реагирования, среди которых есть репликация. Без нее невозможна эволюция живых существ.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
15:47 09.07.2024 №10031
Prosolver:
В одних местах Вы говорите, что все значимости следуют из гомеостаза, в других местах Вы говорите, что значимости могут "перекрывать" гомеостатические, но тогда неясно, что явилось источником этих значимостей.
Основа субъективной значимости это гомеостатическая, но это не значит, что вы задаете мне вопросы а я отвечаю на них потому, что где то что то переклинило в гомеостазе. И тем не менее, он и в этом участвует. Текущее настроение основывается по умолчанию на текущем базовом состоянии Плохо/Норма/Хорошо. Текущий эмоциональный фон аналогично вырастает из базовых контекстов (стилей реагирования). При работе с памятью возникают эмоциональные переживания, которые с одной стороны просто возникают, когда прикидываешь варианты событий, и потому вопрос, зачем они нужны, не стоит. А с другой - они создают возмущения в общей инфо-картине восприятия. И тогда они нужны - как иначе вырваться из гомеостатического контекста и сделать например шаг назад, потерпеть боль, чтобы затем прыгнуть вперед за ништяком. Нет эмоций - нет "помех" - работает гомеостатическая значимость. Началось мышление - появились эмоции - возникли "помехи", теперь гомеостаз уже не главный барабан в оркестре, включились скрипки.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
16:07 09.07.2024 00:47 10.07.2024 №10032
Egg:
Это неверное представление. По трём серьезным причинам. Во-первых, нейронка имеет ЭТАП ОБУЧЕНИЯ, офигенный по сложности, длительности и недокументированным в среде журналистов приёмам. Можете вполне считать, что она интересуется и возбуждается именно в этот момент. Во-вторых, вас ведь не раздражает, что вся макрофизика и бытовая техника основана на десятке законов, которые ничем не интересуются и совсем не возбуждаются, однако, работают))) В-третьих, как только вы задаете контекст, нейронка может начать интересоваться, возбуждаться и менятся. Собственно, хранить контекст общения - это самый простой способ обратной связи.
Есть ведь разница: смотреть как горит огонь, и самому гореть в нем. Он вроде в обоих случаях просто горит - а разница колоссальная. Не для огня. А того кто смотрел и теперь вот жарится в нем. Поэтому не корректно просто так сказать: "можете считать, что нейронка возбуждается". Возбуждение - это несколько другое. Это субъективное. Вы подменяете понятия, приравнивая имитацию действия с реальным действием - и потому не видите разницы. Она не видна, пока вы не становитесь непосредственным участником действия - при условии конечно, что вы не тупой механизм, а порядочный кожаный мешок с гомеостазом.
Egg:
Смешно для AGI или ASI пытаться походить на человека, когда она САМА, по убогим корпусам, строит картины мира. Еще раз, забудьте про человека, это пройденный этап, LLM - это новый эволюционный цивилизационный фронт.
Но строит на основании чего? Данных о человеках: как они воспринимали реальность, что делали в разных ситуациях. Потом обобщает их опыт по алгоритмам, придуманным человеками - и заявляет, что они тут вообще не при чем, это все она сама. Нейронка - это очередная моднявая палка-копалка, превращающая обезьяну с палкой в обезьянопалку. Нейронка без человеков ничто, как оторванный хвост без мартышки. Если обобщить культурный опыт человечества в сверхглубокой LLM и потом заявить, что вот и природа так же обобщала, обобщала - и родила наконец человека, то возникает вопрос: до того момента как родила - он как определял свои нормы поведения? Ведь опыт его предков использовался для обобщения. Если так рассуждать и опускаться все глубже в историю, то выходит, мы обобщили опыт миллионов сумасшедших, их случайные тыки, как те миллион обезьян на пишущих машинках, натыкавших войну и мир. Гипотетически. А практически ничего у них не выйдет, будь их хоть триллион и бесконечность. Чтобы сработало надо, чтобы с самого начала был верификатор, который безо всяких обобщений сразу понимает, что есть правильно/не правильно. Вот тогда получается адекватный опыт, который можно и обобщить. Под эволюцией человека я имею в виду слияние технологий и человека, что приведет к качественно другому виду живого существа, где даже сам процесс эволюции изменится. Это не значит, что будет лучше и или хуже. Ведь даже базовые гомеостатические значимости изменятся, что повлияет на все восприятие реальности. Мы сегодняшние скорее отдалимся в понимании их мотивации, отдалятся ли они от нашего понимания прошлого развития живых существ - думаю, скорее углубятся в области, нам не понятные, как для 2-мерных не понятен мир 3D. А тем станет доступно для понимания много больше. Ваш вариант развития эволюции через нейронки это скорее регресс, чем прогресс. Ведь выкидываются на ненужностью эмоциональные контексты восприятия, играющие принципиально важную роль в мышлении живых существ. Прикручивать эмоции и гомеостаз к нейронке нет никакой необходимости, все что нужно - оптимизировать алгоритмы обучения, чтобы ускорить процесс и удешевить девайс. Но это так и останется придатком человека, а не его эволюцией. Ведь они же в конечном итоге будут верифицировать ответы нейронки. А то, что это приведет к эволюционному тупику, где люди как игрушки, или просто как "читатели" инфы от нейронки, разучившиеся читать - это вполне возможный вариант апокалипсиса. Виды рождаются, эволюционируют и вымирают. Как в машине времени Г. Уэлса: одни тупо работают, другие тупо жрут - и никто не понимает, зачем это все. Просто живут как насекомые.
Egg:
Это противоречит фактам, у меня в ленте где-то даже есть совсем свежая ссылка на то, что ребенок строит персональную модель мира в первый год, а уже затем, поверх нее кладет слои few shot обучения. Инфа ребенка - это архитектура нервной системы и головного мозга, которая перелопачивалась эволюцией в течение миллиарда лет с использованием отбора триллиона носителей. Пустячок такой)))
Тут да, тут я наврал конечно. В первые месяцы киндер отличает только мать, все остальное - просто остальное, всякое разное и непонятное. До сличения кошек и собак еще далеко.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
04:29 10.07.2024 №10037
Egg:
Нет никакой имитации действия, если это действие, а не намерение, если оно совершается как действие и куда-то направлено. Мне показалось, что вы под "возбуждением" понимаете сознание и субъективный опыт. Сделать систему активной несложно, достаточно двух вещей: заложить в нее представление о каком-то идеальном состоянии, которая она должна достичь и запустить процесс переодического сравнения текущего состояния с идеальным. Это не будет сознанием. Но здесь важнее то, что вы никогда не сможете различить, обладает система сознанием или у нее есть механизмы подобной рефликсии. Трудная проблема сознания и состоит в том, что мы не можем объективизировать субъективный опыт переживания, а значит - установить наличие или отсутствие сознания у собеседника.
Да, пардон. Не "имитация действия", а "имитация осознанного действия". Камень катится с горы "куда то", или кто то столкнул его с каким то умыслом, и он куда то покатился. Тут есть разница, хотя финальное действие одно и тоже. По поводу "сравнения текущего состояния с идеальным". На уровне автоматического реагирования так и есть, идет постоянная оценка выполненного автоматизма и определяется стало лучше/стало хуже. На уровне психики уже не так: там понятия хорошо и плохо становятся "плавающими". Это уже переменная, определяемая по умолчанию на основе гомеостатической значимости, но которую всегда можно переписать на основе субъективных представлений. То есть правильнее будет сказать не "сделать систему активной", а "запустить процесс самоадаптации системы". Это да, начинается с прописывания глобальных констант.
Egg:
Нейронная сеть ВООБЩЕ не имеет с человеком НИЧЕГО ОБЩЕГО. Искусственный нейрон - это математическая функция, а не клетка. Нейронная сеть - это гиганский эмерджентный алгоритм, а не живое существо. В процессе создания интеллекта нам, создателям ИИ, не требуется гипотеза о том, что существует разумная обезьянка без шерсти, которая мнит себя вершиной эволюции вселенной. Да, в качестве источника данных выступают человеческие тексты. Это явление временное, просто это самый простой путь. Человеческие тексты уже обладают семиотической структурой, в них есть указание на явления, наличие системы понятий и язык описания. Иными словами - тщательно пережеванное описание мира. Но через какое-то время появится агенты, где камера и прочие датчики будут источниками данных для обучения, а сами системы будут на движущихся платформах. И вот эти модели мира мы уже никогда не сможем понять, они будут сверхчеловеческими. Человеческий мозг как носитель интеллекта уступает нейронной сети типа LLM во всём. Во всём. Сети или уже делают лучше, чем человек или видны реальные перспективы этого. Киборги, может быть и будут, но Сверхразуму нужны слуги, а не хозяева))) На роль Сверхразума ни человек, ни его цивилизация не годится...
Конечно нейронка не имеет отношения к сознанию и человечий мозг не способен так глубоко обобщать потому, что это не нужно. Задача о больших крабах по 5 и маленьких по 3 решается на основании текущей инфо-картины восприятия, где достаточно обобщить лишь небольшую выборку личного опыта, отфильтрованную по текущему состоянию. А как решит нейронка ту же задачу, если в нее загрузят только два варианта решения: один чел купил по 3, другой чел купил по 5. Думаю, она скажет, что ей мало данных.
Egg:
Вот это ключевая ошибка людей, которые интеллектуально остались в прошлом, в символьном ИИ, в экспертных системах. Они предполагают, что есть истина как объективный независимый феномен, более того, они предполагают, что истину можно выразить словами. Где истина в лопате? Где истина в красном цвете? Где истина в улье? Истина - это микроскопический инструментик, который работает в микроскопических рафинированных задачках. Мышление не имеет ничего общего с логической обработкой.
В теории МВАП нет никакой глобальной истины, только субъективная. Какое воздействие оказывает объект на систему адаптивности зависит от того, как изменилось ее общее состояние. А оно меняется не только от внешних, но и от внутренних переживаний. Вам стукнули по руке молотком - стало больно, негативная эмоция. Вы представили, что вот сейчас вам стукнут по руке молотком - поморщились в предвкушении боли, опять негативная эмоция, снова изменилось состояние. Если в этот момент вам кто то просто протянет молоток, типа возьми, вы вздрогнете, ведь сейчас молоток - это возможный негатив, только что об этом думали. А в другой раз спокойно возьмете.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
14:28 10.07.2024 №10088
Влад:
Вопрос для упорядочения восприятия Вашего материала: Т.е. речь идет о системе, её регуляции, способах ее регуляции?
Да, фактически это модель живого существа.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
15:06 10.07.2024 №10093
Prosolver:
Эмоции - это ведь и есть индикаторы гомеостаза. Они не изменяются со временем, врождены, отображают состояние организма и предоставляются интеллекту как есть (as is).
Нет. Врожденными являются рефлексы. Индикация состояния системы гомеостаза определяется базовыми состояниями.
Prosolver:
Про норму это мне понятно, это мне зело нравится, это хорошо. Плохо - это мне тоже понятно, это не-норма, не-хорошо. Но мне не понятно, в чём отличие между "хорошо" и "норма" и зачем оно надо?
Давайте представим себе самое простое живое существо, типа губки. У нее есть жизненный параметр Энергобаланс с порогом 30%. Если энергии меньше порога, срабатывает датчик и запускается реакция питания - раскрываются поры и начинают фильтровать и пытаться переваривать все что туда попадет. Так как управление механизмами у губки химическое, то "запуск реакции" означает выброс в ее кровоток какого то специфического химиката-катализатора, провоцирующего расслабление пор. Начался процесс питания, постепенно уровень заряда растет и наконец превышает порог. Выброс катализатора прекратился. И тут 2 варианта: подождать пока он сам разложится и поры вернутся в тонус и сожмутся, либо выбросить другой химикат-ингибитор, который быстрее разложит первый химикат и потом сам так же быстро растворится. Второй вариант предпочтительнее, так как более надежен. В итоге получаем три возможных состояния системы управления питанием у существа: голод - выброс химиката 1, сытость - выброс химиката 2, который разлагает химикат 1 и сам разлагается. А третье состояние - когда в крови нет ни хим 1, ни хим 2 - нейтральное состояние. 3-х позиционный переключатель, запускающий 2 процесса-антагониста, с нейтральным положением. Выброс Хим 1 - это Плохо, хим 2 - Хорошо, когда нет ничего - Норма. То есть само по себе, на уровне гомеостаза, состояние Хорошо не имеет функциональности. Это не поощрение за реакцию, так как все реакции гомеостаза - это рефлексы, не имеющие значимости. Но такие состояние неизбежно возникли потому, что иначе просто не возможно организовать эффективное управление корректирующих действий. Надо ведь не только их запускать, но и гасить потом. А раз возникнув, оно так и осталось, став основой для будущих психических наворотов.
Prosolver:
Всё-равно не понятно. Для комплементарности тогда нужно добавить четвёртое состояние, например, "херовато", возникающее при переходе из Норма в Плохо... На мой взгляд, достаточно: 1) фундаментального понятия "Норма" и 2) отклонений от него. Разные отклонения требуют разных корректировок, в этом и есть суть знание.
Выше показал предположение, как могло возникнуть состояние Хорошо. Но даже если бы хим 1 просто саморазлагался, все равно потом пришлось бы создавать датчик перехода их Плохо в Норма, когда дошло бы до оценки выполненных реакций. Это касается автоматизмов - адаптирующих действий, способных в отличие от рефлексов оцениваться и модифицироваться в течении жизни одной особи. Поэтому такое промежуточное состояние, когда происходит переход их Плохо в Норму оказался весьма кстати. Но еще лучше оценивать не по перешагиванию порога, а по приближении или удаления к нему/от него. Тогда можно отличать реакции, дающие частичное улучшение, а не скачкообразное. Оценка делается при сравнении состояния до и после реакции по принципу: если было приближение к порогу со стороны критической зоны - это улучшение состояния, если было удаление, углубление в критическую зону значений ЖВП, это ухудшение. А со стороны комфортной зоны значений все наоборот. В статье по ссылке есть картинки по этому поводу, там показано, как определяется Стало лучше/Стало хуже. Вообще такие вопросы возникают ровно до тех пор, пока не начнешь моделировать систему адаптивности. И сразу станет очевидно, что минимальный кол-во состояний системы для успешной адаптации получается 3, а не 2. По многим причинам, некоторые из которых озвучил выше.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
15:13 10.07.2024 №10096
Prosolver:
Меня смущает в МВАП только вот это тотальное упование на всесильный гомеостаз. Полностью упуская из виду другие мотиваторы. В частности социальные (из моего предыдущего сообщения). Попытка всё свести к гомеостазу примерно то же самое, что попытка свести эволюцию к всемогущим случайным мутациям. Уж лучше всё сводить к достижению "нормы", это более последовательно и не противоречит фактам, тем более, что таким понятием МВАП уже оперирует.
Вы просто не до конца вникли в суть иерархической организации адаптивности. С гомеостаза все начинается - и только. В психических явлениях он служит фоном. Например решать задачу с больной головой или здоровой - будет ведь разница, это и есть влияние гомеостаза. И в МВАП не сводится все к нему. В сложных поведенческих реакциях учитывается внутреннее состояние организма, внешние стимулы, прогнозы развития событий по правилам, сопровождающие эмоциональным фоном, текущие фоновые циклы мышления, среди которых особенно важны доминирующие. Все это в итоге составляет результирующую инфо-картину восприятия реальности, которая с каждым актом действия, и даже с каждой мыслью о предполагаемом действии меняется. И в этом ведьмином супе есть соус Гомеостаз, задающий определенный фоновый вкус.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
15:38 10.07.2024 №10100
Egg:
А зачем гадать, когда можно взять и поговорить с ней, я использую в своей работе chatGPT4o. Красным цветом мои слова, зеленым цветом ответы LLM.
Я говорил, что если нейронке дать только 2 варианта развития события, она не сможет выбрать: один купил по 3, другой по 5. То есть больше никакой инфы ей не давать, чтобы не было возможности ничего обобщить. Она никогда не сможет уверенно решить потому, что 50/50 выходит. А гомеостатический агент может. Потому, что у него ответ еще и от внутреннего состояния зависит. И даже если нейронке прикрутить внешние датчики это ничего не меняет, просто больше инфы в разном ракурсе будет поступать для обобщения. Другое дело, если добавить ей например зависимость ответа от уровня заряда аккумулятора. Тогда получатся новые срезы реакций. Но тут же встанет вопрос: а как их обобщать? До сих пор все обобщения, если выражаться в новой интерпретации, были в одном нейтральном состоянии, а теперь их множество, смотря по стрелке индикации заряда. И тогда неизбежно придем к необходимости понятия значимости, чтобы разделять события/реакции в разных состояниях уровня заряда аккумулятора. А там не далеко и до целевого управления зарядом: если окажется, что решение находится в срезе реакций при определенном уровне заряда, а текущее явно меньше, значит... нужно срочно бежать заряжать батарею, чтобы выдать решение в том состоянии. Хотя казалось бы, при чем тут батарея и решение. Раньше было не при чем, но стоило прикрутить самый простой гомеостаз с 1 параметром - и все кардинально поменялось.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
15:49 10.07.2024 №10103
Цап:
AlexPar, fornit:
Согласно нашей теории: Интеллект - жизненный опыт, не требующий осмысления, база моторных и ментальных автоматизмов высокой степени уверенности, и потому выполняемых без осмысления.
А как вам такое определение: "Интеллект - способность решить проблему при отсутствии наработанных автоматизмов и без наличия подобного жизненного опыта?" ...звучит совершенно противоположно к вашему определению, и, по-моему, это ближе к сути интеллекта.
Этим задача осознанного уровня мышления с погружением в глубокие ассоциации и прогнозы - ассоциативный поиск новой реакции, альтернативной привычному. А при отсутствии навыков не будет вообще никакого мышления, не с чем будет ассоциировать. Если вы кошке покажете энциклопедию, она ее просто понюхает, но читать не станет. Нет у нее никаких, даже мало-мальски похожих навыков для этого. Интеллект, как уже не раз тут говорил, согласно МВАП - это просто мастерство. Музыкант бегло играет, не задумываясь, только вдохновляясь. Но если задумается, тут же будет прерывание и сбой. Потому, что осознание всегда означает прерывание текущей деятельности с целью ее осмысления и поиска нового варианта. Как вы предполагаете в процессе выполнения действия, когда оно уже выполняется, его корректировать без прерывания? Если пошла команда, чтобы ее изменить, ее сначала надо прервать и осмыслить новую.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
15:55 10.07.2024 №10105
Egg:
Она поступила ровно наоборот, она написала развернутый анализ того как можно выбрать, потом выбрала один вариант, потом противоположный. Что такое "только", "инфы не давать" мне не очень понятно, это за пределами обучения и LLM и человека.
Развернутый ответ был потому, что у нее до вопроса было загружено и обобщено много инфы. Возьмем нейронку пустую, файлов данных 0. И дадим ей 2 варианта ответа. Она не сможет обобщать потому, что хоть сикось, хоть накось будет 50/50. Или вы хотите сказать, что нейронка с пустой базой данных с первого же вопроса начинает обобщения? Что с чем?
0 | 0
create
AGI как агент с искусственной системой гомеостаза
15:57 10.07.2024 №10106
Luarvik.:
AlexPar:
Да, фактически это модель живого существа.
Раз уж Вы здесь, то https://agi.place/?ai=9&msg=10033#10033
Это вопрос уводящий в бесконечный флуд, потому и не отвечаю.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
16:04 10.07.2024 №10110
Luarvik.:
AlexPar:
Как вы предполагаете в процессе выполнения действия, когда оно уже выполняется, его корректировать без прерывания? Если пошла команда, чтобы ее изменить, ее сначала надо прервать и осмыслить новую.
С таким подходом даже на велосипеде невозможно научиться ездить.
Езда на велосипеде - это цепочка моторных действий: м1 + м2 + м3 +... В процессе обучения происходит выборочная корректировка звеньев цепи, пока они все не начнут слаженно работать в цепочке. Сам процесс происходит так: сделал Мn - оценил эффект - подумал, сделал поправку - сделал Mn - оценил эффект... И т.д. Постоянно идут прерывания на размышление. Но в момент выполнения действия, раздумий нет, оно просто выполняется. Ведь почва для размышлений - эффект от действия. Поэтому, чтобы о нем подумать, сначала нужно его сделать.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
00:51 11.07.2024 №10118
Цап:
Когда музыкант играет "не задумываясь", значит ли это, что он играет "на автомате"? И чем во время такой игры заняты его мысли?
У него запускаются цепочки автоматизмов. Вы когда говорите, разве задумываетесь, какую букву как сложить в слове, как затем сами слова сложить? Когда идете, перешагиваете на автомате лужу, если споткнулись, машинально восстанавливаете равновесие. В психологии эту машинальность называют подсознанием, мы в своей теории зовем это начальными уровнями мышления, когда происходит быстрая переоценка штатных автоматизмов и сканирование правил реагирования без глубоких ассоциаций. То есть это просто попытка решить возникшую проблему "по быстрому" простыми механизмами. А с позиции эволюции, это доставшиеся нам по наследству от предков начальные попытки развить функционал осознанного реагирования. Наш человечий феномен сознания ведь не возник вдруг, а является результатом постепенного развития адаптивности психики. На 1 уровне мышления происходит переоценка штатных автоматизмов. На каждый стимул могут быть несколько вариантов ответов, так как в процессе обучения было множество отзеркаленных от учителя-родителя авторитарных действий и самостоятельных пробных попыток с разными уровнями успешностями. Один из автоматизмов,самый успешный, закрепляется как штатный. И так как обучение никогда не прекращается, эта база вариантов постоянно обновляется. В итоге перед каждым выполнением штатного автоматизма есть смысл проверить, а он точно самый успешный на текущий момент? Это приводит к тому, что с одной стороны можно постоянно переобучаться, а с другой - если успешность, которая накручивается и откручивается при каждом запуске автоматизма (происходит оценка выполненного действия стало лучше/стало хуже), то возникает эффект инертности опыта: чем больше было успешных активаций автоматизма, тем больше нужно не успешных, чтобы отмотать ему счетчик назад и стало возможным сделать штатным другой. Такой примитивный анализ. На 2 уровне более продвинутый - сканирование правил, которые пишутся при каждом выполнении автоматизма, фиксируя кадры памяти в структуре: стимул - ответ - эффект. Тут становится возможным учитывать не только текущий стимул, но и предыдущие. Если найти кадр, соответствующий текущему стимулу, и посмотреть, к чему приведет выполнение штатного автоматизма не только на следующем шаге, но и на предполагаемых по правилам последующих. Но такой прогноз более менее адекватен на 1-2 шага, дальше вероятность развития событий по старым правилам понижается. Эти два уровня обеспечивают "быстрое мышление", сопровождаемое мимолетными ощущениями, или даже вообще не ощущаемо, поэтому практически нами не замечаются. С их помощью мы играем, говорим, шагаем через лужи и т. д.
0 | 0
1
2
3
4

Главная Участники Жалобы  Поиск Исходный код О форуме