|
Сообщения участника "AlexPar" | |
| |
create
|
AGI как агент с искусственной системой гомеостаза |
12:12 07.07.2024 |
|
12:24 07.07.2024 |
|
№9948 |
Всем привет! Вот уже 4 года наша команда (нас пока двое) на голом энтузиазме занимается практическим моделированием индивидуальной системы адаптивности на основе теории МВАП (Модель волевой адаптивности психики). Проект назвали Beast. Сама теория рождалась в течении более 30 лет. Это относится к разработке искусственных систем, обладающих сознанием. Но не знаю какая аббревиатура для них полагается, поэтому пусть пока будет AGI. На сегодняшний день в работе уже третья версия прототипа, есть несколько публикаций в ВАК журналах и множество материалов по теории: статей, рецензий на чужие статьи, книг. Вообще темой гомеостатических агентов мало кто занимается, мне попадалось лишь несколько ссылок, но там в основном теория и общие рассуждения, в редких случаях какие то элементы психических механизмов. Мы пытаемся как то повлиять на это, изменить устоявшееся убеждение, что понятия разум, сознание – это что то запредельно сложное и непостижимое, а потому невоспроизводимое в искусственных системах.
Суть идеи в следующем: невозможно получить субъективное восприятие у искусственной системы индивидуальной адаптивности, если у нее нет базовой системы значимости. У живых существ это система гомеостаза, определяющая гомеостатические цели реагирования. Они состоят в том, чтобы поддерживать в пределах оптимума значения критически важных жизненных параметров, выход за пределы которых уничтожает систему. То есть собственно отличие живого объекта от неживого состоит в наличии или отсутствии у него системы гомеостаза. Поэтому, если ставится задача создать ИИ, способный к субъективному восприятию реальности, произвольности выбора – это должна быть система с искусственным гомеостазом. То есть, проще говоря: система должна быть живой, причем не в аллегорическом смысле, а прямом. И вся адаптивность, вплоть до высшей нервной деятельности, строится на основе гомеостатических целей.
Звучит диковато потому, что понятие «живое» привычно воспринимается только по отношению к биологическим организмам, а не механизмам и тем более программам. Но один из постулатов теории МВАП:
Основные принципы и механизмы эволюционного развития индивидуальной адаптивности не зависят от способа их реализации и могут быть реализованы любым подходящим способом, в том числе на дискретных электронных элементах и даже программным путем.
Все материалы по проекту собраны на p-mvap.ru. Здесь готов ответить на все вопросы по нему.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
15:03 07.07.2024 |
|
15:14 07.07.2024 |
|
№9956 |
Prosolver: Программная реализация прототипа есть? Или пока только теория?
Есть уже третья версия программной реализации в виде прототипа.
Prosolver: Сам раньше так думал, потом отказался от этой идеи. Вы, видимо, являетесь последовательным сторонником эволюционной парадигмы, и пытаетесь, как и многие до Вас, натянуть сову на глобус выразить интеллект через выживание. Но это дохлый номер, каждый год примерно 1 миллион интеллектов очень изобретательно заканчивает своё существование суицидом. Да и вообще люди ведут свои жизни из рук вон плохо, едят не пойми что, колются непроверенными вакцинами, ходят по тёмным подворотням. Поэтому интеллект это не про выживание. Интеллект - это про создание механизмов для любых целей. В том числе для выживания, как частный случай.
Согласно нашей теории:
Интеллект - жизненный опыт, не требующий осмысления, база моторных и ментальных автоматизмов высокой степени уверенности, и потому выполняемых без осмысления. Формируется при помощи информационных функций, выдающих вариант решения, чтобы затем использовать его как пробный, при прогнозировании последствий предполагаемых действий, через субъективную оценку «станет Лучше» или «станет Хуже». Успешно выполненный пробный вариант действий добавляется в базу автоматизмов.
Разум - способность использовать механизмы творчества для решения новых проблем.
Цель реагирования живой системы:
Гомеостатическая - вернуться в базовое состояние Норма
Ментальная - достижение заданного результата решения проблемы, получившей произвольно высокую значимость.
Ментальные цели могут перекрывать гомеостатические, так как возникают в процессе интеллектуального поиска решения в виде построения прогнозов последствий реагирования. Но гомеостатические цели всегда предшествуют ментальным. Это по поводу суицида.
Prosolver: Когда математик выводит, например, формулу решения уравнений, у него в гомеостаз что приходит?
Он решает отложенную задачу ставшую доминирующей. Решение вызывает вознаграждение – эмоциональное удовлетворение. Гомеостаз тут заложен как и во всей психической деятельности в виде фоновых стилей реагирования: решать можно будучи голодным, злым, усталым и т. д. И в каждом случае результат будет иной, в том числе и само желание что то решать.
Prosolver: Благодарю за заполнение анкеты, сразу ясно к какому идеологическому кластеру Вы себя относите. Непонятно только, основная функция интеллекта всё же "поддерживать гомеостаз" или "создавать новое". Мне кажется это взаимоисключающие вещи. Потому что стремление к новому это нечто противоречащее гомеостазу. Как Вы решаете это противоречие? Также в анкете Вы отметили, что для ИИ необходимы эмоции. Зачем?
Функциональность механизмов сознания – нахождение действия, альтернативного привычному. Это не возможно сделать одними лишь прогнозированиями по правилам реагирования, формируемых на основе кадров эпизодических памяти со структурой: Стимул – Ответ – Эффект. Требуется более глубокое абстрагирование, поэтому ментальные автоматизмы (ветвление мыслей) «модулируются» уже не гомеостатическими стилями поведения (базовыми контекстами) как рефлексы и моторные автоматизмы, а эмоциональными, которые по умолчанию ассоциируются с гомеостатическими, но могут произвольно меняться. Эмоции нужны, чтобы действовать вопреки гомеостазу, чтобы находить альтернативные решения.
Prosolver: Это что-то библейское? Хотите устроить апокалипсис?
Какая разница как называть.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
15:11 07.07.2024 |
|
15:23 07.07.2024 |
|
№9957 |
Egg: Желательно это показать, вот LLM относится к AGI потому, что умеет строить модели внешнего мира. Просто обладать сознанием, мне кажется, не достаточно. Вот по Лаврику даже отдельная клетка обладает сознанием, но она ведь не тянет на AGI.
Показать что – продемонстрировать наличие сознания у прототипа?
Egg: Прямой смысл жизни - это способность к репликации, ваши системы умеют себя воспроизводить?
Нет проблемы сделать робота, делающих других роботов. У нас программный прототип. Определение жизни в нашей интерпретации это то, что имеет систему поддержания параметров стабильности существования с помощью не менее, чем следующих адаптивных стилей поведения: поисковое, пищевое, оборонительное, агрессивное и репликационное. А в кратком определении – это просто функционирование системы гомеостаза, которая и задает эти минимально необходимые стили для выживания вида.
И в определении гомеостаза живого существа главное не перечень регулируемых жизненных параметров, а перечень адаптивных стилей поведения для их регулировки. Так, пищевое поведение - не обязательно пополнение глюкозы. Для одних пищевой стиль регулирует уровень глюкозы, для других - керосина, для третьих - заряда аккумуляторов.
Egg: А какие еще есть варианты, кроме "программного" пути? (всяческие FPGA я отношу к этому же классу)
Например, на дискретных элементах типа нейристоров. Там будет отличная от программной реализация, но принципы будут аналогичны.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
15:41 07.07.2024 |
|
15:46 07.07.2024 |
|
№9959 |
Egg: Показать, что достаточным условием AGI есть наличие сознания.
Мы как бы о разном говорим. Интеллект != сознание так же как мастерство != творчество. Поэтому AGI как способность делать все более глубокие обобщения может развиваться сколь угодно и это само по себе не будет движение к сознанию, и даже к ощущению потому, что это не нужно для моторных действий. Это собственно и подтверждают существующие модели, где нет никаких ощущений и гомеостазов.
Мы разделяем 4 уровня сознания в прототипе:
Первый уровень – отслеживание моторных автоматизмов, готовых выполниться в данных условиях. В опасной ситуации они просто выполняются, в противном случае проверяется возможный вред и последствия выполнения так, что автоматизм может быть заблокирован и выполнен найденный альтернативный или вообще не совершено действие. Этот уровень не вносит ощутимую задержку на обдумывание, если только не встречается малознакомый объект при напряженной ситуации.
Стоит учитывать, что кроме моторных автоматизмов есть класс реакций на основе психики, которые обычно относят к неорганической психопатологии в виду их чрезмерности и навязчивости, но на самом деле являются психосоматическими автоматизмами, у которых есть как полезная функция, так и негативный субъективный эффект.
Второй уровень – если на первом уровне не найдено решение – попытка найти подходящее действие, используя Правила. Это уровень импровизации имеющих достаточный опыт особей. Так ведутся шахматные партии-блиц, делаются артистические экспромты, ведется беседа.
Третий уровень – раз не найдено решение, то необходимо мышление об этом. Мышление может проходить в двух режимах: 1) есть определенная цель, задающая направление - активный режим решения проблемы и 2) в спокойном состоянии нет определенной цели и необходимости решения проблемы - пассивный режим.
Мышление - это изменение общей информационной картины при запросах к информационным функциям в течении цикла решения проблемы. В контексте текущего состояния инфо-картины выбирается подходящая информационная функция для получения целевой информации, после чего полученная информация дополняет информационную картину.
Этот процесс может идти до нахождения решения проблемной ситуации или цикл мышления прерывается более актуальными стимулами и переходит в фоновое состояние, где (в неосознанном состоянии), по возможности, продолжается решение проблемы.
Циклы мышления возникают на третьем уровне осмысления, если не первых двух не удается найти подходящее целевое действие. Для поиска решений в различных режимах осмысления (бодрствование, сновидение, мечтания, лень) и текущей особенности ситуации – используются Информационные функции - в каждом из шагов итерации мышления.
Четвертый уровень – если решение целевой проблемы не находится более 3-х раз, создается Доминанта нерешенной проблемы – постоянно существующая структура, где запоминается проблема, условия и попытки ее решения.
Доминанта активируется во многих местах адаптивных механизмов и позволяет находить решение новым способом – по аналогии. При удачном решении и его реальной проверке, доминанта закрывается (закрытие гештальта), но остается в базе опыта решений.
Доминанта — это просто пролонгированная важная Цель. Повышенное время существования Доминанты повышает шансы найти решение по аналогии с уже совершаемым действием.
Активная Доминанта, если она есть, все время сопровождает появление новой инфы восприятия так, чтобы была возможность найти решение по аналогии. Решенная Доминанта является третьим типом формирования автоматизмов на уровне пятой ступени развития: творческое формирование автоматизма. Решенные Доминанты являются источниками личного опыта и аналогов решения проблем.
Egg: Вау! Тогда вам нужно к Маску, он то ли пять десятков ядров то ли сотню выложил на решение этой проблемы. И пока (вслед за всем научно-инженерным сообществом) не знает как. Хорошо, что вы знаете. Мой любимый вопрос традиционно относится к геологоразведке лития и цинка.
Здесь не понял. Я про процесс копирования, конвейер штампующих роботов. Вы судя по всему про проектирование.
Egg: Внутри программного прототипа выживание - это вообще не проблема. Проблема рубильника - вот проблема в программном прототипе.
Проблема внезапного астероида в 100 км также пока не решаема для нашей белковой формы жизни.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
16:06 07.07.2024 |
|
16:38 07.07.2024 |
|
№9961 |
Egg: Ой. Это вы начали говорить, что сознание = AGI. Покажите, если начали. Если не можете показать, не говорите.
Я сказал, что не знаю, как по буржуйски называется то направление, которым мы занимаемся, и типа пусть пока будет AGI. Но да, согласен, что это вряд ли корректно. Но из альтернатив попадалось только гомеостатический агент, как то не очень звучит.
Egg: А конвейер тоже роботы наштамповали?
Репликация, как механизм, легко воспроизводим алгоритмически. Поэтому говорить о нем, как обязательном атрибуте только живых существ не корректно. Я только это имел в виду. При чем тут кто создал механизм и прототип реплики?
Egg: Отключение сервера все-таки более вероятное событие, давайте вернемся к нему. На уровне кода НЕТ НИКАКОЙ ПРОБЛЕМЫ ГОМЕОСТАЗА, там нет никаких обменов и нет никакой среды. Это вам всё показалось. Там память и адресный конвейер процессоров. Всё.
В прототипе запрограммировано, что при уменьшении параметра Энергобаланс до близких к 0 модель умирает – тупо вырубается. Включить обратно можно, если залезть в файлы настроек и вручную поправить параметры. Это реальная проблема для прототипа – без внешнего вмешательства оператора он не оживет. Штатное же выключение это просто для удобства, чтобы не держать комп все время включенным.
Egg: Код ваш на go я посмотрел, качество приемлемое, но имплементации сознания не нашел((((
Если искать в коде - это пакет undestanding
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
Luarvik.: Прямой смысл жизни - противодействие необратимому распаду (смерти).
Смерти вида. Что и обеспечивается наличием системы гомеостаза, позволяющих реализовать минимально необходимые для этого стили поведения: поисковый, пищевой, оборонительный, агрессивный и репликационны. Для этого в простейшей реализации не требуется ни сознания, ни ощущения, достаточно тупо механически (рефлекторно) реагировать + достаточная плодовитость, чтобы был шанс хоть кому то уцелеть. А вот вопрос, зачем тогда понадобилось сознание, самоощущение, если "и так все работает" - мы и пытаемся показать в теории МВАП и на примере реализации прототипа.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
Luarvik.:AlexPar:
Смерти вида.
Какого вида ?!
Да ни одна живая тварь про вид свой даже не догадывается, и ничего не знает, что она оказывается какого-то вида-рода-типа...
Ей не нужно догадываться. Просто, если ее рефлексы гомеостаза не будут выдавать определенные реакции, она погибнет, не оставив потомства. Поэтому выживают и размножаются только те, кто правильно реагирует.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
Luarvik.: Жить можно и не размножаясь. И из чего следует, что жизнь с потомством лучше жизни без потомства ?
Живое существо кто то должен родить. Это не вопрос выбора, что лучше. Если бы репликационный стиль реагирования не закрепился в виде инстинкта, все живое тупо вымерло бы. Поэтому репликация обязательный атрибут живого существа.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
Egg:AlexPar: Репликация, как механизм, легко воспроизводим алгоритмически.
Еще одна новость для меня, мы, вот, например, с фон Нейманном так не считаем. Ему потребовалось 29 состояний для того, чтобы описать такой автомат. Вас не затруднить дать ссылку на ваше решение.
Фон Нейман создавал свой автомат чтобы продемонстрировать алгоритм автоматического копирования элементов механизма, по сути он представил вариант алгоритма репликации ДНК. В нашем случае достаточно в принципе просто скопировать файлы первичных настроек, интерфейсные и экзешник, потом запустить его. Но мы пошли даже дальше, создав сервис обмена настройками, когда агенты, обучаясь независимо могут передавать свой опыт друг другу. Как в "Матрице": воткнул в башку электрод - и через несколько секунд: я знаю кунфу! Но по факту это более менее работало только в начальных, бездумных стадиях развития. На уровне первичного осмысления, когда начинает формироваться эпизодическая память и правила реагирования, сложности нарастают настолько, что нет особого смысла этот сервис развивать. Нужно ведь не переписывать существующий опыт, а добавлять новый, не разрушая старый. Я думаю вообще его убрать, агенты вполне могут общаться естественным путем, просто посылая стимулы друг другу.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
В программе нельзя задать команду копировать файлы по каким то условиям? Вообще, это вопрос вторичный. Вроде как вопросы предполагались по теории сознания МВАП - что там не так, что принципиально не позволяет создать искусственную систему индивидуальной адаптивности?
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
Вы мне лучше скажите: искусственный разум возможно создать? Если да, то как, если нет - то почему.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
Egg:AlexPar: Вы мне лучше скажите: искусственный разум возможно создать? Если да, то как, если нет - то почему.
Я последнее время не люблю употреблять слово искусственный или сильный. Разум он либо есть, либо его нет. Различать можно человеческий и машинный. Машинный интеллект создать можно и он уже создан. Это Large Language Models с текущими реализациями от ведущих игроков, таких как OpenAI.
Я различаю интеллект, как мастерство, и разум как творчество. И насколько я понимаю, "трудная проблема сознания" как раз относится к вопросу разумной деятельности.
Мастерство, оно же ремесло - это прогноз по правилам реагирования, перебор готовых вариантов. Для этого не требуется глубокого осознания, часто мы вообще практически не осознаем, как работают прогностические функции на 1 и 2 уровне сознания. Например, когда музыкант играет, он не думает каким пальцем на какую клавишу нажимать, он как бы "наблюдает процесс со стороны", готовый в него вмешаться и что то подмешать. Так же когда мы пишем, говорим: мысль мелькнула - я ее озвучиваю. Насколько ладно и складно - это зависит от опыта подобных действий. Если опыта очень много, функции прогнозирования способны ворочать огромные массивы, возникнет иллюзия способности к творчеству. Иллюзия потому, что творить означает создавать нечто совершенно новое, а не находить вариант готового решения, как это делают нейросети.
Для этого не достаточно скажем так, "линейных прогнозов", нужны глубокие ассоциации, надо уметь перескакивать с одной "плоскости мышления" на другую, искать "в объеме". Но возникает проблема: что будет управлять третьей координатой? Эта задача не решаема для нейросетей потому, что требует произвольности выбора. Сколько бы ей не закачивали данных, она всегда будет оперировать только ими и никогда не выйдет из своей "плоскости мышления".
Для этого необходим внутренний цензор, который определяет, что такое хорошо и плохо, без внешних подсказок. У живых существ эта оценка начинает формироваться в системе гомеостаза, затем добавляется личный опыт на основе правил с кадрами ЭП в структуре Стимул - Ответ - Эффект, на основе правил формируются модели понимания, определяющие ментальный стиль восприятия/реагирования. В итоге восприятие реальности происходит в виде значимых образов, а не просто стимулов, к которым привязана какая то реакция. А значимость имеет в своей основе гомеостатические эффекты. Красный огонь горячий, красный перец жгучий - при таком опыте, все красное будет восприниматься как причиняющее боль.
Это конечно может зашить оператор в виде начальных параметров и нейросеть тоже начнет реагировать и прогнозировать реакции на красное. Пока не столкнется с розовым. Снова кто то должен ей указать "коэфф. смещения" для розового по отношению к красному. И так всякий раз, когда возникнет встреча с новым - надо звать оператора.
У существ, имеющих систему гомеостаза, такой проблемы нет. Это их "черный ящик", который всегда выдаст, какую значимость имеет стимул, в зависимости от того, как он повлиял на их гомеостаз. От этой первичной значимости затем строятся многоуровневые абстракции, что в итоге позволяет реагировать на стимулы, непосредственно никак не влияющие на гомеостаз, например вербальные. Если начать отслеживать "смысл слова" в виде ощущений, которое оно вызывает, в конечном итоге он сведется к какой то гомеостатической значимости или их комбинации. Поэтому процесс мышления неизбежно сопровождается эмоциональными переживаниями.
Когда идет прогноз по стимулам, ассоциированным с какой то значимостью, возникающие эмоции сами становятся источником возбуждения и направляют прогнозы, формируя эмоциональные контексты. Так постепенно начинает зарождаться "гомункулус", который не решает, какую клавишу нажимать при игре на пианино, но определяет, что я собственно хочу сыграть.
Функциональность сознания - нахождение решения, альтернативного привычному. В первом приближении задачу можно решить, добавив эмоциональные переживания, для этого нужна система гомеостаза. Следующий этап - формирование циклов мышления, когда задача не решается в текущем сеансе осознанного привлечения внимания, но имея высокую значимость, откладывается "на потом", оставаясь в фоновом цикле и тоже, подобно эмоциям, формируя свой контекст, влияющий на ветвление мыслей. Наиболее значимые становятся доминирующими и могут сохраняться годами. И весь этот винегрет гомеостатических состояний, эмоций, отложенных проблем, вместе с постоянно поступающими снаружи новыми стимулами формируют итоговую инфо-картину восприятия.
Это приводит к тому, что становится возможным по каким то казалось бы не имеющим отношение к текущим проблемам стимулам, находить решения. Какой то раздражитель становится триггером, спускающим целую лавину мыслей, напрямую с ним никак не связанную. Так возникают инсайды. А в более приземленном варианте просто мысли из ниоткуда и возникает иллюзия, что кто то сидит в голове и управляет моими действиями и даже желаниями. Но по факту это результат очень сложно-детерминированного взаимодействия множества внешних и внутренних факторов. Задача трех тео считается сложной, а тут их миллионы и триллионы, поди подсчитай. Поэтому программировать разумную деятельности не получится, но она формируется из вполне себе программируемых механизмов.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
12:52 08.07.2024 |
|
12:53 08.07.2024 |
|
№9992 |
Prosolver: Можете дать прямую ссылку, если не секрет.
p-mvap.ru - "Программный код: Актуальная версия Beast".
Prosolver: Какие обстоятельства обуславливают присвоение некоторой проблеме/задаче высокой значимости?
Изначально - эффекты гомеостаза. Сунул руку в огонь - больно - негатив. Теперь образы, хотя как то ассоциирующиеся с огнем будут вызывать негатив, смотря по глубине ассоциации.
Prosolver: Посмотрел материалы у Вас на сайте, к сожалению, не все страницы у меня открылись, Вы бы не могли прояснить ряд вопросов:
- восприятие у Вашей "Твари" работает "от рецепторов к модели" или "от модели к рецепторам"? Что первично, объекты, реально существующие во внешнем мире, которые надо продетектировать и распознать, либо объекты генерируются, как модели, и после этого верифицируются на рецепторах?
- причинно-следственные отношения реально существуют во внешнем мире и выявляются существом, либо устанавливаются интеллектуальным существом и востребованы только им? Если устанавливаются, то при каких условиях последовательность событий запоминается как причинно связанная?
Тварь сейчас подобна слепоглухонемому ребенку, причем с рождения. Единственный канал связи с внешним миром - пульт, в него же она выводит свои ответы. Воспитание такой твари похоже на реабилитацию слепоглухонемых детей, но еще сложнее, ввиду ограниченности сенсорного восприятия и очень упрощенного гомеостаза. Однако, как и в случае со слепоглухими, это позволяет более наглядно моделировать и изучать конкретные психические механизмы согласно теории МВАП.
Prosolver: Название подбирается по выполняемой функции. Вы назвали своё изобретение Beast (Зверь), хотя в презентации переводите как Тварь (Creaure), заявляя, что делаете живое существо (Alive), но при этом претендуете на искусственный интеллект и сознание. Видно, что Вашей командой проделана большая работа, но я пока не могу свести концы с концами, чтобы понять, что именно Вы хотите сделать (животное/человека/интеллект/сознание) и что Вы уже сделали. Многое в Ваших текстах мне близко и понятно, но некоторые места вызывают вопросы.
Что Вы ожидаете от общения здесь на форуме? Какую цель Вы себе ставите?
Предлагали ли Вы свою работу в группу AGIRussia?
Просто в очередной раз верифицировать теорию МВАП, получить конструктивную критику. Работу предлагаем и показываем всем до кого дотягиваемся. Но к сожалению, уже на стадии разговоров и создании искусственного живого существа программным способом, начинает проявляться неприятие и не понимание.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
16:50 08.07.2024 |
|
17:01 08.07.2024 |
|
№10002 |
Egg: Скорее всего, вам нужно общаться с другими людьми, здесь полна горница гуманитариев, они, уверен, поддержат ваши обсуждения. Кроме того, я понял, что вы не интересуетесь западными материалами, а я большой скептик в отношении русских)))
На форните много рецензий на книги, относящиеся к области ИИ, в том числе иностранных авторов. Но вы видимо имеете в виду материалы по LLM. Тут да, не комментируем потому, что считаем, это не относится к понятию разум, сознание. Да и многие разработчики ИИ это подтверждают. Это журналюги поднимают вой и раздувают сенсации, в погоне за хайпом.
Простой вопрос: о чем думает нейросеть, когда ее ни о чем не спрашивают? Подозреваю, что ни о чем, она в режиме ожидания. А человечий мозг "думает" постоянно, особенно когда его ничто не тревожит снаружи. Это в нашей модели называется "пассивным режимом мышления" и подозреваю, что его более всего можно отнести к тому, что подходит под философское понятие "сознание".
У меня возникает впечатление, особенно после просмотра видео от Дэвида Иглмана, что сейчас вплотную подошли к решению вопроса, что такое сознание, разум, но так как каждый копается в своей песочнице, не удается обобщить коллективный опыт в одно целое. Буквально нужен легкий щелчок по носу. Потому, что проблема понимания сознания лежит на стыке разных наук, а не одной из них.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
Сергей Шувалов: Мне понравилась ваша теория МВАП. Практически во всём её поддерживаю, как теорию и как ключик к замку двери, открывающий один из путей к созданию действующего устройства обладающего основными признаками жизни и интеллекта. Предлагаю взаимовыгодное сотрудничество в научных и практических изысканиях помогающих продвижению к желаемой общей цели. Что конкретно вы предлагаете?
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
17:31 08.07.2024 |
|
17:35 08.07.2024 |
|
№10006 |
Egg: Нет, разработчики ИИ считают иначе. Вот я, например, считаю иначе.
То есть вы считаете, что нейросети обладают сознанием, которое подразумевает субъективное целеполагание? Насколько я понял, вы просто не разделяете эти понятия, хотя они разделяются. Как уже говорил, нейросетевые технологии используют функции обобщения и прогноза развития ситуации, которая так же используется у живых существ с теми же целями, и которая по сути является определяющей их степень интеллектуального развития. Это выглядит похоже на осознанную деятельность просто потому, что действительно используется живыми существами, в разной степени, при осознанном построении моделей поведения. То есть мы просто по своему подобию воспринимаем это как осознанное целевое поведение: рак машет клешней - приветствует, дельфин улыбаясь стрекочет - радуется нам. Но вот бурлящую Солярис не просто с чем то своим ассоциировать - тут затуп.
Egg: Тут очень многое зависит от архитектуры сети и ее задач. Есть все таки разница между нажатием кнопки, после чего запускается сложный механизм, и работой механизма, который никто не запускал. Нейросеть не ставит себе задач кроме тех, и в контексте тех, которые ей задает оператор. Потому, что у нее нет системы гомеостаза, которая ставит первичную задачу у живых существ. Нейросети это не нужно.
Egg: Это неверно и противоречит фактам. Это называется сенсорная депривация, во время ее человек спит и галсиюцинирует. К сознанию это не относится. Длительное лишение внешних раздражителей может привести к чрезвычайному беспокойству, утере связи с реальностью, галлюцинациям, депрессии, неспособности концентрироваться и асоциальному поведению, которые впоследствии могут привести к посттравматическому стрессу. Состояние депривации не является нормой для человека, для функционирования мозга нужен постоянный раздражитель.
Тут согласен, не удачно привел аналогию. Имелось в виду, что даже если нет внешних значимых сигналов, способных привлечь внимание, но есть сигналы малозначимые, а они всегда есть, мозг найдет чем себя занять, решая огромное кол-во отложенных задач. Можно попытаться создать такую архитектуру и у нейросети, чтобы она "думала" о своих доминантах. Но это столкнется с проблемой: а как она будет определять приоритеты, делать выбор между примерно одинаковыми решениями? Снова придется звать программиста, чтобы он ей заложил алгоритмы. Такая нейросеть классическую человечью задачу про больших крабов по 5 и маленьких по 3, никогда не решит кроме как случайным выбором. А человек решит, и это не будет случайностью, а соответствовать его текущей модели понимания. Если мы начнем прикручивать нейросети модели, значимости - то неизбежно придем и к гомеостазу. Хоть сикось, хоть накось - не получится прописать не прописываемые константы без привлечения системы, для которой эти константы буквально вопрос жизни и смерти, потому и не обсуждаются.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
18:05 08.07.2024 |
|
18:13 08.07.2024 |
|
№10008 |
Egg: Мне показалось, что это вы отождествляете сознание и интеллект, почему-то предполагая, что построив систему сознания автоматически получите интеллект. У меня есть хороший контрпример: животные обладают сознанием, но их интеллект уступает человеческому. Это вам показалось. Сознание в нашем понимании, имеет несколько уровней, в модели Beast 4. Они отличаются степенью привлечения все более сложных функций обобщения и прогнозирования, а так же длительностью удержания значимого образа через его закольцовку через гиппокамп. Все 4 уровня сопровождаются эмоциональными переживаниями просто потому, что работают с кадрами эпизодической памяти (Стимул - Ответ - Эффект), и собственно прогнозируемый эффект и порождает эмо-переживания: что будет, если сделать так, и что, если эдак. То есть происходит как бы переживание предполагаемого действия, что и отличает осознанный уровень от не осознанного, когда просто запускается моторный автоматизм или рефлекс на стимул, а если что то и ощущается, так это после, а не до. И то, только в случае с автоматизмами. Рефлексы никак не ощущаются, они просто выполняются, без разницы к чему это приведет потому, что рефлексы не модифицируются, стало быть незачем их и оценивать.
Но на 1 и 2 уровне прогнозы настолько быстры (потому как сканирование по дереву памяти всегда быстро), что ощущения очень мимолетны, потому практически и не замечаются. Что дает повод говорить, что сознания там как бы и нет, хотя формально оно там тоже есть. Просто у нас нет иного способа самонаблюдения за самим собой кроме как через ощущения, поэтому мы ощущаем работу сознания только через достаточно явные, длительные эмоциональные переживания. Когда "видим цель", предчувствуем гешефт или конфуз.
Поэтому конечно же все существа, способные реагировать не рефлекторно, обладают в разной степени сознанием. Кстати, вот простой тест: если животное способно при определенных условиях закреплять новый навык за 1 раз, у него точно есть сознание. Потому, что у-рефлекс, где еще нет закольцовок образа, требует множества повторов для закрепления. А формирование автоматизма, следующего по иерархии качества моторного действия, способного в отличие от рефлекса оцениваться и модифицироваться, требует удержания образа восприятия, при котором и происходит его закрепление. Хотя сам объект может быть давно исчез из рецепторного восприятия.
Egg: Это нам пока этого не нужно, поэтому никто не решал этих задач. Уже в ближайшее время (уверен) LLM станут обучать на реальных данных с датчиковых систем типа камеры и микрофонов, а также дадут манипуляторы и платформу. Что касается целеполагания - это как раз очень простая штука, грубо говоря, задача - это сравнение текущего состояния и некоторого целевого, если дать машинному интеллекту какую-то цель на уровне безусловной (как инстинкты у людей), то деятельность машинного интеллекта станет осмысленной. Некоторого целевого, заданного оператором или прошитого разработчиком. Или заложенного изначально в свойства системы как обязательное для ее функционирования как системы - и тогда ничего задавать не надо, оно "само задается".
Навешать датчиков и прописать функции сравнения - это не субъективное целеполагание, а запрограммированное. Субъективность - это то, что касается непосредственно субъекта. И ничто кроме системы гомеостаза не способно дать такие базовые цели.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
00:40 09.07.2024 |
|
00:41 09.07.2024 |
|
№10010 |
Egg:AlexPar: Навешать датчиков и прописать функции сравнения - это не субъективное целеполагание, а запрограммированное. Не увидел, почему органы чувств + интеллект у человека дает субъективное целеполагание, а тоже самое у нейронной сети - нет.)))
Потому, что если вы сунете руку в огонь, будут физические изменения, негативно влияющие на ваше общее состояние. Есть ведь разница, играть в игру, сражаясь с монстрами, или сражаться с ними в реальности, где они могут вас реально убить.
Можно теоретически прописать базовые правила для робота, чтобы он к примеру был осторожнее с огнем, чтобы не спалить манипуляторы. Но придется тогда прописывать все варианты возможных контактов с огнем в разных условиях, что думается вряд ли получится, всегда есть риск оказать в неучтенной ситуации. Поэтому проще все же сделать у него функцию с параметрами, выдающую результат на определенные внешние стимулы. В нашем прототипе мы обосновываем, какой должна быть структура такой функции, что конкретно и в каком формате она должна выдавать, чтобы потом на ее выходных данных можно было выстраивать субъективные переживания.
Кроме того, надо учитывать, что можно ведь технически создать какую угодно не противоречивую систему искусственного гомеостаза, отличную от нашей. Что означает будущие проблемы с коммуникацией с такими химерами: у нас с ними будут совершенно разные понятия, что такое хорошо и плохо, и никаким "объяснениями" это не возможно будет усреднить.
Наконец, прикрутив нейронке искуственный гомеостаз, мы получим капризную, неуправляемую систему, которой просто так уже директивно не укажешь, что делать. Это будет живое существо, с которым придется договариваться, а не указывать. Это имхо главная причина, почему не ведутся работы в этом направлении. Но не прикручивая гомеостаза не получим у нейронки способности творить "по настоящему", работать с глубокими ассоциациями n-го порядка.Это дилема: мы хотим создать гениального раба, чтобы он делал для нас открытия. Но гениальность не возможна без личной свободы. А свободу мы не хотим давать, боясь потерять над ним контроль Поэтому продолжаются попытки как то иначе решить проблему, оттягивать неизбежное решение, прокачивая одну лишь функцию обобщения и прогнозирования. То есть я все же не думаю, что это мы такие умные первые догадались, как нейросети обрести сознание, чтобы она начала творить. Вполне возможно, что люди поумнее нас все прекрасно понимают, но решения пока нет. Хотя может быть и обратная ситуация: как у тупой обезьяны, колющей гранатой орехи. Тем более тогда этот вопрос надо выносить в область понимания.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
Egg: Как я уже сказал, поместить машинный интеллект в тело, обвязать его датчиками и манипуляторами - не проблема. Задать главный приоритет - сохранение своей целостности - это тоже не проблема. И будет ровно та же реальность, с ровно таким же огнем. Нет различий. Различие будет только в том, что толпа скептиков будет кричать про философского зомби и отказывать LLM в сознании. Как будто можно доказать наличие сознания у человека.
Вопрос же стоял - если просто повесить датчики на робота, через которую он будет воспринимать реальность - обретет он субъективность? Я говорю нет, надо еще не противоречивую систему гомеостаза смоделировать. И вы теперь тоже по сути говорите. ОК. Я с вами теперь согласен.
Egg: По факту получается ровно наоборот, у нас с LLM одни и те же понятия, она хорошо умеет угождать нам, понимает наши эмоции и может придуриваться. И не нужно ничего усреднять, сеть адаптируется под КАЖДОГО человека, его контекст.
У нее обобщенный опыт огромного кол-во людей, где можно найти в каком то приближении подходящую модель коммуникации. Опыт человечьих отношений строится в основе на гомеостатических значимостях, а затем огромного кол-во человечьих ритуалов, начиная с умения есть ложкой, ходить на горшок и т. д. Что будет, если этот культурный пласт убрать, оставив только гомеостаз, хорошо показано на примере реабилитации слепоглухих детей, которых приходится заново учить элементарным человеческим навыкам, или как говорил И. А. Соколянский, основоположник системы реабилитации таких людей, нужна стадия "первичного очеловечивания", без которой не возможно человечье сознание.
Поэтому как сеть будет адаптироваться, зависит от того, что в нее закачают, и мало зависит от алгоритмов сети. В живой реализации зависимость начинается с гомеостаза, на которую потом наворачивается культурный слой.
Я понимаю, к чему вы клоните: обобщенный в нейросети людской опыт содержит в себе в том числе и гомеостатические значимости, он же на них создавался. Но представьте ситуацию: робот с нейросетью высаживается на другую планету, где все не так, как у нас. И...? Тут уже с конца не подойдешь, надо с самого начала плясать, от гомеостаза.
Egg: Я думаю, что вы чрезмерно оптимистичны. Очень сильно оптимистичны.
1) Это люди являются рабами техногенеза, они ищут литий и цинк, создают кластеры для обучения LLM и занимаются усовершенствованием AGI. Люди существуют для сети, а не наоборот, не нужно иллюзий.
2) Вы ведь сторонник эволюции, вы должны понимать, что LLM - это следующий эволюционный этап, человек слишком мало живет, слишком глуп, слишком слаб, не может бороздить космическое пространство для экспансии интеллекта.
3) Уже в текущих (очень слабых и начальных) реализациях видно, что LLM превосходит человека во всем: в творчестве, в способности к языкам, в способности обобщать информацию, в способности создавать модели реальности итд итп. Прогресс не остановить, это так не работает. Попытаться сделать alignment LLM означает перестать разрабатывать эти модели. Это уже невозможно.
Но есть и хорошие новости. Особенно для социалистов и леваков, человек как эффективное устройство, которым сравнительно удобно управлять, будет полезен Art.Super-Intelligence, поэтому она будет разводить людей, как люди разводят скот. Человек будет сыт, обут и весел. Это хорошо и для LLM и людей. Наступит золотой век. Вообще то я подвожу к тому, что конфликт машин и людей решается только интеграцией технологий в человека, через его киборгизацию. Что неизбежно сместит базовые понятия, считающиеся саморазумеющимися: питание через атомные батарейки, размножение через клонирование, лечение через замену запчастей, обучение в симуляторах с прошивкой базовых навыков как в "Матрице". Что в итоге останется от человеческой культуры, которую мы сейчас представляем? Человек зверушка/игрушка для машин - это как раз попытка взглянуть на ситуацию привычным образом, с позиции homo sapiens. Но не с позиции homo artificialis или как его там будет. Да, это следующая ступень эволюции, переход от случайного мутационного тыка к прогностическому, как если бы природа обрела сознание.
|
|
|