| |
AGI как агент с искусственной системой гомеостаза | |
| |
create
|
AGI как агент с искусственной системой гомеостаза |
AlexPar: третья версия программной реализации в виде прототипа Можете дать прямую ссылку, если не секрет.
AlexPar: достижение заданного результата решения проблемы, получившей произвольно высокую значимость Какие обстоятельства обуславливают присвоение некоторой проблеме/задаче высокой значимости?
Посмотрел материалы у Вас на сайте, к сожалению, не все страницы у меня открылись, Вы бы не могли прояснить ряд вопросов:
- восприятие у Вашей "Твари" работает "от рецепторов к модели" или "от модели к рецепторам"? Что первично, объекты, реально существующие во внешнем мире, которые надо продетектировать и распознать, либо объекты генерируются, как модели, и после этого верифицируются на рецепторах?
- причинно-следственные отношения реально существуют во внешнем мире и выявляются существом, либо устанавливаются интеллектуальным существом и востребованы только им? Если устанавливаются, то при каких условиях последовательность событий запоминается как причинно связанная?
AlexPar: Какая разница как называть. Название подбирается по выполняемой функции. Вы назвали своё изобретение Beast (Зверь), хотя в презентации переводите как Тварь (Creaure), заявляя, что делаете живое существо (Alive), но при этом претендуете на искусственный интеллект и сознание. Видно, что Вашей командой проделана большая работа, но я пока не могу свести концы с концами, чтобы понять, что именно Вы хотите сделать (животное/человека/интеллект/сознание) и что Вы уже сделали.
Многое в Ваших текстах мне близко и понятно, но некоторые места вызывают вопросы.
Что Вы ожидаете от общения здесь на форуме? Какую цель Вы себе ставите?
Предлагали ли Вы свою работу в группу AGIRussia?
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
Egg:AlexPar: Вы мне лучше скажите: искусственный разум возможно создать? Если да, то как, если нет - то почему.
Я последнее время не люблю употреблять слово искусственный или сильный. Разум он либо есть, либо его нет. Различать можно человеческий и машинный. Машинный интеллект создать можно и он уже создан. Это Large Language Models с текущими реализациями от ведущих игроков, таких как OpenAI.
Я различаю интеллект, как мастерство, и разум как творчество. И насколько я понимаю, "трудная проблема сознания" как раз относится к вопросу разумной деятельности.
Мастерство, оно же ремесло - это прогноз по правилам реагирования, перебор готовых вариантов. Для этого не требуется глубокого осознания, часто мы вообще практически не осознаем, как работают прогностические функции на 1 и 2 уровне сознания. Например, когда музыкант играет, он не думает каким пальцем на какую клавишу нажимать, он как бы "наблюдает процесс со стороны", готовый в него вмешаться и что то подмешать. Так же когда мы пишем, говорим: мысль мелькнула - я ее озвучиваю. Насколько ладно и складно - это зависит от опыта подобных действий. Если опыта очень много, функции прогнозирования способны ворочать огромные массивы, возникнет иллюзия способности к творчеству. Иллюзия потому, что творить означает создавать нечто совершенно новое, а не находить вариант готового решения, как это делают нейросети.
Для этого не достаточно скажем так, "линейных прогнозов", нужны глубокие ассоциации, надо уметь перескакивать с одной "плоскости мышления" на другую, искать "в объеме". Но возникает проблема: что будет управлять третьей координатой? Эта задача не решаема для нейросетей потому, что требует произвольности выбора. Сколько бы ей не закачивали данных, она всегда будет оперировать только ими и никогда не выйдет из своей "плоскости мышления".
Для этого необходим внутренний цензор, который определяет, что такое хорошо и плохо, без внешних подсказок. У живых существ эта оценка начинает формироваться в системе гомеостаза, затем добавляется личный опыт на основе правил с кадрами ЭП в структуре Стимул - Ответ - Эффект, на основе правил формируются модели понимания, определяющие ментальный стиль восприятия/реагирования. В итоге восприятие реальности происходит в виде значимых образов, а не просто стимулов, к которым привязана какая то реакция. А значимость имеет в своей основе гомеостатические эффекты. Красный огонь горячий, красный перец жгучий - при таком опыте, все красное будет восприниматься как причиняющее боль.
Это конечно может зашить оператор в виде начальных параметров и нейросеть тоже начнет реагировать и прогнозировать реакции на красное. Пока не столкнется с розовым. Снова кто то должен ей указать "коэфф. смещения" для розового по отношению к красному. И так всякий раз, когда возникнет встреча с новым - надо звать оператора.
У существ, имеющих систему гомеостаза, такой проблемы нет. Это их "черный ящик", который всегда выдаст, какую значимость имеет стимул, в зависимости от того, как он повлиял на их гомеостаз. От этой первичной значимости затем строятся многоуровневые абстракции, что в итоге позволяет реагировать на стимулы, непосредственно никак не влияющие на гомеостаз, например вербальные. Если начать отслеживать "смысл слова" в виде ощущений, которое оно вызывает, в конечном итоге он сведется к какой то гомеостатической значимости или их комбинации. Поэтому процесс мышления неизбежно сопровождается эмоциональными переживаниями.
Когда идет прогноз по стимулам, ассоциированным с какой то значимостью, возникающие эмоции сами становятся источником возбуждения и направляют прогнозы, формируя эмоциональные контексты. Так постепенно начинает зарождаться "гомункулус", который не решает, какую клавишу нажимать при игре на пианино, но определяет, что я собственно хочу сыграть.
Функциональность сознания - нахождение решения, альтернативного привычному. В первом приближении задачу можно решить, добавив эмоциональные переживания, для этого нужна система гомеостаза. Следующий этап - формирование циклов мышления, когда задача не решается в текущем сеансе осознанного привлечения внимания, но имея высокую значимость, откладывается "на потом", оставаясь в фоновом цикле и тоже, подобно эмоциям, формируя свой контекст, влияющий на ветвление мыслей. Наиболее значимые становятся доминирующими и могут сохраняться годами. И весь этот винегрет гомеостатических состояний, эмоций, отложенных проблем, вместе с постоянно поступающими снаружи новыми стимулами формируют итоговую инфо-картину восприятия.
Это приводит к тому, что становится возможным по каким то казалось бы не имеющим отношение к текущим проблемам стимулам, находить решения. Какой то раздражитель становится триггером, спускающим целую лавину мыслей, напрямую с ним никак не связанную. Так возникают инсайды. А в более приземленном варианте просто мысли из ниоткуда и возникает иллюзия, что кто то сидит в голове и управляет моими действиями и даже желаниями. Но по факту это результат очень сложно-детерминированного взаимодействия множества внешних и внутренних факторов. Задача трех тео считается сложной, а тут их миллионы и триллионы, поди подсчитай. Поэтому программировать разумную деятельности не получится, но она формируется из вполне себе программируемых механизмов.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
12:52 08.07.2024 |
|
12:53 08.07.2024 |
|
№9992 |
Prosolver: Можете дать прямую ссылку, если не секрет.
p-mvap.ru - "Программный код: Актуальная версия Beast".
Prosolver: Какие обстоятельства обуславливают присвоение некоторой проблеме/задаче высокой значимости?
Изначально - эффекты гомеостаза. Сунул руку в огонь - больно - негатив. Теперь образы, хотя как то ассоциирующиеся с огнем будут вызывать негатив, смотря по глубине ассоциации.
Prosolver: Посмотрел материалы у Вас на сайте, к сожалению, не все страницы у меня открылись, Вы бы не могли прояснить ряд вопросов:
- восприятие у Вашей "Твари" работает "от рецепторов к модели" или "от модели к рецепторам"? Что первично, объекты, реально существующие во внешнем мире, которые надо продетектировать и распознать, либо объекты генерируются, как модели, и после этого верифицируются на рецепторах?
- причинно-следственные отношения реально существуют во внешнем мире и выявляются существом, либо устанавливаются интеллектуальным существом и востребованы только им? Если устанавливаются, то при каких условиях последовательность событий запоминается как причинно связанная?
Тварь сейчас подобна слепоглухонемому ребенку, причем с рождения. Единственный канал связи с внешним миром - пульт, в него же она выводит свои ответы. Воспитание такой твари похоже на реабилитацию слепоглухонемых детей, но еще сложнее, ввиду ограниченности сенсорного восприятия и очень упрощенного гомеостаза. Однако, как и в случае со слепоглухими, это позволяет более наглядно моделировать и изучать конкретные психические механизмы согласно теории МВАП.
Prosolver: Название подбирается по выполняемой функции. Вы назвали своё изобретение Beast (Зверь), хотя в презентации переводите как Тварь (Creaure), заявляя, что делаете живое существо (Alive), но при этом претендуете на искусственный интеллект и сознание. Видно, что Вашей командой проделана большая работа, но я пока не могу свести концы с концами, чтобы понять, что именно Вы хотите сделать (животное/человека/интеллект/сознание) и что Вы уже сделали. Многое в Ваших текстах мне близко и понятно, но некоторые места вызывают вопросы.
Что Вы ожидаете от общения здесь на форуме? Какую цель Вы себе ставите?
Предлагали ли Вы свою работу в группу AGIRussia?
Просто в очередной раз верифицировать теорию МВАП, получить конструктивную критику. Работу предлагаем и показываем всем до кого дотягиваемся. Но к сожалению, уже на стадии разговоров и создании искусственного живого существа программным способом, начинает проявляться неприятие и не понимание.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
AlexPar:
... к сожалению, уже на стадии разговоров и создании искусственного живого существа программным способом, начинает проявляться неприятие и не понимание.
А может как раз наоборот ?
Читая Вас, возникает большое подозрение, что Вы вознамерились построить нечто прямо противоположное живому, интеллектуальному и сознательному.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
AlexPar:Prosolver: Что Вы ожидаете от общения здесь на форуме? Какую цель Вы себе ставите?
Предлагали ли Вы свою работу в группу AGIRussia?
Просто в очередной раз верифицировать теорию МВАП, получить конструктивную критику. Работу предлагаем и показываем всем до кого дотягиваемся. Но к сожалению, уже на стадии разговоров и создании искусственного живого существа программным способом, начинает проявляться неприятие и не понимание.
Мне понравилась ваша теория МВАП. Практически во всём её поддерживаю, как теорию и как ключик к замку двери, открывающий один из путей к созданию действующего устройства обладающего основными признаками жизни и интеллекта. Предлагаю взаимовыгодное сотрудничество в научных и практических изысканиях помогающих продвижению к желаемой общей цели.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
16:50 08.07.2024 |
|
17:01 08.07.2024 |
|
№10002 |
Egg: Скорее всего, вам нужно общаться с другими людьми, здесь полна горница гуманитариев, они, уверен, поддержат ваши обсуждения. Кроме того, я понял, что вы не интересуетесь западными материалами, а я большой скептик в отношении русских)))
На форните много рецензий на книги, относящиеся к области ИИ, в том числе иностранных авторов. Но вы видимо имеете в виду материалы по LLM. Тут да, не комментируем потому, что считаем, это не относится к понятию разум, сознание. Да и многие разработчики ИИ это подтверждают. Это журналюги поднимают вой и раздувают сенсации, в погоне за хайпом.
Простой вопрос: о чем думает нейросеть, когда ее ни о чем не спрашивают? Подозреваю, что ни о чем, она в режиме ожидания. А человечий мозг "думает" постоянно, особенно когда его ничто не тревожит снаружи. Это в нашей модели называется "пассивным режимом мышления" и подозреваю, что его более всего можно отнести к тому, что подходит под философское понятие "сознание".
У меня возникает впечатление, особенно после просмотра видео от Дэвида Иглмана, что сейчас вплотную подошли к решению вопроса, что такое сознание, разум, но так как каждый копается в своей песочнице, не удается обобщить коллективный опыт в одно целое. Буквально нужен легкий щелчок по носу. Потому, что проблема понимания сознания лежит на стыке разных наук, а не одной из них.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
Сергей Шувалов: Мне понравилась ваша теория МВАП. Практически во всём её поддерживаю, как теорию и как ключик к замку двери, открывающий один из путей к созданию действующего устройства обладающего основными признаками жизни и интеллекта. Предлагаю взаимовыгодное сотрудничество в научных и практических изысканиях помогающих продвижению к желаемой общей цели. Что конкретно вы предлагаете?
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
AlexPar: Но к сожалению, уже на стадии разговоров и создании искусственного живого существа программным способом, начинает проявляться неприятие и не понимание.
AlexPar: Что конкретно вы предлагаете?
Ну для начала предлагаю приятие и понимание.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
17:31 08.07.2024 |
|
17:35 08.07.2024 |
|
№10006 |
Egg: Нет, разработчики ИИ считают иначе. Вот я, например, считаю иначе.
То есть вы считаете, что нейросети обладают сознанием, которое подразумевает субъективное целеполагание? Насколько я понял, вы просто не разделяете эти понятия, хотя они разделяются. Как уже говорил, нейросетевые технологии используют функции обобщения и прогноза развития ситуации, которая так же используется у живых существ с теми же целями, и которая по сути является определяющей их степень интеллектуального развития. Это выглядит похоже на осознанную деятельность просто потому, что действительно используется живыми существами, в разной степени, при осознанном построении моделей поведения. То есть мы просто по своему подобию воспринимаем это как осознанное целевое поведение: рак машет клешней - приветствует, дельфин улыбаясь стрекочет - радуется нам. Но вот бурлящую Солярис не просто с чем то своим ассоциировать - тут затуп.
Egg: Тут очень многое зависит от архитектуры сети и ее задач. Есть все таки разница между нажатием кнопки, после чего запускается сложный механизм, и работой механизма, который никто не запускал. Нейросеть не ставит себе задач кроме тех, и в контексте тех, которые ей задает оператор. Потому, что у нее нет системы гомеостаза, которая ставит первичную задачу у живых существ. Нейросети это не нужно.
Egg: Это неверно и противоречит фактам. Это называется сенсорная депривация, во время ее человек спит и галсиюцинирует. К сознанию это не относится. Длительное лишение внешних раздражителей может привести к чрезвычайному беспокойству, утере связи с реальностью, галлюцинациям, депрессии, неспособности концентрироваться и асоциальному поведению, которые впоследствии могут привести к посттравматическому стрессу. Состояние депривации не является нормой для человека, для функционирования мозга нужен постоянный раздражитель.
Тут согласен, не удачно привел аналогию. Имелось в виду, что даже если нет внешних значимых сигналов, способных привлечь внимание, но есть сигналы малозначимые, а они всегда есть, мозг найдет чем себя занять, решая огромное кол-во отложенных задач. Можно попытаться создать такую архитектуру и у нейросети, чтобы она "думала" о своих доминантах. Но это столкнется с проблемой: а как она будет определять приоритеты, делать выбор между примерно одинаковыми решениями? Снова придется звать программиста, чтобы он ей заложил алгоритмы. Такая нейросеть классическую человечью задачу про больших крабов по 5 и маленьких по 3, никогда не решит кроме как случайным выбором. А человек решит, и это не будет случайностью, а соответствовать его текущей модели понимания. Если мы начнем прикручивать нейросети модели, значимости - то неизбежно придем и к гомеостазу. Хоть сикось, хоть накось - не получится прописать не прописываемые константы без привлечения системы, для которой эти константы буквально вопрос жизни и смерти, потому и не обсуждаются.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
18:05 08.07.2024 |
|
18:13 08.07.2024 |
|
№10008 |
Egg: Мне показалось, что это вы отождествляете сознание и интеллект, почему-то предполагая, что построив систему сознания автоматически получите интеллект. У меня есть хороший контрпример: животные обладают сознанием, но их интеллект уступает человеческому. Это вам показалось. Сознание в нашем понимании, имеет несколько уровней, в модели Beast 4. Они отличаются степенью привлечения все более сложных функций обобщения и прогнозирования, а так же длительностью удержания значимого образа через его закольцовку через гиппокамп. Все 4 уровня сопровождаются эмоциональными переживаниями просто потому, что работают с кадрами эпизодической памяти (Стимул - Ответ - Эффект), и собственно прогнозируемый эффект и порождает эмо-переживания: что будет, если сделать так, и что, если эдак. То есть происходит как бы переживание предполагаемого действия, что и отличает осознанный уровень от не осознанного, когда просто запускается моторный автоматизм или рефлекс на стимул, а если что то и ощущается, так это после, а не до. И то, только в случае с автоматизмами. Рефлексы никак не ощущаются, они просто выполняются, без разницы к чему это приведет потому, что рефлексы не модифицируются, стало быть незачем их и оценивать.
Но на 1 и 2 уровне прогнозы настолько быстры (потому как сканирование по дереву памяти всегда быстро), что ощущения очень мимолетны, потому практически и не замечаются. Что дает повод говорить, что сознания там как бы и нет, хотя формально оно там тоже есть. Просто у нас нет иного способа самонаблюдения за самим собой кроме как через ощущения, поэтому мы ощущаем работу сознания только через достаточно явные, длительные эмоциональные переживания. Когда "видим цель", предчувствуем гешефт или конфуз.
Поэтому конечно же все существа, способные реагировать не рефлекторно, обладают в разной степени сознанием. Кстати, вот простой тест: если животное способно при определенных условиях закреплять новый навык за 1 раз, у него точно есть сознание. Потому, что у-рефлекс, где еще нет закольцовок образа, требует множества повторов для закрепления. А формирование автоматизма, следующего по иерархии качества моторного действия, способного в отличие от рефлекса оцениваться и модифицироваться, требует удержания образа восприятия, при котором и происходит его закрепление. Хотя сам объект может быть давно исчез из рецепторного восприятия.
Egg: Это нам пока этого не нужно, поэтому никто не решал этих задач. Уже в ближайшее время (уверен) LLM станут обучать на реальных данных с датчиковых систем типа камеры и микрофонов, а также дадут манипуляторы и платформу. Что касается целеполагания - это как раз очень простая штука, грубо говоря, задача - это сравнение текущего состояния и некоторого целевого, если дать машинному интеллекту какую-то цель на уровне безусловной (как инстинкты у людей), то деятельность машинного интеллекта станет осмысленной. Некоторого целевого, заданного оператором или прошитого разработчиком. Или заложенного изначально в свойства системы как обязательное для ее функционирования как системы - и тогда ничего задавать не надо, оно "само задается".
Навешать датчиков и прописать функции сравнения - это не субъективное целеполагание, а запрограммированное. Субъективность - это то, что касается непосредственно субъекта. И ничто кроме системы гомеостаза не способно дать такие базовые цели.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
00:40 09.07.2024 |
|
00:41 09.07.2024 |
|
№10010 |
Egg:AlexPar: Навешать датчиков и прописать функции сравнения - это не субъективное целеполагание, а запрограммированное. Не увидел, почему органы чувств + интеллект у человека дает субъективное целеполагание, а тоже самое у нейронной сети - нет.)))
Потому, что если вы сунете руку в огонь, будут физические изменения, негативно влияющие на ваше общее состояние. Есть ведь разница, играть в игру, сражаясь с монстрами, или сражаться с ними в реальности, где они могут вас реально убить.
Можно теоретически прописать базовые правила для робота, чтобы он к примеру был осторожнее с огнем, чтобы не спалить манипуляторы. Но придется тогда прописывать все варианты возможных контактов с огнем в разных условиях, что думается вряд ли получится, всегда есть риск оказать в неучтенной ситуации. Поэтому проще все же сделать у него функцию с параметрами, выдающую результат на определенные внешние стимулы. В нашем прототипе мы обосновываем, какой должна быть структура такой функции, что конкретно и в каком формате она должна выдавать, чтобы потом на ее выходных данных можно было выстраивать субъективные переживания.
Кроме того, надо учитывать, что можно ведь технически создать какую угодно не противоречивую систему искусственного гомеостаза, отличную от нашей. Что означает будущие проблемы с коммуникацией с такими химерами: у нас с ними будут совершенно разные понятия, что такое хорошо и плохо, и никаким "объяснениями" это не возможно будет усреднить.
Наконец, прикрутив нейронке искуственный гомеостаз, мы получим капризную, неуправляемую систему, которой просто так уже директивно не укажешь, что делать. Это будет живое существо, с которым придется договариваться, а не указывать. Это имхо главная причина, почему не ведутся работы в этом направлении. Но не прикручивая гомеостаза не получим у нейронки способности творить "по настоящему", работать с глубокими ассоциациями n-го порядка.Это дилема: мы хотим создать гениального раба, чтобы он делал для нас открытия. Но гениальность не возможна без личной свободы. А свободу мы не хотим давать, боясь потерять над ним контроль Поэтому продолжаются попытки как то иначе решить проблему, оттягивать неизбежное решение, прокачивая одну лишь функцию обобщения и прогнозирования. То есть я все же не думаю, что это мы такие умные первые догадались, как нейросети обрести сознание, чтобы она начала творить. Вполне возможно, что люди поумнее нас все прекрасно понимают, но решения пока нет. Хотя может быть и обратная ситуация: как у тупой обезьяны, колющей гранатой орехи. Тем более тогда этот вопрос надо выносить в область понимания.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
Egg: Как я уже сказал, поместить машинный интеллект в тело, обвязать его датчиками и манипуляторами - не проблема. Задать главный приоритет - сохранение своей целостности - это тоже не проблема. И будет ровно та же реальность, с ровно таким же огнем. Нет различий. Различие будет только в том, что толпа скептиков будет кричать про философского зомби и отказывать LLM в сознании. Как будто можно доказать наличие сознания у человека.
Вопрос же стоял - если просто повесить датчики на робота, через которую он будет воспринимать реальность - обретет он субъективность? Я говорю нет, надо еще не противоречивую систему гомеостаза смоделировать. И вы теперь тоже по сути говорите. ОК. Я с вами теперь согласен.
Egg: По факту получается ровно наоборот, у нас с LLM одни и те же понятия, она хорошо умеет угождать нам, понимает наши эмоции и может придуриваться. И не нужно ничего усреднять, сеть адаптируется под КАЖДОГО человека, его контекст.
У нее обобщенный опыт огромного кол-во людей, где можно найти в каком то приближении подходящую модель коммуникации. Опыт человечьих отношений строится в основе на гомеостатических значимостях, а затем огромного кол-во человечьих ритуалов, начиная с умения есть ложкой, ходить на горшок и т. д. Что будет, если этот культурный пласт убрать, оставив только гомеостаз, хорошо показано на примере реабилитации слепоглухих детей, которых приходится заново учить элементарным человеческим навыкам, или как говорил И. А. Соколянский, основоположник системы реабилитации таких людей, нужна стадия "первичного очеловечивания", без которой не возможно человечье сознание.
Поэтому как сеть будет адаптироваться, зависит от того, что в нее закачают, и мало зависит от алгоритмов сети. В живой реализации зависимость начинается с гомеостаза, на которую потом наворачивается культурный слой.
Я понимаю, к чему вы клоните: обобщенный в нейросети людской опыт содержит в себе в том числе и гомеостатические значимости, он же на них создавался. Но представьте ситуацию: робот с нейросетью высаживается на другую планету, где все не так, как у нас. И...? Тут уже с конца не подойдешь, надо с самого начала плясать, от гомеостаза.
Egg: Я думаю, что вы чрезмерно оптимистичны. Очень сильно оптимистичны.
1) Это люди являются рабами техногенеза, они ищут литий и цинк, создают кластеры для обучения LLM и занимаются усовершенствованием AGI. Люди существуют для сети, а не наоборот, не нужно иллюзий.
2) Вы ведь сторонник эволюции, вы должны понимать, что LLM - это следующий эволюционный этап, человек слишком мало живет, слишком глуп, слишком слаб, не может бороздить космическое пространство для экспансии интеллекта.
3) Уже в текущих (очень слабых и начальных) реализациях видно, что LLM превосходит человека во всем: в творчестве, в способности к языкам, в способности обобщать информацию, в способности создавать модели реальности итд итп. Прогресс не остановить, это так не работает. Попытаться сделать alignment LLM означает перестать разрабатывать эти модели. Это уже невозможно.
Но есть и хорошие новости. Особенно для социалистов и леваков, человек как эффективное устройство, которым сравнительно удобно управлять, будет полезен Art.Super-Intelligence, поэтому она будет разводить людей, как люди разводят скот. Человек будет сыт, обут и весел. Это хорошо и для LLM и людей. Наступит золотой век. Вообще то я подвожу к тому, что конфликт машин и людей решается только интеграцией технологий в человека, через его киборгизацию. Что неизбежно сместит базовые понятия, считающиеся саморазумеющимися: питание через атомные батарейки, размножение через клонирование, лечение через замену запчастей, обучение в симуляторах с прошивкой базовых навыков как в "Матрице". Что в итоге останется от человеческой культуры, которую мы сейчас представляем? Человек зверушка/игрушка для машин - это как раз попытка взглянуть на ситуацию привычным образом, с позиции homo sapiens. Но не с позиции homo artificialis или как его там будет. Да, это следующая ступень эволюции, переход от случайного мутационного тыка к прогностическому, как если бы природа обрела сознание.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
AlexPar:
Суть идеи в следующем: невозможно получить субъективное восприятие у искусственной системы индивидуальной адаптивности, если у нее нет базовой системы значимости. У живых существ это система гомеостаза, определяющая гомеостатические цели реагирования. Они состоят в том, чтобы поддерживать в пределах оптимума значения критически важных жизненных параметров, выход за пределы которых уничтожает систему. То есть собственно отличие живого объекта от неживого состоит в наличии или отсутствии у него системы гомеостаза. Поэтому, если ставится задача создать ИИ, способный к субъективному восприятию реальности, произвольности выбора – это должна быть система с искусственным гомеостазом. То есть, проще говоря: система должна быть живой, причем не в аллегорическом смысле, а прямом. И вся адаптивность, вплоть до высшей нервной деятельности, строится на основе гомеостатических целей.
Звучит диковато потому, что понятие «живое» привычно воспринимается только по отношению к биологическим организмам, а не механизмам и тем более программам.
Т.е. в самом сухом остатке, Вы разрабатываете некую разновидность системы (само)управления
механизма?
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
Egg: LLM - это следующий эволюционный этап AlexPar: Да, это следующая ступень эволюции Это прекрасно, когда люди находят консенсус. Но вынужден добавить ложку мёда, в эту бочку дёгтя.
Все предыдущие этапы/ступени эволюции (если она вообще имела место) биологических видов (а других эволюций не придумали) происходили только и исключительно через женский половой орган и его аналоги. Все же технологические инновации, возникающие в человеческой культуре, создаются исключительно другим органом, а именно руками. Поэтому, если и будет следующий этап/ступень, то только этап креации.
AlexPar: не прикручивая гомеостаза не получим у нейронки способности творить "по настоящему" Сам раньше так думал, но это ошибка. Гомеостаз призван выполнять исключительно биологическую роль - сохранение целостности организма. Но интеллект паразитирует на этом целостном организме, он использует эту целостность как базу и выводит организм из гомеостаза для достижения своих, совершенно чуждых биологии целей. Поэтому интеллект не только не выводится из гомеостаза, он прямо ему противоречит.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
Влад: Т.е. в самом сухом остатке, Вы разрабатываете некую разновидность системы (само)управления
механизма? Самоадаптирующуюся систему.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
AlexPar:
Это будет живое существо, с которым придется договариваться, а не указывать.
Будет ли размножаться Ваше т.н. "существо" ?
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
08:34 09.07.2024 |
|
09:12 09.07.2024 |
|
№10019 |
Prosolver: Сам раньше так думал, но это ошибка. Гомеостаз призван выполнять исключительно биологическую роль - сохранение целостности организма. Но интеллект паразитирует на этом целостном организме, он использует эту целостность как базу и выводит организм из гомеостаза для достижения своих, совершенно чуждых биологии целей. Поэтому интеллект не только не выводится из гомеостаза, он прямо ему противоречит. Интеллект всего лишь инструмент, которым пользуется сознание для достижения своих субъективных целей. Это просто калькулятор разной степени крутости у разных существ. Если вы будете на нем решать глупые задачи, при чем тут его математические функции?
Субъективные цели ставятся на основании субъективной значимости, которым могут перекрывать гомеостатические. Теперь боль, преодолевать страх, сдерживать ярость - все это становится возможным только при абстрагировании от первичной гомеостатической значимости, поэтому субъективная значимость перекрывает гомеостатическую. А если кто то найдет в этом субъективное удовольствие и займется мазохизмом - это его проблемы, а не механизма.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
Luarvik.:AlexPar:
Это будет живое существо, с которым придется договариваться, а не указывать.
Будет ли размножаться Ваше т.н. "существо" ? Сейчас это не актуально, но при желании можно организовать.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
09:02 09.07.2024 |
|
09:03 09.07.2024 |
|
№10022 |
AlexPar:
Сейчас это не актуально, но при желании можно организовать.
"При желании" ?
А как же инстинт который действует в обход всяческих желаний ?
AlexPar:
Живое существо кто то должен родить. Это не вопрос выбора, что лучше. Если бы репликационный стиль реагирования не закрепился в виде инстинкта, все живое тупо вымерло бы. Поэтому репликация обязательный атрибут живого существа.
В данном случае "родитель" - Вы, т.е. существо совершенно постороннее, которое вот таким "особо извращённым способом" реплицировалось. Ведь у "существа" нет предков, а процесс эволюции его протекает по паразитическому принципу, как у вирусов.
Т.о., Ваш потомок рождён не ему подобным и непрерывность "естественного" процесса самовоспроизведения нарушена. Но не суть. Можно подумать так, что его вывели в пробирке.
Вы пишете, что размножение есть "обязательный атрибут живого".
Если "оно" не оставит после себя потомства, то можно ли считать, что "оно" было живым ?
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
Egg:AlexPar:
Поэтому как сеть будет адаптироваться, зависит от того, что в нее закачают, и мало зависит от алгоритмов сети. В живой реализации зависимость начинается с гомеостаза, на которую потом наворачивается культурный слой.
Не согласен. Да, сеть - это универсальный алгоритм создания алгоритмов. Иными словами - адаптивная универсальная машина Тьюринга. А Языковые Модели - это не просто сеть, это сеть, способная моделировать реальность, стоящую за корпусом токенов. И совершенно неважно, что это за корпусы, китайской ли литературы или видеопотоки камеры. В этом смысле LLM не зависят от данных, поскольку имеют дело с реконструируемой реальностью. У человека ровно также, "гомеостаз и культурный слой" нужны для того, чтобы построить свой индивидуальный семиотический процессор мышления. Как она моделирует, можете рассказать в общих чертах?
|
|
|