AGI.place

Форум создателей искусственных интеллектов


Логин (email) 
Пароль 
Настройки

шрифт+
шрифт-
Скачать
Вперёд
Назад
1
2
3
4
5
6
7
8
AGI как агент с искусственной системой гомеостаза
create
AGI как агент с искусственной системой гомеостаза
04:25 08.07.2024 №9978
Egg:
AlexPar:
Репликация, как механизм, легко воспроизводим алгоритмически.
Еще одна новость для меня, мы, вот, например, с фон Нейманном так не считаем. Ему потребовалось 29 состояний для того, чтобы описать такой автомат. Вас не затруднить дать ссылку на ваше решение.
Фон Нейман создавал свой автомат чтобы продемонстрировать алгоритм автоматического копирования элементов механизма, по сути он представил вариант алгоритма репликации ДНК. В нашем случае достаточно в принципе просто скопировать файлы первичных настроек, интерфейсные и экзешник, потом запустить его. Но мы пошли даже дальше, создав сервис обмена настройками, когда агенты, обучаясь независимо могут передавать свой опыт друг другу. Как в "Матрице": воткнул в башку электрод - и через несколько секунд: я знаю кунфу! Но по факту это более менее работало только в начальных, бездумных стадиях развития. На уровне первичного осмысления, когда начинает формироваться эпизодическая память и правила реагирования, сложности нарастают настолько, что нет особого смысла этот сервис развивать. Нужно ведь не переписывать существующий опыт, а добавлять новый, не разрушая старый. Я думаю вообще его убрать, агенты вполне могут общаться естественным путем, просто посылая стимулы друг другу.
0 | 0
Аватар
create
AGI как агент с искусственной системой гомеостаза
10:19 08.07.2024 10:19 08.07.2024 №9983
AlexPar:
В нашем случае достаточно в принципе просто скопировать файлы первичных настроек, интерфейсные и экзешник, потом запустить его.
Нет, вы ошибаетесь в самой сути репликации. Репликацию можно назвать самокопированием, но ключевой смысл именно в "само")) Если для репликации нужен человек, который всё сделает, а потом еще экзешник запустит - это очень далеко от сути, на мой скромный вкус.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
10:32 08.07.2024 №9984
В программе нельзя задать команду копировать файлы по каким то условиям? Вообще, это вопрос вторичный. Вроде как вопросы предполагались по теории сознания МВАП - что там не так, что принципиально не позволяет создать искусственную систему индивидуальной адаптивности?
0 | 0
Аватар
create
AGI как агент с искусственной системой гомеостаза
10:38 08.07.2024 10:38 08.07.2024 №9985
AlexPar:
В программе нельзя задать команду копировать файлы по каким то условиям?
я вам больше скажу, когда вы нажимаете на кнопку "копировать", вы тоже делаете это программно.))
AlexPar:
Вообще, это вопрос вторичный.
Самокопирование в репликации - это вторичный вопрос?)) А ДНК, когда устраивает свои танцы с бубном и с раздвоением себя, об этом знает? )))
0 | 0
create
AGI как агент с искусственной системой гомеостаза
11:02 08.07.2024 №9986
Вы мне лучше скажите: искусственный разум возможно создать? Если да, то как, если нет - то почему.
0 | 0
Аватар
create
AGI как агент с искусственной системой гомеостаза
11:13 08.07.2024 №9987
AlexPar:
Вы мне лучше скажите: искусственный разум возможно создать? Если да, то как, если нет - то почему.
Я последнее время не люблю употреблять слово искусственный или сильный. Разум он либо есть, либо его нет. Различать можно человеческий и машинный. Машинный интеллект создать можно и он уже создан. Это Large Language Models с текущими реализациями от ведущих игроков, таких как OpenAI.
0 | 0
Аватар
create
AGI как агент с искусственной системой гомеостаза
11:30 08.07.2024 11:51 08.07.2024 №9988
AlexPar:
Вы мне лучше скажите: искусственный разум возможно создать? Если да, то как, если нет - то почему.
Можно создать... но конечно же не через LLM и прочие подобные убогие поделки. Да и Ваш подход не удовлетворит потребность в ИИ, а потешит разве что Ваше самолюбие. Если бы хоть кто-то знал КАК - давно бы ИИ свободно гулял по улицам. Сегодня мы частично знаем лишь то, что нужно делать и чего не делать, чтобы ИИ НЕ(!) получился.
0 | 0
Аватар
create
AGI как агент с искусственной системой гомеостаза
11:54 08.07.2024 №9989
AlexPar:
третья версия программной реализации в виде прототипа
Можете дать прямую ссылку, если не секрет.
AlexPar:
достижение заданного результата решения проблемы, получившей произвольно высокую значимость
Какие обстоятельства обуславливают присвоение некоторой проблеме/задаче высокой значимости? Посмотрел материалы у Вас на сайте, к сожалению, не все страницы у меня открылись, Вы бы не могли прояснить ряд вопросов: - восприятие у Вашей "Твари" работает "от рецепторов к модели" или "от модели к рецепторам"? Что первично, объекты, реально существующие во внешнем мире, которые надо продетектировать и распознать, либо объекты генерируются, как модели, и после этого верифицируются на рецепторах? - причинно-следственные отношения реально существуют во внешнем мире и выявляются существом, либо устанавливаются интеллектуальным существом и востребованы только им? Если устанавливаются, то при каких условиях последовательность событий запоминается как причинно связанная?
AlexPar:
Какая разница как называть.
Название подбирается по выполняемой функции. Вы назвали своё изобретение Beast (Зверь), хотя в презентации переводите как Тварь (Creaure), заявляя, что делаете живое существо (Alive), но при этом претендуете на искусственный интеллект и сознание. Видно, что Вашей командой проделана большая работа, но я пока не могу свести концы с концами, чтобы понять, что именно Вы хотите сделать (животное/человека/интеллект/сознание) и что Вы уже сделали. Многое в Ваших текстах мне близко и понятно, но некоторые места вызывают вопросы. Что Вы ожидаете от общения здесь на форуме? Какую цель Вы себе ставите? Предлагали ли Вы свою работу в группу AGIRussia?
0 | 0
create
AGI как агент с искусственной системой гомеостаза
12:37 08.07.2024 №9991
Egg:
AlexPar:
Вы мне лучше скажите: искусственный разум возможно создать? Если да, то как, если нет - то почему.
Я последнее время не люблю употреблять слово искусственный или сильный. Разум он либо есть, либо его нет. Различать можно человеческий и машинный. Машинный интеллект создать можно и он уже создан. Это Large Language Models с текущими реализациями от ведущих игроков, таких как OpenAI.
Я различаю интеллект, как мастерство, и разум как творчество. И насколько я понимаю, "трудная проблема сознания" как раз относится к вопросу разумной деятельности. Мастерство, оно же ремесло - это прогноз по правилам реагирования, перебор готовых вариантов. Для этого не требуется глубокого осознания, часто мы вообще практически не осознаем, как работают прогностические функции на 1 и 2 уровне сознания. Например, когда музыкант играет, он не думает каким пальцем на какую клавишу нажимать, он как бы "наблюдает процесс со стороны", готовый в него вмешаться и что то подмешать. Так же когда мы пишем, говорим: мысль мелькнула - я ее озвучиваю. Насколько ладно и складно - это зависит от опыта подобных действий. Если опыта очень много, функции прогнозирования способны ворочать огромные массивы, возникнет иллюзия способности к творчеству. Иллюзия потому, что творить означает создавать нечто совершенно новое, а не находить вариант готового решения, как это делают нейросети. Для этого не достаточно скажем так, "линейных прогнозов", нужны глубокие ассоциации, надо уметь перескакивать с одной "плоскости мышления" на другую, искать "в объеме". Но возникает проблема: что будет управлять третьей координатой? Эта задача не решаема для нейросетей потому, что требует произвольности выбора. Сколько бы ей не закачивали данных, она всегда будет оперировать только ими и никогда не выйдет из своей "плоскости мышления". Для этого необходим внутренний цензор, который определяет, что такое хорошо и плохо, без внешних подсказок. У живых существ эта оценка начинает формироваться в системе гомеостаза, затем добавляется личный опыт на основе правил с кадрами ЭП в структуре Стимул - Ответ - Эффект, на основе правил формируются модели понимания, определяющие ментальный стиль восприятия/реагирования. В итоге восприятие реальности происходит в виде значимых образов, а не просто стимулов, к которым привязана какая то реакция. А значимость имеет в своей основе гомеостатические эффекты. Красный огонь горячий, красный перец жгучий - при таком опыте, все красное будет восприниматься как причиняющее боль. Это конечно может зашить оператор в виде начальных параметров и нейросеть тоже начнет реагировать и прогнозировать реакции на красное. Пока не столкнется с розовым. Снова кто то должен ей указать "коэфф. смещения" для розового по отношению к красному. И так всякий раз, когда возникнет встреча с новым - надо звать оператора. У существ, имеющих систему гомеостаза, такой проблемы нет. Это их "черный ящик", который всегда выдаст, какую значимость имеет стимул, в зависимости от того, как он повлиял на их гомеостаз. От этой первичной значимости затем строятся многоуровневые абстракции, что в итоге позволяет реагировать на стимулы, непосредственно никак не влияющие на гомеостаз, например вербальные. Если начать отслеживать "смысл слова" в виде ощущений, которое оно вызывает, в конечном итоге он сведется к какой то гомеостатической значимости или их комбинации. Поэтому процесс мышления неизбежно сопровождается эмоциональными переживаниями. Когда идет прогноз по стимулам, ассоциированным с какой то значимостью, возникающие эмоции сами становятся источником возбуждения и направляют прогнозы, формируя эмоциональные контексты. Так постепенно начинает зарождаться "гомункулус", который не решает, какую клавишу нажимать при игре на пианино, но определяет, что я собственно хочу сыграть. Функциональность сознания - нахождение решения, альтернативного привычному. В первом приближении задачу можно решить, добавив эмоциональные переживания, для этого нужна система гомеостаза. Следующий этап - формирование циклов мышления, когда задача не решается в текущем сеансе осознанного привлечения внимания, но имея высокую значимость, откладывается "на потом", оставаясь в фоновом цикле и тоже, подобно эмоциям, формируя свой контекст, влияющий на ветвление мыслей. Наиболее значимые становятся доминирующими и могут сохраняться годами. И весь этот винегрет гомеостатических состояний, эмоций, отложенных проблем, вместе с постоянно поступающими снаружи новыми стимулами формируют итоговую инфо-картину восприятия. Это приводит к тому, что становится возможным по каким то казалось бы не имеющим отношение к текущим проблемам стимулам, находить решения. Какой то раздражитель становится триггером, спускающим целую лавину мыслей, напрямую с ним никак не связанную. Так возникают инсайды. А в более приземленном варианте просто мысли из ниоткуда и возникает иллюзия, что кто то сидит в голове и управляет моими действиями и даже желаниями. Но по факту это результат очень сложно-детерминированного взаимодействия множества внешних и внутренних факторов. Задача трех тео считается сложной, а тут их миллионы и триллионы, поди подсчитай. Поэтому программировать разумную деятельности не получится, но она формируется из вполне себе программируемых механизмов.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
12:52 08.07.2024 12:53 08.07.2024 №9992
Prosolver:
Можете дать прямую ссылку, если не секрет.
p-mvap.ru - "Программный код: Актуальная версия Beast".
Prosolver:
Какие обстоятельства обуславливают присвоение некоторой проблеме/задаче высокой значимости?
Изначально - эффекты гомеостаза. Сунул руку в огонь - больно - негатив. Теперь образы, хотя как то ассоциирующиеся с огнем будут вызывать негатив, смотря по глубине ассоциации.
Prosolver:
Посмотрел материалы у Вас на сайте, к сожалению, не все страницы у меня открылись, Вы бы не могли прояснить ряд вопросов: - восприятие у Вашей "Твари" работает "от рецепторов к модели" или "от модели к рецепторам"? Что первично, объекты, реально существующие во внешнем мире, которые надо продетектировать и распознать, либо объекты генерируются, как модели, и после этого верифицируются на рецепторах? - причинно-следственные отношения реально существуют во внешнем мире и выявляются существом, либо устанавливаются интеллектуальным существом и востребованы только им? Если устанавливаются, то при каких условиях последовательность событий запоминается как причинно связанная?
Тварь сейчас подобна слепоглухонемому ребенку, причем с рождения. Единственный канал связи с внешним миром - пульт, в него же она выводит свои ответы. Воспитание такой твари похоже на реабилитацию слепоглухонемых детей, но еще сложнее, ввиду ограниченности сенсорного восприятия и очень упрощенного гомеостаза. Однако, как и в случае со слепоглухими, это позволяет более наглядно моделировать и изучать конкретные психические механизмы согласно теории МВАП.
Prosolver:
Название подбирается по выполняемой функции. Вы назвали своё изобретение Beast (Зверь), хотя в презентации переводите как Тварь (Creaure), заявляя, что делаете живое существо (Alive), но при этом претендуете на искусственный интеллект и сознание. Видно, что Вашей командой проделана большая работа, но я пока не могу свести концы с концами, чтобы понять, что именно Вы хотите сделать (животное/человека/интеллект/сознание) и что Вы уже сделали. Многое в Ваших текстах мне близко и понятно, но некоторые места вызывают вопросы. Что Вы ожидаете от общения здесь на форуме? Какую цель Вы себе ставите? Предлагали ли Вы свою работу в группу AGIRussia?
Просто в очередной раз верифицировать теорию МВАП, получить конструктивную критику. Работу предлагаем и показываем всем до кого дотягиваемся. Но к сожалению, уже на стадии разговоров и создании искусственного живого существа программным способом, начинает проявляться неприятие и не понимание.
0 | 0
Аватар
create
AGI как агент с искусственной системой гомеостаза
13:08 08.07.2024 13:18 08.07.2024 №9993
AlexPar:
Я различаю интеллект, как мастерство, и разум как творчество. И насколько я понимаю, "трудная проблема сознания" как раз относится к вопросу разумной деятельности.
Нет, трудная проблема создания относится к другому. Творчеством я занимаюсь всю жизнь, мастерства добился значительного. Но как предмет меня интересует математика разума, точнее - семиотика. Скорее всего, вам нужно общаться с другими людьми, здесь полна горница гуманитариев, они, уверен, поддержат ваши обсуждения. Кроме того, я понял, что вы не интересуетесь западными материалами, а я большой скептик в отношении русских)))
0 | 0
Аватар
create
AGI как агент с искусственной системой гомеостаза
13:19 08.07.2024 №9994
AlexPar:
... к сожалению, уже на стадии разговоров и создании искусственного живого существа программным способом, начинает проявляться неприятие и не понимание.
А может как раз наоборот ? Читая Вас, возникает большое подозрение, что Вы вознамерились построить нечто прямо противоположное живому, интеллектуальному и сознательному.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
13:24 08.07.2024 №9995
AlexPar:
Prosolver:
Что Вы ожидаете от общения здесь на форуме? Какую цель Вы себе ставите? Предлагали ли Вы свою работу в группу AGIRussia?
Просто в очередной раз верифицировать теорию МВАП, получить конструктивную критику. Работу предлагаем и показываем всем до кого дотягиваемся. Но к сожалению, уже на стадии разговоров и создании искусственного живого существа программным способом, начинает проявляться неприятие и не понимание.
Мне понравилась ваша теория МВАП. Практически во всём её поддерживаю, как теорию и как ключик к замку двери, открывающий один из путей к созданию действующего устройства обладающего основными признаками жизни и интеллекта. Предлагаю взаимовыгодное сотрудничество в научных и практических изысканиях помогающих продвижению к желаемой общей цели.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
16:50 08.07.2024 17:01 08.07.2024 №10002
Egg:
Скорее всего, вам нужно общаться с другими людьми, здесь полна горница гуманитариев, они, уверен, поддержат ваши обсуждения. Кроме того, я понял, что вы не интересуетесь западными материалами, а я большой скептик в отношении русских)))
На форните много рецензий на книги, относящиеся к области ИИ, в том числе иностранных авторов. Но вы видимо имеете в виду материалы по LLM. Тут да, не комментируем потому, что считаем, это не относится к понятию разум, сознание. Да и многие разработчики ИИ это подтверждают. Это журналюги поднимают вой и раздувают сенсации, в погоне за хайпом. Простой вопрос: о чем думает нейросеть, когда ее ни о чем не спрашивают? Подозреваю, что ни о чем, она в режиме ожидания. А человечий мозг "думает" постоянно, особенно когда его ничто не тревожит снаружи. Это в нашей модели называется "пассивным режимом мышления" и подозреваю, что его более всего можно отнести к тому, что подходит под философское понятие "сознание". У меня возникает впечатление, особенно после просмотра видео от Дэвида Иглмана, что сейчас вплотную подошли к решению вопроса, что такое сознание, разум, но так как каждый копается в своей песочнице, не удается обобщить коллективный опыт в одно целое. Буквально нужен легкий щелчок по носу. Потому, что проблема понимания сознания лежит на стыке разных наук, а не одной из них.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
16:50 08.07.2024 №10003
Сергей Шувалов:
Мне понравилась ваша теория МВАП. Практически во всём её поддерживаю, как теорию и как ключик к замку двери, открывающий один из путей к созданию действующего устройства обладающего основными признаками жизни и интеллекта. Предлагаю взаимовыгодное сотрудничество в научных и практических изысканиях помогающих продвижению к желаемой общей цели.
Что конкретно вы предлагаете?
0 | 0
create
AGI как агент с искусственной системой гомеостаза
17:03 08.07.2024 №10004
AlexPar:
Но к сожалению, уже на стадии разговоров и создании искусственного живого существа программным способом, начинает проявляться неприятие и не понимание.
AlexPar:
Что конкретно вы предлагаете?
Ну для начала предлагаю приятие и понимание.
0 | 0
Аватар
create
AGI как агент с искусственной системой гомеостаза
17:04 08.07.2024 17:24 08.07.2024 №10005
AlexPar:
Да и многие разработчики ИИ это подтверждают.
Нет, как раз разработчики ИИ считают, что LLM - это интеллект, сравнимый или даже превосходящий человеческий. Вот я, например, так считаю. А философы и дилетанты не очень хорошо понимают о чем идёт речь и продолжают строить на коленках экспертные системы)))
AlexPar:
Простой вопрос: о чем думает нейросеть, когда ее ни о чем не спрашивают? Подозреваю, что ни о чем, она в режиме ожидания.
Тут очень многое зависит от архитектуры сети и ее задач.
AlexPar:
А человечий мозг "думает" постоянно, особенно когда его ничто не тревожит снаружи. Это в нашей модели называется "пассивным режимом мышления" и подозреваю, что его более всего можно отнести к тому, что подходит под философское понятие "сознание".
Это неверно и противоречит фактам. К сознанию это не относится. Это называется сенсорная депривация, во время ее человек сначала спит, потом галюцинирует. Затем, длительное лишение внешних раздражителей может привести к чрезвычайному беспокойству, утере связи с реальностью, галлюцинациям, депрессии, неспособности концентрироваться и асоциальному поведению, которые впоследствии могут привести к посттравматическому стрессу. Состояние депривации не является нормой для человека, для функционирования мозга нужен постоянный раздражитель.
0 | -1
create
AGI как агент с искусственной системой гомеостаза
17:31 08.07.2024 17:35 08.07.2024 №10006
Egg:
Нет, разработчики ИИ считают иначе. Вот я, например, считаю иначе.
То есть вы считаете, что нейросети обладают сознанием, которое подразумевает субъективное целеполагание? Насколько я понял, вы просто не разделяете эти понятия, хотя они разделяются. Как уже говорил, нейросетевые технологии используют функции обобщения и прогноза развития ситуации, которая так же используется у живых существ с теми же целями, и которая по сути является определяющей их степень интеллектуального развития. Это выглядит похоже на осознанную деятельность просто потому, что действительно используется живыми существами, в разной степени, при осознанном построении моделей поведения. То есть мы просто по своему подобию воспринимаем это как осознанное целевое поведение: рак машет клешней - приветствует, дельфин улыбаясь стрекочет - радуется нам. Но вот бурлящую Солярис не просто с чем то своим ассоциировать - тут затуп.
Egg:
Тут очень многое зависит от архитектуры сети и ее задач.
Есть все таки разница между нажатием кнопки, после чего запускается сложный механизм, и работой механизма, который никто не запускал. Нейросеть не ставит себе задач кроме тех, и в контексте тех, которые ей задает оператор. Потому, что у нее нет системы гомеостаза, которая ставит первичную задачу у живых существ. Нейросети это не нужно.
Egg:
Это неверно и противоречит фактам. Это называется сенсорная депривация, во время ее человек спит и галсиюцинирует. К сознанию это не относится. Длительное лишение внешних раздражителей может привести к чрезвычайному беспокойству, утере связи с реальностью, галлюцинациям, депрессии, неспособности концентрироваться и асоциальному поведению, которые впоследствии могут привести к посттравматическому стрессу. Состояние депривации не является нормой для человека, для функционирования мозга нужен постоянный раздражитель.
Тут согласен, не удачно привел аналогию. Имелось в виду, что даже если нет внешних значимых сигналов, способных привлечь внимание, но есть сигналы малозначимые, а они всегда есть, мозг найдет чем себя занять, решая огромное кол-во отложенных задач. Можно попытаться создать такую архитектуру и у нейросети, чтобы она "думала" о своих доминантах. Но это столкнется с проблемой: а как она будет определять приоритеты, делать выбор между примерно одинаковыми решениями? Снова придется звать программиста, чтобы он ей заложил алгоритмы. Такая нейросеть классическую человечью задачу про больших крабов по 5 и маленьких по 3, никогда не решит кроме как случайным выбором. А человек решит, и это не будет случайностью, а соответствовать его текущей модели понимания. Если мы начнем прикручивать нейросети модели, значимости - то неизбежно придем и к гомеостазу. Хоть сикось, хоть накось - не получится прописать не прописываемые константы без привлечения системы, для которой эти константы буквально вопрос жизни и смерти, потому и не обсуждаются.
0 | -1
Аватар
create
AGI как агент с искусственной системой гомеостаза
17:46 08.07.2024 17:51 08.07.2024 №10007
AlexPar:
То есть вы считаете, что нейросети обладают сознанием, которое подразумевает субъективное целеполагание? Насколько я понял, вы просто не разделяете эти понятия, хотя они разделяются.
Мне показалось, что это вы отождествляете сознание и интеллект, почему-то предполагая, что построив систему сознания автоматически получите интеллект. У меня есть хороший контрпример: животные обладают сознанием, но их интеллект уступает человеческому.
AlexPar:
Egg:
Тут очень многое зависит от архитектуры сети и ее задач.
Есть все таки разница между нажатием кнопки, после чего запускается сложный механизм, и работой механизма, который никто не запускал. Нейросеть не ставит себе задач кроме тех, и в контексте тех, которые ей задает оператор. Потому, что у нее нет системы гомеостаза, которая ставит первичную задачу у живых существ. Нейросети это не нужно.
Пока этого не нужно, поэтому никто не решал этих задач. Уже в ближайшее время (уверен) LLM станут обучать на реальных данных с датчиковых систем типа камеры и микрофонов, а также дадут манипуляторы и платформу. Что касается целеполагания - это как раз очень простая штука, грубо говоря, задача - это сравнение текущего состояния и некоторого целевого, если дать машинному интеллекту какую-то цель на уровне безусловной (как инстинкты у людей), то деятельность машинного интеллекта станет осмысленной.
0 | 0
create
AGI как агент с искусственной системой гомеостаза
18:05 08.07.2024 18:13 08.07.2024 №10008
Egg:
Мне показалось, что это вы отождествляете сознание и интеллект, почему-то предполагая, что построив систему сознания автоматически получите интеллект. У меня есть хороший контрпример: животные обладают сознанием, но их интеллект уступает человеческому.
Это вам показалось. Сознание в нашем понимании, имеет несколько уровней, в модели Beast 4. Они отличаются степенью привлечения все более сложных функций обобщения и прогнозирования, а так же длительностью удержания значимого образа через его закольцовку через гиппокамп. Все 4 уровня сопровождаются эмоциональными переживаниями просто потому, что работают с кадрами эпизодической памяти (Стимул - Ответ - Эффект), и собственно прогнозируемый эффект и порождает эмо-переживания: что будет, если сделать так, и что, если эдак. То есть происходит как бы переживание предполагаемого действия, что и отличает осознанный уровень от не осознанного, когда просто запускается моторный автоматизм или рефлекс на стимул, а если что то и ощущается, так это после, а не до. И то, только в случае с автоматизмами. Рефлексы никак не ощущаются, они просто выполняются, без разницы к чему это приведет потому, что рефлексы не модифицируются, стало быть незачем их и оценивать. Но на 1 и 2 уровне прогнозы настолько быстры (потому как сканирование по дереву памяти всегда быстро), что ощущения очень мимолетны, потому практически и не замечаются. Что дает повод говорить, что сознания там как бы и нет, хотя формально оно там тоже есть. Просто у нас нет иного способа самонаблюдения за самим собой кроме как через ощущения, поэтому мы ощущаем работу сознания только через достаточно явные, длительные эмоциональные переживания. Когда "видим цель", предчувствуем гешефт или конфуз. Поэтому конечно же все существа, способные реагировать не рефлекторно, обладают в разной степени сознанием. Кстати, вот простой тест: если животное способно при определенных условиях закреплять новый навык за 1 раз, у него точно есть сознание. Потому, что у-рефлекс, где еще нет закольцовок образа, требует множества повторов для закрепления. А формирование автоматизма, следующего по иерархии качества моторного действия, способного в отличие от рефлекса оцениваться и модифицироваться, требует удержания образа восприятия, при котором и происходит его закрепление. Хотя сам объект может быть давно исчез из рецепторного восприятия.
Egg:
Это нам пока этого не нужно, поэтому никто не решал этих задач. Уже в ближайшее время (уверен) LLM станут обучать на реальных данных с датчиковых систем типа камеры и микрофонов, а также дадут манипуляторы и платформу. Что касается целеполагания - это как раз очень простая штука, грубо говоря, задача - это сравнение текущего состояния и некоторого целевого, если дать машинному интеллекту какую-то цель на уровне безусловной (как инстинкты у людей), то деятельность машинного интеллекта станет осмысленной.
Некоторого целевого, заданного оператором или прошитого разработчиком. Или заложенного изначально в свойства системы как обязательное для ее функционирования как системы - и тогда ничего задавать не надо, оно "само задается". Навешать датчиков и прописать функции сравнения - это не субъективное целеполагание, а запрограммированное. Субъективность - это то, что касается непосредственно субъекта. И ничто кроме системы гомеостаза не способно дать такие базовые цели.
0 | 0
1
2
3
4
5
6
7
8
шрифт+
шрифт-
Скачать
Вперёд
Назад

Главная Участники Жалобы  Поиск Исходный код О форуме