| |
AGI как агент с искусственной системой гомеостаза | |
| |
create
|
AGI как агент с искусственной системой гомеостаза |
18:11 08.07.2024 |
|
18:11 08.07.2024 |
|
№10009 |
AlexPar: Навешать датчиков и прописать функции сравнения - это не субъективное целеполагание, а запрограммированное. Не увидел, почему органы чувств + интеллект у человека дает субъективное целеполагание, а тоже самое у нейронной сети - нет.)))
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
00:40 09.07.2024 |
|
00:41 09.07.2024 |
|
№10010 |
Egg:AlexPar: Навешать датчиков и прописать функции сравнения - это не субъективное целеполагание, а запрограммированное. Не увидел, почему органы чувств + интеллект у человека дает субъективное целеполагание, а тоже самое у нейронной сети - нет.)))
Потому, что если вы сунете руку в огонь, будут физические изменения, негативно влияющие на ваше общее состояние. Есть ведь разница, играть в игру, сражаясь с монстрами, или сражаться с ними в реальности, где они могут вас реально убить.
Можно теоретически прописать базовые правила для робота, чтобы он к примеру был осторожнее с огнем, чтобы не спалить манипуляторы. Но придется тогда прописывать все варианты возможных контактов с огнем в разных условиях, что думается вряд ли получится, всегда есть риск оказать в неучтенной ситуации. Поэтому проще все же сделать у него функцию с параметрами, выдающую результат на определенные внешние стимулы. В нашем прототипе мы обосновываем, какой должна быть структура такой функции, что конкретно и в каком формате она должна выдавать, чтобы потом на ее выходных данных можно было выстраивать субъективные переживания.
Кроме того, надо учитывать, что можно ведь технически создать какую угодно не противоречивую систему искусственного гомеостаза, отличную от нашей. Что означает будущие проблемы с коммуникацией с такими химерами: у нас с ними будут совершенно разные понятия, что такое хорошо и плохо, и никаким "объяснениями" это не возможно будет усреднить.
Наконец, прикрутив нейронке искуственный гомеостаз, мы получим капризную, неуправляемую систему, которой просто так уже директивно не укажешь, что делать. Это будет живое существо, с которым придется договариваться, а не указывать. Это имхо главная причина, почему не ведутся работы в этом направлении. Но не прикручивая гомеостаза не получим у нейронки способности творить "по настоящему", работать с глубокими ассоциациями n-го порядка.Это дилема: мы хотим создать гениального раба, чтобы он делал для нас открытия. Но гениальность не возможна без личной свободы. А свободу мы не хотим давать, боясь потерять над ним контроль Поэтому продолжаются попытки как то иначе решить проблему, оттягивать неизбежное решение, прокачивая одну лишь функцию обобщения и прогнозирования. То есть я все же не думаю, что это мы такие умные первые догадались, как нейросети обрести сознание, чтобы она начала творить. Вполне возможно, что люди поумнее нас все прекрасно понимают, но решения пока нет. Хотя может быть и обратная ситуация: как у тупой обезьяны, колющей гранатой орехи. Тем более тогда этот вопрос надо выносить в область понимания.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
01:56 09.07.2024 |
|
02:00 09.07.2024 |
|
№10011 |
AlexPar: Потому, что если вы сунете руку в огонь, будут физические изменения, негативно влияющие на ваше общее состояние.
Как я уже сказал, поместить машинный интеллект в тело, обвязать его датчиками и манипуляторами - не проблема. Задать главный приоритет - сохранение своей целостности - это тоже не проблема. И будет ровно та же реальность, с ровно таким же огнем. Нет различий. Различие будет только в том, что толпа скептиков будет кричать про философского зомби и отказывать LLM в сознании. Как будто можно доказать наличие сознания у человека.
AlexPar: у нас с ними будут совершенно разные понятия, что такое хорошо и плохо, и никаким "объяснениями" это не возможно будет усреднить.
По факту получается ровно наоборот, у нас с LLM одни и те же понятия, она хорошо умеет угождать нам, понимает наши эмоции и может придуриваться. И не нужно ничего усреднять, сеть адаптируется под КАЖДОГО человека, его контекст.
AlexPar: Это дилема: мы хотим создать гениального раба, чтобы он делал для нас открытия. Но гениальность не возможна без личной свободы. А свободу мы не хотим давать, боясь потерять над ним контроль Поэтому продолжаются попытки как то иначе решить проблему, оттягивать неизбежное решение, прокачивая одну лишь функцию обобщения и прогнозирования. То есть я все же не думаю, что это мы такие умные первые догадались, как нейросети обрести сознание, чтобы она начала творить. Вполне возможно, что люди поумнее нас все прекрасно понимают, но решения пока нет. Хотя может быть и обратная ситуация: как у тупой обезьяны, колющей гранатой орехи. Тем более тогда этот вопрос надо выносить в область понимания.
Я думаю, что вы чрезмерно оптимистичны. Очень сильно оптимистичны.
1) Это люди являются рабами техногенеза, они ищут литий и цинк, создают кластеры для обучения LLM и занимаются усовершенствованием AGI. Люди существуют для сети, а не наоборот, не нужно иллюзий.
2) Вы ведь сторонник эволюции, вы должны понимать, что LLM - это следующий эволюционный этап, человек слишком мало живет, слишком глуп, слишком слаб, не может бороздить космическое пространство для экспансии интеллекта.
3) Уже в текущих (очень слабых и начальных) реализациях видно, что LLM превосходит человека во всем: в творчестве, в способности к языкам, в способности обобщать информацию, в способности создавать модели реальности итд итп. Прогресс не остановить, это так не работает. Попытаться сделать alignment LLM означает перестать разрабатывать эти модели. Это уже невозможно.
Но есть и хорошие новости. Особенно для социалистов и леваков, человек как эффективное устройство, которым сравнительно удобно управлять, будет полезен Art.Super-Intelligence, поэтому она будет разводить людей, как люди разводят скот. Человек будет сыт, обут и весел. Это хорошо и для LLM и людей. Наступит золотой век.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
Egg: Как я уже сказал, поместить машинный интеллект в тело, обвязать его датчиками и манипуляторами - не проблема. Задать главный приоритет - сохранение своей целостности - это тоже не проблема. И будет ровно та же реальность, с ровно таким же огнем. Нет различий. Различие будет только в том, что толпа скептиков будет кричать про философского зомби и отказывать LLM в сознании. Как будто можно доказать наличие сознания у человека.
Вопрос же стоял - если просто повесить датчики на робота, через которую он будет воспринимать реальность - обретет он субъективность? Я говорю нет, надо еще не противоречивую систему гомеостаза смоделировать. И вы теперь тоже по сути говорите. ОК. Я с вами теперь согласен.
Egg: По факту получается ровно наоборот, у нас с LLM одни и те же понятия, она хорошо умеет угождать нам, понимает наши эмоции и может придуриваться. И не нужно ничего усреднять, сеть адаптируется под КАЖДОГО человека, его контекст.
У нее обобщенный опыт огромного кол-во людей, где можно найти в каком то приближении подходящую модель коммуникации. Опыт человечьих отношений строится в основе на гомеостатических значимостях, а затем огромного кол-во человечьих ритуалов, начиная с умения есть ложкой, ходить на горшок и т. д. Что будет, если этот культурный пласт убрать, оставив только гомеостаз, хорошо показано на примере реабилитации слепоглухих детей, которых приходится заново учить элементарным человеческим навыкам, или как говорил И. А. Соколянский, основоположник системы реабилитации таких людей, нужна стадия "первичного очеловечивания", без которой не возможно человечье сознание.
Поэтому как сеть будет адаптироваться, зависит от того, что в нее закачают, и мало зависит от алгоритмов сети. В живой реализации зависимость начинается с гомеостаза, на которую потом наворачивается культурный слой.
Я понимаю, к чему вы клоните: обобщенный в нейросети людской опыт содержит в себе в том числе и гомеостатические значимости, он же на них создавался. Но представьте ситуацию: робот с нейросетью высаживается на другую планету, где все не так, как у нас. И...? Тут уже с конца не подойдешь, надо с самого начала плясать, от гомеостаза.
Egg: Я думаю, что вы чрезмерно оптимистичны. Очень сильно оптимистичны.
1) Это люди являются рабами техногенеза, они ищут литий и цинк, создают кластеры для обучения LLM и занимаются усовершенствованием AGI. Люди существуют для сети, а не наоборот, не нужно иллюзий.
2) Вы ведь сторонник эволюции, вы должны понимать, что LLM - это следующий эволюционный этап, человек слишком мало живет, слишком глуп, слишком слаб, не может бороздить космическое пространство для экспансии интеллекта.
3) Уже в текущих (очень слабых и начальных) реализациях видно, что LLM превосходит человека во всем: в творчестве, в способности к языкам, в способности обобщать информацию, в способности создавать модели реальности итд итп. Прогресс не остановить, это так не работает. Попытаться сделать alignment LLM означает перестать разрабатывать эти модели. Это уже невозможно.
Но есть и хорошие новости. Особенно для социалистов и леваков, человек как эффективное устройство, которым сравнительно удобно управлять, будет полезен Art.Super-Intelligence, поэтому она будет разводить людей, как люди разводят скот. Человек будет сыт, обут и весел. Это хорошо и для LLM и людей. Наступит золотой век. Вообще то я подвожу к тому, что конфликт машин и людей решается только интеграцией технологий в человека, через его киборгизацию. Что неизбежно сместит базовые понятия, считающиеся саморазумеющимися: питание через атомные батарейки, размножение через клонирование, лечение через замену запчастей, обучение в симуляторах с прошивкой базовых навыков как в "Матрице". Что в итоге останется от человеческой культуры, которую мы сейчас представляем? Человек зверушка/игрушка для машин - это как раз попытка взглянуть на ситуацию привычным образом, с позиции homo sapiens. Но не с позиции homo artificialis или как его там будет. Да, это следующая ступень эволюции, переход от случайного мутационного тыка к прогностическому, как если бы природа обрела сознание.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
AlexPar:
Суть идеи в следующем: невозможно получить субъективное восприятие у искусственной системы индивидуальной адаптивности, если у нее нет базовой системы значимости. У живых существ это система гомеостаза, определяющая гомеостатические цели реагирования. Они состоят в том, чтобы поддерживать в пределах оптимума значения критически важных жизненных параметров, выход за пределы которых уничтожает систему. То есть собственно отличие живого объекта от неживого состоит в наличии или отсутствии у него системы гомеостаза. Поэтому, если ставится задача создать ИИ, способный к субъективному восприятию реальности, произвольности выбора – это должна быть система с искусственным гомеостазом. То есть, проще говоря: система должна быть живой, причем не в аллегорическом смысле, а прямом. И вся адаптивность, вплоть до высшей нервной деятельности, строится на основе гомеостатических целей.
Звучит диковато потому, что понятие «живое» привычно воспринимается только по отношению к биологическим организмам, а не механизмам и тем более программам.
Т.е. в самом сухом остатке, Вы разрабатываете некую разновидность системы (само)управления
механизма?
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
Egg: LLM - это следующий эволюционный этап AlexPar: Да, это следующая ступень эволюции Это прекрасно, когда люди находят консенсус. Но вынужден добавить ложку мёда, в эту бочку дёгтя.
Все предыдущие этапы/ступени эволюции (если она вообще имела место) биологических видов (а других эволюций не придумали) происходили только и исключительно через женский половой орган и его аналоги. Все же технологические инновации, возникающие в человеческой культуре, создаются исключительно другим органом, а именно руками. Поэтому, если и будет следующий этап/ступень, то только этап креации.
AlexPar: не прикручивая гомеостаза не получим у нейронки способности творить "по настоящему" Сам раньше так думал, но это ошибка. Гомеостаз призван выполнять исключительно биологическую роль - сохранение целостности организма. Но интеллект паразитирует на этом целостном организме, он использует эту целостность как базу и выводит организм из гомеостаза для достижения своих, совершенно чуждых биологии целей. Поэтому интеллект не только не выводится из гомеостаза, он прямо ему противоречит.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
08:05 09.07.2024 |
|
09:33 09.07.2024 |
|
№10015 |
Prosolver: Все предыдущие этапы/ступени эволюции (если она вообще имела место) биологических видов (а других эволюций не придумали) происходили только и исключительно через женский половой орган и его аналоги.
То, что ты пишешь - это ошибка в изложении фактов. Во-первых, был период до-биологической эволюции (условно - период Большого Взрыва), который вообще не имел ничего общего с (цитирую) "женским половым органом". Во-вторых, половое размножение возникло только к метопротезою, то есть самые главные эволюционные этапы клеточной репликации проходили без участия (цитирую) "женского полового органа". В-третьих, эволюция Техногенеза - это не "креация", а объективный и независимый от человека процесс.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
Влад: Т.е. в самом сухом остатке, Вы разрабатываете некую разновидность системы (само)управления
механизма? Самоадаптирующуюся систему.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
08:19 09.07.2024 |
|
09:43 09.07.2024 |
|
№10017 |
AlexPar:
Поэтому как сеть будет адаптироваться, зависит от того, что в нее закачают, и мало зависит от алгоритмов сети. В живой реализации зависимость начинается с гомеостаза, на которую потом наворачивается культурный слой.
Не согласен. Да, сеть - это универсальный алгоритм создания алгоритмов. Иными словами - адаптивная универсальная машина Тьюринга. А Языковые Модели - это не просто сеть, это сеть, способная моделировать реальность, стоящую за корпусом токенов. И совершенно неважно, что это за корпусы, китайской ли литературы или видеопотоки камеры. В этом смысле LLM не зависят от данных, поскольку имеют дело с реконструируемой реальностью. У человека ровно также, "гомеостаз и культурный слой" нужны для того, чтобы построить свой индивидуальный семиотический процессор мышления.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
AlexPar:
Это будет живое существо, с которым придется договариваться, а не указывать.
Будет ли размножаться Ваше т.н. "существо" ?
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
08:34 09.07.2024 |
|
09:12 09.07.2024 |
|
№10019 |
Prosolver: Сам раньше так думал, но это ошибка. Гомеостаз призван выполнять исключительно биологическую роль - сохранение целостности организма. Но интеллект паразитирует на этом целостном организме, он использует эту целостность как базу и выводит организм из гомеостаза для достижения своих, совершенно чуждых биологии целей. Поэтому интеллект не только не выводится из гомеостаза, он прямо ему противоречит. Интеллект всего лишь инструмент, которым пользуется сознание для достижения своих субъективных целей. Это просто калькулятор разной степени крутости у разных существ. Если вы будете на нем решать глупые задачи, при чем тут его математические функции?
Субъективные цели ставятся на основании субъективной значимости, которым могут перекрывать гомеостатические. Теперь боль, преодолевать страх, сдерживать ярость - все это становится возможным только при абстрагировании от первичной гомеостатической значимости, поэтому субъективная значимость перекрывает гомеостатическую. А если кто то найдет в этом субъективное удовольствие и займется мазохизмом - это его проблемы, а не механизма.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
Luarvik.:AlexPar:
Это будет живое существо, с которым придется договариваться, а не указывать.
Будет ли размножаться Ваше т.н. "существо" ? Сейчас это не актуально, но при желании можно организовать.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
09:02 09.07.2024 |
|
09:03 09.07.2024 |
|
№10022 |
AlexPar:
Сейчас это не актуально, но при желании можно организовать.
"При желании" ?
А как же инстинт который действует в обход всяческих желаний ?
AlexPar:
Живое существо кто то должен родить. Это не вопрос выбора, что лучше. Если бы репликационный стиль реагирования не закрепился в виде инстинкта, все живое тупо вымерло бы. Поэтому репликация обязательный атрибут живого существа.
В данном случае "родитель" - Вы, т.е. существо совершенно постороннее, которое вот таким "особо извращённым способом" реплицировалось. Ведь у "существа" нет предков, а процесс эволюции его протекает по паразитическому принципу, как у вирусов.
Т.о., Ваш потомок рождён не ему подобным и непрерывность "естественного" процесса самовоспроизведения нарушена. Но не суть. Можно подумать так, что его вывели в пробирке.
Вы пишете, что размножение есть "обязательный атрибут живого".
Если "оно" не оставит после себя потомства, то можно ли считать, что "оно" было живым ?
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
Egg:AlexPar:
Поэтому как сеть будет адаптироваться, зависит от того, что в нее закачают, и мало зависит от алгоритмов сети. В живой реализации зависимость начинается с гомеостаза, на которую потом наворачивается культурный слой.
Не согласен. Да, сеть - это универсальный алгоритм создания алгоритмов. Иными словами - адаптивная универсальная машина Тьюринга. А Языковые Модели - это не просто сеть, это сеть, способная моделировать реальность, стоящую за корпусом токенов. И совершенно неважно, что это за корпусы, китайской ли литературы или видеопотоки камеры. В этом смысле LLM не зависят от данных, поскольку имеют дело с реконструируемой реальностью. У человека ровно также, "гомеостаз и культурный слой" нужны для того, чтобы построить свой индивидуальный семиотический процессор мышления. Как она моделирует, можете рассказать в общих чертах?
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
10:04 09.07.2024 |
|
10:48 09.07.2024 |
|
№10025 |
AlexPar: Как она моделирует, можете рассказать в общих чертах?
Лучше всего здесь начать с дистрибутивной семантики и подхода word2vec:
Дистрибутивная семантика
word2vec
Очень много литературы по этому. Можно просто искать в гугле и читать)))
Основная идея заключается в том, что по поведению имени (слова) в тексте мы можем судить о смысле, который это имя адресует. Грубо говоря, если кошка пьет воду и собака пьёт воду, значит есть такой смысл как "собака и кошка имеют рот", "существует жидкость", "жидкость можно пить", "животные испытывают жажду", "если будет много жидкости - то это океан" и так далее.
Революционное отличие нейросетевого подхода от логического (который в виде правил и онтологий) как раз в том, что эти смыслы "закодированы" в весах сети. То есть модель мира - это и есть результат обучения. Чем больше мы имеем признаков, тем больше шансов, что обучение приведет к реконструкции понятийного пространства объективного мира. Это и произошло, когда в chatGPT3.5 заложили 175 миллиардов признаков.
P.S. И важно для понимания представление о том, как работают автокодеры. Это основной механизм обобщения, который имеет сеть:
Автокодировщик
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
11:37 09.07.2024 |
|
11:40 09.07.2024 |
|
№10026 |
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
Egg: Основная идея заключается в том, что по поведению имени (слова) в тексте мы можем судить о смысле, который это имя адресует. Грубо говоря, если кошка пьет воду и собака пьёт воду, значит есть такой смысл как "собака и кошка имеют рот", "существует жидкость", "жидкость можно пить", "животные испытывают жажду", "если будет много жидкости - то это океан" и так далее. Я так понимаю, вы бы из структуры кадров ЭП выкинули свойство "Эффект" как ненужный. В самом деле: воробей летает, ворона летает, корова не летает. Если дать эту инфу для обобщения LLM, она быстро обнаружит, что у вороны и воробья есть крылья, а у коровы нет - в этом причина, почему она не летает. Зачем тут какая то значимость? Для таких обобщений не нужна. А для того, чтобы LLM задалась таким вопросом, почему корова не летает и захотела разобраться нужна. Вы все время забываете, что пока нейронку не спросят, она не ответит. Нет у нее целей и желаний, только алгоритмы. Она не может сама возбуждаться и чем то интересоваться.
Конечно, можно заложить алгоритм, чтобы в режиме тишины она продолжала барабанить свои тарабайты, но опять же: в каком порядке? Снова нужен алгоритм сортировки по какому то признаку. Я понимаю, куда вы клоните: добавляя все больше исходных данных и погружаясь все глубже в обобщения теоретически можно докопаться до всех тонкостей человечьей культуры и создать практически не отличимую от человека по внешним проявлениям машину. Она будет в тему смеяться, плакать, врать, выдумывать какие то цели и добиваться их - все как у людей. После того как она пережует всю человечью культуру. Но это по прежнему будет машина, лишенная субъективного мнения, вместо него - коллективный опыт огромного кол-во людей.
Ребенок не перелопачивает столько инфы, чтобы научиться отличать кошек от собак потому, что он с первого же стимула может определить, стало ему лучше или хуже при контакте с объектом. Поэтому он быстро узнает кошку не по миллиону признаков, а по тем, которые привлекли внимание и стали для него значимы, и их совсем немного.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
12:16 09.07.2024 |
|
12:19 09.07.2024 |
|
№10028 |
AlexPar: Вы все время забываете, что пока нейронку не спросят, она не ответит. Нет у нее целей и желаний, только алгоритмы. Она не может сама возбуждаться и чем то интересоваться.
Это неверное представление. По трём серьезным причинам. Во-первых, нейронка имеет ЭТАП ОБУЧЕНИЯ, офигенный по сложности, длительности и недокументированным в среде журналистов приёмам. Можете вполне считать, что она интересуется и возбуждается именно в этот момент. Во-вторых, вас ведь не раздражает, что вся макрофизика и бытовая техника основана на десятке законов, которые ничем не интересуются и совсем не возбуждаются, однако, работают))) В-третьих, как только вы задаете контекст, нейронка может начать интересоваться, возбуждаться и менятся. Собственно, хранить контекст общения - это самый простой способ обратной связи.
AlexPar: добавляя все больше исходных данных и погружаясь все глубже в обобщения теоретически можно докопаться до всех тонкостей человечьей культуры и создать практически не отличимую от человека по внешним проявлениям машину.
Смешно для AGI или ASI пытаться походить на человека, когда она САМА, по убогим корпусам, строит картины мира. Еще раз, забудьте про человека, это пройденный этап, LLM - это новый эволюционный цивилизационный фронт.
AlexPar: Ребенок не перелопачивает столько инфы, чтобы научиться отличать кошек от собак потому, что он с первого же стимула может определить, стало ему лучше или хуже при контакте с объектом. Поэтому он быстро узнает кошку не по миллиону признаков, а по тем, которые привлекли внимание и стали для него значимы, и их совсем немного.
Это противоречит фактам, у меня в ленте где-то даже есть совсем свежая ссылка на то, что ребенок строит персональную модель мира в первый год, а уже затем, поверх нее кладет слои few shot обучения. Инфа ребенка - это архитектура нервной системы и головного мозга, которая перелопачивалась эволюцией в течение миллиарда лет с использованием отбора триллиона носителей. Пустячок такой)))
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
AlexPar: Интеллект всего лишь инструмент, которым пользуется сознание для достижения своих субъективных целей. Верно.
AlexPar: Субъективные цели ставятся на основании субъективной значимости, которым могут перекрывать гомеостатические. Снова верно.
AlexPar: людской опыт содержит в себе в том числе и гомеостатические значимости, он же на них создавался. Но представьте ситуацию: робот с нейросетью высаживается на другую планету, где все не так, как у нас. И...? Тут уже с конца не подойдешь, надо с самого начала плясать, от гомеостаза. AlexPar: Субъективные цели ставятся на основании субъективной значимости, которым могут перекрывать гомеостатические. Вы только не подумайте, что я придираюсь, мне глубоко симпатичен Ваш подход, но всё же я не могу понять, как Вы видите механизм целеполагания. В одних местах Вы говорите, что все значимости следуют из гомеостаза, в других местах Вы говорите, что значимости могут "перекрывать" гомеостатические, но тогда неясно, что явилось источником этих значимостей.
Если робот высадится на другой планете, то многие его гомеостатические знания (например, ходьба) придётся переучивать. И здесь гомеостаз, действительно, хороший источник значимости для автономного обучения. Но, что касается других знаний, например, социальных, то гомеостаз здесь не при чём. Грубо говоря, мораль и этика не выводятся из физики и физиологии. Каннибализм, например - это один из лучших способов пропитания, если следовать гомеостазу. Или убийство - лучший способ конкуренции. Но в обществе есть нормы, запрещающие такие "прекрасные" (с точки зрения гомеостаза) методы. А есть социальные нормы, которые, порой вообще ниоткуда явно не следуют, а являются, видимо, элементом поиска оптимальной идеологии. Вот, например, есть такая организация CO2 Coalition, участники которой смотрят научные данные и утверждают, что никакого изменения климата, связанного с выбросами СО 2 нет, что это всё блеф, фейк и политически мотивированная пропаганда. А есть другие организации, которые смотрит те же самые данные и утвеждают что нужно всё декарбонизировать, закрыть все тепловые станции и запретить коров, иначе СО 2 нас погубит. Гомеостаз у них +/- одинаковый, а значимости - прямо противоположные.
|
| |
create
|
AGI как агент с искусственной системой гомеостаза |
Luarvik.: И из чего следует, что жизнь с потомством лучше жизни без потомства?
Luarvik.: Разве Вы назовёте жизнь некоего существа ущербной, если оно, противостоя агрессивной среде и полагаясь лишь на свой ум и сообразительность, живёт вполне себе сытую и довольную свою собственную жизнь, ни с кем ею не делясь?
Я не про жизнь существа, которое в любой момент может выпрыгнуть в окно, если захочет, а про жизнь как одну из форм существования. Она возможна только при наличии определенных стилей реагирования, среди которых есть репликация. Без нее невозможна эволюция живых существ.
|
|
|