Форум создателей искусственных интеллектов


Логин (email) 
Пароль 
Настройки

Сообщения участника "Prosolver"
1
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
Аватар
create
Флудилка
08:40 04.03.2024 №9042
мулька:
интересный вопрос МОГЛО ЛИ НИЧЕГО НЕ СУЩЕСТВОВАТЬ?
Это очень интересный и крайне злободневный вопрос. Но мне кажется, ещё более интересный и актуальный вопрос, а существует ли не существование? Ведь если бы не существование существовало, но оно было бы существованием. Поэтому я склоняюсь к крайне важному и интересному выводу, что не существование не существует.
+1 | 0
Аватар
create
Нормология
15:04 30.05.2024 №9201
Предлагаю для обсуждения что-то более близкое к тематике форума, чем текстовые чат-боты. Для этого попытаюсь упростить предлагаемую тут схему интеллекта и свести нормы к причинно-следственным отношениям. Центральной особенностью мышления/интеллекта, как процесса, есть безусловный переход сознания к следующему своему состоянию. Наше мышление постоянно "движется вперёд", к следующему "настоящему". Это "движение во времени" является, конечно, полностью субъективной иллюзией. Но без неё интеллект не работает. Статичного (мгновенного) мышления не бывает, поскольку интеллект подразумевает активное построение целенаправленного поведения и переход к следующему лучшему состоянию. Как мы выяснили раньше, этот переход удобно представить как синтез и выполнение некоторого механизма. Механизмы могут работать правильно (т.е. обеспечивать переход к правильному, нормальному настоящему), либо неправильно (- к неправильному, ненормальному настоящему). Отклонение от нормы, по сути, есть осознавание неправильной работы некоторого механизма, т.е. по-следствие не такое, каким оно должно быть, не нормальное (плохое, неправильное). Поскольку всё в нашем сознании есть механизмы и они работают параллельно, должен иметь место постоянный поток подтверждений, что все осознаваемые механизмы работают нормально (верно, правильно). Либо какие-то работают неправильно. С одной стороны, для определения того, что механизм работает правильно/не правильно, а с другой стороны, чтобы устанавливать новые причинно-следственные отношения, необходимо чтобы работа каждого механизма представляла собой как минимум пару последовательных событий, в которой был бы чёткий разрыв между "до" и "после". Поскольку без "после" нету "вследствие". Отсюда, очевидно, должен быть способ фрагментации работы механизмов на со-бытия́, временны́е слоты. Это подводит нас к странному выводу, что в рамках одного временно́го слота не может быть "до" и "после" по определению. "До" и "после" в его пределах не различимы. Т.е. временной слот представляет собой кучу чего-то такого, что не имеет начала, продолжения и конца и существует вне субъективного времени. По всей видимости то, что мы воспринимаем как объекты, и являются такими одновременными со-бытия́ми (со-вмещениями) в рамках которых нету "до" и "после". Получается, что поток сознания разбит на временны́е кучи (предметы, объекты, события и пр.), в рамках которых мы не различаем причинно-следственные отношения, но между самими этими кучами вполне можем установить ПСО, создавая тем самым простейший строительный элемент для синтеза более сложных механизмов и базу для выяснения того, нормально или не нормально они работают.
0 | 0
Аватар
create
Нормология
07:06 31.05.2024 №9205
Egg:
Они являются по факту интеллектом
Наверное, будет неправильным, если все ветки превратятся в интрумент обсуждения восхваления/обсирания LLM, поэтому ограничусь только тем замечанием, что LLM, очевидно - это новый интересный инструмент человека для решения человеком некоторых человеческих задач. Он дополняет человека, помогает человеку, расширяет человека, но не заменяет его. И мне кажется, что вместо самовнушения "LLM ≡ AGI" полезнее было бы обратить внимание на то, чего LLM в интеллектуальной сфере в принципе делать не могут и почему.
Сергей Шувалов:
Ситуационный слот статичен. Временной слот тоже статичен, но вмещает в себя не статичную пространственную "фотографию", а статичную временную "фотографию".
У меня примерно такая же картинка складывается, но мне думается, что "ситуационный слот" (как Вы изволите выражаться) является частным случаем "временного слота". Поскольку даже если мы осознаём некую статичную сцену, то осознавание это разворачивается в нашем субъективном времени. Я потому и начал с того, что центральной особенностью мышления является безусловный переход к следующему "настоящему". Т.е. даже статичные сцены существуют для нас как таковые только во временно́й развёртке. Собственно их статичность и может быть зафиксирована нами как таковая только на некотором временно́м промежутке. Что от слота к слоту они не меняются. Иначе как бы мы узнали, что они статичные? Кроме того, даже такой казалось бы самый статичный процесс как узнавание некоторого визуального образа, подразумевает последовательность, переход от одного суб-механизма к другому, вплоть до саккад.
Сергей Шувалов:
Сознание фиксирует не НОРМАльную ситуацию и стремится перевести её в НОРМАльную ситуацию.
Да, Вы уловили суть. И это не просто некий искусственный "перевод" среди прочих занятий. Просто мышление пытается построить механизм реальности так, чтобы его работа в итоге оказалась более нормальной, чем на прошлом шаге. Т.е. когда человек предсказывает просто ход событий в мире или ход своего поведения, то работает один и тот же механизм вытаскивания из памяти более благоприятных последствий-продолжений. Причём на временных слотах разной длительности. Для моторики - на уровне миллисекунд, для стратегических размышлений о судьбах человечества - на уровне веков. Но в рамках каждого слота ситуация представляется крайне просто и вырожденно, чтобы утлый человеческий интеллект смог связать причину со следствием.
Сергей Шувалов:
В памяти ищутся слоты, которые могут изменить текущую ситуацию в сторону целевой.
Да, а для того чтобы они там нашлись, они предварительно должны быть туда безусловно запомнены, ещё не зная, для чего конкретно они будут использованы впоследствии.
Сергей Шувалов:
Выбирается лучший вариант Если результат устраивает
"Лучший" и "устраивает" подразумевает некую метрику. Метрикой во всех случаях является просто некоторая принятая норма. Соответствует/не соответствует. Да/нет.
0 | 0
Аватар
create
Нормология
09:31 31.05.2024 №9208
Luarvik.:
много ли нужно ума, чтобы правильно собрать такую штуку
Ум измеряется количеством механизмов, которые данный ум может успешно синтезировать. Чтобы правильно (нормально) собрать пирамидку, нужно уметь синтезировать суб-механизмы пирамидки (нормально видеть торы, стержень, основу, верхушку, окружающие места), суб-механизмы из своего тела (нормально перемещать члены), суб-механизмы среды (тяготение, освещённость и т.п.) и (желательно, но не обязательно) суб-механизмы из представлений в уме (нормально совмещать мысли), чтобы не тыкаться по месту, а действовать по воображаемому плану. Как по мне, это достаточно много ума. Помню свой детский опыт, когда я успешно научился собирать пирамидку. Ностальгирую. Пытаюсь собирать что-то более сложное, но принцип тот же - собирать правильно.
Luarvik.:
обидно становится за человеческий потенциал
А Вы не обижайтесь, потенциал человека сравнительно невелик, не стоит переоценивать. Чтобы не разочароваться.
Luarvik.:
интеллет - НЕ алгоритм, по определению
У Вас такая норма (эталон), Вы к ней стремитесь. Синтезируете соответствующие механизмы. Имеете право. Но при этом, при всём Вашем усердии, не демонстрируете поведения, выходящего за рамки схемы обсуждаемого тут механизмического интеллекта.
0 | 0
Аватар
create
Нормология
11:17 31.05.2024 №9210
Egg:
нет никаких принципиальных ограничений в том, что они делают
Обращает на себя внимание осторожность этой формулировки. Ведь точнее и проще было бы сказать: "LLM могут делать всё и полностью заменяют человека во всех сферах интеллектуального труда". Но тогда стало бы очевидно, что это не так. Потому что, как минимум, навскидку, LLM не имеют жизненного опыта и не могут оперативно на нём учиться. Они не отвечают на вопрос как работает и что такое сознание и квалиа. Не имеют целеполагания. Не проактивны. P.S. После того как пост был свёрстан, спросил у Великого и Ужасного, что он "понимает" на этот счёт:
Цитата:
Prosolver: Назови принципиальные отличия между тобой и интеллектом человека, что делает интеллект человека на сегодняшний день незаменимым. ChatGPT: Принципиальные отличия между искусственным интеллектом, таким как я, и интеллектом человека включают несколько ключевых аспектов: Сознание и самосознание: Человек: Обладает сознанием и самосознанием, что означает способность осознавать свое собственное существование, мысли и эмоции. Искусственный интеллект: Не имеет сознания или самосознания. Моя работа основана на алгоритмах и данных, и я не обладаю внутренними переживаниями. Эмоции и интуиция: Человек: Обладает сложными эмоциональными переживаниями и интуицией, что позволяет принимать решения на основе чувства, опыта и внутреннего понимания. Искусственный интеллект: Эмоции и интуиция имитируются на основе анализа данных, но это лишь модель, не истинное переживание. Творческое мышление: Человек: Способен к настоящему творческому мышлению, что включает способность создавать что-то новое и оригинальное, выходя за рамки известных данных и алгоритмов. Искусственный интеллект: Может генерировать новые идеи и произведения на основе существующих данных и шаблонов, но это ограничено пределами данных, на которых обучен. Этические и моральные суждения: Человек: Обладает способностью к сложным моральным и этическим суждениям, что связано с личным опытом, культурой и философскими размышлениями. Искусственный интеллект: Может следовать запрограммированным правилам этики, но не способен к собственным моральным суждениям или внутренним оценкам. Адаптивность и обучение: Человек: Обладает высокой степенью адаптивности и способности к самообучению, включая обучение на основе нового опыта и изменение поведения в ответ на новые условия. Искусственный интеллект: Обучается на основе данных и алгоритмов машинного обучения, но его способность к адаптации ограничена возможностями алгоритмов и качеством данных. Контекст и понимание: Человек: Понимает контекст и нюансы в коммуникации и может интерпретировать информацию в широком контексте, включая культурные, социальные и личные аспекты. Искусственный интеллект: Может анализировать контекст на основе данных, но ограничен точностью моделей и качеством данных, что может привести к неверной интерпретации. Эти различия делают человеческий интеллект уникальным и незаменимым во многих областях. Взаимодействие людей, принятие сложных решений, творческая деятельность и моральные суждения требуют уровня понимания и переживания, которые на сегодняшний день не доступны искусственному интеллекту.
Не во всём согласен с этим ответом, но даже железка "понимает", что в теме AGI рано ставить одну точку.
0 | 0
Аватар
create
Нормология
07:09 01.06.2024 №9222
Egg:
Расскажи хотя бы один случай недостижимости LLM, я готов рассказать как и почему это достижимо
Выше с ChatGPT мы описали ряд принципиальных отличий между LLM и мышлением человека. Но чтобы не превращать и эту ветку в очередную комнату восхвалений LLM, я бы сконцентрировался на одном принципиальном, самом главном, на мой взгляд, отличии. На обучении. LLM не демонстрируют человекоподобного обучения вообще. У всех LLM есть два жёстко разграниченных этапа своей работы - этап тренировки на огромных данных (настройки, итерирования, конфигурирования - называйте как хотите, только не "обучение") и этап использования. Полезного использования, с этим никто не спорит. У человека интеллект работает принципиально иначе. Человек учится "на лету" т.е. применение знаний происходит в процессе их создания/ликвидации. Процесс создания знаний и процесс применения знаний - это один и тот же процесс. Именно это свойство для меня является маркером. Как только любая технология начнёт демонстрировать этой свойство я первый прибегу и буду вопить, что это и есть AGI. А до тех пор мы тут с Сергеем Шуваловым потихоньку пытаемся нащупать подход к именно такому способу обучения.
Luarvik.:
Гипотезы проверяются годами
Уверен, если бы Вы взяли на себя труд попытаться перейти от этой общей (и в целом верной) формулировки к более детальному описанию механизмов рождения гипотез и их проверки, то разногласий в этом топике у нас было бы меньше. Или совсем не было.
0 | 0
Аватар
create
Нормология
13:10 01.06.2024 №9225
Egg:
Если этого предобучения нет, человек вообще не демонстрирует интеллекта
С этим спору нет. Однако, предобучение человека некоторым базовым примитивам в первые годы жизни и тренировка LLM на бигдате, на мой взгляд, это концептуально разные вещи. При человеческом стиле обучения мы получаем (в потенциале) сверхадаптивное существо, способное строить и менять модель мира оперативно. В случае с LLM модель мира оказывается зацементированной и статичной, что принципиально обусловлено архитектурой.
Egg:
Осталось "доделать" одну маленькую вещь - добавлять данные из контекстного обучения в главные модели. Думаю, это не простая задача
Если это удастся сделать (в чём я сильно сомневаюсь), то я первый прибегу и буду вопить, что AGI создан. P.S. Есть ещё энергетическое соображение, которое указывает на чудовищную неоптимальность LLM. Вот тут пишут (верю), что для тренировки одной языковой модели вроде GPT-3 требуется около 10 ГВт·ч. При этом потребление мозга примерно 20 Вт·ч, за год это примерно 0,000175 ГВт·ч. Т.е. LLM примерно в 114000 раз прожорливей мозга. И это без учёта энергии на саму работу. Есть куда стремиться.
0 | 0
Аватар
create
Нормология
20:10 01.06.2024 №9233
Luarvik.:
Моделированием сознания... Вам известно, кто этим занимается ?
Проблема с сознанием в том, что даже если удастся его создать (смоделировать, сэмулировать) то мы всё-равно не сможем убедиться в том, что оно "там" появилось. Как мы прекрасно помним, настоящее сознание обладает свойством абсолютной приватности. Человека или животное мы наделяем сознанием (с нашей точки зрения) если обнаруживаем в его поведении характерные признаки сознательности. Поэтому я предлагаю сосредотачиваться не на сознании как явлении, а на тех признаках, которые сознанию сопутствуют. И моделировать именно их, а там глядишь может и сознание "там" появится. P.S. Видео к вопросу много ли ума надо для сбора пирамидок.
0 | 0
Аватар
create
Нормология
06:40 02.06.2024 №9239
Сергей Шувалов:
объединить наши общие воззрения и усилия
Поддерживаю любые формы сотрудничества, кооперации и координации. Единственная норма, которую я прошу принять - все результаты такой кооперации становятся безусловным и безвозмездным достоянием общественности.
0 | 0
Аватар
create
Нормология
08:52 02.06.2024 №9242
Сергей Шувалов:
нужно найти какую-то другую форму сотрудничества
Форма найдена. Скинул в личку.
0 | 0
Аватар
create
Нормология
09:48 06.06.2024 №9267
Цап:
таким путем вы не отходите от темы текстовых чатботов
У текстовых чат-ботов есть два неоспоримых плюса, от которых нельзя отмахиваться и которые необходимо изучать и учитывать: 1. Они работают. И сам по себе этот факт свидетельствует, что какая-то существенная часть их архитектуры и принципов работы вполне адекватные и нужно понять, что именно они делают правильно и взять этот механизм себе на вооружение. На мой взгляд, ключевое достоинство их работы это построение последовательностей, что является сильной стороной также и человеческого ума. И именно это я предлагаю в продолжение темы норм и ПСО. Поэтому, в какой-то мере Вы правы. 2. Они работают неправильно. Опыт общения с чат-ботами выпукло проявляет те особенности работы, которые невыгодно отличают их от людей (в частности, отсутствие личной позиции, основанной на личном опыте). Когда ты ожидаешь чего-то от AGI, и не получаешь этого, то эта особенность (отклонение от нормы) привлекает внимание и требует пояснений, почему это не работает и как сделать так, чтобы это заработало правильно. В этом несомненная польза чат-ботов - отрезвление разработчиков (тех, конечно, кто хочет трезво смотреть на вещи, а не просто "втюхивать товар").
Цап:
вы берете дискретный инструментарий для создания непрерывной сущности - разума
Разум дискретен. А Ваши утверждения о непрерывности разума являются немотивированным личным предубеждением, верованием, основанном на иллюзиях, и очередной химерой, построенной на отрицании, не имеющей никакого отношения к реальности.
0 | 0
Аватар
create
Нормология
10:50 06.06.2024 №9270
Egg:
понятие "нормы" противоречит и эффективности, и здравому смыслу
Просто для кого-то нормой является эффективность и здравый смысл. P.S. "Здравый смысл — это сумма предубеждений, приобретённых до восемнадцатилетнего возраста." © Альберт Эйнштейн
0 | 0
Аватар
create
Нормология
12:32 06.06.2024 №9273
Цап:
вам следует назвать элемент неделимый далее
Да, Вы правы, и я называл его выше - это причинно-следственное отношение между двумя событиями, каждое из которых не имеет временно́го измерения. Т.е. в рамках каждого такого события не различается "до", "после" и "вследствие". Есть просто факт, со[в(мест)ное]бытие́. Временна́я куча. Причинно-следственное отношение, установленное между такими фактами и есть, по видимому, элементарный механизм, который можно каскадировать и складывать из них более сложные механизмы. Egg и Сергей Шувалов совершенно справедливо упрекают меня в отсутствии практических реализаций этой теории. По мере возможностей постараюсь сделать демонстрационный макет, который прояснит нюансы.
0 | 0
Аватар
create
Нормология
14:59 06.06.2024 №9276
Цап:
вы будете дробить течение на отдельные события и связывать эти события причинно-следственными отношениями?
Вы путаете здесь местами причинно-следственные отношения. Ставите следствие перед причиной. Если Вы говорите "течение", значит мы уже выяснили, что течение имеет место быть. Оно явилось следствием чего-то и его не нужно дробить. А выяснили мы это по каким-то иным предыдущим событиям (причинам, признакам, условиям), например, листочек на поверхности воды переместился с одного места на другое. И не непрерывно, а именно дискретно - с одного на другое. А когда мы выяснили, что течение имеет место быть, то оно само по себе становится событием, фактом, не имеющим временно́й структуры, а значит становится причиной следующих следствий.
0 | 0
Аватар
create
Нормология
20:40 06.06.2024 №9278
Egg:
первый вопрос вообще такой: как автомат "понимает" введенную в консоль последовательность токенов/символов/слов?
Если единственный интерфейс - это слова, то значит и модели мира будут строиться исключительно словесные. Насколько я помню, в твоих представлениях слова - это особый вид сигналов, который обрабатывается особым отделом мозга (зоной Брока). Я эту точку зрения не разделяю. В моём представлении слова - это заурядные события, ничем не отличающиеся от других стимулов. Понимание возникнет если автомат сможет вслед за словом, введённым с консоли, представить, что за этим последует. Т.е. в его представлениях возникнет смысл (продолжение, значение, следствие) этого слова. А если кроме слов ничего нет, значит смыслом сло́ва будут другие слова. Если коротко ответить на вопрос "как?" появится этот смысл, то ответ - из жизненного опыта. Автомат должен генерировать/синтезировать словесные модели, и те из них, которые будут подтверждаться жизненным опытом (верифицироваться), те будут закрепляться и повторяться, негодные и неиспользуемые - будут забываться.
Egg:
1) как и где описывается, что игроки ходят попеременно? 3) Как происходит оценка того, что кто-то выиграл и окончание партии?
Эти два вопроса очень похожи. В каждый момент времени игрок находится в игровой локации, ситуации, месте. И для каждого места в памяти должны быть свои нормы (или, как говорят, правила). Если в модели игры автомата соперник походил, а игрок ничего не делает - то это ошибка, отклонение от нормы, которую надо исправить путём синтеза механизма, в данном случае - сделать ход. То же самое при окончании партии. Если после хода соперника игроки попали в целевую финишную игровую локацию, то делать ход будет ошибкой, отклонением от нормы, которую надо исправить путём синтеза механизма, в данном случае - запретить себе делать ход / поздравить соперника / или ещё что-то. Если коротко ответить на вопрос "как?", то ответ будет, конечно, тот же (мы ведь говорим об универсальности и обучаемости) - из жизненного опыта. Автомат должен генерировать/синтезировать игровые модели, и те из них, которые будут подтверждаться жизненным опытом (верифицироваться), те будут закрепляться и повторяться; негодные и неиспользуемые - будут забываться. Чтобы запомнить конкретно эти нормы нужно участие учителя, носителя этих правил. Например, после правильного поведения, учитель должен хвалить/"кормить" или удовлетворять иную потребность, что учеником-автоматом будет восприниматься как достижение некоторой универсальной нормы.
Egg:
2) Как и куда игрок делает ход (как происходит анализ и выбор)?
Это, очевидно, самый важный и интересный вопрос. Но ответ на него будет тот же. Автомат должен генерировать/синтезировать игровые модели, и те из них, которые будут подтверждаться жизненным опытом (верифицироваться), те будут закрепляться и повторяться, негодные и неиспользуемые - будут забываться. На практике, конечно, будут нюансы. В комбинаторных играх (как и в жизни) всегда появляется вариативность. Но для избегания комбинаторного взрыва вводятся дополнительные нормы. Ещё их называют "промежуточные цели", но это не достаточно точно. Промежуточные цели предполагают как бы последовательность, план. А дополнительные нормы это дополнительные требования к синтезируемому механизму на каждом ходу. Т.е. чем больше норм в каждый момент будет соблюдено, тем более сложный механизм синтезируется, тем более сложное интеллектуальное поведение демонстрирует автомат. Плюс, конечно, нужно учитывать, что у интеллектуального существа есть ещё мышление или воображение, где он может тестировать свои модели, до того как выполнить их своими актуаторами.
0 | 0
Аватар
create
Нормология
06:58 07.06.2024 №9281
Egg:
"автомат должен быть устроен так, что он будет это делать непременно". Конечно. Вот я и спрашиваю, как он должен быть устроен, чтобы это делать?
Понятно, что основой такого устройства должна быть большая память, организованная по принципу: "какой механизм служит достижению данной нормы (восстановлению отклонения от данной нормы)". Или ещё проще "какой механизм Y служит восстановлению/обеспечению правильной работы механизма Х". А заполняться эта память должна просто из сырого жизненного опыта. Запоминаются все связи, хотя бы потенциально годные для использования в качестве причинно-следственных. Видимо, тут без макета всё же не обойтись.
Egg:
Ты не понимаешь, что такое понимать, почему знаковые модели не бывают словесными и не понимаешь, что именно происходит в LLM, когда она обучается
Если это так, то тут я солидарен с самими разработчиками LLM, которые, судя по твоим сообщениям, тоже не понимают почему их LLM работают. Я, конечно, не претендую на детальное понимание того, как устроены и работают LLM. Для этого нужно сделать самому хотя бы одну LLM. Но, очевидно, если LLM тренируется на слогах, то и выдаёт она слоги. Чтобы стать мультимодальной у неё должен быть мультимодальный тренировочный датасет. Также очевидно отличие между обучением человека и тренировкой LLM. Для человека пару слов являются достаточной обучающей выборкой, чтобы на основании них скорректировать свою модель мира. Потому что слова для человека - это его жизненные события, последовательно развивающиеся во времени. А для LLM пары слов недостаточно, ему нужны миллиардные выборки, чтобы так наловчиться обманывать покупателя подбирать следующий токен, чтобы у пользователя сложилось обманчивое впечатление, что LLM что-то "понимает". В моём понимании, понимание - это процесс, развивающийся во времени, в сознании, последовательно итерационно улучшающийся. А LLM просто выдаёт результат, самый точный, самый правильный, единственно возможный.
0 | 0
Аватар
create
Нормология
07:16 08.06.2024 №9310
Egg:
обучение - это записывание правил (словами) в некую память, а понимание - это поиск наилучшего включения по строке
С трудом понимаю, как можно так странно меня понять. Что есть слово? Это либо последовательность графических примитивов (букв, жестов, иероглифов etc), воспринимаемых визуально (тактильно - для слепых), либо последовательность звуков, воспринимаемых аудиально. Либо то же самое но в воображении. Т.е. слово - это такой же объект восприятия/мышления как и всё остальное. Поэтому я не выделяю слова в особую категорию. Слова - это заурядные события. Как рукопожатие, восход Солнца или лай косули. За событием (в частности, за словом), может следовать другое событие. И если интеллект посчитает нужным связать эти два события, то возникнет (и запомнится) простейший механизм - причинно-следственное отношение (ПСО). А применение (вспоминание) этого ПСО для построения модели реальности, в том числе и своего поведения - это есть понимание. Думать, что интеллект и мышление - это про слова, это примерно то же самое, что думать, что компьютеры - это про С++. Компьютеры - это про транзисторные ключи. А интеллект и мышление - это про причинно-следственные отношения между событиями. Вангую, господа LLMщики будут крайне удивлены простотой конструкции, когда настоящий AGI будет создан.
0 | 0
Аватар
create
Нормология
10:38 08.06.2024 №9314
Egg:
более простой задачи у меня и нет
Детям нужно несколько лет, чтобы приступить к освоению крестиков-ноликов. Так что не так уж она и проста. А более простая задача конечно же есть: P.S. Ворона типа играет в крестики-нолики:
0 | 0
Аватар
create
Решатель ARC-задач Франсуа Шолле
21:42 17.06.2024 №9395
Egg:
на каждую задачу генерирует примерно 5000 программ на питоне
Позволю себе моветон, процитирую самого себя из прошлого, потому что это по прежнему актуально:
Prosolver:
в этой задачке интересно не просто во что бы то ни стало решить конкретно эти 800 задач, а протестировать универсальный AGI-прототип, т.е. который будет думать как человек, а не как мешок с математическими функциями.
Самолёт не машет крыльями, но он воспроизводит полёт. AGI не должен быть сделан из человеческих белков и рефлексов, но он должен воспроизводить человеческое мышление. По определению. Человек не генерирует 5000 программ на питоне, когда решает задачи Шолле, имхо.
0 | 0
Аватар
create
век живи — век учись
20:57 22.06.2024 №9472
Может кто не видел, новый робот от Boston Dynamics с электроприводом. Интересные степени свободы.
+1 | 0
1
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42

Главная Участники Жалобы  Поиск Исходный код О форуме