AGI.place

Форум создателей искусственных интеллектов


Логин (email) 
Пароль 
Настройки

Скачать
Вперёд
Назад
1
2
3
4
5
6
7
Главное препятствие в создании СИИ.
Аватар
NA
create
12:33 23.07.2021 №1400
Это лично Вам, Gather, на долгую память
+1 | 0
Аватар
NA
write
12:47 23.07.2021 19:27 23.07.2021 №1401
Gather:
Ещё раз повторю я не микробиолог, но ИМХО например сам принцип скрещивания генов половым способом - вид направленной мутации. Своего рода эвристика, как в генетических алгоритмах. Например в алгоритме "имитация отжига" тс. "без половой отбор". На сколько мне известно весь процесс репликации ДНК на все 100% ещё не изучен, много ещё непонимания как какие гены работают, известно что не малая часть из них тригерная, логическая, то есть одни гены включат\выключают другие пре тех или иных условиях, а раз так то сами собой могут возникать участки более мутабельные так как они более сложно кодируется, через множество тригерных генов, которые тоже могут быть повреждены.
Во истину! Очень удачная иллюстрация. Однако, я говорил именно про ДНК. На мой взгляд, есть в клетке ещё, как минимум, одно подтверждение того, что адаптивный мутагенез ДНК в рамках любой клетки вне фазы размножения может существовать. Я тут вещал уже про парадокс жизни: нужно меняться, чтобы сохраниться. А появление парадокса, как известно, говорит о том, что что-то от чего-то пора отделить. Речь идёт о том, что подкрепление может быть не только вбросом материала для достройки структуры, но и частичным разрушением её. Рефлексирующая оболочка непременно присвоит и использует такие частично разрушающие факторы. Ну, а фатально разрушающие факторы просто выведут систему на казнь через естественный внешний отбор. Пример: система воспроизведения белков и ДНК в целом, в которой есть факторы отделяющие куски и даже целые участки ДНК от матрицы. Кстати, это говорит ещё и о том, что можно говорить об оболочках, определяющих область действия таких факторов.
0 | 0
Аватар
NA
write
12:59 23.07.2021 13:00 23.07.2021 №1402
Ещё, резюмируя весь подход к выбору источников фактов для рассуждений о СИИ, хочу заметить, что знакомство с другими отраслями знания, такими как эволюционная биология, физическая химия, органическая химия, микробиология, физиология, нейрофизиология, медицина, социология, экономика и т.д. и т.п. очень помогает. Невозможно прочитать двухтомник Кнута, матан, Фейнмана и всё понять.
0 | 0
NA
create
13:34 23.07.2021 14:08 23.07.2021 №1403
Prosolver:
Влад:
назойливое предложение
Хорошо, что признали это. Значит полпути к исправлению пройдено.
Влад:
чем оно отличается
Про Luarvik/а ничего не скажу. А отличается тем, что я готов признавать свои ошибки, отказываться от ложных убеждений и искать обоснования для своих взглядов. Объясняя их, а не навязывая назойливо предлагая их другим только потому, что они мои.
Влад:
отвечайте по сути предъявленной критики
Возьмём, к примеру, вики: "О́рган (др.-греч. ὄργανον — «инструмент») — это группы тканей со сходными функциями. Орган представляет собой функциональную единицу в пределах организма, обособленную от других функциональных единиц данного организма. Органы одного организма связаны в своих функциях между собой таким образом, что организм является совокупностью органов, которые часто объединяются в различные системы органов. Органом называется лишь та совокупность тканей и клеток, которая имеет устойчивое положение в пределах организма и чьё развитие прослеживается в пределах онтогенеза (органогенез)." Если принять это определение органа за норму, то где Вы здесь видите противоречие, если пытаться натягивать это определение на "интеллект"? Интеллект реализован в виде тканей (группы клеток)? Да. Интеллект представляет собой обособленную функциональную единицу? Да. Интеллект связан с другими органами? Да. Интеллект локализован в организме? Да. Интеллект развивается в онтогенезе? Да. Тогда в чём противоречие? Вы, как мне кажется, напрасно акцентируете внимание на малозначительных абстрактных второстепенных философских категориях, пытаясь объяснять интеллект как процесс, явление, структуру, архитектуру, строение, орган, способность и т.п. Для того чтобы делать интеллект, который должен работать, его надо объяснять как механизм. Но это труднее. Проще разбирать пирамиду понятий с вершины. Не так ли?
Всё это, очень похоже на сценку «Схема разруба тигра», из к/ф «Полосатый рейс». Там лектор пытался указать на орган «Вымя», но не смог, а возмущённые матросы комментировали «Где?», «Всё понятно!». Всё это, дичайшая путаница. Вам, потом, будет стыдно. Назойливо предлагаю, всё-таки вникнуть в абсолютную идею Мира «Комбинаторное множество элементов» и вычленять понятие «Интеллект» из этого первичного понятия, а не натягивать.
0 | 0
Аватар
NA
create
13:40 23.07.2021 №1404
Абсолютные идеи назойливо предлагают обычно в палатах №6.
0 | 0
NA
create
14:05 23.07.2021 №1405
Luarvik.:
Абсолютные идеи назойливо предлагают обычно в палатах №6.
Дичь от Luarvik/а: «Процесс – это часть тела»
0 | 0
Аватар
NA
create
14:08 23.07.2021 №1406
Процесс, происходящий в теле, является частью тела, хотите Вы того или нет.
0 | 0
NA
create
14:12 23.07.2021 №1407
Luarvik.:
Процесс, происходящий в теле, является частью тела, хотите Вы того или нет.
Это ещё один орган? Процесс – это часть порядка существования Мира, хотите Вы того или нет.
0 | 0
Аватар
NA
create
14:14 23.07.2021 №1408
Ну, в Вашей палате может и так, а я сказал то что сказал и добавить мне к этому нечего.
0 | 0
NA
create
14:21 23.07.2021 №1409
Luarvik.:
и добавить мне к этому нечего.
Вот именно!
0 | 0
Аватар
NA
create
14:25 23.07.2021 №1410
Вот именно: как написано - так и читайте, так и понимайте.
0 | 0
NA
create
14:39 23.07.2021 17:21 23.07.2021 №1411
Luarvik.:
Процесс, происходящий в теле
Пытаюсь, но как-то не получается. Т.е. Тело – это носитель процесса?
0 | 0
Аватар
NA
create
14:48 23.07.2021 14:56 23.07.2021 №1412
Влад:
Пытаюсь, но как-то не получается.
Так Вы отвлекитесь (абстрагируйтесь) хотя бы на время от своих абсолютных идей и опуститесь на землю.
Влад:
Т.е. Тело – это носитель процесса?
Естественно. Тело - носитель процесса, как Ваше, например, физиологическое тело является носителем процесса под названием "психика".
0 | 0
NA
create
17:38 23.07.2021 №1415
Luarvik.:
Влад:
Пытаюсь, но как-то не получается.
Так Вы отвлекитесь (абстрагируйтесь) хотя бы на время от своих абсолютных идей и опуститесь на землю.
Влад:
Т.е. Тело – это носитель процесса?
Естественно. Тело - носитель процесса, как Ваше, например, физиологическое тело является носителем процесса под названием "психика".
Уж лучше Вы к нам. Одно из значений слова «Носитель»: 6. матем., универсальная алгебра - множество Отсутствует пример употребления Т.е. как не крути, это же абсолютная идея, от неё не скроешься.
0 | 0
Аватар
offline
create
18:02 23.07.2021 №1416
Egg:
у меня награда от IEEE
Прошу прощения, но видимо моих поисковых умений не хватает, чтобы найти эту работу. Это информация с грифом? Или простым смертным, вроде нас, можно где-то почитать её в открытом доступе?
0 | 0
Аватар
NA
create
20:13 23.07.2021 07:27 24.07.2021 №1418
Условием, выполнение которого позволит нам говорить о появлении хоть какого-то Интеллекта в чем-либо искусственном, является то, что я называю Алгоритмической Автономностью (всё остальное приложится). При этом нужно чётко понимать разницу между поведением, определяемым алгоритмом (1) и поведением, определяемым данными (2). NB! - внешне и без специальных исследований эти два вида активности практически неотличимы. (Ср. поведение и алгоритм поведения)
0 | 0
Аватар
NA
create
10:51 24.07.2021 10:51 24.07.2021 №1419
Немного реплик в ответ на чтение СИИ На подступах к сверхразуму - 2021
Цитата:
• Поставить перед ИИ какой-то набор контрольных заданий. Тут возникает проблема, связанная с тем, что этот набор обычно известен заранее, а иногда разработчики заранее знают и решения, и в этом случае мы скорее замеряем интеллект тех, кто программирует ИИ. Эту трудность можно обойти, если выдавать программе случайно выбранные задания из очень большого или бесконечного множества, но тогда возникает другая сложность - как создать большое множество реалистичных задач. • Пустить соревноваться друг с другом, например играть в какую-нибудь игру. Сложность здесь в том, чтобы получить объективную оценку эффективности систем, ведь в разных соревнованиях будут разные оппоненты со своими результатами. Если хоть часть игроков в соревнованиях совпадает, то можно ввести систему рейтингов. Но если оппонентов как-то стандартизировать для удобства оценки, новая система может специализироваться под конкретного оппонента, вместо того чтобы развивать «широкий» интеллект. • Поставить перед ИИ задачу выдать себя за человека (имитационная игра). С одной стороны, это выглядит как максимально амбициозная задача, с другой -здесь мы попадаем в ловушку антропоцентричности. Искусственный интеллект необязательно должен быть «человекообразным », чтобы подходить под критерии интеллекта. Кроме того, судьи-люди субъективны, и часто их убеждает хорошая внешняя имитация поведения, а не проявленный программой интеллект.
Вообще приходится признать что на 100% нельзя быть уверенным никогда что не имеем дело с какой то подгонкой, вроде "китайской комнаты". Также как в отношении целей AGI в виде "решения каких угодно задач, или адаптации к произвольным средам", нам нужно отказаться от мнения что можно гарантированно узнать СИИ. Могут быть только эвристики по поводу эффективности заложенных моделей, вроде "бритвы Оккама", МДО и тп. ясно что в чистом виде "китайская комната" очень не эффективна, многое можно подсжать, а если импровизировать способ её автоматического заполнения, вообще — красота!
Цитата:
Например, когда мы говорим об эмоциональном интеллекте (EIQ); мы включаем в это понятие целый ряд способностей: чтобы считаться человеком с развитым EIQ, надо уметь распознавать свои и чужие эмоции, моделировать в уме поведение и мотивации других людей, влиять на собственное и чужое эмоциональное состояние, используя разные инструменты в зависимости от контекста, и т.д.
Да, есть десятки всяких модулей, которые нам как бы "естественны" и потому не видимы. Не осознаваемы, также как воздух для нас или вода для рыб, посмотрите сколько времени прошло чтобы догадаться что существует гравитация??? А всё почему? Потому что не было примеров где её нет! Наш мозг аппроксимирует также как и обычные алгоритмы машинного обучения, то что вообще "вне выборки", даётся ооочень с трудом и в основном случайно. В этом одно из существенных препятствий на пути к СИИ, осознать то что в норме не осознаваемо.
Цитата:
Главное достоинство теста - произвольность разговорных задач. В хорошо поставленном тесте затрагиваются разные темы и моделируются разные поведенческие ситуации (собеседник может перебивать, переспрашивать, задавать дополнительные вопросы, шутить и т.д.), и его поддержание требует как знания правил языка и общей эрудиции для релевантных реакций на реплики собеседника-человека, так и понимания определенных социальных контекстов. И у судьи есть достаточно времени, чтобы оценить собеседника. Так что машина, претендующая на победу, должна бЬVIа бы обладать широкой картиной мира, использовать естественный язык, рассуждать, обучаться и понимать контекст.
Создание таких систем уже достаточно сидьно размоет границу СИИ — ЕИ, но ИМХО это дело не ближайшего десятилетия.
Цитата:
Приведем несколько примеров в порядке возрастания сложности. «Банковский тест»: ИИ должен взять кредит в банке на выбранную им цель, заработать денег легальным способом и вернуть его с процентами. «Тест студента» Бена Герцеля: искусственный интеллект поступает в университет, посещает те же занятия, что и обычные студенты, выполняет те же задания и получает соответствующую степень. «Тест на профпригодность» Нилса Нильссона: машина выполняет экономически важную работу на том же уровне, что и профессионалы в данной области (фактически являясь полноценным Narrow AGI). Artiflcial Scientist Test: компьютер совершает оригинальное научное открытие. Nobel Prize Test: машина получает Нобелевскую премию.
Лет через 50 -100 только первый пункт.
Цитата:
Еще одним критерием достижения AGI может быть решение ИИ-полных задач17 • К ним можно отнести понимание естественного языка, компьютерное зрение, рецензирование научных статей.
По видимому снова не понимания масштаба задач, сравнивается не сравнимое, "компьютерное зрение" — задача вполне решенная, если под качеством её решения ней понимать точность распознавания. Понимание ЕЯ — с другой стороны задача совсем другого калибра, чтобы что то "понимать" нужно вначале иметь антропную модель мира, что пока за пределами, "понимание" это когда некая символьная цепочка описывает что то лежащее в антропной модели и система это распознаёт, нет модели нет понимания. Тоже касается и рицензирования, нужно понимать текст да ещё и научный, расширенный по сравнению с обычным бытовым.
Цитата:
Вообще, любая комплексная задача, включающая в себя воз􀁕 никновение непредвиденных обстоятельств (например, очень популярна сейчас задача беспилотного управления автомобилем), требует интеллекта уровня как минимум Narrow AGI. К сожалению, понятие ИИ-полноты слишком расплывчато, чтобы служить четким критерием. Например, мы легко можем согласиться, что «настоящее понимание текстов» невозможно без полноценного AGI, но это убеждение ничего не говорит нам о том, как проверить, что понимание- настоящее. Даже в случае с беспилотным автомобилем может оказаться, что можно обойтись без Narrow AGI. Хотя нам и кажется, что такой автомобиль должен правильно .реагировать на непредвиденные ситуации, но в норме этих ситуаций сравнительно мало.
ИМХО не нужен AGI для автоматического управления ваттомобилем.
Цитата:
ИИ-полная задача (AI-complete) - термин, предложенный математиком Фанья Монтальво. Это задача, которая не заключается непосредственно в создании ИИ, но решение которой без полного интеллекта, близкого по уровню к человеческому, представляется невозможным.
Эти задачи всё будут сокращаться, пока вовсе не исчезнут, но всё равно останется не мало мракобесов которые будут кричать "это — не СИИ а только ИИ"
Цитата:
Итак, мы можем определить коэффициент универсального интеллекта как значение получаемых агентом суммарных наград во всех вычислимых средах, взятых с весами, убывающими с дпиной их программ.
По видимому это правильно.
Цитата:
Существуют и более ограниченные тесты, отталкивающиеся от той же идеи алгоритмически произвольных закономерностей. Например, тест Abstractive Reasoning Corpus21 представляет собой набор визуальных заданий, выполняемых на квадратной сетке, клетки которой могут иметь один из десяти цветов. Каждое задание представляет собой набор из двух-трех пар сеток, где первая сетка представляет собой «вход», вторая - «выход» или «результат». Трансформация из «входа» в «р􀁣зультат» осуществляется с помощью некой высокоуровневой операции (заранее неизвестного алгоритма), разной для каждого задания. Задача тестируемой системысгенерировать абсолютно правильную «результирующую» сетку для каждой новой входящей, увидев несколько примеров таких трансформаций.
Вот с такими задачками снова многое зависит от не очевидных человеческих микро-скилов которые были приобретенных за жизнь, разные пространственные, логические и тп. Если они будут у робота, то он справится не хуже человека, если нет то не справится и это не будет значить что "он хуже" просто нет соответствующего инструмента.
Цитата:
Некоторые специалисты полагают, что измерение частичного прогресса в AGI и в целом крайне проблематично, потому что это эмерджентная система25, которая не будет проявлять свойств AGI до тех пор, пока она не будет построена целиком (подобно тому, как, воссоздавая человеческий мозг по кускам, мы не можем оценить результат до самого последнего шага).
Цитата:
Так что исследователям пока приходится самим качественно оценивать прогресс в AGI на основе текущего понимания интеллекта как комплексной проблемы и постепенно углублять это понимание, а не слепо полагаться на его оценку по каким-либо стандартизованным метрикам. Ведь, например, мы не смогли бы попасть в космос, строя все более высокие здания или более высоко летающие самолеты, - здесь потребовалось качественно иное решение. Да и прогресс в науке в целом плохо измеряется формальными индикаторами и показателями.
Нет, как раз таки человеческий мозг возникал эволюционно по чучуть и на каждом этапе можно проверить прогресс, в этом нет проблемы, возьмите червя, улитку, рыбу, мышь, кошку, обезьяну и человека, всё идёт последовательно, инкрементно. Качественных скачков не было ни на каком из этапов.
Цитата:
В первую очередь, стоит назвать универсальный алгоритмический интеллект, который представляет собой подход «сверху-вниз», начинающий с попытки формализации определения интеллекта в области общего ИИ и построения на этой основе модели с доказуемыми свойствами оптимальности.
Определение интеллекта — гиблое дело, есть сущности которые можно определить строго и лаконично, а есть которые нельзя или это делать не эффективно, чаще всего это зависит от сложности. Простым сущностям(2-7 структурным компонентам) легко дать определение, сложным(>10-20) давать определение не так осмысленно, придётся кластеризовать компоненты им дать свои определения и тп и всё равно это будет не убедительно. Короче некоторые сущности проще "показать", это восточный подход, созерцательный, "смотри!".
Цитата:
Представим себе квадратную таблицу, где каждая строчкаэто какое-то слово из словаря, созданного на основе большого массива текста (например, «Войны и мира»). Слова следуют в алфавитном порядке. В столбце все то же самое, только по вертикали сверху вниз. В ячейке на пересечении столбца и строки пишется количество раз, которое слово из строки встретилось в тексте рядом со словом из столбца (рис. 13). Эти ячейки и становятся координатами вектора. Допустим, слово «Наташа» встретилось рядом со словом «Андрей» 100 раз, со словом «пение» - so· раз, а со словом «дуб» - ни разу. Если записать первую строку таблицы как (1; 50; 100), получится трехмерный вектор, кодирующий смысл слова «Наташа ». У таких векторов есть специальный математический показатель схожести под названием «косинусная близость». Если семантические векторы двух слов «косинусно близки» по отношению друг к другу, эти векторы принадлежат словам, близким по смыслу. Использовать метод распределенных представлений обычно гораздо удобнее, и это приводит к лучшим результатам, чем представление слов методом one-hot. Более того, оказывается, что такие векторы часто обладают интересными свойствами: простые геометрические соотношения между ними моrуг иметь грамматический или семантический смысл. Например, если вычесть вектор слова «художник» из вектора слова «художница», получится абстрактное представление о роде, выраженное в числах. А если эту разность прибавить к вектору слова «кот», то получится, скорее всего, «кошка».
Цитата:
Для машинного перевода, диалоговых агентов и других задач, где нужно не только на входе, но и на выходе получить последовательность текстовых единиц, обычно используются архитектуры вида «кодировщик-декодировщик» (encoderdecoder). ,Гpyбo говоря, энкодер сворачивает текст в формат вектора, выжимая из него всю важную информацию, а декодер разворачивает вектор обратно в текст.
Таск себе если будет свободное время, создать текстово->языковой преобразователь, то есть на вход корпус текстов, на выходе грамматика языка и ряд других характеристик, что стало "понятно" о языке. Вообще интересует какие "выводы" из текста может сделать ML, чисто из текста без какой либо априорной инфы, структура языка, количество "смыслов" в текстах и тп.
Цитата:
Это происходит главным образом потому, что, хотя современные языковые модели прекрасно обучаются собственно языку, точнее грамматическим и семантическим зависимостям между отдельными словами, и способны учитывать эти зависимости в течение длительного времени (например, развивать в порождаемом тексте одну и ту же тему на протяжении нескольких абзацев, как GROVER), они все же не содержат никакой модели окружающего мира, то есть базовых знаний, уложенных в здравый смысл, имеющийся у каждого человека.
Цитата:
Нейросетевые модели работают с токенами (текстовыми единицами), «смысл» которых выводится сугубо из статистик совместной встречаемости в текстах. Можно дискутировать о том, возможно ли в принципе только из текстов извлечь представление о физическом мире, достаточное для «понимания » пространственно-временных и причинно-следственных отношений между объектами, но существующие NLР-модели этого точно не делают. Современный чат-бот вряд ли сможет сказать, с какой стороны ему виден большой палец на правой руке стоящего напротив собеседника, или ответить, как вернуться назад, если вы прошли три квартала на запад, а потом четыре на север. В связи с этим интересны задачи, которые помимо текста используют и другие модальности, например задача визуальных диалогов, и которые предполагают необходимость построения если не модели мира, то хотя бы какой-то привязки текстовых единиц к реальности.
Цитата:
Как обучить такую модель, пока не вполне ясно, и это остается одной из центральных проблем в обработке естественных языков, которая пока не позволяет двигаться в сторону AGI.
Это в точку. Одно из ключевых препятствий в создании СИИ, на ряду с чисто техническими масштабными проблемами разработки как минимум многих десятков отдельных аспектов\модулей, человеческого сознания и затем не менее сложной задачи сведения их в единую систему.
Цитата:
Интеллект выражается в том числе (а может быть, главным образом) в том, чтобы обучаться делать выводы по небольшому набору данных.
Цитата:
• модели, способные обучаться на очень малом числе примеров или вовсе без них (few-shot, one-shot и даже zero-shot learning); Вот это ИМХО не так важно. В чем собственно проблема? Почти любой алгоритм ML можно затюнить обучаться по одному семплу, да хотя бы просто размножив его с модификацией или без. Человек же воспринимает реальность в цикле, это аналогично и в коде "game loop”, любой реалтайм программируется через цикл, то есть то что агент "видит" один раз, на самом деле это сотни\тысячи семплов, вполне себе нормальный датасет для обучения. Особенно если учесть кучу априорной информации в багаже, которую можно вытянуть на данный семпл и добавить как дополнительные семплы, чтото типа как в GAN-ах.
Цитата:
Но делает она это при помощи огромного количества вычислений, играя сама с собой миллиарды раз
Это известный приём, кстати довольно не плохой. • модели, которые используют неразмеченные наборы данных для предобучения, -например, исследователи Google Brain в 2019 г. смогли улучшить качество классификац11и на lmageNet, использовав в качестве дополнительной информации большой датасет неразмеченных фотографий. Однако такие подходы, как правило, требуют на порядки больше вычислительных мощностей, что, как мы только что видели, вряд ли сможет и дальше неограниченно масштабироваться; Очень правильно. Вообще логично поднажать на разного типа трансфер-лерновые технологии, ведь сила ЕИ, в том числе и животного, это именно в умении использовать навыки из разных доменов и модальнотей восприятия и реагирования в других контекстах\задачах. Это логично так как многое в мире аналогично, повторяемо, поэтому вполне резонно новые задачи решать не сразу с нуля и попробовать в начале найти что то похожее и похафиттить под новуз задачу. • использование для обучения синтетических данных - например, для задач компьютерного зрения можно создавать искусственные наборы данных с идеальной разметкой при помощи ЗD-графики. Однако при этом возникает дополнительная задача переноса обученных моделей: идеально реалистичной ЗD-графики пока не существует, и нельзя без дополнительных ухищрений рассчитывать, что обученная на «мультфильмах» модель будет хорошо работать на настоящих фотографиях.
Тоже считаю — очень правильно! Компьютерная графика дешевеет и становится очень близкой к реальности, в недалёком удущем это будет основной источник данных для обучения систем машинного оучения.
Цитата:
Отсюда вытекают основные задачи при создании когнитивной архитектуры: 1) определение списка моделируемых функций (в него могут входить распознавание, категоризация, внимание, планирование поведения, обучение, рефлексия, рассуждения и т.д.); 2) определение набора моделей или теорий «первого уровня» (например, нейрофизиологические данные о строении неокортекса или когнитивная теория внимания), которые будут служить источником основных гипотез при моделировании выбранных функций; З) выделение основных подсистем, определяющих работу выбранных функций, на основании сформулированных гипотез; 4) построение математических моделей работы выделенных подсистем и разработка «протокола коммуникации» подсистем в рамках общей архитектуры; 5) добавление недостающих компонент для погружения в экспериментальную среду, в которой будет проводиться тестирование созданной архитектуры, то есть сравнение работы моделируемых ею когнитивных функций с тем, как эти функции работают у человека.
Да, это путь к СИИ. Просто нужно пилить шаг за шагом, компонент за компонентом, задача масштабная очень, но и цель - "нихуя себе!"
Цитата:
В области AGI биологическая или психологическая правдоподобность является не основным, а вспомогательным критерием, так как цель здесь заключается не столько в моделировании человеческого мышления, сколько в создании систем, способных решать широкий круг задач.
Я уже говорил что этот "широкий круг задач" на деле "широкий круг микро-ИИ под каждую из них и подобных в близкой окрестности", ну не решат наш ЕИ этот "широкий круг задач", это иллюзия, фокус, так нам кажется и гордость этому спосоствует.
Цитата:
Рабочая память - когнитивная подсистема, отвечающая за временное хранение информации, доступной для обработки. Она играет важную роль в принятии решений и выборе поведения (например, когда вы выбираете из дел на сегодня приоритетное). Эпизодическая память - отвечает за наши личные воспоминания (например, помогает вспомнить, что мы ели на завтрак или как провели выходные). Декларативная память - тип долговременной памяти, в которой, 􀁁ак некий «багаж», осознанно сохраняются имеющийся у нас опыт или информация (например, когда вы решаете квадратное уравнение на экзамене и вспоминаете необходимую формулу). Семантическая память - система декларативной памяти для хранения и использования обобщенных знаний о мире. Благодаря ей мы помним, что в сутках 24 часа, а Лондон - столица Великобритании. Эта память хранит как вербально выраженные знания, так и взаимосвязи между ними и правила их применения. Процедурная память - вид недекларативной (неосознаваемой) долговременной памяти, в которой сохраняется опыт выполнения нами каких-либо действий. Например, там «хранятся » наши навыки плавания и езды на велосипеде. При этом мы не можем объяснить словами, что именно нужно делать, чтобы поехать на велосипеде, но почувствуем это интуитивно, как только на него сядем. В основе работы когнитивных архитектур лежит когнитивный цикп, включающий как минимум восприятие, осмысление, принятие решений и контроль над выполнением действий
Вот вот, всё верно, есть аспекты нашей умственной деятельности, выделяем боле менее явные модули и пилим. Природа это делала методом тыка, направленного через отбор воздействием внешней среды которую нужно было предсказать, нам пока придётся это делать вручную, так как природный путь повторить не получится, силёнок нет пока.
Цитата:
Если когнитивная архитектура включает достаточно широкий спектр моделируемых когнитивных функций и предназначена для решения широкого круга принципиально различных задач, можно считать ее реализацией общего искусственного интеллекта.
Всё так. Это будет СИИ во всех смыслах.
Цитата:
И многие, несмотря на гибридность, не решают ключевую проблему общего искусственного интеллекта -проблему привязки символов (то есть соотнесения теоретической информации с реальной жизнью).
Ну почему же? На ряду с "определением интеллекта" ИИ-шники всего мира любят заморочиться над проблемой "смысла" и "понимания", но в отличии от "интеллекта", "смысл" легко определить как проекцию символа на образ, вроде:
И всё в принципе, это главное. Можно конечно это дело усложнить, также есть другие коннотации смысла в виде "цели" и тп. это уже не суть, синонимизмы и разного рода вербальные смешения, а тот смысл о котором все спорят это протекция символа в образ(цепочку действий и тп.)
Цитата:
На текущий момент стоит отметить снижение интереса к когнитивным архитектурам, что вызвано двумя основными причинами. Первая заключается в слабой интеграции субсимвольных и символьных подходов, особенно в настоящее время, когда успехи субсимвольного нейросетевого подхода мoryr вызвать впечатление, что «символьная добавка» не играет ключевой роли для моделирования даже сложных функций (например, рассуждения на основе глубоких нейронных сетей). Вторая проблема состоит в том, что существует определенная произвольность в выделении ключевых подсистем, зачастую из-за большой неточности теорий об устройстве человеческого интеллекта. Тем не менее ряд когнитивных архитектур продолжает активно развиваться, в том числе решая и практические задачи.
А кто говорил что будет просто??? Это очень сложно и трудоёмко, как колонизация Марса, поэтому будет продолжать долго с многочисленными периодами "лета и зимы". Дипсетки конечно -круто, но увы вот так просто пытаться сложные разнородные данные засунуть в сетку что бы она сама бкпропом всё разрулила, это бред, наивняк. Только отдельные аспекты реальности, для построения модулей, а потом нужно решать как эти модули объединить, что тот ещё квест, по сложнее чем разработать алгоритм бэкпропа, когда его ещё не было.
0 | 0
Аватар
NA
create
11:26 24.07.2021 №1420
Prosolver:
Gather:
строго доказать что та или иная позиция больше полностью обречена, можно только ПОЛНЫМ ПЕРЕБОРОМ
Два короля на доске - это ничья. На бесконечной доске. Здесь перебор, действительно нужен, но не всех комбинаций фигур, а только всех способов их взаимодействия. Достаточно понять только, что король не может поставить мат другому королю, поскольку ему надо подойти к нему на расстояние одной клетки и тем самым оказаться на клетке под шахом. А шах запрещён. Вот такого рода умозаключения делают интеллект ценным. Когда полный перебор вариантов можно заменить "умным" перебором только тех вариантов, которые имеют отношение к делу.
А вот теперь давайте прикинем сколько априорного багажа у такого ЕИ для этого должно быть. Мне кажется весь "белеск" нашего ЕИ именно в этом. Это как когда подружка иногда задаёт "тупые вопросы" как там в компе что то сделать, зарегистрироваться где то, или в ОС что то потюнить, нам чуть более прошаренным в этом кажется порой что это капец как очевидно, а нет на самом деле, мы просто знаем как уже на НЕОСОЗНАВАЕМОМ УРОВНЕ, на автомате, и НАМ КАЖЕТСЯ, что все это знают, что как будто это как закон гравитации что то присущее всему вокруг, но это иллюзия. А в отношении шахматных эвристик это сводится вообще к концептуальным знаниям "как можно, как нельзя", обычные люди чаше всего и не вдумываются почему так, потом спустя время это считают вообще своим пониманием.
Luarvik.:
Это лично Вам, Gather, на долгую память
Хороший видосик, спасибо :)
kondrat:
Gather:
Ещё раз повторю я не микробиолог, но ИМХО например сам принцип скрещивания генов половым способом - вид направленной мутации. Своего рода эвристика, как в генетических алгоритмах. Например в алгоритме "имитация отжига" тс. "без половой отбор". На сколько мне известно весь процесс репликации ДНК на все 100% ещё не изучен, много ещё непонимания как какие гены работают, известно что не малая часть из них тригерная, логическая, то есть одни гены включат\выключают другие пре тех или иных условиях, а раз так то сами собой могут возникать участки более мутабельные так как они более сложно кодируется, через множество тригерных генов, которые тоже могут быть повреждены.
Во истину! Очень удачная иллюстрация. Однако, я говорил именно про ДНК. На мой взгляд, есть в клетке ещё, как минимум, одно подтверждение того, что адаптивный мутагенез ДНК в рамках любой клетки вне фазы размножения может существовать. Я тут вещал уже про парадокс жизни: нужно меняться, чтобы сохраниться. А появление парадокса, как известно, говорит о том, что что-то от чего-то пора отделить. Речь идёт о том, что подкрепление может быть не только вбросом материала для достройки структуры, но и частичным разрушением её. Рефлексирующая оболочка непременно присвоит и использует такие частично разрушающие факторы. Ну, а фатально разрушающие факторы просто выведут систему на казнь через естественный внешний отбор. Пример: система воспроизведения белков и ДНК в целом, в которой есть факторы отделяющие куски и даже целые участки ДНК от матрицы. Кстати, это говорит ещё и о том, что можно говорить об оболочках, определяющих область действия таких факторов.
Так я и привёл пример не полового избирательного усиления мутагинеза через комплекс регулирующих генов. Чем больше условий в виде регулирующих генов тем выше вероятность эффекта мутаций, так как каждое условие кодируемое отдельным геном может мутировать, соответственно если нужно чтобы какой то аспект был более мутабельным закодируй его наиболее сложным образом, с кучей условий, это в природе, естественным способом вполне достижимо. Что то можно закодировать одинаково множеством генов, с избыточностью, а что то одним геном и дать ряд условных генов. Хз как оно в реальности но такая логика ИМХО очень думаю вероятена.
Egg:
Gather:
Я лично воспринимаю ML как путь к СИИ, также как линейной зависимостью в мат-анализе в пределе бесконечно малых можно описать любую нелинейно функцию, в один или несколько проходов. Природа это сделала именно так, отдельный нейрон работает достаточно просто, а сетки из них возникли стохастическим поиском, то есть всё достижимо простым "методом тыка", нужно только понять что моделировать, выписать весь спектры человеческих скилов от важных до не очень и начать их пилить, максимально простым и желательно однообразным способом.
В широком смысле, любая активность - это путь к СИИ. Просто широкие смыслы уже поднадоели. Я совершенно не против ML, у меня награда от IEEE как раз за машинное обучение интеллектуальных интерфейсов ))). С другой стороны, "универсальность" естественных нейронов кажется мне слишком надуманной, по причине того же самого маппинга, о котором я много говорю. Маппинг ественных нейронов совершенно не случаен, именно его и отлаживала эволюция в течение миллиарда лет. И, конечно, искать оптимизацию методом тыка при нынешних аппаратных возможностях дело бесперспективное, даже если через GPU. )))
Так я того же мнения, пока это "когнитивные архитектуры", кирпичик за кирпичиком.
Luarvik.:
Условием, выполнение которого позволит нам говорить о появлении хоть какого-то Интеллекта в чем-либо искусственном, является то, что я называю Алгоритмической Автономностью (всё остальное приложится). При этом нужно чётко понимать разницу между поведением, определяемым алгоритмом (1) и поведением, определяемым данными (2). NB! - внешне и без специальных исследований эти два вида активности практически неотличимы. (Ср. поведение и алгоритм поведения)
Автономность это круто, но автономность автономности рознь, например смарт-холодильник тоже как бы автономен, работает, делает заказы на еду и тп. тут смотря какая среда, а человек тоже не такой уж автономный, кинь его в космос голого и капец автономности, нам нужен кислород и давление, холодильнику электричество, сложно провести границу почему холодильник менее автономен чем мы в своём очень кстати редкостном в космосе мирке.
0 | 0
Аватар
NA
write
12:25 24.07.2021 №1421
Вы говорите про эффект мутаций, а я про их возможность.
0 | 0
Аватар
NA
create
19:50 24.07.2021 №1422
Gather:
Автономность это круто, но автономность автономности рознь, например смарт-холодильник тоже как бы автономен, работает, делает заказы на еду и тп.
Да, и любой автомат автономен по определению, но речь идёт об АЛГОРИТМИЧЕСКОЙ автономности (АА), что иначе можно обозвать "самодетерминацией", "самопрограммированием", а это как раз то, что автоматам противопоказано, опять-таки по определению.
Gather:
человек тоже не такой уж автономный, кинь его в космос голого и капец автономности, нам нужен кислород и давление
Ломать - не строить. К чему такие крайности ? В нормальной среде вполне себе автономен.
Gather:
сложно провести границу почему холодильник менее автономен чем мы
Легко: АА.
0 | 0
1
2
3
4
5
6
7
Скачать
Вперёд
Назад

Главная Участники Жалобы  Поиск Исходный код О форуме