Нет, всяческие службы уведомления, функциональные копии, складское управление, информационные структуры - это обсуждайте с придурковатым Лавриком, это он рассматривает мышление мышления как небольшой склад готовой продукции с элементами логистики и принятия решения 😂
P.S. Я уже говорил, что порог вхождения в тематику ИИ определяется (в том числе) выразительностью языка (знаковой системы). Когда вы используете понятие "служба уведомления" для описания процессов сознания, вам следует осознавать, что вы не сможете разобраться в процессах. Они критически сложные для языка, который вы используете. Если к этому добавить, что весь ваш ИИ-словарь составляет около ста слов (а реально используемых - двадцати), то шансы "делать синтез" минимальны, он примерно такой же как у ребенка сложить из шестнадцати кубиков текст Ulysses Джеймса Джойса)))
Влад: А я всё недоумеваю, зачем Вы ссылки на авторство Дипсика удаляете
и считаете его текст моим, а тут вот оно что, Карл.
Эти вещи не стоит объединять, генерация может быть и диписков, а долбо@б именно вы)) Видите ли, дипсики так странно устроены, что промт и контекст примерно на 95% определяют их ответы. LLM - это просто инструмент, или вы полагаете, что топоры виноваты в том, что деревья рубят, а щепки летят)))
С таким качеством знания как у меня меня считают экспертом (я тружусь на очень высокой должности в Кремниевой долине в проблемной области искусственного интеллекта), так что по формуле "понимание — это динамическая мера координации актора со средой, подтверждаемая исключительно через успешный деятельностный акт" -- я подтверждаю свои знания своими успехами в очень конкурентной среде. А чего добились Вы? ))
Ну и, если вы ничего не добились, сами подумайте, стоит ли прислушиваться к словам, которые вы говорите, если эти слова не позволяют вам решать ваши задачи)))
Какая мощная синхронизация существует в нашем маленьком мире, день назад Фридман выложил интервью с Майклом Левиным, довольно любопытным автором, который вслед за некоторыми другими утверждает, что (в изложении Серёжи Карелова, сам я еще не успел посмотреть):
• Наш мозг не создает сознание, он его скачивает. Мы — биороботы, подключенные к облачному хранилищу вселенского разума, а нейробиология изучает только "приемник", но не сам сигнал
• Реальностью управляют призрачные математические истины, которые существовали до Большого Взрыва. Мы живем в мире, где числа диктуют атомам, как себя вести, а не наоборот
• Физическая реальность — всего лишь удачный интерфейс, всё, что мы называем “физическим миром”, — лишь эффективная внутренняя модель, прогнозирующая наши будущие переживания
• То, что мозг рисует нам как “твёрдую реальность”, — это интерфейс к некоторому более глубокому пространству распределений. В науке у нас вообще нет прямого доступа к “реальному реальному
Это, конечно, нужно проверять по первоисточнику (могли просто криво перевести as usual), но про кипящий океан математических истин - это безспорно, я бы еще Большой Взрыв взял бы в кавычки)))
P.S. Напомимаю для невладеющих нормальным языком, что яндекс-браузер осуществляет синхронный перевод ютюба, если, конечно, в вашем Задришенске ютюб еще не отменили
P.P.S. А вот и транскрипт уже есть на сайте Фридмана, кто любит читать, а не слушать
Со слов Ani Aslanyan'а: "лауреат премии Тьюринга Саттон вчера на NeurIPS разнес зал и показал карту, как дойти до AGI и объяснил, почему мы сейчас в жутком локальном минимуме. Коротко по пунктам он сказал, что:
1. Современный ИИ — это замороженные артефакты человеческой культуры. Мы копируем людей, а не строим интеллект. Это тупик.
2. Горький урок всё ещё никто не понял. Урок не про больше параметров, а про то, что любые человеческие алгоритмы и архитектуры в долгосрочной перспективе проигрывают чистому обучению через опыт.
3. Путь к суперинтеллекту — это агент, который:
- учится непрерывно всю жизнь
- сам изобретает всё более мощные абстракции и признаки
- сам ставит себе подзадачи
- сам строит модель мира и планирует
- и всё это без единой строчки человеческого кода для архитектуры и фичей
4. Это он назвал OAK (Options + Knowledge). Один большой красный вопрос — как автоматически генерировать новые state features. Именно здесь сейчас стопор.
5. Цитата дословно: «Super intelligence will come from the agent’s own experience, not from human datasets».
6. Он сказал, что индустрия ИИ во многом потеряла ориентиры из-за коммерции. Нужно возвращаться к continual learning, average-reward RL, meta-learning step-sizes, self-discovered knowledge."
Обращаю внимание господ, которые исповедуют логическо-символьно-смысловые подходы, здесь речь идет не об этом, а о нейронных сетях и акценте на Reinforcement Learning. То есть как раз тех подходах, о которых говорю я)). Саттон вообще предлагает исключить человека из цикла создания AGI, оставить только компьютерную сенсорно-эффекторную платформу
А чего достигли Вы? Я так понял, что Вы слили тему, чего добились своей комбинаторикой. Вы кем были до пенсии? Охранником, учителем природоведения или клерком каким-нибудь. Хмур, например, в перерывах между разборками с придурковатым Лувриком на готайке, окна продавал... не сам, конечно, он бумажки в купипродайской компании перекладывал...
З.Ы. Моя точка зрения предельно проста: знать - это уметь. Если Вы умеете применять свой интеллект и решать задачи, связанные с ИИ - это означает, что Вы обладаете знанием об интеллекте. Мы равны в правах, Вы имеете право нести любую чушь (в рамках законов), но мы не равны в знаниях об интеллекте и экспертных оценках идей, моделей и суждений. Это просто факт и всё, его нужно принять и перестать тревожиться.
Язык интеллекта - это математика. Это раз.
Что-то строить в проблематике ИИ следует сразу правильно и на правильном носителе. Это два.
Человек не есть этот носитель. Это три.
Поэтому нет смысла перекладывать кубики "система", "мера", "идея" или искать интеллектуальное в управлениях, приемно-передающих частях, копиях человека и прочей складской логистике. Хотите создавать интеллект -- покупайте комьютер с хорошей GPU картой, устанавливайте VS (или gcc, если вы минималист) и CUDA и начинайте разбираться с тем, что такое аппроксимация. И вот только в этом процессе возникнет понятие абстрагирования, которое можно будет дальше использовать)))
Искать абстрагирование в системах и элементах или волях, сознаниях и психиатриумах - это глупость и бездарная трата времени.
Уже много лучше. Вы на правильном пути. Но не очень внимательно читали мои наставления. Писать нужно сразу метакод и инструкции, чтобы их можно было ИСПОЛНЯТЬ. Эти дефиниции и инструкции будут меняться в процессе жизни устройства. Он будет учится и адаптировать свои порядки/беспорядки. Весь смысл в этом. Смысл как координация в среде. Ничего человеческого не должно быть
Влад: Нейросеть не выполняет код в традиционном смысле, но мы можем использовать промпт,
чтобы направлять ее рассуждения.
А при чем здесь нейросеть, которую Вы используете... LLM - это просто инструмент, который позволяет сделать труд очень эффективным, а так это та же лопата. Я говорю о коде для другой нейросети, для нового поколение нейросетей, которые пройдут путь от "интеллектуальной клетки" минимального ителлекта до "интеллектуальной агентской среды". Код нужен для того, чтобы вырастить эту новую сеть. Не обучить, а вырастить. Обучаться она должна сама.
Let's begin)))
Чтобы понимать место и роль интеллекта, мы должны начать с некоего произвольного процесса, который протекает в некой среде на фоне всех прочих. Это рисунок # 1.
Но реальность такова, что процесс сталкивается с какой-то неоднородностью (D, distortion), на которую он влияет (1) и которая влияет на него (2). Вторая картинка.
Эта неоднородность представляет собой целостность и имеет структуру. Поэтому входящие и исходящии потоки осмысленно представлять как воздействие на неё и реакцию, которЫЕ опредяляЮТСЯ внутренней структурой (подчеркнул, чтобы вы понимали, что воздействие тоже определяется внутренней структурой). Картинка три.
Если наша целостность умеет воспринимать и активно существовать в среде (то есть быть живой), то параллельно физическим процессам мы имеем поток восприятия, обозначенный как сенсорно-эффекторный. До этого места (включительно) интеллекта не было. Только тупой естественный отбор и адаптивность на уровне мутаций и изменчивости внутренней структуры. Картинка четыре))
Тайна интеллекта в той буковке R, которая все-таки присутствует в схеме. R - это reflection. Пространство значений "from" сенсоров отображается на пространство "to" эффекторов. И action - reaction в этот самый момент становится stimulus - response)) Иначе говоря, интеллект - это отображение восприятия на деятельность. Или проводящая прокладка между маппингами органов чувств и локомоторной системой)))
А что такое интеллектуальное отображение?
Это входящие форматированные потоки (sensor mapping), получаемые от сенсоров, представление о реальности, формируемое на основе этой модели, преобразования этого представления (через инстинкты, обучение и рассуждения) в некоторый вывод и трансляция его через эффекторы во внешнюю среду
Что мы видим?
Что неживое преобразует процессы внешней среды в некоторую реакцию, сообразную своей структуре и устройству, а живое делает это через процессы восприятия и представления, которые условно можно разделить на три слоя: инстинктивный (сообразно биологическим "прошивках", заложенным в ДНК), адаптивный (сообразно освоению опыта существования) и когнитивный (сообразно способностью рассуждать и делать выводы).
Что здесь важно?
Что все эти пять компонентов (representations, instincts, learnings, reasoning, resolution) отражения являются моделями. Напоминаю, что мы сейчас обсуждаем MVI (Minimum Viable Intelligence) - минимальный интеллект, минимальную "интеллектуальную клетку", которую необходимо вырастить в AGI.
Если внимательно посмотреть на схему и проанализировать путь от представления до исполнения, то можно заметить, что MVI недостает очень существенных элементов, без которых нельзя говорить об интеллектуальности такого агента. Это способность к решению задач и активность, то есть возможность понимания, о котором я много писал ранее.
Агент должен иметь возможность сравнить текущее состояние среды с целевым (отсюда вытекает необходимость памяти), должен иметь целеполагание, должен уметь менять представления и оценивать качество обучения и рассуждений. Будем предполагать, что инстинкты / безусловные рефлексы - это какая-то начальная неизменная прошивка, которые нельзя быстро и широко менять, но можно маскировать (подавлять), как это происходит у человека. Но пусть и к ним будет обратная связь.
Этой архитектуры достаточно для того, чтобы выращивать из нее интеллектуального агента, с перспективой создания интеллектуальной среды. Только именно этот уровень MVI должен быть имплементирован человеком, дальше система должна уметь развиваться сама.
Давайте, на этой архитектуре проверим требования Саттона (Richard S. Sutton)
1. Не копировать людей -- соответствует, MVI - это абстрактная generic архитектура интеллектуального процесса как такового, никаких специфических человеческих особенностей в ней нет
2. Чистое обучение через опыт -- соответствует, целеполагание Goal Setting дает возможность управлять сравнением Target и Current и менять в обучении начальные прошивки всех трех уровней взаимодействия
3. Сам строит модели мира -- да, блок Representations - это оно и есть
4. Options + Knowledge -- тут важно ответить на вопрос КАК. Архитектура позволяет это делать, но мы пока не рассматривали процессы, методы и алгоритмы
5. «Super intelligence will come from the agent’s own experience, not from human datasets» -- о том и речь)))
6. Нужно возвращаться к continual learning -- да, существование MVI системы в точности равно обучению этой системы взаимодействию с миром.
Валидацию на уровне требований Саттона MVI проходит))