|
Сообщения участника "Gather" | |
| |
create
|
Главное препятствие в создании СИИ. |
11:52 08.08.2021 |
|
11:53 08.08.2021 |
|
№1817 |
Последняя порция коментов к книжке СИИ На подступах к сверхразуму - 2021
Цитата: Согласно теории выдающегося советского психолога Льва Выготского,
развитие мышления и других психических функций происходит в первую
очередь не через их саморазвитие, а через использование ребенком
«психологических орудий», путем овладения системой знаков-символов,
таких как язык, письмо, система счета.
В отличии от "обучения с подкреплением"(RL) в обычном ML у человека это происходит не совсем так. ИМХО у человека как и у животных во первых есть достаточно много, так скажем "предрасположенностей" на уровне архитектуры мозга, залоенной в ДНК, а также инстинктивных стимулы которые мотивируют их развивать. Что то типа как будто есть фундамент постройки и грубый план а строить и детализировать приходится самому уже в процессе научения.
Цитата: Глубокое обучение, на первый взгляд, освобождает человека
от необходимости задавать класс моделей, но это во многом
иллюзия. Глубокая сеть не пытается обнаружить закономерность,
а лишь аппроксимирует ее.
А есть ли отличие??? Что мы понимаем под "обнаруживает"? Есть неплохая книженция на тему, называется "Исследование психологии процесса изобретения в области математики" там про эвристики человеческого поиска, конечно у человека есть много разных "рецептов" просто "глубокой" сетке далеко пока что до этого, но делятся они как правило на две категории, собственно аппроксимация, или как её ещё называют "интуиция" и разного рода "мыслительные"(символьно-комбинаторные) методы, всё это со временем реализуемо алгоритмически.
Цитата: Действующее на территории ЕС общее положение о защите данных, в котором
закреплено, что любой гражданин имеет право запросить объяснение,
почему алгоритм принял относительно него то или иное решение.
Это ограничивает возможность применения ЫасkЬох-решений.
LOL
Цитата: Метаnрограммирование - вид программирования, связанный с созданием
программ, которые порождают друrие программы как результат
своей работы.
Многие СИИ — пессимисты и гуманитарии, почему то это "мета-программирование" используют как аргумент того что мол "нельзя создать СИИ алгоритмически", сразу видно что код такие критики не писали никогда, это элементарно, особенно в высокоуровневых ЯП, а любой ML в своей сути это алгоритм который порождает алгоритмы на основе обучающей выборки.
Цитата: существует ли возможность формулировать задачу таким образом,
чтобы из этой формулировки компьютер мог автоматически
извлечь требуемое решение? И не только извлечь,
но и объяснить? Поиском удовлетворительных ответов на эти
вопросы и занимается область ИИ.
Извлечь и объяснить две, как правило разные задачи, если задача сложная то и человек часто будет не в состоянии доходчиво объяснить как пришел к решению и почему именно так а не 100500 другим способом.
Цитата: В целом можно сказать, что на настоящий момент подхода
к AGI на основе компьютерных наук пока не существует, так
как нет систематических попыток использовать результаты
из этой области к проблеме создания AGI. Однако представляется
возможным, что подход к AGI со стороны именно математики
и крмпьютерных наук является наиболее естественным,
поскольку возникновение самих компьютеров как машин, способных
эмулировать любой автомат, обязано развитию теории
алгоритмов, а создание систем AGI, способных находить алгоритм
решения любой разрешимой задачи, может быть обязано
компьютерным наукам, систематическое применение результатов
изысканий которых к AGI представляется актуальным.
Цитата: Однако ИИ порой рисуется не как чудо инженерной и научной
мысли, спроектированное и воплощенное от начала
и до конца кем-то конкретным в виде интеллектуального
агента или робота, а как нечто, что возникает само по себе.
Конечно, было бы крайне наивно полагать, что ИИ может
возникнуть сам на пустом месте. Но если создать подходящие
условия, это вполне может произойти, ведь и человеческий
разум возник эволюционно, а не в результате проектирования.
Неудивительно, что и в рамках ИИ существует целое направление
эволюционных алгоритмов, подражающих биологической
эволюции.
Безусловно по мере развития будут придуманы не один десяток алгоритмов эмулирующих те или иные аспекты человеческой деятельности и вероятно они будут на много эффективнее и лаконичнее чем это реализовывала природа, но это путь трудоёмкий, всё же хотелось бы изобрести какой то автоматический способ порождения алгоритмов, пускай боле затратный по ресурсам и дающий сами алгоритмы на много менее качественные по структуре.
Цитата: Может ли
общий ИИ воплотиться в форме сети взаимодействующих друг
с другом алгоритмов ограниченной сложности или в форме
коллективного разума агентов с ограниченным уровнем интеллекта,
взаимодействующих через интернет?
Цитата: Мы снова и снова наблюдаем за тем, как разработчики ИИ,
находя работающее при некоторых условиях решение, делают
предположение, что при вложении немного больших усилий
и немного большего объема данных это решение заработает
при любых условиях. Точно так же и разработчики роботов
делают предположения, что решения, найденные для узкой
задачи управления положением тела в среде, заработают при
любых условиях. А это совершенно необязательно так.
В направлении трансферлйрнинга нужно ещё капать и копать, мы пока только на старте. По идее в общей системе вся иерархия модулей распознавания на каждом уровне все модальностей и проективных зон, должны быть так или иначе доступны в процессе поиска. Это нужно так как не смотря на "большое разнообразие" сенсорного опыта, порождающие его законы физики достаточно лаконичны и в этом всём разнообразии крайне много подобий, так что вполне вероятно найти решение(распознать структуру) ища подобные "логики" вообще во всём опыте всех структурах мозга.
Цитата: Если для того, чтобы заменять
АGI-системами живых работников, то, наверное,
пригодится стиль мышления, похожий на человеческий.
Но если мы хотим, чтобы общий искусственный интеллект
помог человечеству решить проблемы, с которыми оно пока
не справляется, вряд ли стоит загонять его в рамки «человекообразности
».
Наверно под этим "общим ИИ" следует понимать именно такой процесс поиска аналогий в имеющихся инструментах\навыках.
Цитата: Известный парадокс Маравека говорит о том, что компьютер
проще научить играть в шахматы лучше, чем это делают люди,
чем научить робота (и тот же компьютер) ловить мячик.
Происходит это потому, что наш физический мир основан
на невероятно сложных, но понятных нам законах. Эти же законы
мы должны тщательно записать в понятную компьютеру
форму, чтобы он смог повторить хоть что-то из того, что доступно
для детей.
Да, моторные навыки во многом заложены генетически, десятками миллионов лет эволюции, в раннем детстве мы их только "уточняем", очень многие "естественные" а потому как бы "простые" навыки, оказываются очень сложными.
Цитата: Метаэвристика - это эвристика, не опирающаяся явно на специфику
конкретной задачи, но при этом часто неruюхо работающая во многих
задачах. В играх в качестве метаэвристики может выступать правило:
«Предпочитай ход, после которого у соперника остается меньше альтернативных
ходов», - которое не ссылается на правила игры и которое работает
часто, но не всегда. В задачах поиска скрещивание решений -это
тоже метаэвристика.
Эвристики и метаэвристики ИМХО результат способности мозга многократно обобщать опыт на разных уровнях, строить модели-моделей и тд.
Цитата: Было бы здорово смоделировать процесс эволюции какого-то
виртуального мира на компьютере, где искусственные существа
будут эволюционировать и умнеть.
Но эволюция шла миллиарды лет и затрагивала миллионы
видов и неисчислимое количество особей, существовавших
одновременно, и даже на компьютере, где мы можем
«сжать» сутки и годы, это все равно займет очень много времени.
Либо же нам придется делать эволюцию гораздо более
«умной», но будет ли разработка умной эволюции проще, чем
сразу умного интеллектуального агента?
Да, это вопрос на ттриллион$. Однако может имеет смысл сделать что то гибридное? Некоторые части будет "захардкоженные", некоторые эволюционные и тд.
Цитата: Один из наиболее интересных (и значимых в контексте
AGI) вопросов, которые могут быть постамены в рамках напрамения
«искусственная жизнь», - это вопрос о том, в любом
ли мире мог возникнуть интеллект? Не в плане физической
выживаемости, а в плане условий для выбора, которые
ставит среда. Судя по экспериментам на виртуальных мирах,
подходящий мир не должен быть слишком простым (в этом
случае будет слишком мало условий для развития) или слишком
сложным (если найти закономерности, на которых можно
выстроить эффективное поведение, будет слишком трудно или
невозможно, то агенту выгоднее выбрать случайное поведение).
В идеале он должен постепенно усложняться - как постепенно
усложняются условия в процессе обучения ребенка.
Вот!!! Вот где альфа и омега возникновения СИИ! Очень специфическая форма обучения,к которая иерархически от простого с сложному выстраивает "модели мира", плюс способность системы самой усложнять архитектуру модели в ответ на усложнение обучающей выборки.
Цитата: Искусственная жизнь дает более конкретное понимание того,
как интеллект мог возникнуть в процессе эволюции. Но в то же
время эксперименты в этой области делают очевидным тот
факт, что эволюционное соэдание AGI с нуля - вычислительно
невыполнимая задача.
Не факт, нужно хотя бы понять её масштаб и что можно подправить костылями.
Цитата: Возможно, создание гибридного общего ИИ можно сравнить
с проектом по созданию первой атомной электростанции или
запуском человека в космос, что требовало координированных
усилий большого числа ученых и инженеров.
Примерно так, но наверно более масштабно, в АЭС и космосом принцип был уже понятен, осталось просто много инженерной работы (понятного непонятного), а в СИИ многое ещё не понятно(непонятное непонятное), что может растянуть сроки как на десятки так и на сотни лет.
Цитата: В частности, концепция «Общества разума» Марвина Минского
-одного из ученых, стоявших у истоков ИИ, - предполагает,
что интеллект человеческого уровня может проявляться
как сложное целое, возникшее при взаимодействии более простых
агентов, каждого из которых нельзя назвать разумным.
В целом так, но это видимо не просто синергичная система из десятков-сотен микросистем, но и ряд мета-систем, которые специфическим образом порождают целое.
Цитата: Один из немногих экосистемных проектов, принимающих
во внимание цель создания общего ИИ, - это проект по разработке
ПJ;�атформы с открытым кодом SingularityNET.
Да нет, это какието бырыги щиткоинами.
Цитата: Но в связи с популярностью глубокого обучения основное внимание
при разработке ИИ уделяется лишь одной области нейронауки
- коннектомике.
Суть ее заключается в том, чтобы изучать мозг как систему,
каждая часть которой как-то связана с другой, и пытаться воссоздать
эти системы связей на разных уровнях. Направление
коннектомики под названием Whole Brain Emulation (WBE),
то есть «полная имитация мозга», можно считать альтернативой
AGI - вместо того чтобы создавать продвинуrый ИИ
с нуля, мы могли бы оцифровать человеческий мозг и воссоздать
его работу на компьютере во всех деталях.
Сами по себе исследования мозга - затея парильная и перспективная, если исследовать малые фрагменты, пытаться понять принципы, но весь мозг "оцифровать" ИМХО что то фантастическое.
Цитата: С точки зрения AGI нейронауки можно использовать как
источники новых данных и принципов для программного обеспечения.
Основные преимущества такого подхода заключаются
в том, что благодаря исследованиям мозга возникают математические
модели, которые описывают электрохимические
процессы, происходящие в нейронных цепях, и ограниченные
симуляции разных участков коры, а также помогают лучше
понять происходящие в мозге процессы (и, соответственно,
искусственно смоделировать их при необходимости).
Цитата: Все психические процессы, включая обработку информации,
являются i3амкнутыми внутри нейронного комплекса мозга,
а потому оценка возникающей в мозге информации ( ее усложнение)
осуществляется исключительно через акт соотнесения
одной информации с другой, а сам мозг реагирует не на объект
реальности как таковой, а на то, как он соотносится с другой
информацией, находящейся в мозге.
Цитата: Мозг человека не создает модель реальности всякий раз заново,
он пользуется той моделью, которая формировалась
и редактировалась на протяжении всей его жизни. То есть,
по сути, при столкновении с новой информацией он всегда
основывается на своем прежнем опыте, на уже сделанных им
выводах. Собственно принцип аппроксимации до сущности
заключается в том, что мозг как бы уже всегда знает, с чем он
может встретиться (часть соответствующих знаний, как уже
было сказано, являются генетически предопределенными,
другая -накопленным опытом), и формирует новое знание
только в том слуqае, если оно противоречит существующим
моделям и не схватывается ими.
Тоже вполне себе интересный механизм, нечто подобное SVM когда обучение идёт в основном по граничным элементам обучающей выборки.
Цитата: Но на практике этот образ применяется как рекламный плакат
для привлечения финансирования с целью форсированного
внедрения систем ИИ частного назначения, зачастую эффективных,
но все еще не способных реш;�ть широкий круг задач.
И можно понять, почему это происходит. Во-первых, предполагается
(скорее всего, ошибочно), что процесс внедрения систем
узкого ИИ двигает нас в направлении общего интеллекта
и в перспективе приведет к появлению AGI эволюционным
путем без специальных усилий. А во-вторых, области приме-
нения общего искусственного интеллекта довольно трудно
очертить в силу его сложности и универсальности: придумать
и построить специализированные системы намного легче.
Движет движет и когда нибудь таки приведёт к СИИ, но с усилиями, странно слышать "эволюционно, без специальных усилий", эволюция это квинтэссенция усилий, сухой остаток из миллионов попыток и тупиковых решений.
Цитата: AGI - универсалистский подрывной подход к искусственному
интеллекту «сверху», ориентированный на реи�ение
задачи рекурсивного самообучения, моделирования мира
и обобщения знаний и навыков из разных сфер и ситуаций.
Не, "сверху" не прокатит, только снизу, конечно мы люди имеем чуток больше скилов чем обычный стохастический поиск, но это всё полностью нивелируется вычислительными мощностями как наших мозгов так и нашей техники пока.
Цитата: Для его создания и развития важно создавать фреймворки
и комплексы баз данных и алгоритмов, пригодных для работы
с универсальным представлением знаний, проведения
операций с цепочками причинно-следственных связей
и совершения логического вывода над представлениями.
Не думаю, это путь подобный экспертным системам, онтологиям и тп. Что то типа как Вольфрам Математика, это конечно круто, но это ручной труд который очень ограничен, а нужно сделать на много порядков больше, это никакая команда не потянет, хоть всех людей запряги, а тогда работа станет из за не эффективности работы в командах таких размеров.
Цитата: Этот подход должен быть нацелен на достижение стратегического
результата - получение функциональной системы,
способной производить рассуждения над экосистемой узких
ИИ.
Всё так, но это не просто черные ящики должны быть, а построенные по похожим принципам узкие ИИ, чтобы они друг у друга могли дёргать подсказки и паттерны, если скрестить экспертную систему с нейросеттью и шахматной программой, это не очень хороший гибрид будет.
|
| |
create
|
Главное препятствие в создании СИИ. |
Траян:Gather: Попробуем озвучить самую главную причину в чем же эта «невидимая стена» от которую все долбятся и почему то не понимают как её обойти\перелезть.
У меня есть ИМХА на этот счет, но озвучу её позже, что бы не искажать чьё то мнение.
И в чем же она по Вашемузаключается? В обсуждении четкого однозначного ответа как-то не нашел.
А нет четкого однозначного ответа, есть нечеткий и многозначный, который по большей части присутствует в потоке моих вопросов и ответов в этой теме.
Препятствий на самом деле много, во многих контекстах и даже сложно определить какая из проблем - "главная", возможно конечно как то их отсортировать, но решив самую насущную проблему насущной станет следующая в очереди а очередь длинная.
ИМХО самое слабое звено во всем движении к СИИ — как говорится "человеческий фактор", то есть масса всякой херни, связанная с мотивацией и организацией коллективов, а также с банально очень ограниченными возможностями отдельного человеческого ЕИ, то про что говорил ув. DVC.
Увы как отдельный человек так и цивилизация в целом движется бабками и волей моды и "трендов" как сейчас говорят, интерес и финансирование тех или иных областей технологий то взлетает до небес то падает в ноль и тд. А тут придётся вложить триллионы$, не меньше чем как разработать атомную бомбу с нуля или полететь на Луну, это не по силам пока никому.
Да и вообще не факт что это сейчас выйдет даже с триллионами инвестиций. По приказу не изобрести десятки новых алгоритмов уровня бэкпропагейшина в нейросетках, это происходит рандомно энтузиастами в гаражах и клерками из патентных бюро. Так что придётся тупо ждать пока не накопится критическая масса технологий, а к тому времени и компы раз так в тысячу пошустреют, а может в миллион и можно будет играться с многомиллионными нейростеками в реалтайме.
А пока будут делаться разные фейки, подгонки, симуляторы отдельных способностей, или комплекса способностей, это тоже хорошо. Ведь что такое СИИ — как не элегантно организованное и управляемое множество ИИ с помощью другого множества ИИ, но пока нет возможности комфортно работать с такими системами, не тянет железо.
|
| |
create
|
Главное препятствие в создании СИИ. |
Я вообще не сторонник концепции "алгоритма СИИ", в том смысле что нет некого чудо алгоритма который скрывается в недрах мозга, который является этаким краеугольным камнем "сознания".
Природа создала нейрон, сети нейронов и алгоритмы их "обучения" методом тыка, стохастической оптимизацией, для начала стоило бы хотя бы попробовать пойти тем же путём. Я не говорю про то чтобы сразу моделировать мозг человека, это абсурд. Но понять как "методом тыка" может возникнуть самые простые организации нейросетей из сотен нейронов. До сих пор этого сделано не было.
Ведь вся суть чтобы алгоритмы обучения сетей сеть сама создавала, а не пытаться их найти как либо математически, искусственно, может получится, а может и нет, а может получится но алгоритм хреново масштабируется, как бэкпроп.
|
| |
create
|
Главное препятствие в создании СИИ. |
13:19 21.10.2021 |
|
13:20 21.10.2021 |
|
№2832 |
Траян:Gather: Вообще большой вопрос в том на сколько отличается тн. "обучение с подкреплением"(ОП) от обычного обучения на датасете метки-признаки. Почему то выделяют ОП как нечто особенное хотя это совсем не так.
ОП (RL) принципиально отличается от ML.
Хотя бы тем, что в RL задается долгоиграющая цель. И способ ее достижения - путем совершения цепочки действий (ключевой формализм RL, т.е. MDP, как раз и открывает возможность построения таких цепочек).
В ML существование целенаправленных агентов, способных реализовывать поведение не предполагается. Нет, Вы ошибаетесь. RL это подмножество ML, точнее форма использования ML.
"Поведение" или картинка\вектор, не имеет никакого значения для алгоритма классификации\регрессии. Временная задержка при формировании ответа среды, не играет роли, в результате пара действие =>ответ превращается в семпл фича-таргет, а (до)обучение идёт в реалтайме, вот и всё отличие.
|
| |
create
|
Не ну цаца(GPT) прикольная, свои пару миллиардов конечно заработают, есть куда приткнуть в поисковиках и тп., вообще можно сказать вполне знаковое достижение, на подобии как выиграть в шахматы у чемпиона человека в первый раз, или потом Го. Тексты пишет вполне достойные, беседовать можно, тест Тьюринга пройден, даже удивительно что достигнут такой результат ТОЛЬКО ИЗ ТЕКСТА(тренировки исключительно на тестовых корпусах).
Но думаю самое интересно ещё впереди и это гибридно-проективные системы, образно-текстовые, когда имеется СМЫСЛ, то есть интерпретация запроса идёт не текст →текст, а текст→образ → текст.
|
| |
create
|
Главное препятствие в создании СИИ. |
mserg: Приветствую братьев по разуму.
Стена, об которую все разбивается, называется абстракция. Точнее, (не) способность создавать абстракции. Остальное, вроде как, все есть: память, вычислительная мощность, данные из внешнего мира, и искомые критерии (на Kaggle их называют оценками - evaluation)
Припоминаю, Игорь Ашманов говорил об современном искусственном интеллекте как о математических библиотеках. А математика и есть та самая абстракция. Современный искусственный интеллект сам не может создавать "эффективную математику" для описания реальности.
Есть прекрасный набор данных на тему абстракции
https://www.kaggle.com/c/abstraction-and-reasoning-challenge
Лучший результат там 0.8 (0 - наилучший возможный результат, 1 - наихудший). Т.к. в 80% случаев предлагаемых задач не решается. Т.к. ранжирования по сложности нет, и, найдены решения, скорее всего, только для тривиальных задач, то можно сказать, что результат нулевой.
Советую скачать и посмотреть примеры. Могу на python выложить что у меня есть (просмотр может пригодиться). Примеры простые, но позволяют сконцентрироваться и отслеживать за собой, как решаются задачи. Это практически идеальный набор данных для таких целей.
Эту kaggle-проблему, по идее, можно свести к задаче поиска наиболее простых математических функций. И я это делал, и такая штука даже нашла несколько правильных решений. Однако общий перебор функций подходит только для очень коротких функций. Реальные же решения для примеров имеют функции с длиной, недоступной для перебора (даже с учетом предварительной обработки изображений). Проблема колоссального объема перебора может решаться различными способами. Сначала можно попытаться пописать их вручную, а потом обобщить. Будет уже что-то. Например, в примере в описании проблемы есть только перекраска черных клеток в желтые - кандидат-кусочек алгоритма уже есть (операция перекраски). Часть задач там являются небольшой переделкой более простых задач - кусочки могут браться из решенных задач, и т.д.
Есть подозрение, что ИИ представляет собой иерархию. Первый уровень, скажем, ищет алгоритмы решения конкретных задач. Второй уровень ищет алгоритмы создания алгоритмов решения конкретных задач, третий уровень ищет алгоритмы для второго уровня, и т.д. На каждом уровне идет перебор вариантов функций - гипотетически так можно преодолевать проклятье экспоненциального взрыва вариантов.
Можно ли оставаться на одном уровне и самого себя как-то улучшать - не ясно с теоретической точки зрения.
P.S. Есть некоторый сумбур с обозначениями. Это касается Функции (в математическом смысле) и Алгоритма. Нас, конечно, интересуют мат. объекты, которые являются как алгоритмами, так и функциями. Они так и называются - вычислимые функции. Алгоритмы и функции выше - суть одно и то же.
Математика ИМХО — ближе к текстам, думаю такие новые штучки как GPT тут хорошо сработают.
|
| |
create
|
Решатель ARC-задач Франсуа Шолле |
Михайло: Просто одна из задачек для Каггла.
Смотрите какая ситуация.
1. Как человеческий мозг понимает поворот изображения? Человек наклоняет голову вбок, либо поворачивает картинку или фото.
2. Как человек понимает наложение объектов? Да тут далеко ходить не надо: вот у меня телефон сейчас заслоняет стол и ноги.
3. И так далее.
И вместо этого житейского опыта вы хотите сказать, что мы мыслим логически, решая данные задачки??? Них#@! Мы многие трансформации не способны проделать без ошибок, ибо нам чужда логика и точность. Мы можем повернуть изображение мысленно и решить, что левая и правая картинка совпадают. Но на деле окажется, что пиксели имеют несколько разные координаты да ещё и половина людей перепутает зеркальный поворот с простым поворотом.
Так как мы машине не можем передать реальный сенсомоторный опыт человека, мы будем учить "AGI" по-своему: заложим туда несколько правил трансформации и научим нейронку перебирать правила.
И это вы называете путем к созданию AGI?
Не, это хрень какая-то.
Надо идти путем ChatGPT. Нет, тут Вы ошибаетесь, GPT – чисто текстовая молотилка, в неё как раз сенсорномоторный опыт не воткнёшь принципе, там нет промежуточной "проекции", то есть ОСМЫСЛЕНИЯ, преобразования текста в образ, а потом решения задачи на уровне образов, и описания этого образа в тестовом виде.
Некоторые задачи(большинство) решаются на уровне образов, так проще, некоторые чисто формально, путем логического вывода, хотя чаще всего даже формальные задачи задействуют образный движок, а потом просто дорабатывают результат до формального вида. Советую почитать интересную книжку "Исследование психологии процесса изобретения в области математики".
|
| |
create
|
space: Мультимодальность же не в том чтобы теперь вместо только картинок, подавать смешанный вектор картинки и например фурье спекра звука а на выходе например детектить что за зверь, или рэпер, ну или по тексту рисовать чепуху. Всё дело в получении модели мира, где в базисе идёт физика, а затем всё остальное, в виде множества объектов с рядом свойств, в рамках законов физики.
Что значит, "модели мира, где в базисе идёт физика"?
space:
я бы начал копать на синтетических данных, например на близких к реалу 3д играх, с реализованной там близкой к реальности физикой и графикой.
А смысл? Идея понятна, можно нагенерить много данных для обучения, но разве их мало, с реала?
|
| |
create
|
Kek:
Без мультимодальности сложно. Под мультимодальностью я понимаю возможность одновременно использовать символьный поток, звуковой и изображение. А почему это должно дать принципиальную подвижку в движении к СИИ?
Технически мультимодальность это всего то дополнительные компоненты вектора с других сенсоров или каких либо модулей трансформации, прошедших некие процедуры фичаинжиниринга. Это по идее может улучшить качество обучения и распознавания, но суть и вероятно результаты процесса существенно не поменяется.
|
| |
create
|
Kek:Gather: А почему это должно дать принципиальную подвижку в движении к СИИ?
Конечно же мультимодальность – необходимое, но не достаточное условие для «подвижки к СИИ». Тут, чтобы была понятна моя позиция, надо напомнить сообществу, что мне интересно осмыслить что такое «элементарный интеллект». Где-то я писал об этом на этом форуме. Попробую ещё.
Во-первых: ИНТЕЛЛЕКТ – это свойство. И я, спрашиваю: «Как можно создать свойство без носителя оного? Почему никто не говорит, а какой должен быть носитель свойства?».
Во-вторых: Можно идти сверху – вниз. И коль носителем интеллекта является человек, то это верх. И отделаться от антропоморфизма тогда сложно. И мы видим попытки реинжиниринга мозга, и т.д.
В-третьих. А может идти снизу – в верх? И тогда нужно, как Родену, отсечь всё лишнее. Но оставить необходимое и достаточное. Это и есть, то, что занимает меня.
На мой взгляд тема "элементарного интеллекта" изъезженна вдоль и поперёк всеми, есть несколько полюсов мнений на этот счет.
Первый, с одной стороны, назовём его "кибернетический", в том что "интеллект" это любые логические операции, начиная с базисных <и, не> и всё комплексное, производное, что может реализовано на МТ. (все помнят что на МТ с помощью <и, не> можно реализовать любые функции(поведение, логику и тп)). В этой концепции калькулятор — интеллектуален.
Второй, с другой, назовём его "антропоморфный", про то что "интеллект" как минимум должен пройти ТТ, да ещё и обладать базовым "сенсорно-моторным опытом" человека, "здравым смыслом", "самосознанием" и тп. В общем "функциональным аналогом человека" по Луарвику. В этой концепции пока и вероятно всегда останется интеллектуальным, только человек.
Ну и континум между этими двумя кластерами, который можно поделить как угодно. Здесь никогда не будет консенсуса, так как даже среди людей, в зависимости от опыта и образования, не все будут друг друга считать носителями интеллекта. Тут мы уходим в дебри психологии, социологии и даже политики, где всё может значительно отрываться от реальности.
Если взглянуть в прошлое, то можно вспомнить что было время, когда только ученые занимались счетом и математическими операциями(особенно с римскими цифрами), это было очень интеллектуально. Тоже касается многих аспектов умственной деятельности, ремёсел и тп. Очевидна идея о том, что вообще всё что могут многие, или тем паче можно автоматизировать, запрограммировать, становится, задним числом, не интеллектуально. "Интеллектуальна" та логическая деятельность что ценна(редка и ликвидна)\статусна, которая приносит выгоду её обладателям. Как только нечто становится доступно, ставится на конвеер, оно перестаёт быть интеллектуальным.
Потому в качестве окончательного критерия интеллектуальности, можно установить логический процесс генерирующий инновации, открывающий об окружающем нас мире и нас самих, новые закономерности, помогающие нам счастливо жить и процветать. Что в ряд ли может относиться к "элементарному интеллекту", но скорей всего это было бы наиболее консенсусное мнение.
|
| |
create
|
Egg: Мне не сложно объяснить, почему интеллект не может быть аналогом человека. Ни анальным, ни функциональным.
1. Аналог - это объект, одной категории и близкий по совокупности признаков. Интеллект - это не животное, не существо, не биологический объект. Он разных категорий с человеком, интеллект - часть человека. Говорить, что интеллект - это функциональный аналог человека так же глупо и безграмотно как говорить, что цикл Карно или энтропия - это аналог легкового автомобиля. 😃😃
2. Ну и конечно, беседы про функциональность - это типичные стариковские представления середины 20 века, в стиле экспертных систем и прочей дремучести. Интеллект - это инструмент создания инструментов, смысл его в том, что его функциональность постоянно растет, вместе с развитием науки и технологий.
)) Интеллект, просто интеллект, не искусственный, это штука агрегатная, консенснусная, как "красота" или "гармоничность". Люди решают в конце концов, кто\что интеллектуально, а что нет и суждения об этом меняются со временем, в зависимости от того, является ли некие манипуляции с данными, хоть в чем то ценными, то есть нужными и не легкодоступными.
Поэтому какой бы вы алгоритм не создали, сам факт того что это алгоритм, уже как бы лишает некоторой магии интеллектуальности, то что он делает. Даже если алгоритм откроет новую математическую теорему, докажет, или поможет найти новое лекарство, не смотря на явную выгоду, всё равно такой результат поначалу будет чуток пованивать чем то механическим, переборным. Как игра в шахматы перестала значиться как особо интеллектуальной, после того как алгоритм победил человека и в последствии этот душок обычно только усиливается.
Поэтому чтобы не угодить в трясиину всякой рандомной социальщины, лучше бы сосредоточиться на чисто технических требованиях, что на вход что на выход, юзер кейсы и тп. Не так важно что кто-то не согласится с вами, интеллектуальна ли некоторая система или нет, если она будет хоть в чем то полезна, это уже победа.
|
| |
create
|
Prosolver:Gather: Как только нечто становится доступно, ставится на конвеер, оно перестаёт быть интеллектуальным.
Потому в качестве окончательного критерия интеллектуальности, можно установить логический процесс генерирующий инновации Да, в целом Вы правильно рассуждаете. Только нужно сделать два уточнения:
1. Интеллект делает новации не на пустом месте и не с бухты-барахты, он всегда делает их в задачной локации, в задачном контексте, ради чего-то, к чему-то, с какой-то целью. Поэтому интеллект, как генератор инноваций - это инструмент для достижения некоторых целевых обстоятельств, событий.
2. Что такое есть "новация" по сути своей? Это есть некоторая конструкция из уже имеющихся "неинтеллектуальных" доступных запчастей с конвейера, механизм для достижения заданной цели, т.е. инструмент. Таким образом, способ, которым интеллект достигает этих целевых обстоятельств, состоит в конструировании (генерации, синтезе, создании, совмещении) инновационных механизмов.
И если мы сделаем эти два уточнения, то формула, предложенная Egg'ом: "Интеллект - это инструмент создания инструментов" - оказывается наиболее релевантной, полной и достаточной. Egg:Gather:
Поэтому какой бы вы алгоритм не создали, сам факт того что это алгоритм, уже как бы лишает некоторой магии интеллектуальности, то что он делает.
Отнюдь. Как я уже неоднократно говорил, есть класс алгоритмов, которые не лишены (цитирую) магии интеллектуальности. Это алгоритмы создания алгоритмов. Но слово алгоритм довольно провинциальное, на мой вкус, мне больше нравится термин инструмент, поскольку нас интересует и аппаратная часть (например, GPU) и контекст (например, пространство знаний) и коммуникации (поскольку все наши главные открытия - это изменение коммуникационных технологий). Плюс, учитывая, что мозг подчиняется физическим законам, мы вынуждены признать, что интеллект - это не магия, просто нам пока ума не хватает понять как ИМЕННО работает LLM)))))))))))))))
З.Ы. Вот и ув. Prosolver всё правильно написал.
Формально "Это алгоритмы создания алгоритмов" это любой ML алгоритм, например kNN, или даже мапа(ключ-значение) со вводом-выводом, которая заполняется обучающей выборкой и меняет свою логику в ответ на запросы. Я понимаю, что Вы закладываете вероятно другой смысл, какой нибудь хайповый, например GPT и тп. в зависимости от того что сейчас в тренде. Но обосновать формально эту позицию невозможно, так как опирается она на эмоции, на то что "круто", что есть у богатых а нет у бедных.
LLM в виде GPT как работает понять не сложнее чем MLP, есть же официальные статьи и пересказы "на пальцах" на хабре и тп. Другое дело в полной мере поиграться лично, пока нет возможности, из-за ресурсоёмкости обучения таких алгоритмов, разве что на игрушечных примерах. Но вероятно вскоре появятся специализированные платы для работы с нейросетями, чтобы не извращаться с графическими картами, как это было на заре крипто-майнинга и дело пойдёт шустрее.
Кроме того сам GPT-Х не факт что останется на долго, вначале с такого рода данными пытались рекурентными сетями одолеть, утверждали что только так и не иначе, потом тупо в почти MLP влупили, с небольшими костыликами("внимание" и тп.), это — целина, ещё многие десятилетия будут выдумывать всякие новшества или даже сотрясать основы.
Я предложил наиболее консенсусный вариант, точнее описал каковы причины того почему этого консенсуса не удается достичь. Лично моя точка зрения где-то ближе к тому что "сливной бачек- элементарный ИИ", но я её никому не навязываю))
|
| |
create
|
11:17 11.02.2024 |
|
12:03 13.02.2024 |
|
№8986 |
Egg:Gather: Но обосновать формально эту позицию невозможно, так как опирается она на эмоции
Попробуйте повторить на kNN какую-нибудь LLM)) Не сможете. Потому что 1) архитектура 2) выразительность среды 3) число параметров. Эти три вещи делают возможным AGI. Другое дело, что реализация GPT не самая удобная и эффективная, но здесь вопрос времени. Придут другие архитектуры.
А вот это очень интересная тема!
|
| |
create
|
Egg:Gather: Ассоциации с коллапсом волновой функции, считаю совершенно не релевантными, "интеллектуальность" на мой взгляд континуальна и относительна, я бы даже сказал субъективна, начинается с простых логических операций и человеческим разумом далеко не заканчивается. Кстати сам коллапс волновой функции является костыликом в физике, натянутой совой на глобус, наукообразно сшили белыми нитками противоречивые модели, что-то типа эпициклов, потомки будут улыбаться))
Ну а я считаю, что WFC - это очень точно тому, как это происходит в естественном нейросетевом ансамбле головного мозга. Я думаю, вы просто не разобрались с формализмом, который базируется на рандомных полях и нормальном алгорифме младшего Маркова. В этом формализме есть и логика и машина Тьюринга и Поста.
Что касается коллапса ВФ в физике, то как дипломированный физик по специальности 0312 могу сказать, что это не костылёк, а фундаментальный закон, который бы я поставил даже выше Второго Начала. И не только я))) Впрочем, воля ваша. Живите как хотите))
З.Ы. А вот Сама привлекает 7 триллионов баков в качестве инвестиций. Это говорит о том, что реализация GPT5 не просто реально работает, а уже решает задачи производства попупроводниковых плат... )))
https://www.wsj.com/tech/ai/sam-altman-seeks-trillions-of-dollars-to-reshape-business-of-chips-and-ai-89ab3db0?fbclid=IwAR3jDriwL4q1IJ9MKFyo_OwT-zDceR-xGHucCsC4xW4y5G5Wp5sP1vqldMY Сори, не верно интерпретировал контекст. Вы про github.com/mxgmn/WaveFunctionCollapse, а я думал вы "глубоко философски" ассоциировали идею "мгновенного" возникновения интеллекта из суммы составляющих, на подобии как меняется модель физического описания кванта при измерении.
С алгоритмом WFC ознакомился, всё довольно прозаично и знакомо, марковские цепи, клеточные автоматы, было время тоже фанател с клеточных автоматов. Вообще, я заметил, алгоритмы которые дают генеративные сложные результаты, особенно в привычных человеку модальностях(картинки, звук, текст), оказывают чарующее и гипнотическое воздействие, кажется что раскрыты какие то глубинные тайны вселенной, вспоминаем например фракталы Мандельброта, генерируемые формулой в одну строчку))).
Марковскими цепями пытались сделать первые LLМ кстати, но получался даже не бред, а тн. "словесная окрошка" в психиатрической терминологии. Сейчас на нейросетках конечно слова складываются достаточно ладно и как будто бы смысл есть, но в реальности это действительно нечто похожее на WFC, только логика генерации токена по контексту, более навёрнутая. Есть в неврологии расстройство похожее, не помню название читал в книжке "Человек который принял жену за шляпу", когда человек говорит вроде складно, но совсем не понимает о чем, разорвана связь текста и других моддальностей на что он указывает.
Но спасибо за алгоритмик, ещё и на С#, слава Иисусу что не на пайтоне)))
|
| |
create
|
Egg:Gather: Вообще, я заметил, алгоритмы которые дают генеративные сложные результаты, особенно в привычных человеку модальностях(картинки, звук, текст), оказывают чарующее и гипнотическое воздействие, кажется что раскрыты какие то глубинные тайны вселенной, вспоминаем например фракталы Мандельброта, генерируемые формулой в одну строчку))).
Не назвал бы Плахова самым тупым своим знакомым, знаю его двадцать лет, единственная глупость, которую он сделал - остался в росии. Он приводит WFC как эволюционную модель, которая имеет встроенную оптимизацию, позволяющую заменить хаотичный перебор с последующим фиттнесом (что очень-очень медленно и очень неэффективно) на какой-нибудь "встроенный критериальный", хотя бы тот же байес, если у нас есть проблемы с хорошей выборкой. А это главная эволюционная проблема)))
Gather:
Марковскими цепями пытались сделать первые LLМ кстати, но получался даже не бред, а тн. "словесная окрошка" в психиатрической терминологии. Сейчас на нейросетках конечно слова складываются достаточно ладно и как будто бы смысл есть, но в реальности это действительно нечто похожее на WFC, только логика генерации токена по контексту, более навёрнутая.
Да, согласен с вами, марков в LLM не работает хорошо, это временное решение. Историческое. На мой взгляд, в LLM/GPT работает именно связка кодирования-декодирования, которая снижает размерности и определяет абстракции, а триллиарды параметров дают возможность сформировать понятийные модели и представления. То есть я стою на позициях семиотической интерпретации LLM. ))) Да, тема интереснейшая, жаль нет много свободного времени что бы окунуться глубоко в неё.(((
|
| |
create
|
Главное препятствие в создании СИИ. |
Итак, в сухом остатке:
Узость современных ИИ-систем: Большинство решений эффективно работают только в рамках узких задач, что ограничивает их универсальность.
спойлерСовременные системы искусственного интеллекта (ИИ) в большинстве случаев разрабатываются для решения специфических, узких задач. Это делает их эффективными в четко определенных условиях, но ограниченными при попытке применить их за пределами этих условий. Такой ИИ называют узким ИИ (Narrow AI).
Например распознавание лиц — отлично работает в системах видеонаблюдения, но не может, например, распознать жесты или эмоции того же человека.
Автопилоты — могут уверенно вести автомобиль на дороге, но не понимают социальные сигналы водителей (например, уступающий жест рукой).
Переводчики — грамотно переводят тексты, но часто не распознают контекст или эмоциональную окраску высказывания.
Системы рекомендаций — успешно предлагают товары или фильмы, но не способны учитывать сложные личностные предпочтения или эмоциональное состояние пользователя.
Эти системы основаны на обучении с использованием больших объемов данных, но каждая система строго ограничена своей специализацией.
Это это проблема так как: слабая адаптивность, системы требуют полной перенастройки при изменении условий или переходе в новую среду, ограниченные знания, узкий ИИ не способен обобщать знания или переносить их на смежные задачи. Проблемы с непредвиденными ситуациями, такие системы плохо реагируют на условия, не предусмотренные в обучающей выборке, высокие затраты на разработку, каждая новая задача требует значительных ресурсов на обучение и настройку.
Пример провала узкого ИИ
В 2016 году чат-бот Tay от Microsoft, обучавшийся на данных из социальных сетей, за сутки начал генерировать, о ужас, неуместные и агрессивные высказывания. Это произошло из-за узости модели, которая не понимала контекст и не могла корректировать своё поведение.
Для преодоления проблемы необходим переход к гибридным и универсальным методам. Например тн. метаобучение (Meta-learning), когда системы, которые учатся учиться, адаптируясь к новым задачам на основе прошлого опыта.
Обучение с малым количеством данных (Few-shot и Zero-shot learning): Позволяет системам эффективно решать новые задачи, используя ограниченные примеры.
Комбинация методов: Интеграция нейросетей, символических методов и алгоритмов адаптации для повышения гибкости.
Ограниченные методы обучения: Системы требуют больших объемов данных и не способны адаптироваться к новым условиям без полной перенастройки.
спойлерСовременные системы искусственного интеллекта впечатляют своими возможностями, но их развитие наталкивается на серьезную проблему — ограниченные методы обучения. Большинство популярных ИИ-моделей требуют огромных объемов данных и дорогостоящих вычислений. При этом, столкнувшись с новой задачей или изменением условий, такие системы зачастую не могут адаптироваться без полной перенастройки.
Проблема особенно заметна в реальных приложениях. Например, система компьютерного зрения, идеально распознающая лица на стандартных фотографиях, может легко сбиться при плохом освещении или необычном ракурсе. Чат-боты, отлично ведущие диалог в привычных темах, теряются при столкновении с нестандартными вопросами. Даже продвинутые системы вроде AlphaGo демонстрируют высокий уровень только в строго определенных условиях, но требуют полного переобучения для решения задач с незначительно измененными правилами.
Такая зависимость от данных делает развитие ИИ дорогостоящим и медленным. Однако есть перспективные направления, которые способны решить эту проблему. Один из них — обучение на малом числе примеров (Few-shot learning). Эта методика позволяет системе адаптироваться к новым задачам, используя всего несколько примеров. Другой подход — обучение без примеров (Zero-shot learning) — позволяет ИИ обобщать знания и справляться с задачами, на которых он ранее не обучался.
Еще более мощной концепцией является метаобучение (Meta-learning) — своего рода «обучение обучаться». Такие системы не просто осваивают конкретные задачи, а развивают стратегии адаптации, корректируя свои методы обучения под новые условия. Это открывает путь к созданию гибких, самонастраивающихся ИИ-систем, способных работать в сложных и непредсказуемых средах.
Для ускорения развития этих технологий активно используются синтетические данные — искусственно созданные наборы примеров, которые позволяют моделировать редкие или опасные ситуации (например, поведение беспилотников в аварийных условиях) без риска для людей.
В ближайшие годы именно сочетание этих подходов может стать ключом к созданию по-настоящему адаптивных и универсальных систем ИИ, способных решать широкий круг задач без постоянной перенастройки и бесконечного наращивания данных.
Проблема привязки символов: ИИ не способен полноценно соотносить абстрактные понятия с реальной действительностью и как следствие отсутствие моделей здравого смысла: Современные ИИ не понимают физический мир и контекст событий.
спойлерОдна из ключевых проблем на пути к созданию действительно интеллектуальных систем — это проблема привязки символов (Symbol Grounding Problem). Современные ИИ-модели хорошо оперируют словами, цифрами и прочими символами, но зачастую делают это без настоящего понимания их значения. ИИ может успешно обрабатывать текст или генерировать логичные ответы, но он не «понимает» их так, как это делает человек.
Представьте себе чат-бота, который уверенно отвечает на вопросы о погоде. Он знает, что «дождь» связан со словами «зонт», «гроза» и «влажность», но не понимает, что дождь — это физическое явление, которое делает улицы мокрыми и людей промокшими. Его знания основаны на статистике совпадений слов, а не на реальном опыте или интуитивном понимании мира.
Эта проблема особенно заметна в задачах, где требуется здравый смысл или связь понятий с физической реальностью. Например, попросите ИИ объяснить, как правильно поставить стакан на стол, чтобы он не упал. Хотя модель может предложить правильный ответ, она не обладает реальным представлением о гравитации, равновесии или свойствах поверхности.
Основная причина этого — отсутствие в нейронных сетях встроенной «модели мира». Люди формируют знания через опыт: мы видим, как объекты взаимодействуют, запоминаем последствия и делаем выводы. Современные ИИ-модели, напротив, обучаются на текстах, изображениях или данных без физического контакта с реальным миром.
Решение этой проблемы — одно из важнейших направлений в развитии ИИ. Один из подходов — обучение моделей с использованием мультимодальных данных (например, сочетание текста, видео и сенсорной информации), что помогает системе соотносить слова с физическими объектами и их свойствами. Еще одно направление — развитие обучения с воплощением (embodiment), где ИИ взаимодействует с реальным или виртуальным миром, обучаясь через практический опыт, как это делает человек.
Без решения проблемы привязки символов ИИ так и останется мощным инструментом для узких задач, неспособным по-настоящему «понимать» мир. Прорыв в этой области станет важным шагом на пути к созданию по-настоящему универсального искусственного интеллекта.
Эволюционный тупик: Надежда на «саморазвитие» ИИ через накопление данных и вычислительных мощностей показала низкую эффективность.
спойлерЗа последние годы развитие искусственного интеллекта часто шло по пути наращивания вычислительных мощностей и увеличения объемов данных. Эта стратегия дала впечатляющие результаты: языковые модели, такие как GPT, демонстрируют поразительные навыки генерации текста, а системы компьютерного зрения достигают точности, близкой к человеческой. Однако эта гонка за масштабом столкнулась со своими пределами — ожидания, что ИИ «саморазовьется» за счет больших данных и мощных серверов, не оправдались.
Главная проблема в том, что накопление данных не решает базовых проблем понимания и адаптивности. Современные нейросети обучаются выявлять закономерности в огромных наборах данных, но при этом не приобретают реальных знаний о мире. Например, модель может запомнить миллионы примеров диалогов, но всё равно не поймёт, почему в ответ на вопрос «Где взять зонт?» уместно ответить «Посмотри в прихожей», а не «Зонт — это предмет, защищающий от дождя».
Кроме того, увеличение данных и мощности делает обучение дорогим и ресурсозатратным. Модель GPT-3 от OpenAI, например, обучалась на сотнях миллиардах параметров, что потребовало затрат энергии, сравнимых с тем, что потребляет небольшой город за несколько недель. Однако даже такие мощные системы могут ошибаться в простых задачах, если те выходят за рамки шаблонных данных.
Проблема особенно заметна в условиях нестандартных или неожиданных ситуаций. Автопилот может уверенно управлять автомобилем на ровной трассе, но столкнется с трудностями, если на дороге окажется сломанный светофор или неожиданное препятствие. Простое увеличение данных не научит систему гибко адаптироваться к таким условиям.
Отсутствие эффективных универсальных метрик: Существующие тесты не отражают уровень интеллекта систем в широком спектре задач.
спойлерНа данный момент в области искусственного интеллекта существует множество различных метрик для оценки работы систем, однако ни одна из них не является универсальной и не отражает реальный уровень интеллекта ИИ в широком спектре задач. Большинство современных тестов, таких как Turing Test или различные специализированные benchmark'и, оценивают ИИ в узком контексте, что ограничивает их возможности и не позволяет полноценно оценить способность системы к адаптации и решению разнообразных задач.
Одной из основных проблем является то, что существующие метрики часто ориентированы на решение определённых узкоспециализированных задач. Например, тесты, связанные с играми (шахматы, го), прекрасно измеряют способности ИИ в этих конкретных областях, но не дают представления о том, насколько эффективно такая система будет работать в других, менее структурированных ситуациях, таких как взаимодействие с людьми или анализ сложных многозадачных сценариев.
Второй важный момент заключается в том, что современные тесты, как правило, не учитывают факторы, такие как способность к обучению, самосовершенствованию или взаимодействию с окружающей средой. ИИ может продемонстрировать впечатляющие результаты в заранее заданных условиях, но его реальная ценность заключается в способности адаптироваться и учиться на основе опыта, что крайне сложно оценить с помощью традиционных тестов.
Ещё одной проблемой является отсутствие учета этических и социальных аспектов интеллекта. Вопросы, связанные с безопасностью, прозрачностью алгоритмов, а также с возможностью интеграции ИИ в различные социальные и экономические процессы, требуют создания совершенно новых метрик, которые смогут комплексно учитывать все эти важнейшие аспекты. На данный момент существующие тесты фокусируются преимущественно на вычислительных или когнитивных аспектах.
Кроме того, существует риск, что слишком узкая спецификация тестов может привести к созданию "специализированных" ИИ, которые кажутся очень умными в одной области, но не могут решить задачи за её пределами. Например, ИИ, оптимизированный для распознавания изображений, может легко обрабатывать фотографии, но окажется бесполезным в более сложных и разнообразных ситуациях.
Таким образом, для того чтобы в будущем ИИ был по-настоящему универсальным инструментом, необходимо разработать новые метрики, которые смогут оценить интеллект машин в широком контексте, включая способность к обучению, адаптации и решению комплексных задач. Это потребует междисциплинарного подхода и интеграции знаний из различных областей: когнитивных наук, этики, социологии и других.
Сложность создания когнитивных архитектур: Требует значительных научных усилий и междисциплинарного подхода.
спойлерСоздание когнитивных архитектур, то есть моделей искусственного интеллекта, которые имитируют работу человеческого разума, является одной из самых амбициозных и сложных задач в области ИИ. В отличие от узкоспециализированных систем, которые решают конкретные задачи, когнитивные архитектуры должны обладать способностью к обобщению, адаптации и многозадачности, что требует значительно более глубоких и сложных подходов.
Основной трудностью в создании таких архитектур является необходимость объединения знаний из разных научных областей. Когнитивные архитектуры, как правило, стремятся моделировать не только процессы восприятия и обучения, но и более высокоуровневые аспекты, такие как принятие решений, планирование, внимание, память и даже эмоциональные реакции. Для этого необходимо сочетать методы психологии, нейробиологии, нейросетевых технологий и теорий познания, что требует интеграции множества дисциплин, порой с диаметрально разными подходами.
Кроме того, такие архитектуры должны учитывать множество факторов, включая нестабильность окружающей среды и неопределенность, с которой сталкиваются люди. Это делает задачи, стоящие перед разработчиками когнитивных систем, ещё более сложными. Например, необходимость интеграции сенсорных данных, социальных факторов и контекстной информации требует более гибких и адаптивных моделей, которые смогут работать в реальных условиях, а не только в контролируемых экспериментах.
Не менее важным аспектом является создание механизмов для многозадачности и распределенной обработки информации, что позволяет системе эффективно справляться с различными видами задач. В отличие от традиционных специализированных систем, когнитивная архитектура должна быть способна переключаться между различными видами деятельности, что предполагает наличие не только мощных алгоритмов обработки данных, но и способов эффективного управления ресурсами и приоритетами.
Ещё одной проблемой является отсутствие универсальных критериев для оценки эффективности таких архитектур. Мы можем оценить ИИ по отдельным задачам, но для комплексной оценки когнитивной архитектуры необходимо разработать новые методы и подходы, которые могут учитывать всю её способность к адаптации, обучению и решению широкого спектра задач. Этот процесс требует значительных усилий не только со стороны исследователей в области ИТ, но и специалистов в области философии, этики и нейробиологии.
В связи с вышеописанными трудностями, создание когнитивных архитектур остаётся одним из наиболее амбициозных проектов в области искусственного интеллекта. Необходимость междисциплинарного подхода и интеграции знаний из разных областей требует большого объема научных усилий и времени, что делает успешное завершение таких проектов редким и ценным достижением.
Неравномерность развития технологий: Успехи нейросетевых подходов привели к забвению других методов, хотя их интеграция могла бы ускорить прогресс.
спойлерСреди множества подходов, использующихся в области искусственного интеллекта, нейросетевые технологии в последние годы привлекли наибольшее внимание благодаря своим впечатляющим результатам в таких областях, как обработка изображений, распознавание речи и генерация текста. Однако этот фокус на нейросетях привёл к забвению других методов, которые могли бы дополнить нейросетевые подходы и ускорить общий прогресс в области ИИ. В результате мы наблюдаем неравномерное развитие технологий, где одни методы получают чрезмерное внимание, в то время как другие остаются на заднем плане, несмотря на их потенциал.
Основной причиной такой неравномерности является феномен "нейросетевого бума". Успехи нейронных сетей, особенно глубоких нейронных сетей (deep learning), привели к тому, что научное сообщество и индустрия сосредоточились на их применении в самых различных задачах, считая их универсальным решением. Это явление сильно повлияло на распределение научных и финансовых ресурсов, что сделало другие методы менее приоритетными. Например, такие подходы, как эволюционные алгоритмы, метод многозначных логик или даже классические методы машинного обучения, стали менее популярными, несмотря на их потенциальную полезность в сочетании с нейросетями.
Однако важно отметить, что исключение других методов из поля зрения может ограничить возможности прогресса. Некоторые из этих технологий могут быть более эффективными в специфических задачах, таких как оптимизация, планирование или работа с малыми данными. Например, методы, основанные на экспертных системах или символическом подходе, хорошо справляются с задачами, где требуется высокоуровневая логика и дедуктивное мышление, в то время как нейросети часто не могут предоставить такую прозрачность и интерпретируемость решений.
Более того, интеграция нейросетевых подходов с другими методами может значительно ускорить развитие ИИ. Использование гибридных систем, которые комбинируют сильные стороны разных подходов, позволяет решить задачи, которые по отдельности могут быть трудными для каждого из них. Например, нейросети могут быть использованы для извлечения признаков из данных, в то время как более традиционные методы могут быть задействованы для принятия решений на основе этих признаков. Такой подход может привести к созданию более мощных и гибких систем.
Неравномерность развития технологий также связана с узким фокусом на нейросетевых методах, что ограничивает область их применения. Например, нейросети требуют больших объемов данных и вычислительных ресурсов, что делает их менее подходящими для некоторых отраслей, где данные ограничены или ресурсы ограничены. В таких случаях другие подходы могут оказаться более подходящими, и важно вернуть внимание к ним, чтобы развить технологии, способные эффективно работать в разнообразных условиях.
Таким образом, для того чтобы ИИ мог развиваться в полном объеме и достигать новых высот, необходимо пересмотреть доминирование нейросетевых методов и включить в научный и инженерный процесс интеграцию с другими подходами. Это потребует от исследователей более широкого взгляда на проблемы и возможностей, что, в свою очередь, может привести к созданию более универсальных и эффективных систем ИИ.
|
| |
create
|
Потенциал искусственных нейронных сетей. Можно ли на основе ИНС создать ИИ, превосходящий человека во всех отношениях |
мулька:
Prosolver:
Соответственно, Ваше представление про обучение человека выглядит примерно как отражение в зеркале. Снаружи есть некое готовое "знание" и человек его отражает в своих знаниях. Моё представление про обучение в корне иное. Человек буквально выращивает своё знание внутри себя, а внешние стимулы только подкрепляют или наоборот угнетают ростки этих знаний. Человек активно сам создаёт свои знания. Такого способа обучения в ИНС просто нет, это не предусмотрено их конструкцией. Поэтому для меня очевидно, что ИНС не воспроизводят тот процесс, который у человека называется "обучение". Соответственно, я вообще не жду, что ИНС когда-либо вдруг продемонстрируют обучение, которого в них нет. Всё, что они могут воспроизвести - это именно обезьянничание. А без обучения не создаются новые знания. А без этого нет смысла говорить про интеллект.
А вот тут по подробнее хотелось бы, на примерах желательно и почему этого в нейросетках или ML алгоритмах, по вашему "нет". Наверно имелось в виду что на данный момент GPT подобные модели, работают в режиме чистого, так сказать "рефлекса", то есть "акция — реакция", нет процесса "обдумывания", когда некая порция данных "кружит" по системе, в месте с данными порождаемыми самой системой. Живой мозг сущностно отличается пока от нейросеток именно такими процессами реалтаймового моделирования и (само)коррекции, идёт генерация образов и потоков слов на ровне с анализом внешних, сенсорных данных.
Такие процессы, особенно в контексте механизмов "внимания"(выбора наиболее существенных аспектов для моделирования) и можно назвать "сознанием", по мнению некоторых мыслителей, с чем я отчасти согласен. В текущих нейросетках этого нет от слова совсем, тупо вектор вошел, вектор вышел, ну или что то из чего делается вектор или во что потом преобразуется.
|
| |
create
|
Главное препятствие в создании СИИ. |
Sanek22:
https://habr.com/ru/articles/481172/
В основе интеллекта лежит управление действиями, а не просто пассивное распознавание образов. Это перекликается с современными подходами в RL. Сама же модель более всего блика к семантическим сетям, со всеми их преимуществами и недостатками.
Описывается довольно общая теоретическая модель, но мало уделяет внимания деталям реализации. Например, механизм формирования целей или обучение через обратную связь требует уточнений. А дьявол в деталях, вспоминайте сколько всё человечество билось чтобы обучить MLP, а у вас структура на порядки более витееватая.
Идея динамических семантических сетей предполагает высокую степень гибкости, но в ML-практике обучение подобных структур может быть крайне ресурсоемким.
Механизм формирования целей требует уточнения — неясно, как эффективно их инициализировать и обновлять. Идея рецепторов действий перспективна, но реализация в реальных ML-системах выглядит сложной. Модель недостаточно раскрывает, как будет обеспечено обучение через обратную связь в динамических условиях.
Показалось наивным понимание мышления как исключительно обработки сигналов с рецепторов и проекция их в действия, это ИМХО значительная редукция природы сознания. Предположение, что можно напрямую сконструировать самосознание через простую комбинацию действий и понятий. А также уверенность в возможность создания универсального механизма выбора действий.
В общем классическое "гладко было на бумаге, да забыли про овраги". В реальной практике оказалось намного важнее не таксономировать "карту мозга", понять как работает нейрон и что он "как- то" связан с другими нейронами. А именно выяснить механизмы того как возникают сети нейронов и их веса связей, в ответ на воздействие данных, то есть механизмы "обучения".
Технически то, "всё на свете" от XOR и MNIST, то жизни Эйнштейна, можно аппроксимировать некой сложной векторной функцией, нет никакого принципиального запрета на это. Но, как структурировать эту функцию так, чтобы эта функция возникла САМА, в ответ на воздействие правильно подобранного датасета?
А почему именно САМА? Да потому что были уже десятки разнородных попыток, в том числе и с семантическими сетями, как то это вбить в ручную, и все они оказались тщетными, стоят очень дорого и в итоге выходит очень слабенько. Очень большая штука эта — наш интелект, то что мы называем здравым смыслом, опытом и тп. Миллионы сущностей и связей, очень порой хитро организованных, так хитро что мы можем ими пользоваться но не понимать как они работают, например как было десятки тысяч лет с законом гравитации и тп. На каждую профессию, тоже плюс по 100к до миллиона своих сущностей. Это ДА-ФИ-ГА, то есть гипотетичеси на сотни тысячи человеколет ручного вбивания с неопределённым результатом, так как многие эти сущности и связи нами не могут быть описаны формально.
|
| |
create
|
Главное препятствие в создании СИИ. |
Luarvik.:Gather << ЖПТ:
Сложность создания когнитивных архитектур: Требует значительных научных усилий и междисциплинарного подхода.
Создание когнитивных архитектур, то есть моделей искусственного интеллекта, которые имитируют работу человеческого разума...
Кто-нибудь пробовал переплыть не реку, а её имитацию ?
Или напиться не водой, а имитацией воды ? полетать на имитации самолёта ? купить что-нибудь в магазине за имитацию денег ?
А вот этот момент хотелось бы подчеркнуть отдельно::
Gather << ЖПТ:
когнитивная архитектура должна быть способна переключаться между различными видами деятельности, что предполагает наличие не только мощных алгоритмов обработки данных, но и способов эффективного управления ресурсами и приоритетами.
Архитектура или методы ? - Именно так до сих пор поставлен вопрос.
Считается, что архитектура не важна - достаточно посмотреть на этот "искусственно-нейронный" кисель, в который можно подмешать любой "пищевой" краситель.
Следует отметить, что методы не существуют сами по себе, как нечто обособленное, абстрактное и универсальное - они применяются кем-то или чем-то для чего-то. Метод, как способ алгоритмизации не существует даже как инструмент при отсутствии надлежащего исполнителя, как информации не существует без её приёмника и передатчика. В конце концов, методы и алгоритмы есть структуры именно информационные, а значит и требующие соответствующей адекватной интерпретации - вот с этим и не клеится.
Накопление знаний, совершенствование обучения, наращивание мощностей - это ведь всё вокруг да около.
Все эти ухищрения не решают проблему, а только замыливают её, потому что "ядро проблемы" остаётся нетронутым.
Если появится однажды такая архитектура, в которой будет реализован механизм понимания/осознавания, то ничего из перечисленного выше не понадобится в таких немыслимых объёмах при таких циклопических энергетических затратах.
Да, рыбу можно украсть, выклянчить, купить, а потом продать и снова купить, но речь идёт об удочке, до которой пока ещё ни у кого руки не дотягиваются.
Управление ресурсами не решит проблему - это лишь "видимая сторона Луны", необходимая но не достаточная.
Обратная сторона проблемы называется " Сознанием".
Разум так устроен, что ему для полноценного функционирования необходимы две стороны "медали".
Ум без сознания так же ограничен и в общем бесполезен, как сознание без ума.
И как давно должно быть ясно людям более проницательным - проблема ИИ вовсе не в интеллекте, не в его определении, не в его количестве и т.д., а в том, что его, условно говоря, "окружает".
Нынешний т.н. "ИИ" существует как слово, выдранное из контекста. а когда мы имеем дело с такими тонкими материями, контекст должен быть совершено определённым и весьма специфическим.
Проблема-то возможно не только в "удочке", а в том числе, как правильно закинуть её в нужное место и понять, когда дёргать леску. У нас и сейчас хватает мощных инструментов, но они не магическим образом "понимают", а через тонны данных и грамотную настройку. И если честно, никакой архитектурный гениальный инсайт не отменит того факта, что без правильных методов обучения, обратной связи и накопления знаний вся эта конструкция — просто дорогая гирлянда на GPU. Да и то это всё пока "проекты на коленке", за миллиарды долларов, уж точно так лет через 20 они будут восприниматься в ретроспективе. Это творчество, очень много метода тыка.
Про "контекст" согласен — любой ML-инженер подтвердит, что данные без контекста мало чего стоят. Но проблема не в том, что контекст "не определён", а в том, что он зачастую размазан по куче источников и плохо формализован. Ну и кроме того, опять же мультимодальность и "здравый смысл"(примитивная модель физического мира и социальных отношений), всё это пока в совсем зачаточном состоянии.
В общем, я бы не ждал, что одна удачная архитектура вдруг сделает нам искусственное сознание на раз-два. Мы ещё долго будем крутиться вокруг вопроса "как заставить модель учиться так, чтобы она не просто повторяла паттерны, а понимала, зачем она их повторяет".
Кстати, если уж копать в сторону сознания, то, скорее всего, если что-то подобное и появится, то не в виде одной "правильной" архитектуры, а как сложная сборная солянка(возможно сторож rrr3 в чем то прав). Скорее всего, это будет гибридная мультимодальная система, где одни подсистемы отвечают за зрение, другие за язык, третьи за планирование, а всё это оркестрируется чем-то сверху — некой мета-архитектурой. Единственное чего бы хотелось избежать, так это усложнения(алгоритмической разнородности) подходов на каждом уровне и домене, у нас в мозгах все домены и мета-домены работают похожим образом(так кажется), это большой плюс.
Вот эта "мета - надстройка" как раз и может иметь сходство с тем, что мы называем сознанием — не отдельная структура, а механизм, который следит за приоритетами, переключает внимание, подстраивает поведение под долгосрочные цели и в целом рулит всей этой кухней.
И вот тут становится интересно: такой "оркестр" уже не просто пассивно принимает сигналы от датчиков (читай, рецепторов), а активно вмешивается в процесс — задаёт фрейминг, корректирует восприятие и может даже придумывать цели. Если в этом и кроется ключ к искусственному сознанию, то путь точно будет не в одной "удочке", а в целой системе с правильным распределением ролей и хорошей обратной связью.
Короче, не рыбу ловить, а сеть ставить придётся — большую, сложную и хитрую.
|
|
|