AGI.place

Форум создателей искусственных интеллектов


Логин (email) 
Пароль 
Настройки

Сообщения участника "Gather"
1
2
Аватар
create
Понимание и объяснение
18:03 10.07.2021 №1304
Prosolver:
1. Объяснить, значит описать, а понять, значит зафиксировать причинно-следственное отношение между двумя знаниями. 2. Понимание возникает вследствие анализа своего жизненного опыта, поэтому формат вербального объяснения должен соответствовать формату жизненного опыта (вербальный жизненный опыт - это тоже жизненный опыт). 3. Полноценное обучение предполагает научение (запоминание фактов) и объяснение (запоминание отношений между фактами). 4. Чтобы что-то объяснить нужно сначала это понять. Т.е. чтобы описать отношения между знаниями (дать объяснение), нужно сначала узнать эти отношения (получить понимание). Часто на практике случается, что понимание возникает в процессе попыток объяснения.
На базовом уровне объяснение - передача информации., а понимание - обучение.
0 | 0
Аватар
create
Понимание и объяснение
13:12 16.07.2021 №1328
Prosolver:
Gather:
понимание - обучение
Очень хочется и очень похоже, что это одно и то же, но я пока вижу существенное отличие. Возможно, оно субъективное и его стоит преодолеть. Пример. Женщинам нравятся цветы. Это знание. Обладая этим знанием можно решить задачу, как сделать женщине приятный подарок - подарить ей цветы. Но на вопрос "почему женщине нравятся цветы?" мы ответить не можем. Мы не понимаем почему. Знание есть, а понимания нет. Возможно, любое знание можно представить в формате понимания (т.е. причинно-следственных отношений). В данном случае знание "женщинам нравятся цветы" можно представить в формате: "если подарить женщине цветы, то ей понравится" и тогда, действительно, грань между обучением и пониманием как будто стирается. Тогда предыдущий пример с "Чему равно Pi?" можно перефразировать так: "если тебе надо вспомнить число Пи, то вспоминай такую последовательность символов 3,1415926". И тогда ответ "я понял" уже выглядит вполне уместно.
Ну это лично Ваше видение понятия "понимание". Вообще процесс "понимания" - я бы не стал обсуждать таким образом, так же как понятие "интеллект". Слишком много в них "человеческого", "художественного", то есть произвольного, как угодно интерпретативного. Лично для меня например "понимание" это вообще "тонкая" эмоция, примерно как смех или чувство красивого, понимание как поощрение дофамином за находку взаимосвязи и конечно не обязательно причинно-следственной, какой угодно, пространственной, временной, логической, эмоциональной и тп. Понять можно до-символьным путём, я бы даже предположил что исключительно до-символьным путём, а в процессе коммуникации("объяснения") происходит процесс "представления" в образы и их восприятие, а если эта структура образов укладывается в существующую модель, особенно как то её расширяет, возникает чувство понимания.
0 | 0
Аватар
create
Главное препятствие в создании СИИ.
11:41 17.07.2021 №1329
Дискуссия вокруг СИИ на разных ресурсах давно перешла в смесь маркетинга, речей безумцев и стёба, явно видно что не прёт человеческую рассу, приходится признаться что не выходит, однако переходить на сторону мракобесов и нытиков не стоит, нет в этом смысла. Попробуем озвучить самую главную причину в чем же эта «невидимая стена» от которую все долбятся и почему то не понимают как её обойти\перелезть. У меня есть ИМХА на этот счет, но озвучу её позже, что бы не искажать чьё то мнение.
+2 | 0
Аватар
create
Главное препятствие в создании СИИ.
14:17 19.07.2021 14:20 19.07.2021 №1342
Читаю пока СИИ На подступах к сверхразуму - 2021 и делаю заметки на полях.
Цитата:
Разные авторы подчеркивают разные недостатки современных систем ИИ. Кто-то считает, что основной проблемой дпя них является приобретение новых навыков. Кто-то обращает внимание на нехватку надежности. Но все эти проблемы - симптомы одного свойства: недостаточной широты методов ИИ.
Цитата:
Проблема возникает тогда, когда методы, придуманные для решения узких задач в предсказуемой среде, начинают использовать широко.
"Широта методов ИИ" - откуда ей взяться? Это что некое свойство какого то алгоритма? Можно придумать такой алгоритм как MLP или RandomForest но чтобы он был "широкий"???
Цитата:
потому что чем конкретнее задачи, тем их больше, и каждая из них требует затрат на разработку. В результате и специалистов не хватает, и разработка и внедрение часто оказываются коммерчески неоправданными.
Цитата:
После «Алхимии» Дрейфуса другой известный философ, Джон Серл, ввел понятие сильного ИИ -то есть такого ИИ, который обладает всеми качествами человеческого разума: пониманием, самосознанием, субъективными переживаниями и т.д., -проведя границу между ним и слабым ИИ, который таковыми качествами не обладает. Серл полагал, что компьютеры принципиально не способны на сильный ИИ, что и пытался доказать на примере понимания естественного языка в своем мысленном эксперименте -парадоксе «Китайской комнаты», о котором мы поговорим позднее.
А разве не так у нас "в мозгах", не ловкий менеджмент над кучей узких алгоритмов? Кто вообще сказал что у нас(людей) этот самый GI(общий интеллект)? Каким способом доказать что у нас в черепушке не оттюненная за миллионы лет "китайская комната"? Может и нет этого самого "общего интеллекта", потому что тупо неоткуда ему взяться, кроме как на мета-материальной основе, что понятное дело абсурд, а всё реальное это обучение на примерах, когда как давно известно что все алгоритмы на примерах не очень "далеко" экстраполируют, только в окрестности.
Цитата:
Робот Эрик мог принимать разные позы, сидеть, стоять, двигаться. А кроме того, он разговаривал - голосом мог отвечать на вопросы, которые ему задавали. Правда, он знал ответы лишь на полсотни заранее заготовленных вопросов, но многие роботы и сейчас умеют не более того. Вот только Эрик был создан в 1928 г. Могли ли люди тогда, глядя на Эрика, подумать о том, что еще чуть-чуть - и роботы обретут сознание? Пожалуй, да. И они бы ошиблись.
Вот и сейчас ошибаются в тщетных поисках этого сферического коня в вакууме — AGI. ИМХО искать AGI – вполне по человечески, бы даже сказал что это правильно и амбициозно, но тем не менее это также перспективно как пытаться нарушить закон сохранения энергии, превзойти скорость света, или двигатель сделать без рабочего тела. Но сами подумайте если мы — интеллектуальные существа столько бьёмся над этим и вообще как горохом об стенку, то как это могла сделать природа??? У которой инструментарий предельно примитивный, один стохастический поиск без откатов, уж наверняка нет у нас в мозгах ничего сверх- мудрёного, это гарантированно. Однако природка нас превосходит вычислительными ресурсами, вполне возможно любую сложную логику аппроксимировать ансамблем простых модулей, что было и сделано.
Цитата:
Источник разногласий о перспективах и пуrях создания искусственного интеллекта кроется в интеллекте человеческом. Нейрофизиологи и психологи очень хорошо знают, насколько сложен феномен человеческого мышления, и сама идея воспроизвести его искусственно на компьютере без понимания того, как оно работает у человека, многим кажется нелепой. Технические же специалисты часто говорят, что ИИ может быть похож на человеческий интеллект не более, чем самолет похож на птицу. Но постойте, почему мы тогда вообще можем говорить о том, что создается именно интеллект? И из каких соображений он создается, если он так сильно отличается от естественного аналога? Самолет создавали авиаконструкторы, и орнитологи в спор об искусственных птицах с ними не вступали. Но самолет создавался с конкретной целью. А в чем же цель систем ИИ? Как отмечалось, эти системы должны решать задачи или автрматизировать ту или иную деятельность.
Цитата:
Если вместо вопроса: «Должен ли искусственный интеллект быть похож на человеческий?» - мы спросим: «Должен ли компьютер решать задачи теми же методами, что и человек?», то уверенно ответить «нет» будет гораздо проще.
Цитата:
Возможно, AlphaGo или MuZero обладают «пониманием » игры го и делают «творческие» ходы, но вряд ли в человеческом смысле этих слов. Да и разработчики данных систем вовсе не пытались наделить их творческими способностями и функцией понимания, как и не пытались доказать, что эти способности есть у их детищ. Они просто разработали системы, решающие некоторые задачи лучше человека. Почему это не может оказаться верным и для более сложных задач?
Вот опять всё сводится к нашим бытовым интуитивным интерпретациям, которые причем постоянно дрейфуют да так что скоро истинно человеческого мало чего останется, картины ИИ пишет уже вполне сносно, музыку тоже, всем ясно что скоро он будет это делать лучше человека, как и считать, потом книжки будет писать и кино начнёт снимать, лет через 10 это точно случится, но все по прежнему будут кричать ИИ — не СИИ.
Цитата:
Однако каждая конкретная задача наиболее эффективно решается своим частным методом, в идеале-точным алгоритмом, если таковой удается найти. Грубо говоря, компьютер, собирающий кубик Рубика по такому алгоритму, не проявляет ни малейшего интеллекта. Интеллект был проявлен разработчиком, придумавшим этот алгоритм. Но дело не в том, что компьютер действует по алгоритму, придуманному человеком (и потому якобы не проявляет творчества или интеллекта), а в том, что алгоритм сборки кубика Рубика полезен только для сборки кубика Рубика.
Цитата:
Сейчас есть множество приложений для искусственного интеллекта, но каждое из них требует человеческого труда. И труд этот в основном сводится не к развитию способности компьютера решать задачи, а к изучению предметной области человеком.
Да проблема ИМХО немного в другом. Не в самой предметной области а в данных, в том что бы их представить в виде удобного для ML датасеета, в этом пока основной труд и попаболь. Человек просто обладает сотнями разных "микро-навыков" которые и отличают его от ИИ, эти микро-навыки которые по сути сотни разных мелких ИИ, добрая половина из которых вообще генами завороженна и позволяет быть "ловким" в реальном мире и создавать иллюзию СИИ шности.
Цитата:
Если мы подумаем об этом в контексте вопроса «Чего не хватает существующим методам ИИ?», то становится очевидным, что их основной технический недостаток не в том, что они не являются сильным ИИ, а в том, что они являются узкими.
Так блядь! Шило сцуко поменяли на мыло, были "программисты" стали "разработчики", большая заслуга! Ребрендинг смотрю в наше время — это всё, позорище блядь. Да похуй как это не называй, суть в том что "широта\сила" это свойство не какой то супер формулы\алгоритма, а вообще только наша коллективная иллюзия, также как в наборе множества штрихов мы вдруг узанём лицо или манду, тоже и с этой "широтой\силой", посторой стены, крышу, дверь и опа! вдруг появился "дом", где он был до этого? Как в стене сделать свойство дома??? А никак, стена часть дома, а не дом свойство которое можно добавить стене.
Цитата:
Основная масса усилий в современном ИИ направлена на реЦIение узких задач. Здесь достигаются видимые успехи и приносится ощутимая польза. Однако более общие методы и методы решения более сложных задач при этом развиваются мало, хотя польза от них может быть неизмеримо больше. И сами собой общие методы из узких не возникнутони должны быть устроены по-разному.
Это ложь, да, "широкие методы" это алгоритмы этакого "менеджерского типа" которые по сути выбирают узкий алгоритм(ы) для решения конкретной задачи из широкого класса, но сами задачи будут решать узкие алгоритмы и широкие алгоритмы вряд ли участвуют в создании узких, широкие алгоритмы - не генератор алгоритмов узких, а только менеджер, свичер\роутер, сами узкие алгоритмы вероятней всего генерятся другим способом, вообще говоря редко они генерятся совсем с нуля, как правило это подбор из готового инструментария и немного стохастического поиска.
Цитата:
Как мы говорили, альтернативой узким методам ИИ является общий искусственный интеллект, который не лежит между слабым и сильным ИИ, а просто находится в стороне от них и определяется без отсылки к человеческому интеллекту как ИИ, способный решать широкий круг задач.
Цитата:
«Общий интеллект - это способность достигать сложных цепей в сложных средах». -Бен Герцепь
Цитата:
«Интеллект - это способность системы адаптироваться к своей среде, работая при недостаточных знаниях и ресурсах». -Пей Ванг
Цитата:
«Интеллект измеряет способность агента успешно действовать в широком диапазоне сред». - Шейн Легг и Маркус Xynep
Опять на мой взгляд антропоморфная иллюзия. "Сложная среда"… Снова намёки на то что нечто действует как бы с нуля и учится магическим способом всему. Нихуя блядь! Почти всё уже готово! Очень много есть захардкоженных скилов, под наш "реальный мир", наш GI – на 99% - "Китайская комната", которая заполнялась сотни миллионов лет. Какая нахер "сложная среда"? Человек уже не в состоянии предсказать совсем простые псевдослучайные ряды которые генерятся кодом из пары строк. Это не "сложная среда" а СЛОЖЕННАЯ, мультипоток из множества достаточно простых сигналов. С настоящей сложностью у человека и его "китайской комнатой" как раз большие проблемы, которые решаются чаще всего чисто случайно., обще видовым стохастическим поиском.
Цитата:
система, достигающая тех же целей, что и другая, но при использовании меньшего объема исходных данных или тратящая меньше вычислительных ресурсов, должна признаваться более интеллектуальной
Да, но опять же тут вопрос в том сколько и каких в системе готовых микро-ИИ, может так случиться что для данной задачи у системы просто готов ответ в виде заточенного под именно такой формат задач узкий ИИ, тогда интеллектуальности не так уж и много.
Цитата:
Если резюмировать все вышесказанное, общим интеллектом в AGI признается способность достигать целей в широком диапазоне сред с учетом ограничений (хотя настаивать на конкретных словах в этом определении не стоит). Среды могуr быть любыми - не только физическими, но и виртуальными, не только пространственно-временными, но и абстрактными.
Всё так, одна из важных задач в построении СИИ это именно генерация разных таких "сред", разных потоков данных с обратной связью, как говорится "от мала до велика", от простых к сложным, покрывающих весь диапазон сложности, с плотностью обратно пропорциональной сложности среды. Тысячи сред, может сотни тысяч.
Цитата:
Если мы зациклимся на конкретном физическом воплощении, есть риск уйти от общего интеллекта в набор специализированных решений, лучше человека приспособленных к некоторому фрагменту реальности, но катастрофически проигрывающих ему даже в тех вопросах, для решения которых человеческий мозг эволюционно явно не предназначался. Разве сможем мы такой ИИ, сколь бы хорошо он ни управлял телом, скажем, андроида, признать разумным? Именно поэтому указание на широкий диапазон сред оказывается столь важным.
Да, согласен на все 100%.
Цитата:
вики Интеллект - качество психики, состоящее из способности приспосабливаться к новым ситуациям, способности к обучению и запоминанию на основе опыта, пониманию и применению абстрактных концепций и использованию своих знаний АЛЯ управления окружающей средой. Общая способность к познанию и решению проблем, которая объединяет все познавательные способности: ощущение, восприятие, память, представление, мышление, воображение, а также внимание, волю и рефлексию.
Какая то бляцкая солянка из всего подряд, забыли юмор, эмпатию и сексуальность. Но к сожалению так оно и есть, тот "интеллект" что ждут все именно такой, соляночный по сути, агрегатный, нужна критическая масса способностей чтобы возникло это чувство распознавания общения с разумным существом.
Цитата:
Например, наша память тесно связана с эмоциями, оценкой информации и другими функциями, а воля зависит от множества факторов (начиная от природной чувствительности к вознаграждениям и издержкам и заканчивая умением разбивать волевую деятельность на маленькие шаги и управлять своим вниманием).
Цитата:
Например, наверняка общий ИИ должен иметь способность к интроспекции - анализу собственных мыслительных процессов или даже оптимизации лежащих в их основе алгоритмов. При этом у такого ИИ будет некий образ себя как часть картины мира. Но это не обязательно означает, что у него будет самосознание в философском смысле и уж тем более личность сродни человеческой, хотя по глубине рефлексии он вполне может и превосходить человека.
Да будет будет, нет в человеческой личности ничего такого сверхъестественного, интроспекция — процесс порождающий тн. "сознание" всё верно, но человек мониторить может очень малую часть того что происходит у него в нервной системе, это "сознание" очень слабое по пропускной способности.
Цитата:
Есть теории о том, что разные психические расстройства -это следствие чрезмерной адаптации (как генетической, так и через опыт) к очень специфической среде, приводящей к дезадаптации при смене условий. Например, повышенная чувствительность к издержкам, которая в перспективе может привести к депрессии, имеет смысл в среде, где мало возможностей и много рисков. А синдром дефицита внимания, по одной из гипотез, мог быть вполне функциональным состоянием для первобытного охотника, которому было важно быстро переключаться между Р.азными сигналами, чтобы заметить добычу или опасного хищника. А вот с развитием земледелия, требовавшего кропотливой рутинной работы, . он стал приводить к дезадаптации.
В том то и дело что люди в большинстве своём не контролируют свой ЕИ, 99% это наследство, поменять существенно почти невозможно, только из готовых кубиков собрать что то как бы "новое", или стохастический поиск также как у матушки природы, с чуть большим горизонтом поиска и некоторыми другим приёмами.
Цитата:
Наверняка у него будет многомерная система мотивации, включающая аналоги, например, любопытства и удивления. Но его вовсе не обязательно пытаться наделить всеми человеческими эмоциями. Хотя, скажем, для социальных роботов это может быть полезно, но даже они способны лишь симулировать чувства и эмоции, а не испытъшать их.
А что значит "испытывать"??? Ведь испытывать = воспринимать, распознавать, а это робот может, тоже касается "внутренних" проекций, если есть интроспекция в этом нет проблемы.
Цитата:
Мы можем назвать задачи, которые решаются современными методами ИИ, но не можем однозначно соотнести текущий уровень развития с рубежом, после достижения которого сможем утверждать, что полноценный ИИ создан.
Ну почему же не можем, можем, только это сформулировать это намного тяжелее, а точнее менее эффективно чем на примере показать. Нам людям "интеллект" был представлен на примерах и мы легко можем его распознать тоже как пример, по совокупности принаков. Конечно можно сделать фейк и надурить толпу, также как сейчас делают современную компьютерную графику не отличимую от реальности, будет много и "CИИ" в виде китайских комнат. Но нет ничего страшного что пару раз надурят.
0 | 0
Аватар
create
Главное препятствие в создании СИИ.
09:41 20.07.2021 №1345
Цитата:
Первой доминирующей парадигмой в ИИ бьmа парадигма мышление как поиск. Как и многие последующие подходы, она бьmа построена на представлении об устройстве естественного интеллекта, а точнее, на лабиринтной гипотезе мышления, заимствованной из психологии.
Цитата:
Поставьте неожиданное препятствие на пути муравья, идущего привычным маршрутом, или курицы, бегущей домой через знакомую дырку в ограде. Их поведение станет хаотичным. Они будут метаться по сторонам и тыкаться в любое подходящее отверстие или проход. И это поведение бессмысленно только на первый взгляд. Если проверенный путь закрыт, они будут искать новые выходы из ситуации, перебирая случайные варианты. Курица осуществляет этот поиск в физическом пространстве, а человек или шимпанзе способны осуществлять его в голове, но для каждого из них мыслительная деятельность может возникать как поиск в ответ на незнакомую ситуацию.
Стохастический поиск — самая простая но в тоже время масштабируемая эвристика, более сложные подходы возможно в чем то и выигрывают но из за трудностей масштабирования не могут конкурировать с стохастичским поиском, особенно в контексте тн. СИИ, где нужно что то хотя бы отчасти "изобретать" то есть находить новое.
Цитата:
Ключевой технологией здесь стали экспертные системы, которые одно время являлись чуть ли не синонимом понятия «искусственный интеллект». Это программы, обладающие экспертными знаниями в какой-то отдельной предметной области и использующие их для решения конкретных задач - вроде системы, которая знает устройство электростанции, или налоговое законодательство, или симптомы заболеваний сердечно-сосудистой системы и пользуется этими знаниями, чтобы предупреждать поломки генераторов, или оптимизировать налоги, или ставить диагнозы.
Цитата:
Экспертные системы оказались способными находить и объяснять решения задач, сформулированных на ограниченном естественном языке для узкой области. При этом поиск решения в таких системах превратился в проблему рассуждения на основе знаний, в котором усматривалась суть мышления. Узким местом при создании таких систем оказалось извлечение знаний, то есть наполнение базы знаний фактами и правилами о предметной области, на основе которых система уже могла бы, рассуждая, приходить к ответу на ставящиеся перед ней вопросы.
Ну вот пример достаточно эффективной технологии на "узком поле" под задачу, но не применимая в контексте AGI, по крайней мере не как часть самоадаптивной системы и для поиска новых знаний. Экспертная система по сути база данных для предметной области с неким удобным интерфейсом для взаимодействия. Всё надо добавлять ручками.
Цитата:
Тогда 􀀽ак правила, по которым рассуждают люди, выявить сложно, принятые ими решения напрямую доступны, так что в рамках экспертных систем естественным образом возникла задача автоматического извлечения знаний из наборов примеров, что оказалось не чем иным, как частным случаем машинного обучения
Машинное обучение и само по себе может имитировать экспертную систему, нет необходимости таких гибридов на раной концептуальной основе.
Цитата:
Дополнением к описанным методам стал агентный, или мультиагентный, подход, снискавший популярность в конце 1990-х. Агентов программируют так, чтобы они бьmи по возможности автономны, в том числе при получении данных для обучения, и демонстрировали адаптивное поведение в некоторой среде обитания. Среди прочего, они должны достигать своих целей в среде, взаимодействуя с другими агентами, помещенными туда же. Вместе с агентным подходом развивались и другие «автономные» направления, например обучение с подкреплением, аниматы или эпигенетическая робототехника.
Вообще большой вопрос в том на сколько отличается тн. "обучение с подкреплением"(ОП) от обычного обучения на датасете метки-признаки. Почему то выделяют ОП как нечто особенное хотя это совсем не так. ИМХО ОП по сути тоже самое, только вектора метки-признаки формируются динамически, "активно", то есть это только вид семплирования.
Цитата:
Эпигенетическая робототехника идет еще дальше в стремлении создать агента, который имитировал бы уже не животное, а, скорее, ребенка. Дети часто не способны хорошо выполнять даже простые задания, но зато умеют сами добывать информацию о мире, взаимодействовать с окружающей средой, обучаться и идти к своей цели методом проб и ошибок. Такой агент должен проходить несколько стадий в своем развитии, взаимодействуя со средой, при этом обучение должно быть накопительным и сложность задач должна прогрессивно возрастать.
Дети это результат тюнинга системы за миллионы лет, не нужно сравнивать, мотивации ребёнка это результат работы десятков модулей сформированных эволюционно, многие из которых в AGI нафиг не нужны, хотя наверно и придадут большую убедительность в антропоморфных версиях роботов.
Цитата:
В качестве одного из подходов в этом направлении рассматривались когнитивные архитектуры для систем ИИ уровня человека или систем, обладающих общим интеллектом. Хотя именно эта парадигма стала самым популярным направлением в зародившейся области общего ИИ, она так и не стала главенствующей в области «обычного» ИИ. Вместо нее на передний план вышло глубокое обучение - совокупность методов машинного обучения, основанных на обучении многослойным, или иерархическим, представлениям информации, на каждом последующем уровне которых выучиваются все более абстрактные свойства исходных объектов. Оно в значительной мере устраняло другую зависимость методов машинного обучения от человека, а именно необходимость инженерии признаков (то есть создания информативных признаков, коррелирующих с выбранной целевой переменной). Инженерия признаков сродни инженерии знаний, но уже не в экспертных системах, а в системах самого машинного обучения, где экспертами выступают сами специалисты по машинному обучению, анализу данных, распознаванию образов. Как и инженерия знаний, инженерия признаков оказывается весьма трудозатратной и не достигающей идеального результата.
Цитата:
Глубокое обучение не сделало компьютер полностью самостоятельным: оно заменило инженерию признаков на инженерию архитектур интеллектуальных систем, в частности нейронных сетей, которые реализуют определенные аспекты разумного поведения (например, обучение, память, планирование и т.д.). Инженерия архитектур, в свою очередь, может быть автоматизирована методами поиска архитектур, автоматического машинного обучения (AutoML) и метаобучения 5.
Ну вот, всё правильно, движемся в верном направлении в целом, конечно наступим ещё на сотню граблей, но суть верна, когнитивные(модульные) архитектуры с модулей на ML + системы поиска модулей под задачу( AutoML).
Цитата:
При всем разнообразии подходов и методов, использовавшихся в последние 60 лет параллельно, вместе и по отдельности, у них есть общий лейтмотив. Каждая последующая парадигма ИИ была призвана снизить зависимость интеллектуальных систем от человека.
Разумеется в этом и смысл. Но людишки особенно современные, очень тормозят с реальным инноваторством, сейчас циклическая фаза "конвеера", "пайплайна", эра "профессионалов", то есть узких специалистов нажимающих очень профессионально и сертифицировано на три кнопки. Образование сейчас поверхностное, ферментированное, вперемешку с маркетингом, общую картину и в принципы того что делают никто не вникает, это сейчас не модно. Все рассчитывают что некие "ученые" в каких то университетах что то нароют и напишут статью. А то что 99% этих "ученых" это студенты-аспиранты, у которых ещё молоко на губах не обсохло , это не беда, тоже типа конвеер. Короче Леонардо Давинчи и братьев Райт сейчас нет.
Цитата:
Символьный подход берет свое начало в философии, логике и математике и оперирует логическими правилами, знаковыми и символьными системами, которые интерпретируются в тер􀀿инах высокоуровневых мыслительных процессов человека. Суть в том, чтобы воспроизвести сознательное мышление человека, абстрагируясь от нейрофизиологических деталей его реализации в мозгу (условно, вместо самолета, хоть сколько-то напоминающего птицу, построить вертолет или ракету).
Какая нах ещё философия и логика??? Символы берут начало в потребности в коммуникации, Ааааааааааааааааааа!!! - это типа "шухер! зверь напал", с этого начались символы и язык. Символы и язык это закодированный в самом доступном виде окружающий мир, для коммуникации, которая позволяет координировать коллективные действия и создавать примитивное общество, это выгодно для всех участников. Примитивный язык это пара сотен слов, а 10-20 тысяч слов почти полностью покрывает "реальность" обычного человека, это по сути весь мир, модель мира, ~15000 сущностей, в пространстве, времени и отношении.
Цитата:
Метаобучение (англ. meta-leaming) - это «обучение обучению», то есть улучшение существующих или поиск новых, более эффективных методов обучения в процессе самого обучения. Данный термин применяется как в когнитивной психологии, так и в машинном обучении. В последнем случае метаобучение, как правило, выполняется на наборе задач. На их примере нужно построить такой алгоритм, который бы умел эффективно обучаться решению не только этих, но и новых сходных задач.
Вот только надо понимать что никакой магии в этом контексте сотворить не получится. Всё только набор способов представления задачи в "машино-воспринимаемый вид" то есть датасет метки-признаки и разные эвристики по разложения специфических данных в квази-ортогональные, как например иерархические данные с картинок что делают CNN.
Цитата:
Помимо названных концептуальных проблем, есть и частные. Решение многих более узких, но практически важных задач остается недоступным для существующих методов искусственного интеллекта. Так, например, семантический анализ текста на естественном языке и семантический анализ изображений - задачи, которые будут затронуты в разделе, посвященном метрикам, -находятся на таком уровне развития, что даже в рамках узкого ИИ требуется большой объем исследований для продвижения вперед. Для решения этих задач необходимо развитие как символьных и субсимвольных техник ИИ по отдельности, так и подходов, сочетающих в себе сильные стороны каждого из направлений, что требует не только прикладных, но и фундаментальных исследований.
Да, это важно и краеугольно для СИИ. Анализ символов и образов по отдельности не даст СИИ. Ну с образами в отдельности ещё можно понять, а символы в отрыве от образов это чепуха, разве что можно научиться грамматике языка и составлять с виду верные но бессмысленные предложения. А смысл то именно в релевантном образе в ответ на символьную цепочку, без этого мы далеко не уйдём.
Цитата:
Современные образовательные программы готовят инженеров, умеющих работать с существующими технологиями, а не творчески мыслящих исследователей, способных совершать новые прорывы.
Это точно, "западное образование" одним словом. Может в самых престижных вузах там и учат думать а не только запоминать то что в тренде, но большая часть вузов точно учит просто конвейерных рабочих максимально быстро делающих что то не особо напрягая ивилины.
Цитата:
Возникновение сверхинтеллекта выглядит закономерным в перспективе эволюции, как закономерно возникновение молекул из атомов, клеток из молекул, организмов из клеток, выделение специализированных клеток в центральную нервную систему, возникновение социальных структур, развитие речи, письменности и информационных технологий. Похоже, что оно неизбежно, если прежде наша цивилизация не погибнет.
Да, похоже что так.
Цитата:
Оценивая искусственный интеллект, мы можем подходить к делу с двух сторон. Первый вариант - когда мы ориентируемся на функциональность: насколько хорошо агент решает ту или иную задачу. Это подходящий способ оценки «узкого» ИИ. Второй вариант - когда мы ориентируемся на способности. Способн,ость означает, что агент может справляться с определенным спектром задач без предварительной подготовки к конкретному заданию (например, способность решать логические задачи или ориентироваться в пространстве). В идеале AGI должен быть именно таким. Между умением решать конкретную задачу и интеллектуальными способностями в широком смысле слова, вероятно, должен быть какой-то спектр промежуточных состояний, если одно в принципе способно перетекать в другое.
Мне кажется тут кроется лукавство, или не понимание того как это происходит у "способных" людей. Опять же всё сводится какая у кого заранее сформирована "китайская комната", то есть набор уже готовых навыков, комбинацией и которых можно решить "новую задачу". То есть речь чаще всего(на 99.99999%) идёт не о решении с нуля новой задачи а поиска по аналогии, близкой по тем или иным признакам и подгонки под новые данные. А совсем новое решается людьми, всей человеческой расой, очень туго, рандомно, нет у нас того AGI про который все говорят, иначе бы давно уже колонизировали галактику.
0 | 0
Аватар
create
Главное препятствие в создании СИИ.
10:08 20.07.2021 №1346
Prosolver:
Так в чём же главная причина, препятствие? Очевидно, главное препятствие в том, что люди применяют свой интеллект, вместо того чтобы изучать свой интеллект. Хотя ответы на все вопросы лежат у них под носом, в каждом акте своей мыслительной деятельности. Главное препятствие в неприменении рекурсивной, самоприменимой, самоподобной методологии.
Вы же слышали про такую тему что операции на мозгах делают без анестезии, так как там нет болевых рецепторов. Даже когда человеку удаляют большой кусок мозга он ничего особенного не чувствует, для того чтобы это осознать нужно например считать или делать некое действие, которое в какой то момент вдруг какбы "выключится" словно этого никогда не умел. Я это к тому нам сознательно очень многое не доступно и того что, и особенно КАК, происходит у нас в черепушке. Конечно интроспекция это важно, но увы крайне не достаточно.
Prosolver:
Могу назвать и некоторые второстепенные причины: 1. Люди смешивают и путают интеллект с другими проявлениями человеческой психики (эмоциями, сознанием, чувствами). 2. Люди слишком подвержены страстям и своим зависимостям, чтобы окунуться в решение задачи создания СИИ с головой. Это мешает надлежащей кооперации. Боязнь потери сиюминутной прибыли приводит к потере перспективной прибыли в виде СИИ. 3. Использование речи в качестве средства записи/обмена продуктами мышления. Речь - крайне плохое средство, оно неоднозначное, синонимичное, противоречивое. 4. Коммерциализация ИИ стимулирует создание целой индустрии фейков, которые ведут по ложным путям. Человек может годы потратить на "машинное обучение", чтобы в итоге понять, что никакого обучения здесь и близко нет. 5. Создание СИИ в рамках ложных идеологий. Мне очень нравятся умопостроения Александра Болдачева, но он не сделает СИИ, хотя он очень близок к этому, потому что он пытается делать СИИ в рамках концепции эволюционизма, как продолжение и объяснение эволюционизма. СИИ надо делать в рамках концепции СИИ, просто пытаясь искусственно воссоздать интеллект человека как он есть, а не в угоду какой-то идеологии.
1. Это так, мы воспринимаем "интеллект" как вообще весь комплекс человеческого поведения, я даже думаю если выключить эмоции, чувства, то такой СИИ тупо не пройдёт тест Тьюринга у большинства людей. 2. Тоже верно. Но скорее вопрос в том что масштаб работ грандиозен, да и даже если и собрать триллион$ на это, может и вероятнее всего так и будет, всё закончится неудачей, хотя подвижка будет безусловно, но многое ещё не изобретено, а изобрести по указке за бабки редко получается, за бабки можно масштабировать, развить, но не изобретать. 3 Речь крайне важна. Но нужно её совместить с образами, без этого никак. 4 ML - не ложный путь, а какие никакие подвижки на этом поприще. Проблема в том что это всё достаточно сложно и затратно по машинным ресурсам, экспериментировать очень накладно, развитие идёт медленно. Фейки это уже из другой оперы, где бабки везде полно мошенников. 5 Стохастическая оптимизация(эволюция) - универсальная эвристика, важная часть СИИ, природа так нас и сделала, однако повторить её путь нам не позволяет пока вычислительные ресурсы, их нужно в триллионы больше, поэтому мы пытаемся захардкодить уже готовые модули и ими управлять.
0 | 0
Аватар
create
Главное препятствие в создании СИИ.
10:12 20.07.2021 10:14 20.07.2021 №1347
Egg:
Нет никакой "стены", есть простое непонимание, что такое понимание. И не хватает мышления для мышления о мышлении. Нет никаких оснований полагать, что интеллект как инструмент способен описать интеллект. Но главная причина в том, что люди безнадежно тупы. )))
Тут не поспоришь, мы умны только в том что уже знаем что общество копило тысячи лет, а шаг в сторону и тупняк, в контексте нового мы ни чем не лучше курицы которая хаотично мечется на авось чтобы найти выход.
0 | 0
Аватар
create
Главное препятствие в создании СИИ.
11:07 20.07.2021 №1349
Egg:
Gather:
мы умны только в том что уже знаем что общество копило тысячи лет, а шаг в сторону и тупняк
Да. Интеллект социален и развивался как средство племенной коммуникации и координации. Именно поэтому ИИ/СИИ может быть совсем не похож на человеческий. Именно поэтому вопрос об общественности разума - ключевой. Может быть ли быть интеллект вне искусственной коллективной среды?
Язык и символьный интеллект безусловно явление социальное, без коммуникация и затем общества он точно бы не возник и развился у людей. Однако СИИ вряд ли будет делаться эволюционным путём, как это делала природа, скорей всего костылями, постепенно воспроизводя одни а другим модули и аспекты человеческой рефлексивности. Самому по себе СИИ не обязательно нужен будет социальный опыт в реальном времени, но при обучении его точно нужно будет симулировать, особенно если это будет коммуникативный робот. Потом он конечно может доучиться в процессе общения в реальном времени, что хорошо будет в СИИ, что опыт всех предыдущих можно будет переносить новым без переобучения.
0 | 0
Аватар
create
Главное препятствие в создании СИИ.
09:45 21.07.2021 №1373
Egg:
Gather:
Самому по себе СИИ не обязательно нужен будет социальный опыт в реальном времени, но при обучении его точно нужно будет симулировать, особенно если это будет коммуникативный робот. Потом он конечно может доучиться в процессе общения в реальном времени, что хорошо будет в СИИ, что опыт всех предыдущих можно будет переносить новым без переобучения.
Это перспектива очень далекого будущего. Пока мы имеем аппроксимацию вместо обучения. Проблемы с до- и пере- обучением сеток и деревьев. Вместо общения - марковское достраивание сообщения по миллиардным базам примеров. Вместо коммуникации и диалога - импликативные сети по ключам. И ничего из того, что я сейчас перечислил вообще никакого отношения к интеллекту не имеет. На сегодняшний момент нет никаких, даже самых минимальных представлений о механизмах интеллекта.
Да аппроксимация, но она же и у нас в мозгах происходит, только намного более так сказать проработанная, заточенная под всё множество модальностей восприятия и активность в среде. Потихоньку потихоньку, костыликами, один за одним идём к более объёмным моделям. Я не согласен с тем что мол всё что делается сейчас по ML "совсем мимо", я думаю это шаги.
Prosolver:
Gather:
совсем новое решается людьми, всей человеческой расой, очень туго, рандомно, нет у нас того AGI про который все говорят
Конечно, никакой мистики в интеллекте нет. Большая часть "наших" решений была рассказана нам кем-то и мы только запомнили и воспроизводим эти фокусы. Но ведь все конкретные точечные изобретения и открытия делались конкретными людьми, а значит каждый индивидуальный интеллект потенциально способен на большее, чем просто скопировать чужое поведение, или постоянно делать только ошибки. Меня вот сейчас интересует задачка построения искусственных умозаключений для игры в шахматы. Например, в ситуации, когда на поле два короля, любой скажет, что это ничья. Кто-то это скажет потому, что его обучили данному "фокусу" другие люди. А кто-то сделал это умозаключение сам. И продолжает делать открытия за шахматной доской самостоятельно. Вот если бы программа доказала (и поняла), что два короля на доске - это ничья, исходя только из самых минимальных знаний о правилах игры, это было бы, как мне кажется, весомым результатом при малых усилиях. Когда человек думает над позицией с двумя королями, он в процессе обработки вариантов, как мне кажется, на самом деле охватывает все возможные комбинации и дотрагивается до бесконечности. Вот в этой способности просто играючи охватывать большие комбинаторные множества без исключений (и даже саму бесконечность) кроется главная фича и сила интеллекта.
Всё так и разумеется те системы ML что сейчас имеются в наличии, очень далеки от нашего ЕИ, прежде всего ИМХО количественно, хотя частично может и качественно. Однако как говорится "раз в год и палка стреляет", в том смысле что всё же надо признать что такая штука как изобретательство это рандом, стохастический поиск, также как у примитивных животных которые не имеют готового решения, только у нас это делается более структурно, но суть та же. Я это к тому что именно в контексте AGI часто упоминают именно "моделирование новых сред". Шахматная задачка достаточно интересная, я думаю что "доказать" это перебрать все комбинации, если строго, но человек для себя лично на "здравом смысле" будет интуитивно уверен и за пару сотен примеров, иногда и пару десятков будет достаточно. :)
Luarvik.:
Легко рассуждать о вещах глобальных, отвлеченных, "высоко" абстрактных, о причинах космических масштабов ("и космической же глупости"), а между тем, на этих двух страницах вы продемонстрировали все самые "главные препятствия в создании ИИ" ))) Я бы мог перечислить их буквально по пунктам не отходя, как говорится, от кассы, но не стану этого делать по понятным, надеюсь, причинам.
А всё таки извольте, если не затруднит.
Влад:
Интеллект, это что, явление или способность, а может быть структура? Это тест на понимание, ориентировку в рассматриваемом форумом вопросе.
kondrat:
Интеллект - это точно явление, в котором, очевидно, присутствуют связность и повторяемость (структура), которая позволяет носителю интеллекта целенаправленно действовать (способнсть). Как их разделить?
Предлагаю разделять с одной стороны "интеллект" как образ, который мы узнаём общаясь с себе подобными, это очень комплексная штука, формально плохо определяемая, как "красота", "юмор", и "интеллектуальные функции\компоненты\способности" с другой стороны, например умение складывать, вычитать, распознавать образы - интеллектуальные функции. Моя ИМХА состоит в том что тот образ интеллекта как мы его понимаем на уровне здравого смысла, то есть то что должно пройти ТТ, это некая совокупность достаточно простых по отдельности "интеллектуальных функций" и некой мета-интеллектуальной(ых) функций над ними, своего рода агрегаторов, сборщиков. В итоге выходит весьма сложная система, описать в паре предложений её функциональность невозможно и не нужно, только на опыте на примерах можно её "внять".
Prosolver:
Gather:
интроспекция это важно, но увы крайне не достаточно
Речь идёт не только об интроспекции. В целом создатели ИИ, как я вижу, мало уделяют внимания изучению той деятельности, которая называется "мышление". Во внутренних и внешних своих проявлениях. Поэтому они не могут ни поставить нормальное техническое задание, ни определить, что такое интеллект, ни тем более сказать где он есть, где его нет, где его больше, где меньше. Нет общепризнанной метрики интеллектуальности или разумности. В этом я вижу главную проблему и причину. А Вы, кстати, обещали назвать свою версию главной причины, но так и не назвали.
"Мышление" как и "интеллект" часто люди смешивают и даже путают, мышление достаточно доступно нам в процессе саморефлексии, я бы определил мышление как одну из множества "интеллектуальных функций", задача которой по большей части в построении рассуждений на естественном языке и одновременном представлении их в цепочки образов. Это процесс моделирования посредством текстового нарратива, что даёт способ регулировать поток образных ассоциаций и даже создавать новые комбинируя имеющиеся, из разных полей проекции в мозгу. Это мощный инструмент моделирования и безусловно главный компонент отличающий наш разум от животных.
0 | 0
Аватар
create
Главное препятствие в создании СИИ.
11:15 21.07.2021 11:22 21.07.2021 №1376
kondrat:
А моя ИМХА заключается в том, что интеллект, конечно, попытается примерить на любую задачу самые привычные в данном контексте решения (самый эффективный подход). Потом посвязывает-пооценивает что-нибудь из других эшелонов привычности. А потом, вдруг, совершенно внезапно и параллельно (но не независимо!) предыдущим процессам проложит совершенно новый путь к решению. Настоящий интеллект должен всё это мочь.
"совершенно новый" вряд ли, разве что достижимый "методом тыка".
kondrat:
В отличие от Эгга, который думает, что всё произойдёт не скоро, я исполнен оптимизма. А основанием для этого является тот факт, что история подкреплений конечна, а совокупное (т.е. по всем особям) будущее гораздо продолжительнее. Понятно о чём я?
Не очень если честно :) На счет оптимизма я был бы по скромнее, реальная разработка это процесс ооочень топкий, порой даже на совсем очевидно-разрешимых конструкциях вязнешь на недели-месяцы, а когда вырастает франкинштейн в миллионы строк часть из которых написаны десятилетия назад на другом языке, всё становится совсем печально, а СИИ это именно про такой масштаб, возможно на порядки больший. Кто работал в крупных софтверных конторах где пишется софт вроде ОСок понимает о чем я.
0 | 0
Аватар
create
Главное препятствие в создании СИИ.
10:25 23.07.2021 №1397
Egg:
Prosolver:
Мне кажется что пара учитель-ученик - это уже достаточный социум, чтобы интеллект мог как-то работать.
Нет. К сожалению. Никакого минимального человеческого интеллекта не существует. Только социально-племенной. Если мы говорим о человеческом интеллекте. Единственном, который нам доступен в качестве образца. Но, разумеется, это не значит, что не может существовать интеллект другой природы, на другой элементной базе, с другими механизмами деплоймента. Я всегда делаю акцент на этом моменте потому, что он (пмсм) очень важен. Может быть - ключевой. В понимании работы мышления. То есть, я вполне допускаю, что интеллект может быть "унарным", но тогда не нужно привязывать к нему обучение через социальный контакт с учителями. Ведь учитель, это не тот, кто говорит "е равно эмцэ квадрат", а любой человек, которого наблюдает обучаемый, поскольку главное обучение - это простое подражание. ))) А "главные" нейроны - зеркальные. А главная эмоция - эмпатия. То есть эгоизм. )))
Prosolver:
Если знать - это уметь, то социум не может уметь. У него нет для этого актуаторов, манипуляторов. Умеет всегда конкретный человек, мастер. Поэтому высоко ценятся отдельные специалисты, умеющие что-то лучше других. Ручками шевелят конкретные люди.
Нет. "Конкретный человек" - это просто журналистский штамп. Умеет клеточный ансамбль, из которого этот человек состоит. Грубо говоря, конкретный маппинг нейронов, который входные данные рецепторов конвертирует в мышечные сокращения. То есть умеет социум нейронов. Снова социум. Только социум. А слово "человек" мы используем для его обозначения. Ровно также (как аналогия) в вопросе знаний и технологий умеет социум. Через маппинг отдельных персон и личностей. Человек - это актор социума. В этом месте вообще нет противоречий.
Согласен, нужно учиться обучать мл-ки не просто образам, а логике подражания, я бы кстати не говорил о тн. "зеркальных нейронах", ИМХО это очень навороченные нейрокомплексы, может они заканчиваются какими-то нейронами которые возбуждаются на некий стимул или поведение, но как они к этому пришли, ещё большая загадка. Так вот например есть агент в среде, ну типа "обучение с подкреплением", агент накапливает динамически датасет метки- признаки, то есть например что то он видит как то действует и бобо, а потом по другому действует и кайф, образ в виде вектора это фичи, бобо\кайф - таргет, это понятно нам, но как той же логике обучить на примере другого агента, путём наблюдения??? Да так чтобы без костылей, одной нейросеткой? Как соотнести чужие действия со своими и чужое бобо\кайф со своими?
Luarvik.:
Gather:
А всё таки извольте, если не затруднит.
Моё сообщение №1351, которое было ровно по теме, Вы не особо задумываясь удалили без объяснения причины. И чего Вы ещё хотите ? Чтоб я метал тут бисер ?
Так там виидос был по моему стёбного характера, ещё и длинный, хотя бы подписали выводы которые вы сделали, но честно вам скажу эмоциональный негативизм и стёб скорей всего буду в последствии удалять, при всём уважении. Если не заинтересованы в поисках устройства СИИ, так и скажите, мол считаю что это бесперспективно, по такой то и такой то ОБЬЕКТИВНОЙ причине и идите на другой ресурс где вы можете сделать КОНСТРУКТИВНЫХ ВКЛАД. Моя ИМХА в том что СИИ возможен, но это очень сложно технически, порядок сложности примерно как Марс колонизировать. Но это очевидно осуществимо.
kondrat:
Gather:
"совершенно новый" вряд ли, разве что достижимый "методом тыка".
Да. К тому же, ещё и тыка в правильном направлении, но такого, что никакие привычные правила/методики его не подскажут. Кроме одного: сделай что-нибудь не так, как всегда, даже если страшновато. К сожалению, чисто стохастическая методика не годится для определения, что и когда сделать не так. Но с точки зрения элементарного рефлектирующего агента нужно сделать "так" ровно столько раз, сколько раз получал подкрепление этой связки и один разок сделать не так. Всё немного сложнее, конечно. Но выбирая место и частоту исходя из отношений количеств и весов негативных и позитивных оценок, можно добиться успеха, кмк. На ансамбле таких независимо действующих агентов эффекты должны выглядеть сложнее. Разработка такой среды не очень сложна даже в распределённом варианте, а вот создание внешних оболочек, в которых она будет приносить пользу, а не кошмар, - это вопрос. Я тут подумал, что и для изменчивости ДНК космические лучи не обязательны. Она тоже может меняться целенаправленно, без ущерба для базовых функций и без участия внешнего по отношению к организму отбора..
Да, "метод тыка", стохастическая оптимизация, это универсальный и очень многоликий инструмент, его можно сделать иерархическим и настолько комплексным что даже человек не узнает его воплоти. И в отличии от природы у нас намного шире пространство для манёвра, другой вопрос что более эффективные эвристики часто теряют универсальность и масштабируемость. Я не микробиолог, про мутагенез ДНК не в курсе, по идее мутации могут возникать и сами собой, среда то "там" очень так сказать "дёрганная" там всё вибрирует и держится на "магнитиках", куча воздействий вокруг, честно говоря вообще очень удивительно что этих мутаций так мало.
Egg:
Gather:
Да аппроксимация, но она же и у нас в мозгах происходит, только намного более так сказать проработанная, заточенная под всё множество модальностей восприятия и активность в среде. Потихоньку потихоньку, костыликами, один за одним идём к более объёмным моделям. Я не согласен с тем что мол всё что делается сейчас по ML "совсем мимо", я думаю это шаги.
В том-то и дело, что к моделям не идем, модели все остаются за границами ML, где они представлены только набором векторов/features. Сами эти фичи ни где и ни как не описаны, а жестко зашиты в структуру input data. Все разговоры о трансферах остаются разговорами и учебными примерами. Ровно также слабо работает few-shot, а для человеческого интеллекта - это базовое умение. И так далее. Проблема именно в этом, ML/DL работает с данными, а не моделями. Не видел я ничего, чтобы описывало модели, их генерацию и обработку. Всякие OWL и прочие upper не в счет, так можно сказать, что механизм protobuf - это работа с моделями... )))
Я лично воспринимаю ML как путь к СИИ, также как линейной зависимостью в мат-анализе в пределе бесконечно малых можно описать любую нелинейно функцию, в один или несколько проходов. Природа это сделала именно так, отдельный нейрон работает достаточно просто, а сетки из них возникли стохастическим поиском, то есть всё достижимо простым "методом тыка", нужно только понять что моделировать, выписать весь спектры человеческих скилов от важных до не очень и начать их пилить, максимально простым и желательно однообразным способом.
Prosolver:
Gather:
"доказать" это перебрать все комбинации
Не согласен. Человеку достаточно один раз понять правило и дальше он сможет решить аналогичную задачу даже на бесконечной шахматной доске, где про "перебор" речи быть не может.
Если мы говорим про конкретно шахматы, то строго доказать что та или иная позиция больше полностью обречена, можно только ПОЛНЫМ ПЕРЕБОРОМ. Те или иные соотношения фигур и их позиции могут только повышать\понижать вероятность успеха, создавать\нивелируя преимущество, но только в совсем тривиальных ситуациях(2-10 вариантов до окончания) можно ограничить в ноль пространство для манёвра. Игра такая, переборная. Чем больше доска тем больше могут возникать разных эвристик, вроде соотношений фигур их кластеризаций на доске и тп. Не вижу принципиальных проблем в том чтобы ML этому не научился. Тут одновременно и аппроксимация и перебор. чем больше доска тем больше аппроксимации, че меньше пространство вариантов, как в конце игры тем важнее перебор и просчет на несколько шагов в перёд.
rrr3:
kondrat:
rrr3:
Склонность к мутациям в относительно определенных участках ДНК, можно обеспечить пока лишь у бактерий.
Я про самомодификацию говорю. У меня есть подозрение, что этот механизм существует испокон, просто, на него пока не обратили внимания, считая каким-нибудь побочным эффектом, например. Он нужен, иначе эволюции придётся шагать по слишком высоким ступеням.
Направленная самомодификация?! (Уж не о Всевышнем ли Вы...?) Если считать, что онтогенез организмов, это как у часов, шаг в сторону, прыжок на месте, расстрел, то да, либо направленный мутагенез, либо очень огромные ступени. Но дело в том, что онтогенез можно рассматривать, как эволюционный процесс (на своем уровне) в течение этого онтогенеза. Тогда не требуется ни больших ступеней, ни кем-то "самонаправленный" мутагенез.
Ещё раз повторю я не микробиолог, но ИМХО например сам принцип скрещивания генов половым способом - вид направленной мутации. Своего рода эвристика, как в генетических алгоритмах. Например в алгоритме "имитация отжига" тс. "без половой отбор". На сколько мне известно весь процесс репликации ДНК на все 100% ещё не изучен, много ещё непонимания как какие гены работают, известно что не малая часть из них тригерная, логическая, то есть одни гены включат\выключают другие пре тех или иных условиях, а раз так то сами собой могут возникать участки более мутабельные так как они более сложно кодируется, через множество тригерных генов, которые тоже могут быть повреждены.
0 | 0
Аватар
create
Главное препятствие в создании СИИ.
10:51 24.07.2021 10:51 24.07.2021 №1419
Немного реплик в ответ на чтение СИИ На подступах к сверхразуму - 2021
Цитата:
• Поставить перед ИИ какой-то набор контрольных заданий. Тут возникает проблема, связанная с тем, что этот набор обычно известен заранее, а иногда разработчики заранее знают и решения, и в этом случае мы скорее замеряем интеллект тех, кто программирует ИИ. Эту трудность можно обойти, если выдавать программе случайно выбранные задания из очень большого или бесконечного множества, но тогда возникает другая сложность - как создать большое множество реалистичных задач. • Пустить соревноваться друг с другом, например играть в какую-нибудь игру. Сложность здесь в том, чтобы получить объективную оценку эффективности систем, ведь в разных соревнованиях будут разные оппоненты со своими результатами. Если хоть часть игроков в соревнованиях совпадает, то можно ввести систему рейтингов. Но если оппонентов как-то стандартизировать для удобства оценки, новая система может специализироваться под конкретного оппонента, вместо того чтобы развивать «широкий» интеллект. • Поставить перед ИИ задачу выдать себя за человека (имитационная игра). С одной стороны, это выглядит как максимально амбициозная задача, с другой -здесь мы попадаем в ловушку антропоцентричности. Искусственный интеллект необязательно должен быть «человекообразным », чтобы подходить под критерии интеллекта. Кроме того, судьи-люди субъективны, и часто их убеждает хорошая внешняя имитация поведения, а не проявленный программой интеллект.
Вообще приходится признать что на 100% нельзя быть уверенным никогда что не имеем дело с какой то подгонкой, вроде "китайской комнаты". Также как в отношении целей AGI в виде "решения каких угодно задач, или адаптации к произвольным средам", нам нужно отказаться от мнения что можно гарантированно узнать СИИ. Могут быть только эвристики по поводу эффективности заложенных моделей, вроде "бритвы Оккама", МДО и тп. ясно что в чистом виде "китайская комната" очень не эффективна, многое можно подсжать, а если импровизировать способ её автоматического заполнения, вообще — красота!
Цитата:
Например, когда мы говорим об эмоциональном интеллекте (EIQ); мы включаем в это понятие целый ряд способностей: чтобы считаться человеком с развитым EIQ, надо уметь распознавать свои и чужие эмоции, моделировать в уме поведение и мотивации других людей, влиять на собственное и чужое эмоциональное состояние, используя разные инструменты в зависимости от контекста, и т.д.
Да, есть десятки всяких модулей, которые нам как бы "естественны" и потому не видимы. Не осознаваемы, также как воздух для нас или вода для рыб, посмотрите сколько времени прошло чтобы догадаться что существует гравитация??? А всё почему? Потому что не было примеров где её нет! Наш мозг аппроксимирует также как и обычные алгоритмы машинного обучения, то что вообще "вне выборки", даётся ооочень с трудом и в основном случайно. В этом одно из существенных препятствий на пути к СИИ, осознать то что в норме не осознаваемо.
Цитата:
Главное достоинство теста - произвольность разговорных задач. В хорошо поставленном тесте затрагиваются разные темы и моделируются разные поведенческие ситуации (собеседник может перебивать, переспрашивать, задавать дополнительные вопросы, шутить и т.д.), и его поддержание требует как знания правил языка и общей эрудиции для релевантных реакций на реплики собеседника-человека, так и понимания определенных социальных контекстов. И у судьи есть достаточно времени, чтобы оценить собеседника. Так что машина, претендующая на победу, должна бЬVIа бы обладать широкой картиной мира, использовать естественный язык, рассуждать, обучаться и понимать контекст.
Создание таких систем уже достаточно сидьно размоет границу СИИ — ЕИ, но ИМХО это дело не ближайшего десятилетия.
Цитата:
Приведем несколько примеров в порядке возрастания сложности. «Банковский тест»: ИИ должен взять кредит в банке на выбранную им цель, заработать денег легальным способом и вернуть его с процентами. «Тест студента» Бена Герцеля: искусственный интеллект поступает в университет, посещает те же занятия, что и обычные студенты, выполняет те же задания и получает соответствующую степень. «Тест на профпригодность» Нилса Нильссона: машина выполняет экономически важную работу на том же уровне, что и профессионалы в данной области (фактически являясь полноценным Narrow AGI). Artiflcial Scientist Test: компьютер совершает оригинальное научное открытие. Nobel Prize Test: машина получает Нобелевскую премию.
Лет через 50 -100 только первый пункт.
Цитата:
Еще одним критерием достижения AGI может быть решение ИИ-полных задач17 • К ним можно отнести понимание естественного языка, компьютерное зрение, рецензирование научных статей.
По видимому снова не понимания масштаба задач, сравнивается не сравнимое, "компьютерное зрение" — задача вполне решенная, если под качеством её решения ней понимать точность распознавания. Понимание ЕЯ — с другой стороны задача совсем другого калибра, чтобы что то "понимать" нужно вначале иметь антропную модель мира, что пока за пределами, "понимание" это когда некая символьная цепочка описывает что то лежащее в антропной модели и система это распознаёт, нет модели нет понимания. Тоже касается и рицензирования, нужно понимать текст да ещё и научный, расширенный по сравнению с обычным бытовым.
Цитата:
Вообще, любая комплексная задача, включающая в себя воз􀁕 никновение непредвиденных обстоятельств (например, очень популярна сейчас задача беспилотного управления автомобилем), требует интеллекта уровня как минимум Narrow AGI. К сожалению, понятие ИИ-полноты слишком расплывчато, чтобы служить четким критерием. Например, мы легко можем согласиться, что «настоящее понимание текстов» невозможно без полноценного AGI, но это убеждение ничего не говорит нам о том, как проверить, что понимание- настоящее. Даже в случае с беспилотным автомобилем может оказаться, что можно обойтись без Narrow AGI. Хотя нам и кажется, что такой автомобиль должен правильно .реагировать на непредвиденные ситуации, но в норме этих ситуаций сравнительно мало.
ИМХО не нужен AGI для автоматического управления ваттомобилем.
Цитата:
ИИ-полная задача (AI-complete) - термин, предложенный математиком Фанья Монтальво. Это задача, которая не заключается непосредственно в создании ИИ, но решение которой без полного интеллекта, близкого по уровню к человеческому, представляется невозможным.
Эти задачи всё будут сокращаться, пока вовсе не исчезнут, но всё равно останется не мало мракобесов которые будут кричать "это — не СИИ а только ИИ"
Цитата:
Итак, мы можем определить коэффициент универсального интеллекта как значение получаемых агентом суммарных наград во всех вычислимых средах, взятых с весами, убывающими с дпиной их программ.
По видимому это правильно.
Цитата:
Существуют и более ограниченные тесты, отталкивающиеся от той же идеи алгоритмически произвольных закономерностей. Например, тест Abstractive Reasoning Corpus21 представляет собой набор визуальных заданий, выполняемых на квадратной сетке, клетки которой могут иметь один из десяти цветов. Каждое задание представляет собой набор из двух-трех пар сеток, где первая сетка представляет собой «вход», вторая - «выход» или «результат». Трансформация из «входа» в «р􀁣зультат» осуществляется с помощью некой высокоуровневой операции (заранее неизвестного алгоритма), разной для каждого задания. Задача тестируемой системысгенерировать абсолютно правильную «результирующую» сетку для каждой новой входящей, увидев несколько примеров таких трансформаций.
Вот с такими задачками снова многое зависит от не очевидных человеческих микро-скилов которые были приобретенных за жизнь, разные пространственные, логические и тп. Если они будут у робота, то он справится не хуже человека, если нет то не справится и это не будет значить что "он хуже" просто нет соответствующего инструмента.
Цитата:
Некоторые специалисты полагают, что измерение частичного прогресса в AGI и в целом крайне проблематично, потому что это эмерджентная система25, которая не будет проявлять свойств AGI до тех пор, пока она не будет построена целиком (подобно тому, как, воссоздавая человеческий мозг по кускам, мы не можем оценить результат до самого последнего шага).
Цитата:
Так что исследователям пока приходится самим качественно оценивать прогресс в AGI на основе текущего понимания интеллекта как комплексной проблемы и постепенно углублять это понимание, а не слепо полагаться на его оценку по каким-либо стандартизованным метрикам. Ведь, например, мы не смогли бы попасть в космос, строя все более высокие здания или более высоко летающие самолеты, - здесь потребовалось качественно иное решение. Да и прогресс в науке в целом плохо измеряется формальными индикаторами и показателями.
Нет, как раз таки человеческий мозг возникал эволюционно по чучуть и на каждом этапе можно проверить прогресс, в этом нет проблемы, возьмите червя, улитку, рыбу, мышь, кошку, обезьяну и человека, всё идёт последовательно, инкрементно. Качественных скачков не было ни на каком из этапов.
Цитата:
В первую очередь, стоит назвать универсальный алгоритмический интеллект, который представляет собой подход «сверху-вниз», начинающий с попытки формализации определения интеллекта в области общего ИИ и построения на этой основе модели с доказуемыми свойствами оптимальности.
Определение интеллекта — гиблое дело, есть сущности которые можно определить строго и лаконично, а есть которые нельзя или это делать не эффективно, чаще всего это зависит от сложности. Простым сущностям(2-7 структурным компонентам) легко дать определение, сложным(>10-20) давать определение не так осмысленно, придётся кластеризовать компоненты им дать свои определения и тп и всё равно это будет не убедительно. Короче некоторые сущности проще "показать", это восточный подход, созерцательный, "смотри!".
Цитата:
Представим себе квадратную таблицу, где каждая строчкаэто какое-то слово из словаря, созданного на основе большого массива текста (например, «Войны и мира»). Слова следуют в алфавитном порядке. В столбце все то же самое, только по вертикали сверху вниз. В ячейке на пересечении столбца и строки пишется количество раз, которое слово из строки встретилось в тексте рядом со словом из столбца (рис. 13). Эти ячейки и становятся координатами вектора. Допустим, слово «Наташа» встретилось рядом со словом «Андрей» 100 раз, со словом «пение» - so· раз, а со словом «дуб» - ни разу. Если записать первую строку таблицы как (1; 50; 100), получится трехмерный вектор, кодирующий смысл слова «Наташа ». У таких векторов есть специальный математический показатель схожести под названием «косинусная близость». Если семантические векторы двух слов «косинусно близки» по отношению друг к другу, эти векторы принадлежат словам, близким по смыслу. Использовать метод распределенных представлений обычно гораздо удобнее, и это приводит к лучшим результатам, чем представление слов методом one-hot. Более того, оказывается, что такие векторы часто обладают интересными свойствами: простые геометрические соотношения между ними моrуг иметь грамматический или семантический смысл. Например, если вычесть вектор слова «художник» из вектора слова «художница», получится абстрактное представление о роде, выраженное в числах. А если эту разность прибавить к вектору слова «кот», то получится, скорее всего, «кошка».
Цитата:
Для машинного перевода, диалоговых агентов и других задач, где нужно не только на входе, но и на выходе получить последовательность текстовых единиц, обычно используются архитектуры вида «кодировщик-декодировщик» (encoderdecoder). ,Гpyбo говоря, энкодер сворачивает текст в формат вектора, выжимая из него всю важную информацию, а декодер разворачивает вектор обратно в текст.
Таск себе если будет свободное время, создать текстово->языковой преобразователь, то есть на вход корпус текстов, на выходе грамматика языка и ряд других характеристик, что стало "понятно" о языке. Вообще интересует какие "выводы" из текста может сделать ML, чисто из текста без какой либо априорной инфы, структура языка, количество "смыслов" в текстах и тп.
Цитата:
Это происходит главным образом потому, что, хотя современные языковые модели прекрасно обучаются собственно языку, точнее грамматическим и семантическим зависимостям между отдельными словами, и способны учитывать эти зависимости в течение длительного времени (например, развивать в порождаемом тексте одну и ту же тему на протяжении нескольких абзацев, как GROVER), они все же не содержат никакой модели окружающего мира, то есть базовых знаний, уложенных в здравый смысл, имеющийся у каждого человека.
Цитата:
Нейросетевые модели работают с токенами (текстовыми единицами), «смысл» которых выводится сугубо из статистик совместной встречаемости в текстах. Можно дискутировать о том, возможно ли в принципе только из текстов извлечь представление о физическом мире, достаточное для «понимания » пространственно-временных и причинно-следственных отношений между объектами, но существующие NLР-модели этого точно не делают. Современный чат-бот вряд ли сможет сказать, с какой стороны ему виден большой палец на правой руке стоящего напротив собеседника, или ответить, как вернуться назад, если вы прошли три квартала на запад, а потом четыре на север. В связи с этим интересны задачи, которые помимо текста используют и другие модальности, например задача визуальных диалогов, и которые предполагают необходимость построения если не модели мира, то хотя бы какой-то привязки текстовых единиц к реальности.
Цитата:
Как обучить такую модель, пока не вполне ясно, и это остается одной из центральных проблем в обработке естественных языков, которая пока не позволяет двигаться в сторону AGI.
Это в точку. Одно из ключевых препятствий в создании СИИ, на ряду с чисто техническими масштабными проблемами разработки как минимум многих десятков отдельных аспектов\модулей, человеческого сознания и затем не менее сложной задачи сведения их в единую систему.
Цитата:
Интеллект выражается в том числе (а может быть, главным образом) в том, чтобы обучаться делать выводы по небольшому набору данных.
Цитата:
• модели, способные обучаться на очень малом числе примеров или вовсе без них (few-shot, one-shot и даже zero-shot learning); Вот это ИМХО не так важно. В чем собственно проблема? Почти любой алгоритм ML можно затюнить обучаться по одному семплу, да хотя бы просто размножив его с модификацией или без. Человек же воспринимает реальность в цикле, это аналогично и в коде "game loop”, любой реалтайм программируется через цикл, то есть то что агент "видит" один раз, на самом деле это сотни\тысячи семплов, вполне себе нормальный датасет для обучения. Особенно если учесть кучу априорной информации в багаже, которую можно вытянуть на данный семпл и добавить как дополнительные семплы, чтото типа как в GAN-ах.
Цитата:
Но делает она это при помощи огромного количества вычислений, играя сама с собой миллиарды раз
Это известный приём, кстати довольно не плохой. • модели, которые используют неразмеченные наборы данных для предобучения, -например, исследователи Google Brain в 2019 г. смогли улучшить качество классификац11и на lmageNet, использовав в качестве дополнительной информации большой датасет неразмеченных фотографий. Однако такие подходы, как правило, требуют на порядки больше вычислительных мощностей, что, как мы только что видели, вряд ли сможет и дальше неограниченно масштабироваться; Очень правильно. Вообще логично поднажать на разного типа трансфер-лерновые технологии, ведь сила ЕИ, в том числе и животного, это именно в умении использовать навыки из разных доменов и модальнотей восприятия и реагирования в других контекстах\задачах. Это логично так как многое в мире аналогично, повторяемо, поэтому вполне резонно новые задачи решать не сразу с нуля и попробовать в начале найти что то похожее и похафиттить под новуз задачу. • использование для обучения синтетических данных - например, для задач компьютерного зрения можно создавать искусственные наборы данных с идеальной разметкой при помощи ЗD-графики. Однако при этом возникает дополнительная задача переноса обученных моделей: идеально реалистичной ЗD-графики пока не существует, и нельзя без дополнительных ухищрений рассчитывать, что обученная на «мультфильмах» модель будет хорошо работать на настоящих фотографиях.
Тоже считаю — очень правильно! Компьютерная графика дешевеет и становится очень близкой к реальности, в недалёком удущем это будет основной источник данных для обучения систем машинного оучения.
Цитата:
Отсюда вытекают основные задачи при создании когнитивной архитектуры: 1) определение списка моделируемых функций (в него могут входить распознавание, категоризация, внимание, планирование поведения, обучение, рефлексия, рассуждения и т.д.); 2) определение набора моделей или теорий «первого уровня» (например, нейрофизиологические данные о строении неокортекса или когнитивная теория внимания), которые будут служить источником основных гипотез при моделировании выбранных функций; З) выделение основных подсистем, определяющих работу выбранных функций, на основании сформулированных гипотез; 4) построение математических моделей работы выделенных подсистем и разработка «протокола коммуникации» подсистем в рамках общей архитектуры; 5) добавление недостающих компонент для погружения в экспериментальную среду, в которой будет проводиться тестирование созданной архитектуры, то есть сравнение работы моделируемых ею когнитивных функций с тем, как эти функции работают у человека.
Да, это путь к СИИ. Просто нужно пилить шаг за шагом, компонент за компонентом, задача масштабная очень, но и цель - "нихуя себе!"
Цитата:
В области AGI биологическая или психологическая правдоподобность является не основным, а вспомогательным критерием, так как цель здесь заключается не столько в моделировании человеческого мышления, сколько в создании систем, способных решать широкий круг задач.
Я уже говорил что этот "широкий круг задач" на деле "широкий круг микро-ИИ под каждую из них и подобных в близкой окрестности", ну не решат наш ЕИ этот "широкий круг задач", это иллюзия, фокус, так нам кажется и гордость этому спосоствует.
Цитата:
Рабочая память - когнитивная подсистема, отвечающая за временное хранение информации, доступной для обработки. Она играет важную роль в принятии решений и выборе поведения (например, когда вы выбираете из дел на сегодня приоритетное). Эпизодическая память - отвечает за наши личные воспоминания (например, помогает вспомнить, что мы ели на завтрак или как провели выходные). Декларативная память - тип долговременной памяти, в которой, 􀁁ак некий «багаж», осознанно сохраняются имеющийся у нас опыт или информация (например, когда вы решаете квадратное уравнение на экзамене и вспоминаете необходимую формулу). Семантическая память - система декларативной памяти для хранения и использования обобщенных знаний о мире. Благодаря ей мы помним, что в сутках 24 часа, а Лондон - столица Великобритании. Эта память хранит как вербально выраженные знания, так и взаимосвязи между ними и правила их применения. Процедурная память - вид недекларативной (неосознаваемой) долговременной памяти, в которой сохраняется опыт выполнения нами каких-либо действий. Например, там «хранятся » наши навыки плавания и езды на велосипеде. При этом мы не можем объяснить словами, что именно нужно делать, чтобы поехать на велосипеде, но почувствуем это интуитивно, как только на него сядем. В основе работы когнитивных архитектур лежит когнитивный цикп, включающий как минимум восприятие, осмысление, принятие решений и контроль над выполнением действий
Вот вот, всё верно, есть аспекты нашей умственной деятельности, выделяем боле менее явные модули и пилим. Природа это делала методом тыка, направленного через отбор воздействием внешней среды которую нужно было предсказать, нам пока придётся это делать вручную, так как природный путь повторить не получится, силёнок нет пока.
Цитата:
Если когнитивная архитектура включает достаточно широкий спектр моделируемых когнитивных функций и предназначена для решения широкого круга принципиально различных задач, можно считать ее реализацией общего искусственного интеллекта.
Всё так. Это будет СИИ во всех смыслах.
Цитата:
И многие, несмотря на гибридность, не решают ключевую проблему общего искусственного интеллекта -проблему привязки символов (то есть соотнесения теоретической информации с реальной жизнью).
Ну почему же? На ряду с "определением интеллекта" ИИ-шники всего мира любят заморочиться над проблемой "смысла" и "понимания", но в отличии от "интеллекта", "смысл" легко определить как проекцию символа на образ, вроде:
И всё в принципе, это главное. Можно конечно это дело усложнить, также есть другие коннотации смысла в виде "цели" и тп. это уже не суть, синонимизмы и разного рода вербальные смешения, а тот смысл о котором все спорят это протекция символа в образ(цепочку действий и тп.)
Цитата:
На текущий момент стоит отметить снижение интереса к когнитивным архитектурам, что вызвано двумя основными причинами. Первая заключается в слабой интеграции субсимвольных и символьных подходов, особенно в настоящее время, когда успехи субсимвольного нейросетевого подхода мoryr вызвать впечатление, что «символьная добавка» не играет ключевой роли для моделирования даже сложных функций (например, рассуждения на основе глубоких нейронных сетей). Вторая проблема состоит в том, что существует определенная произвольность в выделении ключевых подсистем, зачастую из-за большой неточности теорий об устройстве человеческого интеллекта. Тем не менее ряд когнитивных архитектур продолжает активно развиваться, в том числе решая и практические задачи.
А кто говорил что будет просто??? Это очень сложно и трудоёмко, как колонизация Марса, поэтому будет продолжать долго с многочисленными периодами "лета и зимы". Дипсетки конечно -круто, но увы вот так просто пытаться сложные разнородные данные засунуть в сетку что бы она сама бкпропом всё разрулила, это бред, наивняк. Только отдельные аспекты реальности, для построения модулей, а потом нужно решать как эти модули объединить, что тот ещё квест, по сложнее чем разработать алгоритм бэкпропа, когда его ещё не было.
0 | 0
Аватар
create
Главное препятствие в создании СИИ.
11:26 24.07.2021 №1420
Prosolver:
Gather:
строго доказать что та или иная позиция больше полностью обречена, можно только ПОЛНЫМ ПЕРЕБОРОМ
Два короля на доске - это ничья. На бесконечной доске. Здесь перебор, действительно нужен, но не всех комбинаций фигур, а только всех способов их взаимодействия. Достаточно понять только, что король не может поставить мат другому королю, поскольку ему надо подойти к нему на расстояние одной клетки и тем самым оказаться на клетке под шахом. А шах запрещён. Вот такого рода умозаключения делают интеллект ценным. Когда полный перебор вариантов можно заменить "умным" перебором только тех вариантов, которые имеют отношение к делу.
А вот теперь давайте прикинем сколько априорного багажа у такого ЕИ для этого должно быть. Мне кажется весь "белеск" нашего ЕИ именно в этом. Это как когда подружка иногда задаёт "тупые вопросы" как там в компе что то сделать, зарегистрироваться где то, или в ОС что то потюнить, нам чуть более прошаренным в этом кажется порой что это капец как очевидно, а нет на самом деле, мы просто знаем как уже на НЕОСОЗНАВАЕМОМ УРОВНЕ, на автомате, и НАМ КАЖЕТСЯ, что все это знают, что как будто это как закон гравитации что то присущее всему вокруг, но это иллюзия. А в отношении шахматных эвристик это сводится вообще к концептуальным знаниям "как можно, как нельзя", обычные люди чаше всего и не вдумываются почему так, потом спустя время это считают вообще своим пониманием.
Luarvik.:
Это лично Вам, Gather, на долгую память
Хороший видосик, спасибо :)
kondrat:
Gather:
Ещё раз повторю я не микробиолог, но ИМХО например сам принцип скрещивания генов половым способом - вид направленной мутации. Своего рода эвристика, как в генетических алгоритмах. Например в алгоритме "имитация отжига" тс. "без половой отбор". На сколько мне известно весь процесс репликации ДНК на все 100% ещё не изучен, много ещё непонимания как какие гены работают, известно что не малая часть из них тригерная, логическая, то есть одни гены включат\выключают другие пре тех или иных условиях, а раз так то сами собой могут возникать участки более мутабельные так как они более сложно кодируется, через множество тригерных генов, которые тоже могут быть повреждены.
Во истину! Очень удачная иллюстрация. Однако, я говорил именно про ДНК. На мой взгляд, есть в клетке ещё, как минимум, одно подтверждение того, что адаптивный мутагенез ДНК в рамках любой клетки вне фазы размножения может существовать. Я тут вещал уже про парадокс жизни: нужно меняться, чтобы сохраниться. А появление парадокса, как известно, говорит о том, что что-то от чего-то пора отделить. Речь идёт о том, что подкрепление может быть не только вбросом материала для достройки структуры, но и частичным разрушением её. Рефлексирующая оболочка непременно присвоит и использует такие частично разрушающие факторы. Ну, а фатально разрушающие факторы просто выведут систему на казнь через естественный внешний отбор. Пример: система воспроизведения белков и ДНК в целом, в которой есть факторы отделяющие куски и даже целые участки ДНК от матрицы. Кстати, это говорит ещё и о том, что можно говорить об оболочках, определяющих область действия таких факторов.
Так я и привёл пример не полового избирательного усиления мутагинеза через комплекс регулирующих генов. Чем больше условий в виде регулирующих генов тем выше вероятность эффекта мутаций, так как каждое условие кодируемое отдельным геном может мутировать, соответственно если нужно чтобы какой то аспект был более мутабельным закодируй его наиболее сложным образом, с кучей условий, это в природе, естественным способом вполне достижимо. Что то можно закодировать одинаково множеством генов, с избыточностью, а что то одним геном и дать ряд условных генов. Хз как оно в реальности но такая логика ИМХО очень думаю вероятена.
Egg:
Gather:
Я лично воспринимаю ML как путь к СИИ, также как линейной зависимостью в мат-анализе в пределе бесконечно малых можно описать любую нелинейно функцию, в один или несколько проходов. Природа это сделала именно так, отдельный нейрон работает достаточно просто, а сетки из них возникли стохастическим поиском, то есть всё достижимо простым "методом тыка", нужно только понять что моделировать, выписать весь спектры человеческих скилов от важных до не очень и начать их пилить, максимально простым и желательно однообразным способом.
В широком смысле, любая активность - это путь к СИИ. Просто широкие смыслы уже поднадоели. Я совершенно не против ML, у меня награда от IEEE как раз за машинное обучение интеллектуальных интерфейсов ))). С другой стороны, "универсальность" естественных нейронов кажется мне слишком надуманной, по причине того же самого маппинга, о котором я много говорю. Маппинг ественных нейронов совершенно не случаен, именно его и отлаживала эволюция в течение миллиарда лет. И, конечно, искать оптимизацию методом тыка при нынешних аппаратных возможностях дело бесперспективное, даже если через GPU. )))
Так я того же мнения, пока это "когнитивные архитектуры", кирпичик за кирпичиком.
Luarvik.:
Условием, выполнение которого позволит нам говорить о появлении хоть какого-то Интеллекта в чем-либо искусственном, является то, что я называю Алгоритмической Автономностью (всё остальное приложится). При этом нужно чётко понимать разницу между поведением, определяемым алгоритмом (1) и поведением, определяемым данными (2). NB! - внешне и без специальных исследований эти два вида активности практически неотличимы. (Ср. поведение и алгоритм поведения)
Автономность это круто, но автономность автономности рознь, например смарт-холодильник тоже как бы автономен, работает, делает заказы на еду и тп. тут смотря какая среда, а человек тоже не такой уж автономный, кинь его в космос голого и капец автономности, нам нужен кислород и давление, холодильнику электричество, сложно провести границу почему холодильник менее автономен чем мы в своём очень кстати редкостном в космосе мирке.
0 | 0
Аватар
create
Главное препятствие в создании СИИ.
10:09 26.07.2021 10:16 26.07.2021 №1439
Egg:
Gather:
пока это "когнитивные архитектуры", кирпичик за кирпичиком.
Если Вы объясните, что в линейной регрессии может быть когнитивного, я буду очень признателен. ))) Проблема как раз в том, что выделяя паттерны и находя тренды ANN не в состоянии ни сформировать модели, ни реализовать любой когнитивный процесс (восприятие, сравнение, память, итп). В том, что механизмы аппроксимации в СИИ будут такими как в ANN сомнений нет, особенно, если говорить об автоэнкодерах... Но механизмы - это дело десятое... архитектура мышления - это самое первое. Архитектура.
Линейная регрессия — не самый простой пример ML, природа бы его не создала думаю, самое простой ML алгоритм ИМХО это метод одного ближайшего соседа, да и его тоже не тривиально реализовать коннекционистким способом, в биологических нейронных сетях. Думаю природа в обучении биологических нейронных сетей далеко не отошла от своего главного алгоритма, а именно стохастического поиска, модуль за модулем, задача за задачей. Весь фокус в том что это всё обучалось не сходу всем скопом, а по частям отдельно, думаю нет в биологических нейросетках чего то на подобии "обратного распространения ошибки", вся магия в правильном подборе обучающего датасета(ов) с нарастанием сложности и иерархическом построении модулей(проекций) над старыми модулями, которые уже "залоченны" для обучения. Но если пытаться делать подобные алгоритмы, то они могут показать сверх не эффективными по сравнению с бэкпропными, да и нет особой доблести делать 1 в 1 как природа, смысл то не в этом, а что бы работало, кое что можно воткнуть как готовый модуль, не важно что там внутри. Основная фишка природного механизма в САМО ПОСТРОЕНИИ СИСТЕМ, не нужно людям корпеть над чем то, создаётся новая проективная зона, аля "неокортекс" туда проецируется всё что было обработано раньше и там по новой ищутся логики как из этого извлечь выгоду для решения задач нового порядка. И архитектура сама собой создаётся)))
Luarvik.:
Gather:
Автономность это круто, но автономность автономности рознь, например смарт-холодильник тоже как бы автономен, работает, делает заказы на еду и тп.
Да, и любой автомат автономен по определению, но речь идёт об АЛГОРИТМИЧЕСКОЙ автономности (АА), что иначе можно обозвать "самодетерминацией", "самопрограммированием", а это как раз то, что автоматам противопоказано, опять-таки по определению.
Gather:
человек тоже не такой уж автономный, кинь его в космос голого и капец автономности, нам нужен кислород и давление
Ломать - не строить. К чему такие крайности ? В нормальной среде вполне себе автономен.
Gather:
сложно провести границу почему холодильник менее автономен чем мы
Легко: АА.
Не понял о чем Вы. Любой алгоритм ML детерминируется внешними данными которым его обучают, а не какой то внутренней логикой, он ОБУЧАЕТСЯ в том же смысле как и мы с Вами. В этом нет никаких отличий от биологического мозга. Вопрос в сложности данных для обучения, в разного рода "косвенностях" но и это потихоньку решается. Вы не очень понимаете о чем толкуете, при всём уважении.
0 | 0
Аватар
create
Главное препятствие в создании СИИ.
16:38 26.07.2021 16:45 26.07.2021 №1445
Egg:
Gather:
Основная фишка природного механизма в САМО ПОСТРОЕНИИ СИСТЕМ, не нужно людям корпеть над чем то, создаётся новая проективная зона, аля "неокортекс" туда проецируется всё что было обработано раньше и там по новой ищутся логики как из этого извлечь выгоду для решения задач нового порядка. И архитектура сама собой создаётся)))
У "природного механизма" есть в рукаве несколько козырей, главный из которых - решение NP полных задач. Да и вообще (Вы тоже это отмечали) совсем другие порядки производительности, даже на уровне индивидуального мозга. Плюс - почти неограниченное время и количество устройств (уровня Солнечной системы) на эксперименты. Я не думаю, что есть смысл повторять этот путь. Нам придется найти алгоритм "само-построения" с функциями "само-обучения" и свойствами "само-сознания" в его явном, лексическом виде. ))
Поэтому и приходится выхватывать какой то фрагмент и отдельно его делать, получится солянка их разнородных плохо объединяемых фрагментов, но постепенно думаю и этим путём придём к какому то результату. По крайней мере разговаривать и проходить ТТ такая система будет лет через 10-20 наверняка, творчеством заниматься, картины писать, музыку, фильмы снимать возможно. Кредит взять и бизнес поднять не сможет, изобрести что то по-настоящему новое тоже вряд ли.
Luarvik.:
См. №1418, №1422 Вам нужно уловить разницу между "сам исполняет алгоритм" и "сам генерирует алгоритм". Вроде и там и там "сам", но эти самости разной "глубины": в первом случае мы имеем строго автомат, во втором строго анти-автомат. И ещё раз обращу внимание на отличие поведения от алгоритма поведения.
Да может генерировать, я же уже Вам сказал, "учите матчасть", любой ML - генерирует алгоритм в зависимости как Вы его обучите, разное обучение- разный алгоритм, разные ответы на вопросы, всё так же как и у человека. Отличие в "ёмкости" человеческого "ML", иерархичности, и сложной специфике самого обучения.
kondrat:
А чем "само-" отличается от "не само-"? Отсутствием явного образца для быстрого копирования? К нему ещё оценка "повторять один в один - это хорошо" должна прилетать. Мне кажется, обучение - это копирование с упаковкой всевозможных, в том числе и скрытых, образцов поведения.
"Само" это значит что навыки изготавливаются по заранее отработанной технологии, как в цикле "foreach" на основе старых навыков и новых и старых данных. Вся система так автоматом может быть создана, мечта дурака. Но на самом деле так с такими алгоритмами не очень многие играются, ещё до конца не понятно так ли уж много надо вычислительных ресурсов. Много это понятно, но возможно не так астрономически как кажется и лет через 10 это достижимо будет.
0 | 0
Аватар
create
Главное препятствие в создании СИИ.
17:59 26.07.2021 18:01 26.07.2021 №1447
Luarvik.:
Gather:
Да может генерировать, я же уже Вам сказал, "учите матчасть", любой ML - генерирует алгоритм в зависимости как Вы его обучите, разное обучение- разный алгоритм, разные ответы на вопросы...
По-моему, это Вам нужно учить матчасть, поскольку Вы: не отличаете поведение от алгоритма поведения; не отличаете поведение, управляемое командами от поведения, управляемого данными.
Gather:
... всё так же как и у человека.
- это крайне поверхностный взгляд, что-то типа "ходит как утка, крякает как утка..." И мой Вам совет: внимательнее слушайте, что Вам говорят и не выдавайте автоматических ответов. Воронцов (который преподаёт ML) уже высказался по поводу "сам" в этом самом ML - прислушайтесь, хотя бы ради приличия, и делайте правильные выводы. И ещё: ни в одной современной автоматической системе управления не меняется алгоритм управления - всё строго в рамках ЗАРАНЕЕ предписанного. Если бы было иначе, АСУ стала бы непредсказуемой в своем поведении, что прямо противоречит целям управления. Так что не надо тут про "ML генерирует алгоритм".
Вы просто не в теме, уж простите. Одно дело услышать у Воронцова то что Вы хотели услышать, а другое понять о чем он вообще говорил. "Алгоритм" это и есть поведение системы, его в ML не закладывают, ему обучают, про какие АСУ вы говорите не в курсе, берёте нейросетку и обучаете например МНИСТу, она будет распознавать рукописные циферки, не хуже человека, можно обучить чему угодно, если в этом есть логика, алгоритм возникает как результат обучения. У нас в мозгах тоже сам алгоритм мета-обучения захардкожен, многие модули мозга вообще необучаемы, обучается только около 5% мозга, в основном неокортекс. То о чем говорил Воронцов это про то что нам пока далеко до уровня человека, это так, но процесс идёт. Напишите хотя бы kNN для начала.
0 | 0
Аватар
create
Психология AGI
12:33 28.07.2021 12:47 28.07.2021 №1484
Prosolver:
Имеет смысл говорить о некоторой принципиально новой надстройке над человеческим социальным интеллектом, типа усилителя интеллекта, о котором говорил Переверзев-Орлов Вячеслав Сергеевич (Slava).
Slava-е 84 сейчас по идее, не факт что он ещё жив, давненько его нигде не видно, а он молодец, в 80 писать код и делать поделки вполне вменяемые причем, это круто, уважаю таких. PS по теме, как по мне так или иначе когда дело касается таких амбиционных проектов как СИИ, такие нынче модные штуки как "дорожная карта" и тп. могут иметь смысл только в очень локальном контексте. Запланировать можно то что уже делалось хотя бы от части, как например полет на Луну, все этапы были в принципе понятны, вся сложность в том что бы ничего не поломалось по ходу, а например запланировать как создать "Единую теорию поля"(ЕТП) это бред, такие вещи приходят одиночкам в озарении, одному на много миллиардов. Но СИИ ни на ЕТП ни полётна Луну ни похож, да конечно нужно будет много изобрести, но это по легче чем ЕТП, по сложности думаю аля алгоритма обратного распространения, но не один штук 10 и модулей отдельных аспектов человеческого сознания многие десятки это уже более инженерного типа работы ге можно что то планировать и разрабатывать командами, потом это совместить тоже тот ещё квест, короче рано пока планировать все скопом, только отдельные детали разве что.
0 | 0
Аватар
create
Психология AGI
12:50 28.07.2021 12:52 28.07.2021 №1487
Egg:
Gather:
такие нынче модные штуки как "дорожная карта" и тп. могут иметь смысл только в очень локальном контексте
Дорожная карта в моем списке идет четвертым пунктом. Первым пунктом стоит задача. Как Вы считаете, прежде чем что-то делать, нужно сформулировать задачу или это тоже модные нынче штучки, которые никому не нужны? )))
Согласен, задача не сформулирована но и она пока не может быть вменяемо сформулирована. Нет понимания работы ряда ключевых алгоритмов, вообще из готового очень мало. Это как пытаться формулировать задачу построить небоскрёб австралийским бушменам, которые прогулялись по Манхеттену и пофоткали домики. Вроде кажется что это можно, но до КАК, пока ооочень далеко, если своими силами без подсказок.
0 | 0
Аватар
create
Психология AGI
09:45 29.07.2021 09:59 29.07.2021 №1511
Egg:
Gather:
Нет понимания работы ряда ключевых алгоритмов, вообще из готового очень мало.
Под фонарем предлагаете искать? )) Суть в том, что под фонарем уже все искали и всё, что можно было найти - нашли. Вытоптано всё под фонарём.
Gather:
Это как пытаться формулировать задачу построить небоскрёб австралийским бушменам, которые прогулялись по Манхеттену и пофоткали домики.
Но сформулировать ведь можно? Или нет? Задачу. Не технологию, не методы, не средства, а саму задачу. Хотим построить место, где можно жить поживать и добра наживать. На каком-нибудь внятном уровне, чтобы было понятно, что именно мы хотим. Дайте, плиз, ссылку хоть на одно внятное формулирование того, что нужно решить (что, а не как) и внятные определения этих четырех сущностей: интеллект, смысл, понимание, обучение. Я занимаюсь ИИ более 20 лет и пока не встречал хорошего формулирования задачи СИИ/AGI. )))
Под фонарём будем искать ещё не один десяток лет, вон за пару десятков лет и CNN и LSTM вынули из шляпы, мы делаем что то типа как делала природа но на "человеческом движке" постепенно повторяем те или иные аспекты пока только восприятия, даже пытаемся с наскоку взять и мышление, теми же технологиями но выходит пока кака. Но время как говорится лечит. Что решить я Вам могу сказать. Первое что нужно это совместить сенсорное распознавание и текстовое, придумать алгоритм объединяющий распознавание картинок\звуков и тд с алгоритмами научившиеся грамматике языка, так что бы например по тексту можно было бы создавать потоки образов, как это происходит у человека, это будет — МЫШЛЕНИЕ. С сознанием пока я затрудняюсь с формулировкой что надо решить, ИМХО "сознание" естественно возникнет из мышления, сознание как интроспективное мышление и мышление за пределы бытовых границ, этакая экстраполяция вдаль, "расширенное сознание".
Prosolver:
Данный топик открыт для подхода к интеллекту со стороны психологии. Наверное, к интеллекту можно приближаться и с других сторон: информационных технологий, религии, эмоций, биологии, лингвистики, педагогики, математики. Если бы была такая наука "интеллектология", то наверное приближение с этой стороны было бы скорейшим. Но такой науки нет. Максимально близко к искомой сфере знаний, наверное, психология. Если я ошибаюсь и этот топик окажется неэффективным, то он просто погибнет, да и всё.
С точки зрения психологии\психиатрии наш "разум" можно разделить на три части: восприятие, мышление и сознание. Это выяснили за пару сотен лет истории работы с расстройствами разума, которые подобно как ребёнок познаёт мир ломая игрушки или в БАК взрослые ломают элементарные частицы, мы имеем ряд свойств человеческого способа разумения, что происходит когда они не работают или работают не правильно. Всем рекомендую лекции Журавлёва Также очень интересная аудиокнига есть но она про ряд примеров как человек ведёт себя при разных неврологических сбоях, когда некоторые модули мозга "падают", очень занимательно, четко видны границы работы модулей того что нам кажется единым континумом. Так вот по Журавлёву восприятие — по сути распознавание как мы это понимаем в ML, мышление надстраивается над восприятием, это операции с символами, языком, абстракциями, "внутренний диалог" и тп. , а сознание это ещё более высокоуровневая надстройка, как над восприятием как и мышлением, это про само-рефлексию, "высшие проекции"( Я\мир, субъективное\объективное, смысл жизни и вселенной и тп.) Это всё становится боле понятным когда на том или ином уровне происходят нарушения. На данном этапе мы даже не разобрались до конца с восприятием, к мышлению ещё не приступили, а до сознания совсем далеко. Другое дело что именно так как у человека, не факт что надо нам в точности повторить, хотя именно этого наверно ждут все.
0 | 0
Аватар
create
Главное препятствие в создании СИИ.
11:06 08.08.2021 11:08 08.08.2021 №1814
DCV:
Gather:
Попробуем озвучить самую главную причину в чем же эта «невидимая стена» от которую все долбятся и почему то не понимают как её обойти\перелезть.
У меня есть несколько предположений: 1. Психологическая причина. У людей ослабленные способности, к тому чтобы изучать самих себя, свою психологию и свое мышление. 2. У изобретателей СИИ нет достаточной мотивации. Хорошие идеи остаются неуслышанными и непринятыми. Люди, которые могут решить задачу, не имеют доступа к финансированию, не занимают нужные должности, остаются неуслышанными, не имеют мотивации для такой работы. Люди, которые имеют финансирование, занимают соответствующие должности, не могут решить задачу. 3. Психологическая инерция. Созданы подходы к ИИ, которые озвучивают авторитетные люди. Правильное решение находится за пределами официальных авторитетных подходов. Разработчики ИИ не могут выйти за пределы известных подходов.
Согласен на все 100%, если в социально-психологическом контексте рассуждать. Проблема сложная, "изучать самого себя" не просто, так как большая часть наших навыков никак нами не детектится на прямую, нет таких сенсорных механизмов, можно только косвенно понять что чего то нет, сравнивая с теми у кого оно поломалось. И свести потом 100500 фрагментов воедино тоже отдельная сверхзадача. Финансы и их распределение подчинено социально-экономическим "трендам", или лучше сказать "хайпам", то есть львиную часть бабла заберут как обычно не те кто что то может сварганить у себя в "гараже", а те кто умеет эффектно себя пропиарить, и продать пустышку, с этим сложно что то поделать, пока люди решают куда вложить деньги, только можно посоветовать гаражным кулибинам изучать основы маркетинга и подходам как заинтересовать бизнес в своих поделках. Наука вообще инертная штука, особенно у потомков обезьян, которые в отличии от например кошек, очень стадные и социальные, стадный инстинкт у нас очень развит, мы инстинктивно хотим быть с толпой и боимся "отбиться от стада"(быть подвергнутым остракизму, или "отлученным от церкви"), это равносильно мучительной смерти, такой инстинкт формировался сотни тысяч лет, а может и миллионы, мыслить независимо очень сложно. Но хотелось бы услышать больше про то ПОЧЕМУ проблема сознания такая СЛОЖНАЯ, можно ли найти какие то ключевые моменты в чем конкретно состоит задача, которую решить так сложно. Например в практической физике было бы круто создать двигатель без рабочего тела, чтобы не нужно было ни от чего отталкиваться при движении, это как и "вечный двигатель" не возможно, так как нарушало бы закон сохранения импульса, но тем не менее сразу возникают разные идеи, например "отталкиваться от удалённых предметов, всего остального космоса" и тп. Так как задача относительно четко поставлена. А у "проблемы сознания", где фундаментальная загвоздка?
0 | 0
1
2

Главная Участники Жалобы  Поиск Исходный код О форуме