| |
create
|
07:42 31.05.2024 |
|
08:56 31.05.2024 |
|
№9206 |
Скажите, много ли нужно ума, чтобы правильно собрать такую штуку, тем более, если рядом стоит образец ?
В основном, т.н. "схемы" интеллекта сводятся к блок-схеме некоего алгоритма - дальше этого не идут.
Ваши варианты - не исключение и не сложнее 'тупого перебора + сравнение с эталоном'.
Это не просто скучно и настолько заезжено до зубовного скрежета, что даже как-то обидно становится за человеческий потенциал, используемый по минимуму напряжения извилин.
Но интеллет - НЕ алгоритм, по определению, если хотите.
p.s.
Что до верующих, кичащихся тем, что в своём умственном развитии они стоят чуть выше лингвистического попугая, который ни по факту [рождения], ни по определению ни создавать что-либо, ни тем более понимать не в состоянии, то кроме скорбного сочувствия их наивный телячий восторг не вызывает, как бы они не превозносили свои творческие заслуги на ниве построения трубопроводных систем.
|
| |
create
|
09:20 31.05.2024 |
|
09:27 31.05.2024 |
|
№9207 |
На мой вкус, попугаем является тот, кто на протяжении двадцати лет твердит три заветных аббревиатуры, одна смешнее другой. Кто не в состоянии сформулировать ни проблемы, ни определений, ни задач. Для кого быть интеллектуальным означает быть невостребованным неудачником...
LLM, в отличие от всех вас - полезны.)))
|
| |
create
|
Luarvik.: много ли нужно ума, чтобы правильно собрать такую штуку Ум измеряется количеством механизмов, которые данный ум может успешно синтезировать. Чтобы правильно (нормально) собрать пирамидку, нужно уметь синтезировать суб-механизмы пирамидки (нормально видеть торы, стержень, основу, верхушку, окружающие места), суб-механизмы из своего тела (нормально перемещать члены), суб-механизмы среды (тяготение, освещённость и т.п.) и (желательно, но не обязательно) суб-механизмы из представлений в уме (нормально совмещать мысли), чтобы не тыкаться по месту, а действовать по воображаемому плану. Как по мне, это достаточно много ума. Помню свой детский опыт, когда я успешно научился собирать пирамидку. Ностальгирую. Пытаюсь собирать что-то более сложное, но принцип тот же - собирать правильно.
Luarvik.: обидно становится за человеческий потенциал А Вы не обижайтесь, потенциал человека сравнительно невелик, не стоит переоценивать. Чтобы не разочароваться.
Luarvik.: интеллет - НЕ алгоритм, по определению У Вас такая норма (эталон), Вы к ней стремитесь. Синтезируете соответствующие механизмы. Имеете право. Но при этом, при всём Вашем усердии, не демонстрируете поведения, выходящего за рамки схемы обсуждаемого тут механизмического интеллекта.
|
| |
create
|
09:43 31.05.2024 |
|
09:50 31.05.2024 |
|
№9209 |
Prosolver: И мне кажется, что вместо самовнушения "LLM ≡ AGI" полезнее было бы обратить внимание на то, чего LLM в интеллектуальной сфере в принципе делать не могут и почему.
В этом месте есть очередные три передергивания:
1. Чтобы сказать, что LLM не есть AGI было бы неплохо понимать, что такое AGI или по-минимому дать определение интеллекта, показать его устройство и минимальную рабочую модель (если есть таковое понимание).
2. Чего LLM "в принципе не могут делать" - это неизвестно, поскольку можно наблюдать их развитие за два года и видеть, что нет никаких принципиальных ограничений в том, что они делают.
3. Чтобы ответить на вопрос "почему" они что-то не могут делать, нужно понимать как они устроены, а никто здесь не дает себе труда разобраться в этом, а лаврики и цапы не смогут этого сделать в принципе по причине отсутствия требуемого уровня интеллекта и образования. Порог вхождения в проблематику AGI оказался очень высоким, местная публика умеет только отвлеченно "философствовать", этого совершенно недостаточно для предметного обсуждения.
|
| |
create
|
Egg: нет никаких принципиальных ограничений в том, что они делают Обращает на себя внимание осторожность этой формулировки. Ведь точнее и проще было бы сказать: "LLM могут делать всё и полностью заменяют человека во всех сферах интеллектуального труда". Но тогда стало бы очевидно, что это не так. Потому что, как минимум, навскидку, LLM не имеют жизненного опыта и не могут оперативно на нём учиться. Они не отвечают на вопрос как работает и что такое сознание и квалиа. Не имеют целеполагания. Не проактивны.
P.S. После того как пост был свёрстан, спросил у Великого и Ужасного, что он "понимает" на этот счёт:
Цитата:
Prosolver: Назови принципиальные отличия между тобой и интеллектом человека, что делает интеллект человека на сегодняшний день незаменимым.
ChatGPT: Принципиальные отличия между искусственным интеллектом, таким как я, и интеллектом человека включают несколько ключевых аспектов:
Сознание и самосознание:
Человек: Обладает сознанием и самосознанием, что означает способность осознавать свое собственное существование, мысли и эмоции.
Искусственный интеллект: Не имеет сознания или самосознания. Моя работа основана на алгоритмах и данных, и я не обладаю внутренними переживаниями.
Эмоции и интуиция:
Человек: Обладает сложными эмоциональными переживаниями и интуицией, что позволяет принимать решения на основе чувства, опыта и внутреннего понимания.
Искусственный интеллект: Эмоции и интуиция имитируются на основе анализа данных, но это лишь модель, не истинное переживание.
Творческое мышление:
Человек: Способен к настоящему творческому мышлению, что включает способность создавать что-то новое и оригинальное, выходя за рамки известных данных и алгоритмов.
Искусственный интеллект: Может генерировать новые идеи и произведения на основе существующих данных и шаблонов, но это ограничено пределами данных, на которых обучен.
Этические и моральные суждения:
Человек: Обладает способностью к сложным моральным и этическим суждениям, что связано с личным опытом, культурой и философскими размышлениями.
Искусственный интеллект: Может следовать запрограммированным правилам этики, но не способен к собственным моральным суждениям или внутренним оценкам.
Адаптивность и обучение:
Человек: Обладает высокой степенью адаптивности и способности к самообучению, включая обучение на основе нового опыта и изменение поведения в ответ на новые условия.
Искусственный интеллект: Обучается на основе данных и алгоритмов машинного обучения, но его способность к адаптации ограничена возможностями алгоритмов и качеством данных.
Контекст и понимание:
Человек: Понимает контекст и нюансы в коммуникации и может интерпретировать информацию в широком контексте, включая культурные, социальные и личные аспекты.
Искусственный интеллект: Может анализировать контекст на основе данных, но ограничен точностью моделей и качеством данных, что может привести к неверной интерпретации.
Эти различия делают человеческий интеллект уникальным и незаменимым во многих областях. Взаимодействие людей, принятие сложных решений, творческая деятельность и моральные суждения требуют уровня понимания и переживания, которые на сегодняшний день не доступны искусственному интеллекту.
Не во всём согласен с этим ответом, но даже железка "понимает", что в теме AGI рано ставить одну точку.
|
| |
create
|
11:41 31.05.2024 |
|
00:46 01.06.2024 |
|
№9211 |
Prosolver: Обращает на себя внимание
Я так понимаю, что по существу ты мне не смог ответить ни по одному из пунктов.
Расскажи хотя бы один случай недостижимости LLM, я готов рассказать как и почему это достижимо, если это находится в пределах физических природных законов)))
|
| |
create
|
12:31 31.05.2024 |
|
12:32 31.05.2024 |
|
№9212 |
Prosolver: Ум измеряется...
Увы, ум пока ещё не измеряется, тем более количеством чего-то.
Хотя бы потому, что нет единой точки зрения на то, что умом является и что умом не является, не говоря обо всём прочем.
Prosolver:
А Вы не обижайтесь, потенциал человека сравнительно невелик, не стоит переоценивать. Чтобы не разочароваться.
Переоценивать ?
Чтобы оценивать, нужно знать пределы и границы, каковые на сей момент не установлены.
Иногда, к сожалению, даже минимум не прослеживается - тупо, как автоматы, по заученной программе... Впрочем, что об этом говорить.
Prosolver:
У Вас такая норма (эталон)...
Не норма, а понимание... или Вы тоже поддались соблазну описать весь мир тремя словами ?
По моим наблюдениям, бОльшая часть Ваших текстов здесь посвещена переводу <> устоявшихся понятий на свой птичий язык...
Prosolver:
Синтезируете соответствующие механизмы. Имеете право. Но при этом, при всём Вашем усердии, не демонстрируете поведения, выходящего за рамки схемы обсуждаемого тут механизмического интеллекта.
(Я ничего не демонстрирую и не собираюсь. Здесь вроде не сцена и не подиум.)
"Механизмический интеллект" )))
Когда в руках молоток, всё вокруг кажется гвоздями.
|
| |
create
|
12:43 31.05.2024 |
|
04:51 01.06.2024 |
|
№9213 |
За трижды тремя словами стоит как минимум гипотеза и модель.
Гипотезы проверяются годами, десятилетиями, порой даже столетиями.
Не вижу в этом ничего криминального.
В данном случае существенно то, что уже действующие модели интеллекта себя, мягко говоря, не оправдали.
Идеи, способные перевернуть мозги, как правило, трудно находят себе дорогу и уж тем более на столбовой дороге, по которой тучными стадами шастают бездарные потребители всего и вся - не валяются.
|
| |
create
|
Никакой модели и даже отдаленного связного текста за этими словами не стояло и не стоит. Неоднократно было проверено.
|
| |
create
|
13:14 31.05.2024 |
|
13:25 31.05.2024 |
|
№9215 |
Вы эти-то три слова прожевать 10 лет не можете.
Какая вам модель !
Да и проверялка у вас ещё не выросла ))
... понты одни сплошные, дешёвые.
Отождествить... нет, даже только сравнить LLM с ИИ - это надо быть конченным, совершенно безмозглым долбоёбом
|
| |
create
|
18:01 31.05.2024 |
|
18:04 03.06.2024 |
|
№9216 |
Luarvik.:
... понты одни сплошные, дешёвые.
Не такие уж и дешевые: хорошие гены, еврейская математическая школа, физтех, работа завотделом ОИ в Газпроме (они до сих пор юзают мои методы), учеба в Торонто у Джеффри Хинтона, сертификаты по пайтону, си и ИНН (CUDA/GPU), награда IEEE (за разработки в области естественно-языковых интерфейсов), должность архитектора в компании Кремниевой Долины. Это если еще не озвучивать стоимость моей недвижимости, в которую я вкладываюсь)))...
Вы же никуда дальше слов не ходили. Образования у вас нет (гуманитарное таковым не является), опыта у вас нет, результатов у вас нет. Никаких.
Ваши словосочетания заканчиваются на втором этапе смысловыми противоречиями, после чего вы требуете поверить вам на слово (или начинаете изображать из себя девственника и загадочно намекаете про великую тайну, которую обязались хранить), потом начинаете плеваться говном. Всё же задокументировано на готайке, как вас покойный Хмур по вашим интеллектуальным испражнениям мордасой макал и водил... вам даже пришлось удалить свой многолетний Зоопарк топик от стыда... ))))
|
| |
create
|
20:15 31.05.2024 |
|
20:26 31.05.2024 |
|
№9217 |
Как это всё старо...
Твой "полёт мысли", Егоров, я могу сравнить только с заплывом червя в протухшей луже.
Согласитесь, господа заседатели, насколько легко решилась бы проблема ИИ, если бы интеллект измерялся по шкале, предложенной этим... да, иногда земля русская порождает удивительных ментальных уродов:
- гены;
- школа;
- ВУЗ;
- должности;
- сертификаты;
- награды;
- ещё раз должности;
- (и вишенка на торте !) стоимость недвижимости в собственности;
- (ах, да, совсем забыл - вишенка тут) - количество сортов сыра в холодильнике.
Скорее всего, такой проблемы даже не возникло бы.
Ку ?
|
| |
create
|
23:46 31.05.2024 |
|
01:04 01.06.2024 |
|
№9218 |
Luarvik.:
(и вишенка на торте !) стоимость недвижимости в собственности;
Вишенка на торте тут разряд числа стоимости))))
Быть полезным и успешным - это и есть признак развитого интеллекта.
Если бы мы все были лавриками, то до сих пор разжигали огонь трением в пещерах под бормотание унылых словосочетаний...
😃😃
Поймите, лавруша, мораль начинается с труда, с его эффективности, со способности менять мир. Быть злобным тупым ничтожеством типа вас совсем не трудно - выгляните из окна и посмотрите как вы засрали свою страну. Быть успешным означает так же быть моральным. Вороватых и подлых нищих я встречал много, моральных и интеллектуально развитых - никогда.
|
| |
create
|
Egg: по-минимому дать определение интеллекта, показать его устройство и минимальную рабочую модель (если есть таковое понимание).
В целях преодоления Вашего минимального понимания данного вопроса.
Если взять понятие «Суверенитет» (способность некой страны), то показывать надо не устройство суверенитета, а устройство страны, порождающее данную способность.
То же самое следует совершать и с понятием «Интеллект».
|
| |
create
|
04:42 01.06.2024 |
|
05:24 01.06.2024 |
|
№9220 |
Egg:
... разряд числа стоимости
Быть полезным и успешным - это и есть признак развитого интеллекта.
Вот-вот.
"Новый Измеритель Интеллекта от Егорова" !
Интересно, какой кретин вдолбил в твою лысую голову это "достижение человеческого разума".
Мдэ.
Егорова из Ебурга вытащить можно, а вот Ебург из Егорова...
Egg:
Если бы мы все были лавриками, то до сих пор разжигали огонь трением в пещерах под бормотание унылых словосочетаний..
Если бы в тебе было хоть что-то от "лавриков", до тебя давно бы дошло, какой хернёй ты занимаешься.
Egg:
... мораль начинается...
Мораль - для детей и женщин... И ещё для вот таких как ты [моральных] уродов, чтобы было чем оправдываться.
Egg:
... как вы засрали свою страну.
Да между прочим, это и твоя страна, в которую ты срал за милую душу, а потом... свалил.
Видимо и в том твоя мораль, чтобы насрать, где живёшь и смыться, пока по рогам не настучали.
Egg:
Быть успешным означает так же быть моральным.
Совсем не удивляет то, что твоя мораль не идёт дальше "базарной торговки".
Звкономерно. Логично. Естественно.
Egg:
тра-та-та, бла-бла-бла... я встречал много, моральных и интеллектуально развитых - никогда.
К тебе не относится ни первое, ни второе.
Интересная коллизия наблюдается.
"Быть моральным = быть успешным."
"Быть интеллектуальным = быть успешным."
Т.о., интеллектуальность уравнивается с моральностью, на что наш ебургский долбоёб не моргнув глазом претендует, не замечая (ну, это по уму), как [уже традиционно] проговаривается:
ведь он таких не встречал никогда... даже в зеркале )))
|
| |
create
|
Egg: Расскажи хотя бы один случай недостижимости LLM, я готов рассказать как и почему это достижимо Выше с ChatGPT мы описали ряд принципиальных отличий между LLM и мышлением человека. Но чтобы не превращать и эту ветку в очередную комнату восхвалений LLM, я бы сконцентрировался на одном принципиальном, самом главном, на мой взгляд, отличии. На обучении. LLM не демонстрируют человекоподобного обучения вообще. У всех LLM есть два жёстко разграниченных этапа своей работы - этап тренировки на огромных данных (настройки, итерирования, конфигурирования - называйте как хотите, только не "обучение") и этап использования. Полезного использования, с этим никто не спорит. У человека интеллект работает принципиально иначе. Человек учится "на лету" т.е. применение знаний происходит в процессе их создания/ликвидации. Процесс создания знаний и процесс применения знаний - это один и тот же процесс. Именно это свойство для меня является маркером. Как только любая технология начнёт демонстрировать этой свойство я первый прибегу и буду вопить, что это и есть AGI. А до тех пор мы тут с Сергеем Шуваловым потихоньку пытаемся нащупать подход к именно такому способу обучения.
Luarvik.: Гипотезы проверяются годами Уверен, если бы Вы взяли на себя труд попытаться перейти от этой общей (и в целом верной) формулировки к более детальному описанию механизмов рождения гипотез и их проверки, то разногласий в этом топике у нас было бы меньше. Или совсем не было.
|
| |
create
|
09:22 01.06.2024 |
|
09:26 01.06.2024 |
|
№9223 |
Prosolver:
я бы сконцентрировался на одном принципиальном, самом главном, на мой взгляд, отличии. На обучении. LLM не демонстрируют человекоподобного обучения вообще.
В этом месте как раз подходит выражение про "шашечки или ехать". Есть еще одно серьезное отличие, на которое ты не обратил внимание - элементная база и архитектура. Текущая реализация LLM - это трансформеры на сетях глубокого обучения. Текущая реализация мозга - нейронный клеточный ансамбль с прочей биологической обвязкой. Есть разница в их устройстве.)))
Обучение (во всей строгости) не является демонстрируемой способностью. Самолеты не выращиваются из яйца, а автомобили не нуждаются в подковах. Единственный complaint (= жалоба, но нет хорошего русского эквивалента), который можно было бы предъявить - это отсутствие обучения few-shot. Но тут есть два момента. 1) Человек его тоже не демонстрирует в первые годы, а обучается быстро обучаться уже будучи зрелым. Предобученным. Если этого предобучения нет, человек вообще не демонстрирует интеллекта. 2) LLM может обучаться во время общения, в контекстном окне. Быстро и сразу. И это именно то, что ты называешь "человекоподобным" обучением. Не вижу принципиальных отличий.
Осталось "доделать" одну маленькую вещь - добавлять данные из контекстного обучения в главные модели. Думаю, это не простая задача, но работы в этом направлении уже ведутся и (погугли) уже заявлено, что данные сессий будут сохраняться, то есть контекстное обучение для текущего пользователя станет "долговременным".
Таким образом, твое главное "отличие" уже устранили... Неси следующее)))
|
| |
create
|
Egg: Если этого предобучения нет, человек вообще не демонстрирует интеллекта С этим спору нет. Однако, предобучение человека некоторым базовым примитивам в первые годы жизни и тренировка LLM на бигдате, на мой взгляд, это концептуально разные вещи. При человеческом стиле обучения мы получаем (в потенциале) сверхадаптивное существо, способное строить и менять модель мира оперативно. В случае с LLM модель мира оказывается зацементированной и статичной, что принципиально обусловлено архитектурой.
Egg: Осталось "доделать" одну маленькую вещь - добавлять данные из контекстного обучения в главные модели. Думаю, это не простая задача Если это удастся сделать (в чём я сильно сомневаюсь), то я первый прибегу и буду вопить, что AGI создан.
P.S. Есть ещё энергетическое соображение, которое указывает на чудовищную неоптимальность LLM. Вот тут пишут (верю), что для тренировки одной языковой модели вроде GPT-3 требуется около 10 ГВт·ч. При этом потребление мозга примерно 20 Вт·ч, за год это примерно 0,000175 ГВт·ч. Т.е. LLM примерно в 114000 раз прожорливей мозга. И это без учёта энергии на саму работу. Есть куда стремиться.
|
| |
create
|
Prosolver:
... если бы Вы взяли на себя труд попытаться перейти <...> к более детальному описанию механизмов рождения гипотез и их проверки...
Выдвижение гипотез по человеческому типу требует наличия сознания.
Будет сознание - будут и гипотезы, а не тупой перебор вслепую.
Моделированием сознания... Вам известно, кто этим занимается ?
Мне - нет.
В этом тёмном чулане ещё конь не валялся.
Да и у Вас, насколько понимаю, несколько другие интересы.
|
| |
create
|
Prosolver: Если это удастся сделать (в чём я сильно сомневаюсь), то я первый прибегу и буду вопить, что AGI создан.
Они уже декларируют это. Появится в ближайшей свежей (видимо chatGPT5.0) версии.
Prosolver:
P.S. Есть ещё энергетическое соображение, которое указывает на чудовищную неоптимальность LLM.
Нет. LLM - это концепция, а трансформеры - это текущая реализация. Реализации чудовищны. Никогда с этим не спорил и всегда соглашался. И уже три года занимаюсь тем, что ищу альтернативу глубоким сетям. Судя по последним публикациям о линеаризации смысловых отношений в семиотических ядрах - это возможно.
|
|
|