AGI.place

Форум создателей искусственных интеллектов


Логин (email) 
Пароль 
Настройки

шрифт+
шрифт-
Скачать
Вперёд
Назад
1
2
3
4
5
6
7
8
9
10
11
12
13
Нормология
Аватар
create
Нормология
07:42 31.05.2024 08:56 31.05.2024 №9206
Скажите, много ли нужно ума, чтобы правильно собрать такую штуку, тем более, если рядом стоит образец ? В основном, т.н. "схемы" интеллекта сводятся к блок-схеме некоего алгоритма - дальше этого не идут. Ваши варианты - не исключение и не сложнее 'тупого перебора + сравнение с эталоном'. Это не просто скучно и настолько заезжено до зубовного скрежета, что даже как-то обидно становится за человеческий потенциал, используемый по минимуму напряжения извилин. Но интеллет - НЕ алгоритм, по определению, если хотите. p.s. Что до верующих, кичащихся тем, что в своём умственном развитии они стоят чуть выше лингвистического попугая, который ни по факту [рождения], ни по определению ни создавать что-либо, ни тем более понимать не в состоянии, то кроме скорбного сочувствия их наивный телячий восторг не вызывает, как бы они не превозносили свои творческие заслуги на ниве построения трубопроводных систем.
0 | 0
Аватар
create
Нормология
09:20 31.05.2024 09:27 31.05.2024 №9207
На мой вкус, попугаем является тот, кто на протяжении двадцати лет твердит три заветных аббревиатуры, одна смешнее другой. Кто не в состоянии сформулировать ни проблемы, ни определений, ни задач. Для кого быть интеллектуальным означает быть невостребованным неудачником... LLM, в отличие от всех вас - полезны.)))
0 | 0
Аватар
create
Нормология
09:31 31.05.2024 №9208
Luarvik.:
много ли нужно ума, чтобы правильно собрать такую штуку
Ум измеряется количеством механизмов, которые данный ум может успешно синтезировать. Чтобы правильно (нормально) собрать пирамидку, нужно уметь синтезировать суб-механизмы пирамидки (нормально видеть торы, стержень, основу, верхушку, окружающие места), суб-механизмы из своего тела (нормально перемещать члены), суб-механизмы среды (тяготение, освещённость и т.п.) и (желательно, но не обязательно) суб-механизмы из представлений в уме (нормально совмещать мысли), чтобы не тыкаться по месту, а действовать по воображаемому плану. Как по мне, это достаточно много ума. Помню свой детский опыт, когда я успешно научился собирать пирамидку. Ностальгирую. Пытаюсь собирать что-то более сложное, но принцип тот же - собирать правильно.
Luarvik.:
обидно становится за человеческий потенциал
А Вы не обижайтесь, потенциал человека сравнительно невелик, не стоит переоценивать. Чтобы не разочароваться.
Luarvik.:
интеллет - НЕ алгоритм, по определению
У Вас такая норма (эталон), Вы к ней стремитесь. Синтезируете соответствующие механизмы. Имеете право. Но при этом, при всём Вашем усердии, не демонстрируете поведения, выходящего за рамки схемы обсуждаемого тут механизмического интеллекта.
0 | 0
Аватар
create
Нормология
09:43 31.05.2024 09:50 31.05.2024 №9209
Prosolver:
И мне кажется, что вместо самовнушения "LLM ≡ AGI" полезнее было бы обратить внимание на то, чего LLM в интеллектуальной сфере в принципе делать не могут и почему.
В этом месте есть очередные три передергивания: 1. Чтобы сказать, что LLM не есть AGI было бы неплохо понимать, что такое AGI или по-минимому дать определение интеллекта, показать его устройство и минимальную рабочую модель (если есть таковое понимание). 2. Чего LLM "в принципе не могут делать" - это неизвестно, поскольку можно наблюдать их развитие за два года и видеть, что нет никаких принципиальных ограничений в том, что они делают. 3. Чтобы ответить на вопрос "почему" они что-то не могут делать, нужно понимать как они устроены, а никто здесь не дает себе труда разобраться в этом, а лаврики и цапы не смогут этого сделать в принципе по причине отсутствия требуемого уровня интеллекта и образования. Порог вхождения в проблематику AGI оказался очень высоким, местная публика умеет только отвлеченно "философствовать", этого совершенно недостаточно для предметного обсуждения.
0 | 0
Аватар
create
Нормология
11:17 31.05.2024 №9210
Egg:
нет никаких принципиальных ограничений в том, что они делают
Обращает на себя внимание осторожность этой формулировки. Ведь точнее и проще было бы сказать: "LLM могут делать всё и полностью заменяют человека во всех сферах интеллектуального труда". Но тогда стало бы очевидно, что это не так. Потому что, как минимум, навскидку, LLM не имеют жизненного опыта и не могут оперативно на нём учиться. Они не отвечают на вопрос как работает и что такое сознание и квалиа. Не имеют целеполагания. Не проактивны. P.S. После того как пост был свёрстан, спросил у Великого и Ужасного, что он "понимает" на этот счёт:
Цитата:
Prosolver: Назови принципиальные отличия между тобой и интеллектом человека, что делает интеллект человека на сегодняшний день незаменимым. ChatGPT: Принципиальные отличия между искусственным интеллектом, таким как я, и интеллектом человека включают несколько ключевых аспектов: Сознание и самосознание: Человек: Обладает сознанием и самосознанием, что означает способность осознавать свое собственное существование, мысли и эмоции. Искусственный интеллект: Не имеет сознания или самосознания. Моя работа основана на алгоритмах и данных, и я не обладаю внутренними переживаниями. Эмоции и интуиция: Человек: Обладает сложными эмоциональными переживаниями и интуицией, что позволяет принимать решения на основе чувства, опыта и внутреннего понимания. Искусственный интеллект: Эмоции и интуиция имитируются на основе анализа данных, но это лишь модель, не истинное переживание. Творческое мышление: Человек: Способен к настоящему творческому мышлению, что включает способность создавать что-то новое и оригинальное, выходя за рамки известных данных и алгоритмов. Искусственный интеллект: Может генерировать новые идеи и произведения на основе существующих данных и шаблонов, но это ограничено пределами данных, на которых обучен. Этические и моральные суждения: Человек: Обладает способностью к сложным моральным и этическим суждениям, что связано с личным опытом, культурой и философскими размышлениями. Искусственный интеллект: Может следовать запрограммированным правилам этики, но не способен к собственным моральным суждениям или внутренним оценкам. Адаптивность и обучение: Человек: Обладает высокой степенью адаптивности и способности к самообучению, включая обучение на основе нового опыта и изменение поведения в ответ на новые условия. Искусственный интеллект: Обучается на основе данных и алгоритмов машинного обучения, но его способность к адаптации ограничена возможностями алгоритмов и качеством данных. Контекст и понимание: Человек: Понимает контекст и нюансы в коммуникации и может интерпретировать информацию в широком контексте, включая культурные, социальные и личные аспекты. Искусственный интеллект: Может анализировать контекст на основе данных, но ограничен точностью моделей и качеством данных, что может привести к неверной интерпретации. Эти различия делают человеческий интеллект уникальным и незаменимым во многих областях. Взаимодействие людей, принятие сложных решений, творческая деятельность и моральные суждения требуют уровня понимания и переживания, которые на сегодняшний день не доступны искусственному интеллекту.
Не во всём согласен с этим ответом, но даже железка "понимает", что в теме AGI рано ставить одну точку.
0 | 0
Аватар
create
Нормология
11:41 31.05.2024 00:46 01.06.2024 №9211
Prosolver:
Обращает на себя внимание
Я так понимаю, что по существу ты мне не смог ответить ни по одному из пунктов. Расскажи хотя бы один случай недостижимости LLM, я готов рассказать как и почему это достижимо, если это находится в пределах физических природных законов)))
0 | 0
Аватар
create
Нормология
12:31 31.05.2024 12:32 31.05.2024 №9212
Prosolver:
Ум измеряется...
Увы, ум пока ещё не измеряется, тем более количеством чего-то. Хотя бы потому, что нет единой точки зрения на то, что умом является и что умом не является, не говоря обо всём прочем.
Prosolver:
А Вы не обижайтесь, потенциал человека сравнительно невелик, не стоит переоценивать. Чтобы не разочароваться.
Переоценивать ? Чтобы оценивать, нужно знать пределы и границы, каковые на сей момент не установлены. Иногда, к сожалению, даже минимум не прослеживается - тупо, как автоматы, по заученной программе... Впрочем, что об этом говорить.
Prosolver:
У Вас такая норма (эталон)...
Не норма, а понимание... или Вы тоже поддались соблазну описать весь мир тремя словами ? По моим наблюдениям, бОльшая часть Ваших текстов здесь посвещена переводу <> устоявшихся понятий на свой птичий язык...
Prosolver:
Синтезируете соответствующие механизмы. Имеете право. Но при этом, при всём Вашем усердии, не демонстрируете поведения, выходящего за рамки схемы обсуждаемого тут механизмического интеллекта.
(Я ничего не демонстрирую и не собираюсь. Здесь вроде не сцена и не подиум.) "Механизмический интеллект" ))) Когда в руках молоток, всё вокруг кажется гвоздями.
0 | 0
Аватар
create
Нормология
12:43 31.05.2024 04:51 01.06.2024 №9213
За трижды тремя словами стоит как минимум гипотеза и модель. Гипотезы проверяются годами, десятилетиями, порой даже столетиями. Не вижу в этом ничего криминального. В данном случае существенно то, что уже действующие модели интеллекта себя, мягко говоря, не оправдали. Идеи, способные перевернуть мозги, как правило, трудно находят себе дорогу и уж тем более на столбовой дороге, по которой тучными стадами шастают бездарные потребители всего и вся - не валяются.
0 | 0
Аватар
create
Нормология
12:54 31.05.2024 №9214
Никакой модели и даже отдаленного связного текста за этими словами не стояло и не стоит. Неоднократно было проверено.
0 | 0
Аватар
create
Нормология
13:14 31.05.2024 13:25 31.05.2024 №9215
Вы эти-то три слова прожевать 10 лет не можете. Какая вам модель ! Да и проверялка у вас ещё не выросла )) ... понты одни сплошные, дешёвые. Отождествить... нет, даже только сравнить LLM с ИИ - это надо быть конченным, совершенно безмозглым долбоёбом
0 | 0
Аватар
create
Нормология
18:01 31.05.2024 18:04 03.06.2024 №9216
Luarvik.:
... понты одни сплошные, дешёвые.
Не такие уж и дешевые: хорошие гены, еврейская математическая школа, физтех, работа завотделом ОИ в Газпроме (они до сих пор юзают мои методы), учеба в Торонто у Джеффри Хинтона, сертификаты по пайтону, си и ИНН (CUDA/GPU), награда IEEE (за разработки в области естественно-языковых интерфейсов), должность архитектора в компании Кремниевой Долины. Это если еще не озвучивать стоимость моей недвижимости, в которую я вкладываюсь)))... Вы же никуда дальше слов не ходили. Образования у вас нет (гуманитарное таковым не является), опыта у вас нет, результатов у вас нет. Никаких. Ваши словосочетания заканчиваются на втором этапе смысловыми противоречиями, после чего вы требуете поверить вам на слово (или начинаете изображать из себя девственника и загадочно намекаете про великую тайну, которую обязались хранить), потом начинаете плеваться говном. Всё же задокументировано на готайке, как вас покойный Хмур по вашим интеллектуальным испражнениям мордасой макал и водил... вам даже пришлось удалить свой многолетний Зоопарк топик от стыда... ))))
0 | 0
Аватар
create
Нормология
20:15 31.05.2024 20:26 31.05.2024 №9217
Как это всё старо... Твой "полёт мысли", Егоров, я могу сравнить только с заплывом червя в протухшей луже. Согласитесь, господа заседатели, насколько легко решилась бы проблема ИИ, если бы интеллект измерялся по шкале, предложенной этим... да, иногда земля русская порождает удивительных ментальных уродов: - гены; - школа; - ВУЗ; - должности; - сертификаты; - награды; - ещё раз должности; - (и вишенка на торте !) стоимость недвижимости в собственности; - (ах, да, совсем забыл - вишенка тут) - количество сортов сыра в холодильнике. Скорее всего, такой проблемы даже не возникло бы. Ку ?
0 | 0
Аватар
create
Нормология
23:46 31.05.2024 01:04 01.06.2024 №9218
Luarvik.:
(и вишенка на торте !) стоимость недвижимости в собственности;
Вишенка на торте тут разряд числа стоимости)))) Быть полезным и успешным - это и есть признак развитого интеллекта. Если бы мы все были лавриками, то до сих пор разжигали огонь трением в пещерах под бормотание унылых словосочетаний... 😃😃 Поймите, лавруша, мораль начинается с труда, с его эффективности, со способности менять мир. Быть злобным тупым ничтожеством типа вас совсем не трудно - выгляните из окна и посмотрите как вы засрали свою страну. Быть успешным означает так же быть моральным. Вороватых и подлых нищих я встречал много, моральных и интеллектуально развитых - никогда.
0 | 0
create
Нормология
03:32 01.06.2024 №9219
Egg:
по-минимому дать определение интеллекта, показать его устройство и минимальную рабочую модель (если есть таковое понимание).
В целях преодоления Вашего минимального понимания данного вопроса. Если взять понятие «Суверенитет» (способность некой страны), то показывать надо не устройство суверенитета, а устройство страны, порождающее данную способность. То же самое следует совершать и с понятием «Интеллект».
0 | 0
Аватар
create
Нормология
04:42 01.06.2024 05:24 01.06.2024 №9220
Egg:
... разряд числа стоимости Быть полезным и успешным - это и есть признак развитого интеллекта.
Вот-вот. "Новый Измеритель Интеллекта от Егорова" ! Интересно, какой кретин вдолбил в твою лысую голову это "достижение человеческого разума". Мдэ. Егорова из Ебурга вытащить можно, а вот Ебург из Егорова...
Egg:
Если бы мы все были лавриками, то до сих пор разжигали огонь трением в пещерах под бормотание унылых словосочетаний..
Если бы в тебе было хоть что-то от "лавриков", до тебя давно бы дошло, какой хернёй ты занимаешься.
Egg:
... мораль начинается...
Мораль - для детей и женщин... И ещё для вот таких как ты [моральных] уродов, чтобы было чем оправдываться.
Egg:
... как вы засрали свою страну.
Да между прочим, это и твоя страна, в которую ты срал за милую душу, а потом... свалил. Видимо и в том твоя мораль, чтобы насрать, где живёшь и смыться, пока по рогам не настучали.
Egg:
Быть успешным означает так же быть моральным.
Совсем не удивляет то, что твоя мораль не идёт дальше "базарной торговки". Звкономерно. Логично. Естественно.
Egg:
тра-та-та, бла-бла-бла... я встречал много, моральных и интеллектуально развитых - никогда.
К тебе не относится ни первое, ни второе. Интересная коллизия наблюдается. "Быть моральным = быть успешным." "Быть интеллектуальным = быть успешным." Т.о., интеллектуальность уравнивается с моральностью, на что наш ебургский долбоёб не моргнув глазом претендует, не замечая (ну, это по уму), как [уже традиционно] проговаривается: ведь он таких не встречал никогда... даже в зеркале )))
0 | 0
Аватар
create
Нормология
07:09 01.06.2024 №9222
Egg:
Расскажи хотя бы один случай недостижимости LLM, я готов рассказать как и почему это достижимо
Выше с ChatGPT мы описали ряд принципиальных отличий между LLM и мышлением человека. Но чтобы не превращать и эту ветку в очередную комнату восхвалений LLM, я бы сконцентрировался на одном принципиальном, самом главном, на мой взгляд, отличии. На обучении. LLM не демонстрируют человекоподобного обучения вообще. У всех LLM есть два жёстко разграниченных этапа своей работы - этап тренировки на огромных данных (настройки, итерирования, конфигурирования - называйте как хотите, только не "обучение") и этап использования. Полезного использования, с этим никто не спорит. У человека интеллект работает принципиально иначе. Человек учится "на лету" т.е. применение знаний происходит в процессе их создания/ликвидации. Процесс создания знаний и процесс применения знаний - это один и тот же процесс. Именно это свойство для меня является маркером. Как только любая технология начнёт демонстрировать этой свойство я первый прибегу и буду вопить, что это и есть AGI. А до тех пор мы тут с Сергеем Шуваловым потихоньку пытаемся нащупать подход к именно такому способу обучения.
Luarvik.:
Гипотезы проверяются годами
Уверен, если бы Вы взяли на себя труд попытаться перейти от этой общей (и в целом верной) формулировки к более детальному описанию механизмов рождения гипотез и их проверки, то разногласий в этом топике у нас было бы меньше. Или совсем не было.
0 | 0
Аватар
create
Нормология
09:22 01.06.2024 09:26 01.06.2024 №9223
Prosolver:
я бы сконцентрировался на одном принципиальном, самом главном, на мой взгляд, отличии. На обучении. LLM не демонстрируют человекоподобного обучения вообще.
В этом месте как раз подходит выражение про "шашечки или ехать". Есть еще одно серьезное отличие, на которое ты не обратил внимание - элементная база и архитектура. Текущая реализация LLM - это трансформеры на сетях глубокого обучения. Текущая реализация мозга - нейронный клеточный ансамбль с прочей биологической обвязкой. Есть разница в их устройстве.))) Обучение (во всей строгости) не является демонстрируемой способностью. Самолеты не выращиваются из яйца, а автомобили не нуждаются в подковах. Единственный complaint (= жалоба, но нет хорошего русского эквивалента), который можно было бы предъявить - это отсутствие обучения few-shot. Но тут есть два момента. 1) Человек его тоже не демонстрирует в первые годы, а обучается быстро обучаться уже будучи зрелым. Предобученным. Если этого предобучения нет, человек вообще не демонстрирует интеллекта. 2) LLM может обучаться во время общения, в контекстном окне. Быстро и сразу. И это именно то, что ты называешь "человекоподобным" обучением. Не вижу принципиальных отличий. Осталось "доделать" одну маленькую вещь - добавлять данные из контекстного обучения в главные модели. Думаю, это не простая задача, но работы в этом направлении уже ведутся и (погугли) уже заявлено, что данные сессий будут сохраняться, то есть контекстное обучение для текущего пользователя станет "долговременным". Таким образом, твое главное "отличие" уже устранили... Неси следующее)))
0 | 0
Аватар
create
Нормология
13:10 01.06.2024 №9225
Egg:
Если этого предобучения нет, человек вообще не демонстрирует интеллекта
С этим спору нет. Однако, предобучение человека некоторым базовым примитивам в первые годы жизни и тренировка LLM на бигдате, на мой взгляд, это концептуально разные вещи. При человеческом стиле обучения мы получаем (в потенциале) сверхадаптивное существо, способное строить и менять модель мира оперативно. В случае с LLM модель мира оказывается зацементированной и статичной, что принципиально обусловлено архитектурой.
Egg:
Осталось "доделать" одну маленькую вещь - добавлять данные из контекстного обучения в главные модели. Думаю, это не простая задача
Если это удастся сделать (в чём я сильно сомневаюсь), то я первый прибегу и буду вопить, что AGI создан. P.S. Есть ещё энергетическое соображение, которое указывает на чудовищную неоптимальность LLM. Вот тут пишут (верю), что для тренировки одной языковой модели вроде GPT-3 требуется около 10 ГВт·ч. При этом потребление мозга примерно 20 Вт·ч, за год это примерно 0,000175 ГВт·ч. Т.е. LLM примерно в 114000 раз прожорливей мозга. И это без учёта энергии на саму работу. Есть куда стремиться.
0 | 0
Аватар
create
Нормология
14:03 01.06.2024 №9226
Prosolver:
... если бы Вы взяли на себя труд попытаться перейти <...> к более детальному описанию механизмов рождения гипотез и их проверки...
Выдвижение гипотез по человеческому типу требует наличия сознания. Будет сознание - будут и гипотезы, а не тупой перебор вслепую. Моделированием сознания... Вам известно, кто этим занимается ? Мне - нет. В этом тёмном чулане ещё конь не валялся. Да и у Вас, насколько понимаю, несколько другие интересы.
0 | 0
Аватар
create
Нормология
14:17 01.06.2024 №9227
Prosolver:
Если это удастся сделать (в чём я сильно сомневаюсь), то я первый прибегу и буду вопить, что AGI создан.
Они уже декларируют это. Появится в ближайшей свежей (видимо chatGPT5.0) версии.
Prosolver:
P.S. Есть ещё энергетическое соображение, которое указывает на чудовищную неоптимальность LLM.
Нет. LLM - это концепция, а трансформеры - это текущая реализация. Реализации чудовищны. Никогда с этим не спорил и всегда соглашался. И уже три года занимаюсь тем, что ищу альтернативу глубоким сетям. Судя по последним публикациям о линеаризации смысловых отношений в семиотических ядрах - это возможно.
0 | 0
1
2
3
4
5
6
7
8
9
10
11
12
13
шрифт+
шрифт-
Скачать
Вперёд
Назад

Главная Участники Жалобы  Поиск Исходный код О форуме