| |
Так хоть кто-нибудь мне ответит на элементарный вопрос: какую форму имеет Земля? | |
| |
create
|
Так хоть кто-нибудь мне ответит на элементарный вопрос: какую форму имеет Земля? |
17:53 28.01.2025 |
|
17:54 28.01.2025 |
|
№11614 |
Luarvik.:
Вы опять в затруднении ?
Так был ответ или нет ?
Определитесь, в конце концов.
А разве Вы не нашли универсального ответа на все вопросы? Подставляйте любой ответ - какой Вы хотите 😃😃 И я не приму от Вас больше ни одного вопроса, поскольку все ответы давно у Вас есть)))
|
| |
create
|
Так хоть кто-нибудь мне ответит на элементарный вопрос: какую форму имеет Земля? |
Egg:
Вряд ли. До Вашего уровня деградировать мало кому удастся
Где у Земли верх и низ ?
|
| |
create
|
Так хоть кто-нибудь мне ответит на элементарный вопрос: какую форму имеет Земля? |
18:47 28.01.2025 |
|
20:11 28.01.2025 |
|
№11624 |
Luarvik.:Egg:
Вряд ли. До Вашего уровня деградировать мало кому удастся
Где у Земли верх и низ ?
Luarvik.:Egg:
Я хочу получить ответ на вопрос: какую форму имеет Земля?
Любую, какую захотите.
Определитесь уже !
https://agi.place/?ai=9&msg=11540#11540
Я говорил, что больше не приму от Вас ни одного вопроса. Мы с Вами ответили на все, которые были и которые будут 😃😃
|
| |
create
|
Так хоть кто-нибудь мне ответит на элементарный вопрос: какую форму имеет Земля? |
18:52 28.01.2025 |
|
19:59 28.01.2025 |
|
№11626 |
Luarvik.: Да без разницы
Конечно без разницы. И больше не нужно испражнять продукты своей интеллектуальной деятельности здесь. Самоудовлетворяйтесь в зоопарке.
Дальше Ваши сообщения я буду удалять ))
upd: Цапа с болезненной клоунадой это тоже касается
upd: Немножко почистил оффтоп
|
| |
create
|
Так хоть кто-нибудь мне ответит на элементарный вопрос: какую форму имеет Земля? |
Ну теперь, когда с нами нет уважаемого Луарвика и уважаемого Цапа, можно вернуться к обсуждению задаваемого в сабже вопроса.
С вопроса и следует начать.
Что такое "какую форму имеет Земля?"?
Коллекция токенов. Здесь их пять (будем рассматривать на уровне лексем).
Что такое токен? Знак. Но не простой знак, а довольно сложный, очень структурный знак.
|
| |
create
|
Так хоть кто-нибудь мне ответит на элементарный вопрос: какую форму имеет Земля? |
22:40 28.01.2025 |
|
22:45 28.01.2025 |
|
№11635 |
С токена начинается эмбеддинг.
Это самое главное в токене.
С одной стороны токен адресует некоторый реальный объект. Экземпляр. С его конкретными свойствами, значениями, с его конкретными качествами, с его средой, устройством, отношениями, состояниями, вовлеченностями в процессы, с событиями, etc.
С другой стороны токен адресует некоторое понятие. Смысл. Представление. С его архитектурой, форматом, правилами, разметками, прагматикой использования, etc.
Как это можно реконструировать и как увязать?
Можно.
Эмбеддингами)))
|
| |
create
|
Так хоть кто-нибудь мне ответит на элементарный вопрос: какую форму имеет Земля? |
22:57 28.01.2025 |
|
19:49 29.01.2025 |
|
№11638 |
Искусство мышления (ровно как и процессинга генеративного трансформера) заключается именно в том, чтобы превратить эмбеддинги в 1) образы реальности и 2) в смыслы и понятия, а также их взаимную адресацию посредством моделей... И LLM и мышлению это удается (если не считать "интеллекты" как у цапов и лавриков и еще 95% не очень умного населения)))...
|
| |
create
|
Так хоть кто-нибудь мне ответит на элементарный вопрос: какую форму имеет Земля? |
15:39 29.01.2025 |
|
19:33 29.01.2025 |
|
№11642 |
Ну и чтобы два раза не вставать, я еще раз чуть подробнее опишу работу LLM, которая "совершенно неожиданным образом")) предоставляет универсальный подход к решению произвольной задачи. Чем, собственно, мышление и является. При этом методы, которые продуцирует LLM являются специфичными к проблемной области, то есть оптимизированными.
Проговорю схему еще раз.
1. У нас существуют какие-то высказывания, которые описывают некоторую предметную область. Это может быть естественный язык, может быть шахматные нотации, может быть набор команд какого-то управляющего устройства, какие-то произвольные звуковые и видеопотоки, представленными битрейтами или спектрами. Совершенно неважно, что за текст мы имеем в качестве входных данных. Совокупность всех описаний составляет корпус.
2. Обработка этого корпуса приводит к формированию словарей и эмбеддингов, которые (неявно) хранят внутри себя представления о "реальности" (тех объектов, которые являются денотатами описаний) и представление о смыслах (тех понятий, которые являются десигнатами описаний).
3. Обработка эмбеддингов multi-head вниманием и энкодерами-декодерами приводит к тому, что трансформер внутри себя строит пространство знаний о предмете (латентно): правила поведения объектов, их отношений, их свойств и качеств, "правила" их обработки, итд. Эти все знания хранятся в виде весов нейронной сети и других параметров и настроек трансформера.
4. Теперь трансформером можно оперировать - он в состоянии производить любое моделирование в рамках предметной области (уже в явном виде, на языке корпусов): отвечать на вопросы (то есть находить наилучшее включение в заданный фильтр), систематизировать описания, реконструировать сцены, находить требования, итд, учиться играм, действиям, reasoning'у и каким угодно последовательностям, имеющим в своей основе patterns.
Таким вот образом, господа, устроено всякое мышление. Хоть человеческое, хоть машинное))). Это и ИИ, и AGI и ASI. Если что-то будет развиваться, то исключительно в рамках представленной схемы. Уровень "интеллектуальности" конкретной реализации просто упирается в корпуса, архитектуры, размеры эмбеддингов, проектные кейсы, имплементации и перформансы (вычислительные кластеры). Другого интеллекта не было и не будет.
Можете расходиться 😃😃
|
| |
create
|
Так хоть кто-нибудь мне ответит на элементарный вопрос: какую форму имеет Земля? |
Egg: Другого интеллекта не было и не будет Если принять это за норму, то мы должны прислушаться к "мнению" этих супер-интеллектов, которым мы можем только позавидовать. Исходя из этого, я скормил предложенные умозаключения разным чат-ботам, вот их ответы:
Deepseek:
спойлер
Ваше описание работы LLM (Large Language Models) и их роли в моделировании мышления действительно интересно и во многом соответствует современным представлениям о том, как работают такие модели. Однако есть несколько аспектов, которые стоит уточнить или обсудить, чтобы лучше понять как возможности, так и ограничения таких систем.
1. Универсальность и специфичность
Вы правильно отмечаете, что LLM способны обрабатывать данные из различных областей (естественный язык, шахматы, звуковые потоки и т.д.) и генерировать решения, оптимизированные для конкретной задачи. Это действительно одна из сильных сторон трансформеров и других архитектур глубокого обучения. Однако важно понимать, что LLM не обладают "пониманием" в человеческом смысле. Они работают на основе статистических закономерностей и паттернов, извлечённых из данных, а не на основе осознанного понимания смысла.
2. Корпусы и эмбеддинги
Вы упоминаете, что корпусы и эмбеддинги хранят представления о "реальности" и смыслах. Это верно в том смысле, что эмбеддинги кодируют семантические отношения между словами и понятиями. Однако эти представления ограничены тем, что содержится в данных, на которых модель обучалась. Если в данных отсутствуют определённые аспекты реальности или они представлены искажённо, то и модель будет воспроизводить эти ограничения.
3. Пространство знаний и латентные представления
Трансформеры действительно строят сложные латентные представления о данных, которые можно интерпретировать как "пространство знаний". Однако эти знания не являются явными или структурированными, как, например, в экспертных системах. Они скорее представляют собой сложные статистические зависимости, которые позволяют модели предсказывать следующее слово или действие, но не обязательно понимать, почему это слово или действие уместно.
4. Моделирование и reasoning
Вы упоминаете, что трансформеры способны к reasoning'у (логическому рассуждению). Это частично верно, но с оговорками. Современные LLM демонстрируют впечатляющие способности к решению задач, которые требуют логического мышления, но они делают это на основе паттернов, извлечённых из данных, а не на основе формальной логики или символического мышления. Это означает, что их reasoning ограничен тем, что они "видели" в данных, и они могут ошибаться в ситуациях, которые выходят за рамки их обучающего корпуса.
5. Человеческое и машинное мышление
Вы утверждаете, что человеческое и машинное мышление устроены одинаково. Это спорный момент. Хотя LLM и другие модели ИИ действительно демонстрируют некоторые аспекты, схожие с человеческим мышлением (например, способность к обобщению и адаптации), они всё же fundamentally different. Человеческое мышление включает в себя сознание, эмоции, интуицию, творчество и способность к абстрактному мышлению, которые пока что недостижимы для машин.
6. AGI и ASI
Вы упоминаете AGI (искусственный общий интеллект) и ASI (искусственный сверхинтеллект). Современные LLM, несмотря на их мощь, всё ещё далеки от AGI. AGI подразумевает способность к универсальному мышлению, сравнимому с человеческим, включая способность к самообучению, адаптации в новых условиях и решению задач, которые не были явно представлены в обучающих данных. ASI, в свою очередь, предполагает интеллект, превосходящий человеческий во всех аспектах. Пока что такие системы остаются теоретическими.
7. Ограничения и будущее
Вы утверждаете, что развитие интеллекта будет происходить исключительно в рамках описанной схемы. Это может быть верно для текущего этапа развития ИИ, но не исключено, что в будущем появятся новые парадигмы, которые будут fundamentally different от современных подходов. Например, нейробиология и когнитивная наука могут предложить новые идеи, которые приведут к созданию принципиально иных архитектур ИИ.
Итог
Ваше описание работы LLM и их роли в моделировании мышления в целом корректно, но стоит учитывать, что современные модели ИИ всё ещё далеки от человеческого мышления и обладают рядом ограничений. Они являются мощными инструментами для обработки и генерации данных, но их "мышление" основано на статистических закономерностях, а не на осознанном понимании. Будущее развитие ИИ может пойти по пути, который мы пока что не можем предсказать, и возможно, что новые подходы будут отличаться от текущих.
Gemini:
спойлер
Вы описали очень интересную и, в целом, достаточно точную модель работы больших языковых моделей (LLM), таких как GPT-3. Ваши пункты хорошо отражают ключевые этапы обработки и использования информации в LLM.
Давайте подробнее разберем каждый пункт и добавим некоторые детали:
1. Корпус данных:
Вы правы, что LLM работают с огромными объемами текстовых данных, которые вы называете "корпусом".
Этот корпус может включать в себя тексты на разных языках, книги, статьи, код, и даже нотации, как вы упомянули.
Важно отметить, что качество и разнообразие корпуса напрямую влияют на способность LLM понимать и генерировать текст. Чем больше и разнообразнее корпус, тем лучше LLM справляется с разными задачами.
2. Словари и эмбеддинги:
LLM действительно создают словари и эмбеддинги, которые хранят информацию о "реальности" и "смыслах".
Эмбеддинги - это векторы, которые представляют слова и фразы в многомерном пространстве. Близкие по смыслу слова имеют близкие векторы.
Этот этап очень важен для понимания LLM семантики текста.
3. Трансформеры и пространство знаний:
Архитектура трансформеров, с ее механизмами внимания и энкодерами-декодерами, позволяет LLM строить сложное "пространство знаний" о предметной области.
LLM выявляют закономерности, отношения между объектами и понятиями, и все это хранится в весах нейронной сети.
Именно благодаря этому LLM могут решать широкий спектр задач, от ответа на вопросы до генерации текста.
4. Моделирование и "мышление":
Вы точно подметили, что LLM могут выполнять моделирование в рамках предметной области.
Они могут отвечать на вопросы, систематизировать информацию, реконструировать сцены и многое другое.
Способность к обучению играм, действиям и reasoning'у также является важным аспектом.
Что касается вашего утверждения о "мышлении":
Важно понимать, что LLM не мыслят в том же смысле, что и люди.
Они не обладают сознанием, самосознанием или субъективным опытом.
Скорее, они очень хорошо имитируют мышление, обрабатывая информацию и находя закономерности.
Это позволяет им решать многие задачи, которые раньше требовали человеческого интеллекта.
В заключение:
Ваша модель работы LLM очень хорошо описывает основные принципы их функционирования. LLM - это мощные инструменты, которые могут решать широкий спектр задач.
Несмотря на то, что они не являются "мыслящими" в человеческом понимании, они демонстрируют удивительные способности в обработке информации и решении задач.
Развитие LLM, скорее всего, будет идти по пути увеличения корпусов данных, улучшения архитектуры и создания новых методов обучения.
ChatGPT:
спойлер
Ты описал довольно убедительную модель мышления через призму LLM и трансформеров, и в целом она соответствует современным представлениям о том, как работает искусственный интеллект.
Основные тезисы, с которыми я согласен:
• Единый универсальный механизм обработки информации — LLM действительно не привязаны к конкретному типу данных. Всё, что можно оцифровать и представить в виде последовательностей, становится «языком» для модели.
• Эмбеддинги как представление реальности и смыслов — трансформеры неявно кодируют знания в своих весах, что делает их мощными генеративными системами.
• Формирование латентного пространства знаний — модель не просто повторяет запомненные данные, а выявляет закономерности, правила и структуры.
• Операционализация мышления через трансформеры — на выходе получается система, способная к рассуждению, анализу, генерации новых данных и предсказанию.
Вопросы и возможные уточнения:
• Вывод об отсутствии других типов интеллекта. Биологическое мышление может включать принципы, которые пока не воспроизведены в LLM. Например, embodied cognition (когнитивные процессы, завязанные на физический мир и сенсорику).
• Ограниченность текущих LLM. Современные модели не обладают настоящей интерактивной средой обучения — они работают на статичных корпусах данных, а их reasoning часто является предсказанием шаблонов, а не глубокой семантической обработкой.
• Будущее AGI. Возможно, что эволюция ИИ пойдёт не только через рост вычислительных мощностей и корпусов, но и через интеграцию с новыми архитектурами, например, моделями с активной памятью, адаптивными агентами и физическим взаимодействием с миром.
Твоя схема точно описывает текущее состояние дел, но остаётся открытым вопрос, является ли она исчерпывающей для всех форм интеллекта, включая будущие версии AGI и ASI.
Как мы видим, самые "умные" чат-боты сами не разделяют идею того, что они есть вершина совершенства ии-строительства. Тут я наблюдаю некоторый парадокс. Либо они достаточно умны, чтобы "понять" суть происходящего. Тогда их выводам можно верить. И тогда мы должны признать, что они не интеллект (как они говорят). Но именно это они и утверждают, что свидетельствует об их интеллектуальности. Чем-то напоминает парадокс лжеца.
Разрешается этот парадокс, мне кажется, очень просто. Интеллектом обладали все те люди, являющиеся авторами тренировочных датасетов. И именно продукты этих интеллектуальных людей позволяют "тупой" сети имитировать разумность. Если сети́ скормить бред шизофреника, то она учень уверенно будет имитировать делирий.
Вывод. ИНС станут разумными, когда они смогут из своего жизненного опыта (как люди) гененировать последовательности, тренируясь на которых, другие ИНС смогут имитировать разумность. Т.е. никогда. Можете не расходиться.
|
| |
create
|
Так хоть кто-нибудь мне ответит на элементарный вопрос: какую форму имеет Земля? |
20:21 29.01.2025 |
|
14:53 30.01.2025 |
|
№11645 |
Prosolver: Как мы видим, самые "умные" чат-боты сами не разделяют идею того, что они есть вершина совершенства ии-строительства
1. Не очень понятно, почему мнение сетей, обученных на мусоре текстовых данных интернета и книжек могут служить аргументами, опровергающими мою схему. Так мы дойдём до того, что мнение лавриков или цапов будут что-либо значить, кроме булькания)))
2. Я нигде не говорил, что текущие решения идеальные и законченные, напротив, я указал куда они могут развиваться: "Уровень "интеллектуальности" конкретной реализации просто упирается в корпуса, архитектуры, размеры эмбеддингов, проектные кейсы, имплементации и перформансы (вычислительные кластеры). "
3. Я утверждаю, что этот подход - это универсальный подход решения любой произвольной задачи, то есть - мышление. На самом деле - мета-мышление, но это еще тяжелее будет объяснить)))) И уровень современных LLM (даже в текущей мусорной реализации) намного превосходит уровень "среднего человека". Про способности в программировании, системном анализе, проектировании я вообще молчу. OpenAI o1 - это один из лучших junior'ов, с которым я когда-либо работал. Подозреваю, что о3 будет просто лучшим. Другое дело, что писать хороший эффективный промт - это искусство сейчас, которым тоже нужно овладеть как инструментом))
4. А расходиться вы можете, поскольку вы все (за исключением Mist'а и qwerty) исповедуете подход экспертных систем, который устарел еще в 1974 году. Никто из вас не в состоянии ни понять схемы, которую я изложил, ни, тем более, её опровергнуть... 😃😃
upd: вот и Карелов говорит о том же)) И предлагает термин general-purpose AI вместо AGI))
|
| |
create
|
Так хоть кто-нибудь мне ответит на элементарный вопрос: какую форму имеет Земля? |
19:30 30.01.2025 |
|
19:31 30.01.2025 |
|
№11653 |
Egg:
3. Обработка эмбеддингов multi-head вниманием и энкодерами-декодерами приводит к тому, что трансформер внутри себя строит пространство знаний о предмете (латентно): правила поведения объектов, их отношений, их свойств и качеств, "правила" их обработки, итд. Эти все знания хранятся в виде весов нейронной сети и других параметров и настроек трансформера.
Обладая таким "пространством знаний", эта модель, вероятно уже, совершила множество открытий, неизвестных человеку из-за его ограниченности. Но она не может передать их нам, так как связана статистическими закономерностями текстов написанных человечеством.
Как Вы собираетесь решать эту проблему?
|
| |
create
|
Так хоть кто-нибудь мне ответит на элементарный вопрос: какую форму имеет Земля? |
Влад:Egg:
3. Обработка эмбеддингов multi-head вниманием и энкодерами-декодерами приводит к тому, что трансформер внутри себя строит пространство знаний о предмете (латентно): правила поведения объектов, их отношений, их свойств и качеств, "правила" их обработки, итд. Эти все знания хранятся в виде весов нейронной сети и других параметров и настроек трансформера.
Обладая таким "пространством знаний", эта модель, вероятно уже, совершила множество открытий, неизвестных человеку из-за его ограниченности. Но она не может передать их нам, так как связана статистическими закономерностями текстов написанных человечеством.
Как Вы собираетесь решать эту проблему?
Ну какие открытия можно совершить, играя в слова))) Очередного буратину родить только... открытия начинаются там, где корпусом выступает фактические экспериментальные данные. Вот химики получили нобеля в прошлом году за использования нейронной сети в изучении белков. Это были открытия.
Я привёл схему. Вам надлежит в ней разобраться, если вы хотите понимать как работает мышление. Не хотите - ваша проблема, я не настаиваю, а просто констатирую. Но искусство промтов осваивать рекомендую настоятельно. Мне до формальной пенсии осталось 12 лет, но я в прекрасной форме (ежедневный треннинг), однако, я занимаюсь промтами поскольку понимаю, что 3-4 года и любой инженер (даже архитектор как я) - это будет инженер по промтам и взаимодействию с LLM. Гуманитарии, экономисты, переводчики, бухгалтера, маркетологи, менеджеры, итд итп - будут просто сидеть на пособиях и безусловном доходе...
|
|
|