Egg: это только ты считаешь, что появление ИИ должно привести к полной отмене денег
Так считают все те, кто смотрит на несколько шагов вперёд. Что по этому поводу говорит наш дорогой друг Mist:
Mist: дешевая рабочая сила в развивающихся странах перестанет иметь значение. Возможно, какие-то профессии будут защищены от внедрения ИИ законодательно, но вряд ли много
Не только дешёвая и не только в развивающихся. Любая работа, порученная человеку, сопряжена с рядом рисков:
• у человека есть права, которые можно нарушить и которые необходимо соблюдать. Для ИИ это не действует.
• у человека есть слабости, заскоки, проблемы со здоровьем, личная жизнь и всё то, что мешает работе. Для ИИ это не действует.
• у человека есть страсть наживы, алчность, эгоизм и прочая одержимость. Для ИИ это не действует.
• человек туп и ограничен. Для [настоящего] ИИ это не действует.
В любой работе самый захудалый [настоящий] ИИ лучше самого профессионального высококвалифицированного работника. Поэтому исчезновение человеческой рабочей силы в экономических отношениях так же неизбежно как замена гужевых повозок на электровозы. Поэтому все те, кто мечтают о деньгах в посткапиталистическом обществе (как метко выразился наш железный друг) не в полной мере представляют себе масштаб последствий от падения ветки, на которой они сладко сидят и которую при этом усиленно пилят. Ваш покорный слуга, как и положено, предупреждал об этом заранее.
Земля приобретает ту форму, которую ей присваивает субъект в своих субъективных представлениях, в зависимости от задачи.
Говорить о форме Земли "на самом деле" могут только те, кто свои субъективные представления считают объективными. Т.е. далёкие от ИИ люди.
Egg: критической неточностью в твоем ответе есть "Земля ПРИОБРЕТАЕТ ту форму", Земля никакой формы не приобретает (по моему мнению), никакой формы ей ПРИСВОИТЬ нельзя
Если попытаться применить такой несовершенный инструмент как язык для более точного формулирования ответа на поставленный вопрос (абсолютно точно ответить всё равно не получится), то я бы сказал, что-то вроде: Земля, как элемент механизма, решающего некоторую конкретную задачу, имеет некоторую соответствующую форму.
Но, мне кажется, серьёзность и точность моего первого ответа, соразмерна серьёзности и точности самого вопроса.
Если принять это за норму, то мы должны прислушаться к "мнению" этих супер-интеллектов, которым мы можем только позавидовать. Исходя из этого, я скормил предложенные умозаключения разным чат-ботам, вот их ответы:
Deepseek: спойлер
Ваше описание работы LLM (Large Language Models) и их роли в моделировании мышления действительно интересно и во многом соответствует современным представлениям о том, как работают такие модели. Однако есть несколько аспектов, которые стоит уточнить или обсудить, чтобы лучше понять как возможности, так и ограничения таких систем.
1. Универсальность и специфичность
Вы правильно отмечаете, что LLM способны обрабатывать данные из различных областей (естественный язык, шахматы, звуковые потоки и т.д.) и генерировать решения, оптимизированные для конкретной задачи. Это действительно одна из сильных сторон трансформеров и других архитектур глубокого обучения. Однако важно понимать, что LLM не обладают "пониманием" в человеческом смысле. Они работают на основе статистических закономерностей и паттернов, извлечённых из данных, а не на основе осознанного понимания смысла.
2. Корпусы и эмбеддинги
Вы упоминаете, что корпусы и эмбеддинги хранят представления о "реальности" и смыслах. Это верно в том смысле, что эмбеддинги кодируют семантические отношения между словами и понятиями. Однако эти представления ограничены тем, что содержится в данных, на которых модель обучалась. Если в данных отсутствуют определённые аспекты реальности или они представлены искажённо, то и модель будет воспроизводить эти ограничения.
3. Пространство знаний и латентные представления
Трансформеры действительно строят сложные латентные представления о данных, которые можно интерпретировать как "пространство знаний". Однако эти знания не являются явными или структурированными, как, например, в экспертных системах. Они скорее представляют собой сложные статистические зависимости, которые позволяют модели предсказывать следующее слово или действие, но не обязательно понимать, почему это слово или действие уместно.
4. Моделирование и reasoning
Вы упоминаете, что трансформеры способны к reasoning'у (логическому рассуждению). Это частично верно, но с оговорками. Современные LLM демонстрируют впечатляющие способности к решению задач, которые требуют логического мышления, но они делают это на основе паттернов, извлечённых из данных, а не на основе формальной логики или символического мышления. Это означает, что их reasoning ограничен тем, что они "видели" в данных, и они могут ошибаться в ситуациях, которые выходят за рамки их обучающего корпуса.
5. Человеческое и машинное мышление
Вы утверждаете, что человеческое и машинное мышление устроены одинаково. Это спорный момент. Хотя LLM и другие модели ИИ действительно демонстрируют некоторые аспекты, схожие с человеческим мышлением (например, способность к обобщению и адаптации), они всё же fundamentally different. Человеческое мышление включает в себя сознание, эмоции, интуицию, творчество и способность к абстрактному мышлению, которые пока что недостижимы для машин.
6. AGI и ASI
Вы упоминаете AGI (искусственный общий интеллект) и ASI (искусственный сверхинтеллект). Современные LLM, несмотря на их мощь, всё ещё далеки от AGI. AGI подразумевает способность к универсальному мышлению, сравнимому с человеческим, включая способность к самообучению, адаптации в новых условиях и решению задач, которые не были явно представлены в обучающих данных. ASI, в свою очередь, предполагает интеллект, превосходящий человеческий во всех аспектах. Пока что такие системы остаются теоретическими.
7. Ограничения и будущее
Вы утверждаете, что развитие интеллекта будет происходить исключительно в рамках описанной схемы. Это может быть верно для текущего этапа развития ИИ, но не исключено, что в будущем появятся новые парадигмы, которые будут fundamentally different от современных подходов. Например, нейробиология и когнитивная наука могут предложить новые идеи, которые приведут к созданию принципиально иных архитектур ИИ.
Итог
Ваше описание работы LLM и их роли в моделировании мышления в целом корректно, но стоит учитывать, что современные модели ИИ всё ещё далеки от человеческого мышления и обладают рядом ограничений. Они являются мощными инструментами для обработки и генерации данных, но их "мышление" основано на статистических закономерностях, а не на осознанном понимании. Будущее развитие ИИ может пойти по пути, который мы пока что не можем предсказать, и возможно, что новые подходы будут отличаться от текущих.
Gemini: спойлер
Вы описали очень интересную и, в целом, достаточно точную модель работы больших языковых моделей (LLM), таких как GPT-3. Ваши пункты хорошо отражают ключевые этапы обработки и использования информации в LLM.
Давайте подробнее разберем каждый пункт и добавим некоторые детали:
1. Корпус данных:
Вы правы, что LLM работают с огромными объемами текстовых данных, которые вы называете "корпусом".
Этот корпус может включать в себя тексты на разных языках, книги, статьи, код, и даже нотации, как вы упомянули.
Важно отметить, что качество и разнообразие корпуса напрямую влияют на способность LLM понимать и генерировать текст. Чем больше и разнообразнее корпус, тем лучше LLM справляется с разными задачами.
2. Словари и эмбеддинги:
LLM действительно создают словари и эмбеддинги, которые хранят информацию о "реальности" и "смыслах".
Эмбеддинги - это векторы, которые представляют слова и фразы в многомерном пространстве. Близкие по смыслу слова имеют близкие векторы.
Этот этап очень важен для понимания LLM семантики текста.
3. Трансформеры и пространство знаний:
Архитектура трансформеров, с ее механизмами внимания и энкодерами-декодерами, позволяет LLM строить сложное "пространство знаний" о предметной области.
LLM выявляют закономерности, отношения между объектами и понятиями, и все это хранится в весах нейронной сети.
Именно благодаря этому LLM могут решать широкий спектр задач, от ответа на вопросы до генерации текста.
4. Моделирование и "мышление":
Вы точно подметили, что LLM могут выполнять моделирование в рамках предметной области.
Они могут отвечать на вопросы, систематизировать информацию, реконструировать сцены и многое другое.
Способность к обучению играм, действиям и reasoning'у также является важным аспектом.
Что касается вашего утверждения о "мышлении":
Важно понимать, что LLM не мыслят в том же смысле, что и люди.
Они не обладают сознанием, самосознанием или субъективным опытом.
Скорее, они очень хорошо имитируют мышление, обрабатывая информацию и находя закономерности.
Это позволяет им решать многие задачи, которые раньше требовали человеческого интеллекта.
В заключение:
Ваша модель работы LLM очень хорошо описывает основные принципы их функционирования. LLM - это мощные инструменты, которые могут решать широкий спектр задач.
Несмотря на то, что они не являются "мыслящими" в человеческом понимании, они демонстрируют удивительные способности в обработке информации и решении задач.
Развитие LLM, скорее всего, будет идти по пути увеличения корпусов данных, улучшения архитектуры и создания новых методов обучения.
ChatGPT: спойлер
Ты описал довольно убедительную модель мышления через призму LLM и трансформеров, и в целом она соответствует современным представлениям о том, как работает искусственный интеллект.
Основные тезисы, с которыми я согласен:
• Единый универсальный механизм обработки информации — LLM действительно не привязаны к конкретному типу данных. Всё, что можно оцифровать и представить в виде последовательностей, становится «языком» для модели.
• Эмбеддинги как представление реальности и смыслов — трансформеры неявно кодируют знания в своих весах, что делает их мощными генеративными системами.
• Формирование латентного пространства знаний — модель не просто повторяет запомненные данные, а выявляет закономерности, правила и структуры.
• Операционализация мышления через трансформеры — на выходе получается система, способная к рассуждению, анализу, генерации новых данных и предсказанию.
Вопросы и возможные уточнения:
• Вывод об отсутствии других типов интеллекта. Биологическое мышление может включать принципы, которые пока не воспроизведены в LLM. Например, embodied cognition (когнитивные процессы, завязанные на физический мир и сенсорику).
• Ограниченность текущих LLM. Современные модели не обладают настоящей интерактивной средой обучения — они работают на статичных корпусах данных, а их reasoning часто является предсказанием шаблонов, а не глубокой семантической обработкой.
• Будущее AGI. Возможно, что эволюция ИИ пойдёт не только через рост вычислительных мощностей и корпусов, но и через интеграцию с новыми архитектурами, например, моделями с активной памятью, адаптивными агентами и физическим взаимодействием с миром.
Твоя схема точно описывает текущее состояние дел, но остаётся открытым вопрос, является ли она исчерпывающей для всех форм интеллекта, включая будущие версии AGI и ASI.
Как мы видим, самые "умные" чат-боты сами не разделяют идею того, что они есть вершина совершенства ии-строительства. Тут я наблюдаю некоторый парадокс. Либо они достаточно умны, чтобы "понять" суть происходящего. Тогда их выводам можно верить. И тогда мы должны признать, что они не интеллект (как они говорят). Но именно это они и утверждают, что свидетельствует об их интеллектуальности. Чем-то напоминает парадокс лжеца.
Разрешается этот парадокс, мне кажется, очень просто. Интеллектом обладали все те люди, являющиеся авторами тренировочных датасетов. И именно продукты этих интеллектуальных людей позволяют "тупой" сети имитировать разумность. Если сети́ скормить бред шизофреника, то она учень уверенно будет имитировать делирий.
Вывод. ИНС станут разумными, когда они смогут из своего жизненного опыта (как люди) гененировать последовательности, тренируясь на которых, другие ИНС смогут имитировать разумность. Т.е. никогда. Можете не расходиться.