|
Сообщения участника "Gray Tag" | |
| |
|
create
|
| Интеллект на логическо-символьно-смысловой основе - это тупиковый путь |
|
| |
|
create
|
| 01:12 07.12.2025 |
|
01:40 07.12.2025 |
|
№13363 |
Эта скотинка пока очередную порцию говна не выплюнет -- не сможет успокоиться, этот условный рефлекс я выработал у неё на 100%))) Ну и, если честно, с графоманским психодромом о мышлении луврика могут сравниться только работы Кости Вишневского))) Но я признателен, что луврик понимает свой уровень (доморощенного философа-графомана) и не лезет как раньше с обсуждениями))
|
| |
|
create
|
| 12:53 07.12.2025 |
|
13:07 07.12.2025 |
|
№13368 |
коитус: Всё это про информацию и социальную коммуникацию
Нет, это вам показалось. Это всё как раз не про это))) Я вообще не использую термин "информация", если вы не заметили, термин значения и данные гораздо уместнее. Информация - это почти литературный (философский, популяризаторский) термин сейчас, он устарел, в математике и физике используется мало. Кибернетика и теория информации, которые развивал Шеннон, не прижились на древе науки. И я в этой теме говорю не о кодировании, а об восприятии.
коитус: Полностью предсказуемое сообщение не несёт информации — получатель это уже знал, баян, сведения от "капитана очевидность".
В этом месте вы делаете принципиальную ошибку и снова возвращаетесь в кодирование. И русская пословица "повторенье -- мать учения" не пришла вам в голову. А это очень важно.
1) Формирование моделей мира у MVI-агента происходит между сенсорными и эффекторными маппингами, то есть любое воспринятое воздействие среды отображается в изменение внутреннего устройства. Понимание оно не в именованных смыслах, а в связях.
2) Самый простой пример - обучение нейронной сети, где одна и та же "информация" с каждым проходом меняет веса нейронов. Это и есть процесс обучения. Именно это сейчас и работает в LLM.
3) Пример посложнее - Гамлет Шекспира. Например. Может быть любая книга. Гамлет, прочитанный в детстве отличается по смыслу от Гамлета юношеского прочтения, и отличается от Гамлета взрослого. Понятно почему, да? Не изменяется текст, но изменяется читатель. В одну и ту же реку не то, что дважды не войти, в ОДНУ и ТУ ЖЕ нельзя войти даже один раз)))
4) Ну и самое сложное - "Attention Is All You Need" (перечитайте, кстати, хорошая статья). Процесс восприятия так устроен, что область внимания существует локально. Представьте себе, что у вас хорошие мониторы на ушах и вы сводите какую-то композицию. Первый раз вы слушаете бас, второй раз сакс, третий раз голос, четвертый раз тоже голос, но с концентрацией в произношение. И каждый раз -- это новая "информация".
5) Ну и последний аспект. Модель и Сложность. Представление - это модель. То есть некоторый текст (пусть и не на естественном языке, а на языке маппинга сенсоров). Проблема текста в том, что ни явление, ни смыслы не могут быть выражены на нем полно. И более того, нам нужна не полнота, а ее потеря. Именно потеря полноты позволяет нам производить абстрагирование с требуемой достаточностью и решать задачи.
|
| |
|
create
|
| 16:18 07.12.2025 |
|
16:21 07.12.2025 |
|
№13372 |
коитус: По сути мы говорим об одном и том же, только вы гоните "информацию" как что то слишком попсовое, а я считаю, что его можно оставить, если не путать уровни.
Я думаю, что вы просто не очень хорошо понимаете, о чем именно я говорю. Если вы занимаетесь радиотехникой и системами связи, конечно, вам нет смысла менять свои представления о реальности. Но для тех задач, которые я пытаюсь решить - это слишком примитивные и устаревшие парадигмы.
коитус: Трансформеры кстати не очень жалую, ну совсем алгоритм искусственный, режет глаз, как эпициклы, или тёмная материя, уверен вскоре накрутят что то более элегантное, как MLP
И снова я думаю, что вы просто не разобрались с трансформерами, иначе понимали бы, что это следующий уровень организации сетей -- MLP, декодеры, нормалайзеры, эмбеддинги, атеншены и прочие модули в трансформеры просто входят как части, что обеспечить главное - поведение трансформера как рекуррентного обработчика последовательности данных. Чего MLP (даже самому элегантному) просто не добиться в силу своей архитектуры)))
|
| |
|
create
|
| 18:40 07.12.2025 |
|
19:14 07.12.2025 |
|
№13373 |
Господа создатели искусственных интеллектов! На мой просвещенный вкус, процесс создания чего-то отдаленно Интеллектуального начинается с осознания нескольких фундаментальных "вещей":
1. Не существует самого правильного представления (о чем угодно) самого по себе. Не существует самого правильного описания мира. Не существует описания мира как он есть на самом деле. Не существует самой точной онтологии. Не существует абсолютных подходов и систем. Всякое представление комплементарно задаче, которую вы решаете. Представление это точно такой же инструмент как всё прочее. Другой, но тоже инструмент)) Представление может лучше или хуже подходить для решения задач, но не может быть верным или не верным самое по себе.
2. Именно поэтому и мнения разных людей не равны, поскольку одно может быть более полезным, чем другое (по отношению к задаче).
3. Именно поэтому "универсальные" решения слабополезны, а "специализированные" слабопонятны и узкоприменимы.
4. Ни одно представление не может точно и полно описать ни одно явление и ни одно понятие (иначе: ни одно явления, ни одно понятие не может быть полно выражены в моделе или языке). Нет реальности как материальности и нет солипсичности как осознанности. Всё это не более, чем представления, смотри пункт # 1 этого сообщения)))
5. Есть a) примат задачи, есть b) требования к ней, есть c) выбор инструментов, есть d) выбор маршрута решения, есть e) понимание качества решения как сравнения целевого состояния (которого нужно достичь) с текущим. И в этом месте происходит f) коррекция и адаптация всей цепочки решения a) - b) - c) - d) - e)))
Давайте не будет возвращаться к этим очевидным и понятным вещам...
|
| |
|
create
|
ИСЧИСЛЕНИЕ ЗАДАЧНО-ОРИЕНТИРОВАННЫХ ПРЕДСТАВЛЕНИЙ (CaTOR)
ЯЗЫК
T — множество задач.
R — множество представлений (моделей, онтологий, описаний).
A — множество действий/решений.
U(R, t) — полезность представления R при задаче t.
Fit(R, t) — бинарный предикат «представление подходит для задачи».
C(a, t) — достигнутое состояние действия a при задаче t.
G(t) — целевое состояние задачи t.
E(a, t) — ошибка решения: отклонение C(a, t) от G(t).
АКСИОМАТИКА
A1. Отсутствие абсолютной истинности представления
∀R ¬∃t (Fit(R, t) ∧ ∀t′ Fit(R, t′))
Нет представления, пригодного для всех задач.
A2. Инструментальность представления
∀R ∃t : Fit(R, t) ↔ U(R, t)>0
Пригодность определяется только полезностью.
A3. Неравенство моделей по эффективности
∃t ∃R1, R2 : U(R1, t) ≠ U(R2, t)
Мнения и модели имеют различную ценность относительно задачи.
A4. Ограниченность любого описания
∀R ∀X ¬(R полно описывает X)
Формально как невозможность биекции между моделью и явлением:
∀R ∀X : ¬(R≡X)
A5. Примат задачи
∀R ∀t : Fit(R, t) → t определяет критерий
A6. Критерий качества — отклонение от цели
∀a ∀t : Quality(a, t) = f(E(a, t)), E(a, t) = dist(C(a, t), G(t))
A7. Цикличность решения
(t → Req(t) → Sel(R ∣ t) → Path(t, R) → a → Eval(a, t))
где
Eval(a, t) = E(a, t)
A8. Адаптация
E(a, t) > 0 → revise(t, Req, R, Path)
ПРАВИЛА ВЫВОДА
R1. Уточнение представления
U(R2, t) > U(R1, t) -> Fit(R2, t)
R2. Отбрасывание представления
U(R, t) = 0 -> ¬Fit(R, t)
R3. Улучшение решения
E(a, t) > E(a′, t) -> a′предпочтительнее a
R4. Корректировка цепочки
E(a, t) > 0 -> revise(⋅)
ТЕОРЕМЫ
T1. Не существует универсальной онтологии (из A1).
T2. Полезность — единственный критерий выбора моделей (из A2 и R1).
T3. Полное описание мира недостижимо (из A4).
T4. Понимание — операционный процесс минимизации ошибки (Understanding(t) = min E(a, t))
T5. Различие «мнений» есть различие их полезности (из А3)
|
| |
|
create
|
| 17:23 08.12.2025 |
|
17:32 08.12.2025 |
|
№13375 |
Забавно, что полемика вокруг возможности или невозможности создать AGI свелась к вопросу о малтивёрсе.
Если малтивёрс существует и в каждом событийном акте вселенная расщепляется на состояния, численность которых равно всем вариантам продолжения, тогда AGI невозможен в принципе, поскольку будущее неисчислимо. Это, отчасти, перекликается к Теорией Струн, которые оказались слабоприменимы из-за наличия 10500 возможных состояний.
Но если вселенная одна и материальна (или одна и солипсична, что эквивалентно), а биологические процессы -- это синергия химических, которые в свою очередь -- синергия физических, то AGI достижим, даже несмотря на аспекты запутанности, суперпозиции и коллапса волновой функции. Вот такая забавная альтернатива ))
|
| |
|
create
|
| 18:47 08.12.2025 |
|
18:58 08.12.2025 |
|
№13377 |
fkoaafgp: Это по сути тоже самое как спросить «как дальше жить»? Вот ответ
Вы говорите про трудную проблему сознания, я говорю об объективных и независимых от сознания вещах. О парадигмальных. Да и не задавал я никакого вопроса, а привёл как раз два ответа))) Попробуйте погуглить "Multiverse", чтобы попытаться хоть отчасти понять меня...
|
| |
|
create
|
| 19:57 08.12.2025 |
|
19:59 08.12.2025 |
|
№13378 |
Вот главный ключ к пониманию этой проблематики (подсказка -- таким образом можно обойтись без целеполагания):
Экспансия возникает тогда, когда в системе:
• есть свободная энергия
• есть неиспользованные степени свободы
• существует механизм, который превращает энергию в изменение конфигурации
|
| |
|
create
|
| Решатель ARC-задач Франсуа Шолле |
| 19:12 11.12.2025 |
|
19:15 11.12.2025 |
|
№13382 |
mserg: Результаты можно охарактеризовать как очередной обсёр.
Это вполне предсказуемо, соревнование на kaggle публичное, а уже никто не будет показывать код, даже Meta отказалась от такой практики, хотя декларировала таковые намерения.
При этом, новая GPT-5.2 версия Pro преодолела порог 90%, набрав 90.5% на ARC-AGI-1.
На ARC-AGI-2 у неё 52.9%
Мне кажется, что это уже вполне человеческий результат... ))
|
|
|