| |
|
create
|
| 11:23 01.12.2025 |
|
11:56 01.12.2025 |
|
№13279 |
Язык и домены
Определим в пространстве нашего домена следующие сортированные множества (то есть уникальные элементно, упорядоченные по значению):
A -- акторы
𝑇 -- время
𝑆 -- состояния среды
𝑈 -- управляющие воздействия (действия)
𝑀 -- внутренние модели
𝑋 -- стимулы (наблюдения, сигналы)
𝐻 -- пространство памяти (F(𝑆, 𝑋))
𝑅 -- вещественные числа (для меры)
|
| |
|
create
|
| 11:28 01.12.2025 |
|
14:53 01.12.2025 |
|
№13280 |
Для этих множеств можно определить следующие функции
env: T → S -- состояние среды во времени
stim: 𝐴 × 𝑇 → 𝑋 -- стимул, получаемый актором
model: 𝐴 × 𝑇→𝑀 -- внутренняя модель актора
act: 𝐴 × 𝑇 → 𝑈 -- выбранное действие
pred: 𝑀 × 𝑆 × 𝑈 → 𝑆 -- прогноз следующего состояния по модели
next: 𝑆 × 𝑈 → 𝑆 -- фактический переход среды
dist: 𝑆 × 𝑆 → 𝑅 ≥ 0 -- метрика на состояниях
coord: 𝐴 × 𝑇 → 𝑅 ≥ 0 -- мера координации актора со средой
mem: 𝐴 → 𝐻 -- память актора как множество/структура историй 𝐻 (логов)
|
| |
|
create
|
| 11:34 01.12.2025 |
|
13:57 01.12.2025 |
|
№13281 |
На этих множествах можно определить следующие предикаты:
Und (𝑎, 𝑡) -- «актор 𝑎 обладает пониманием в момент 𝑡»
SuccAct (𝑎, 𝑡) — «деятельностный акт актора 𝑎 в момент 𝑡 успешен»
ObjUnd (𝑎, 𝑡) -- «понимание актора 𝑎 объективировано в момент 𝑡»
Corr (𝑎, 𝑡) -- «прогноз и фактическое изменение среды для актора 𝑎 в момент 𝑡 коррелируют»
Meaning (𝑎, 𝑥) -- «стимул 𝑥 имеет смысл для актора 𝑎»
Transf (𝑎, 𝑥, Δ) -- «актор 𝑎, получив стимул 𝑥, воспроизводимо реализовывает трансформацию среды Δ»
VerifCoord (𝑎, 𝑥) -- «координация актора 𝑎 по поводу стимула 𝑥 верифицирована»
Know (𝑎, 𝑥) -- «актор 𝑎 знает нечто, относящееся к стимулу 𝑥»
И пороговые константы:
𝜀 > 0 -- допустимая ошибка прогноза
𝜃 > 0 -- минимальное значение coord, при котором говорим о наличии понимания
|
| |
|
create
|
| 11:39 01.12.2025 |
|
14:55 01.12.2025 |
|
№13282 |
Определение меры координации (операциональное):
∀𝑎 ∈ 𝐴, ∀𝑡 ∈ 𝑇: coord(𝑎, 𝑡) = 𝑓(dist(pred(model(𝑎, 𝑡), env(𝑡), act(𝑎, 𝑡)), next(env(𝑡), act(𝑎, 𝑡))))
где 𝑓: 𝑅 ≥ 0 → 𝑅 ≥ 0 монотонно убывает (меньше ошибка — выше координация).
Аксиома A1 (понимание как порог координации):
∀𝑎, 𝑡 : Und(𝑎, 𝑡) ↔ (coord(𝑎, 𝑡) ≥ 𝜃 ∧ SuccAct(𝑎, 𝑡))
Аксиома A2 (понимание не редуцируется к «владению информацией»):
Введём предикат HasInfo(𝑎, 𝑡) -- «актор обладает некоторой информацией во внутреннем состоянии».
∀𝑎, 𝑡: HasInfo(𝑎, 𝑡) ∧ ¬SuccAct(𝑎, 𝑡) → ¬Und(𝑎, 𝑡)
Простое наличие внутренней информации без успешного акта не считается пониманием.
То есть, понимание — это динамическая мера координации актора со средой, подтверждаемая исключительно через успешный деятельностный акт, а не внутреннее состояние или владение информацией
|
| |
|
create
|
| 11:53 01.12.2025 |
|
14:55 01.12.2025 |
|
№13284 |
Фактическое следующее состояние:
𝑠𝑡 = env(𝑡), 𝑠𝑡+1 = next(𝑠𝑡, act(𝑎,𝑡))
предсказанное:
𝑠^𝑡+1 = pred(model(𝑎, 𝑡), 𝑠𝑡, act(𝑎, 𝑡))
Аксиома B1 (корреляция прогноза и результата):
∀𝑎,𝑡: Corr(𝑎, 𝑡) ↔ (dist(𝑠𝑡+1, 𝑠^𝑡+1) ≤ 𝜀)
Аксиома B2 (объективируемость понимания):
∀𝑎,𝑡: ObjUnd(𝑎, 𝑡) ↔ (Und(𝑎, 𝑡) ∧ Corr(𝑎, 𝑡))
То есть, понимание объективируется в тот момент, когда управляющий сигнал/воздействие актора (трансформированный в действие приёмника) приводит к изменению "реальности", которое коррелирует с прогнозируемой моделью
|
| |
|
create
|
| 12:18 01.12.2025 |
|
14:55 01.12.2025 |
|
№13286 |
Введём:
Δ⊆𝑆×𝑆 -- класс трансформаций среды (переходов 𝑠→𝑠′).
Аксиома C1 (операционная способность трансформации):
Transf(𝑎, 𝑥, Δ) ↔ ∀(𝑠, 𝑠′) ∈ Δ ∃𝑡 ∈ 𝑇: {stim(𝑎, 𝑡) = 𝑥, env(𝑡) = 𝑠, next(𝑠, act(𝑎, 𝑡)) = 𝑠′, dist(pred(model(𝑎, 𝑡), 𝑠, act(𝑎, 𝑡)), 𝑠′) ≤ 𝜀
Актор способен, получая стимул 𝑥x, воспроизводимо реализовывать предсказуемую трансформацию среды.
Аксиома C2 (смысл как операционный эффект):
∀𝑎, 𝑥: Meaning(𝑎, 𝑥) ↔ ∃Δ ≠ ∅: Transf(𝑎, 𝑥, Δ)
Аксиома C3 (смысл не является свойством «знака сам по себе»):
Введём предикат Data(𝑥)
∀𝑎, 𝑥: Data(𝑥) ∧ ¬∃Δ: Transf(𝑎, 𝑥, Δ) → ¬Meaning(𝑎, 𝑥)
То есть, наличие данных без операционной способности их конвертации в предсказуемую трансформацию среды не даёт смысла. Смысл рождается как операционный эффект способности актора конвертировать входящий стимул в предсказуемую трансформацию среды, а не содержится в знаке или данных.
|
| |
|
create
|
| 12:26 01.12.2025 |
|
14:55 01.12.2025 |
|
№13288 |
Введём предикат: VerifCoord(𝑎, 𝑥) -- «координация актора по поводу стимула 𝑥 верифицирована»
Операциональное определение (координация замыкается на результат):
VerifCoord(𝑎, 𝑥) ↔ ∃𝑡: (stim(𝑎, 𝑡) = 𝑥 ∧ ObjUnd(𝑎, 𝑡))
Это означает, что был момент 𝑡, когда актор получил стимул 𝑥, действовал, и его понимание было объективировано (правильный прогноз + фактический результат).
Аксиома D1 (отсутствие понимания и смысла без верифицируемой координации):
∀𝑎, 𝑥: ¬VerifCoord(𝑎, 𝑥) → ¬Meaning(𝑎, 𝑥) ∧ ¬∃𝑡:Und(𝑎, 𝑡) ∧ stim(𝑎, 𝑡) = 𝑥 ∧ ¬Know(𝑎, 𝑥)
Здесь можно разделить более явно:
D1a (нет понимания по поводу 𝑥):
∀𝑎, 𝑥: ¬VerifCoord(𝑎, 𝑥) → ¬∃𝑡: Und(𝑎, 𝑡) ∧ stim(𝑎, 𝑡) = 𝑥
D1b (нет смысла):
∀𝑎, 𝑥: ¬VerifCoord(𝑎, 𝑥) → ¬Meaning(𝑎, 𝑥)
D1c (нет знания):
∀𝑎, 𝑥: ¬VerifCoord(𝑎, 𝑥) → ¬Know(𝑎, 𝑥)
Аксиома D2 (память существует и вне понимания):
∀𝑎: ∃ℎ: ℎ ∈ mem(𝑎) и ∀𝑎, 𝑥: ¬VerifCoord(𝑎, 𝑥) → ∃ℎ ∈ mem(𝑎): ContainsStim(ℎ, 𝑥)
где ContainsStim(ℎ, 𝑥) -- предикат «история ℎ содержит события со стимулом 𝑥».
То есть, вне верифицируемой координации, где внутреннее представление замыкается на фактический результат, нет ни смысла, ни понимания, ни знания — есть только память.
|
| |
|
create
|
| 16:39 01.12.2025 |
|
19:41 01.12.2025 |
|
№13292 |
Понимаю, что могут возникнуть вопросы по поводу этих сообщений. Так, по моему скромному мнению, должна выглядеть формальная система, если мы в самом деле говорим о чем-то формальном. А всё, что пишется доморощеными философами настоящего форума является литературой, причём не очень качественной ни по форме, ни по смыслу...
Все эти вольные пересказы Рассела, вместологии или придурковатые экзерсисы про мышление о мышлении -- это просто почти произвольные наборы слов. Ассоциации по поводу. В поисках самого лучшего набора. Но жестокая проза жизни заключается в том, что интеллектуальный процесс должен иметь исполняющее устройство. Для интеллекта естественного -- это мозг (и тело), для интеллекта искусственного -- это компьютер (с подвижной платформой, набором сенсоров и манипуляторов). Прочие варианты исключены))
Поэтому хотите вы того или нет,
язык Интеллекта - это математика,
а не графоманские писульки)))
|
| |
|
create
|
ИСЧИСЛЕНИЕ ЗАДАЧНО-ОРИЕНТИРОВАННЫХ ПРЕДСТАВЛЕНИЙ (CaTOR)
ЯЗЫК
T — множество задач.
R — множество представлений (моделей, онтологий, описаний).
A — множество действий/решений.
U(R, t) — полезность представления R при задаче t.
Fit(R, t) — бинарный предикат «представление подходит для задачи».
C(a, t) — достигнутое состояние действия a при задаче t.
G(t) — целевое состояние задачи t.
E(a, t) — ошибка решения: отклонение C(a, t) от G(t).
АКСИОМАТИКА
A1. Отсутствие абсолютной истинности представления
∀R ¬∃t (Fit(R, t) ∧ ∀t′ Fit(R, t′))
Нет представления, пригодного для всех задач.
A2. Инструментальность представления
∀R ∃t : Fit(R, t) ↔ U(R, t)>0
Пригодность определяется только полезностью.
A3. Неравенство моделей по эффективности
∃t ∃R1, R2 : U(R1, t) ≠ U(R2, t)
Мнения и модели имеют различную ценность относительно задачи.
A4. Ограниченность любого описания
∀R ∀X ¬(R полно описывает X)
Формально как невозможность биекции между моделью и явлением:
∀R ∀X : ¬(R≡X)
A5. Примат задачи
∀R ∀t : Fit(R, t) → t определяет критерий
A6. Критерий качества — отклонение от цели
∀a ∀t : Quality(a, t) = f(E(a, t)), E(a, t) = dist(C(a, t), G(t))
A7. Цикличность решения
(t → Req(t) → Sel(R ∣ t) → Path(t, R) → a → Eval(a, t))
где
Eval(a, t) = E(a, t)
A8. Адаптация
E(a, t) > 0 → revise(t, Req, R, Path)
ПРАВИЛА ВЫВОДА
R1. Уточнение представления
U(R2, t) > U(R1, t) -> Fit(R2, t)
R2. Отбрасывание представления
U(R, t) = 0 -> ¬Fit(R, t)
R3. Улучшение решения
E(a, t) > E(a′, t) -> a′предпочтительнее a
R4. Корректировка цепочки
E(a, t) > 0 -> revise(⋅)
ТЕОРЕМЫ
T1. Не существует универсальной онтологии (из A1).
T2. Полезность — единственный критерий выбора моделей (из A2 и R1).
T3. Полное описание мира недостижимо (из A4).
T4. Понимание — операционный процесс минимизации ошибки (Understanding(t) = min E(a, t))
T5. Различие «мнений» есть различие их полезности (из А3)
|
|
|