Логотип

Форум создателей искусственных интеллектов


Логин (email) 
Пароль 
Настройки

Скачать
Тест Тьюринга - современный подход
Аватар
NA
create
16:00 02.02.2021 №107
Каким образом можно отличить пользователя форума от продвинутого чат бота или ИИ. Может ли продвинутый ИИ быть неотличим от гостя на AGI.place
0 | 0
Аватар
NA
create
21:05 02.02.2021 21:17 02.02.2021 №110
В тексте много человеческого проскакивает: надменность, раздражение, бравада, весь спектр эмоций. Окружение человека побивается. Если с ИИ о профессии поговорить, о человеческой работе, обсудить раздражающие, сворачивающие кровь моменты, то тяжело ему будет быть убедительным. Троллинг попробывать можно будет, сарказм. Помимо эмоциональной сферы есть ещё такие моменты как размер оперативной памяти (типа семи элементов), не точность воспроизведения памяти, особенности человеческого мозга в тексте отпечатываются. Но когда появления такого гостя не ждёшь, потому что знаешь что его скорее всего нет, то он может вводить в заблуждение. А если знать и целенаправленно выявлять такого, можно выявить будет. До технологической сингулярности конечно. P.s. Мало человека имитировать, надо всю его жизнь симулировать, всё окружение, всю локацию с её специфической субкультурой.
0 | 0
Аватар
NA
write
10:09 03.02.2021 10:10 03.02.2021 №111
Linner:
В тексте много человеческого проскакивает: надменность, раздражение, бравада, весь спектр эмоций. Окружение человека побивается. Если с ИИ о профессии поговорить, о человеческой работе, обсудить раздражающие, сворачивающие кровь моменты, то тяжело ему будет быть убедительным. Троллинг попробывать можно будет, сарказм. Помимо эмоциональной сферы есть ещё такие моменты как размер оперативной памяти (типа семи элементов), не точность воспроизведения памяти, особенности человеческого мозга в тексте отпечатываются. Но когда появления такого гостя не ждёшь, потому что знаешь что его скорее всего нет, то он может вводить в заблуждение. А если знать и целенаправленно выявлять такого, можно выявить будет. До технологической сингулярности конечно. P.s. Мало человека имитировать, надо всю его жизнь симулировать, всё окружение, всю локацию с её специфической субкультурой.
Да, современные чатботы работают на основе больших БД релевантных ответов на стандартные запросы, как и первые Не прибавить не отнять — "Китайская комната", поиск чуток "нечеткий", на нейронках, но это не важно, суть та же отображение текст=>текст. А Человеческое Сознание там огого сколько намешано, как минимум текст=>образ=>...=>образ=>текст. Человек мыслит сценами, сложными сенсо-моторными образами, а текст это только интерфейс ввода вывода. Пока до этого далеко ещё, большинство тупо кормит стандартные нейронки бигдатой и не сильно парится что происходит, в надежде что ураган соберёт с мусорки боинг.
0 | 0
Аватар
NA
create
11:58 03.02.2021 12:00 03.02.2021 №112
big dick:
Да, современные чатботы работают на основе больших БД релевантных ответов на стандартные запросы, как и первые Не прибавить не отнять — "Китайская комната", поиск чуток "нечеткий", на нейронках, но это не важно, суть та же отображение текст=>текст. А Человеческое Сознание там огого сколько намешано, как минимум текст=>образ=>...=>образ=>текст. Человек мыслит сценами, сложными сенсо-моторными образами, а текст это только интерфейс ввода вывода. Пока до этого далеко ещё, большинство тупо кормит стандартные нейронки бигдатой и не сильно парится что происходит, в надежде что ураган соберёт с мусорки боинг.
а какая разница какими категориями мыслит чат бот? пусть даже и текст-в текст. Но если на поставленные вопросы он выдает адекватные ответы то свои образы можете оставить у себя в голове. Образами бот априори мыслить не может т.к. у него нет глаз и др сенсоров. он может построить модель внешнего мира только по тому описанию которое вы ему дадите в виде текста. и склеить модель внешнего мира из текста у себя в машинном мозгу.
0 | 0
Аватар
NA
write
14:42 03.02.2021 №113
Jenka:
big dick:
Да, современные чатботы работают на основе больших БД релевантных ответов на стандартные запросы, как и первые Не прибавить не отнять — "Китайская комната", поиск чуток "нечеткий", на нейронках, но это не важно, суть та же отображение текст=>текст. А Человеческое Сознание там огого сколько намешано, как минимум текст=>образ=>...=>образ=>текст. Человек мыслит сценами, сложными сенсо-моторными образами, а текст это только интерфейс ввода вывода. Пока до этого далеко ещё, большинство тупо кормит стандартные нейронки бигдатой и не сильно парится что происходит, в надежде что ураган соберёт с мусорки боинг.
а какая разница какими категориями мыслит чат бот? пусть даже и текст-в текст. Но если на поставленные вопросы он выдает адекватные ответы то свои образы можете оставить у себя в голове. Образами бот априори мыслить не может т.к. у него нет глаз и др сенсоров. он может построить модель внешнего мира только по тому описанию которое вы ему дадите в виде текста. и склеить модель внешнего мира из текста у себя в машинном мозгу.
Разница колоссальная, огроменная просто, в случае текст=>текст имеем просто что то типа большого словаря, с поиском по нему. Нет понимания, осмысления, текст это ссылка на образ\сцену\процес, а ссылка не содержит в себе образа объекта\процесса, чтобы текст=>текст алгоритм работал хорошо нужно на каждый вопрос дать ответ, а вопросов и ответов с одинаковым смыслом можно придумать бесконечно, в текстовом пространстве нет "гладкости", его крайне сложно обобщать с помощью МО, почти всё приходится четко запоминать. Китайская комната одним словом. У живых существ в мозгах всё по другому, особенно у нас людей, основа — образный, сенсорно-моторный интеллект, а текст — КОММУНИКАТИВНАЯ НАДСТРОЙКА. Чисто текстовой подход ИМХО — тупиковый.
+2 | 0
Аватар
NA
create
16:53 03.02.2021 №114
big dick:
Разница колоссальная, огроменная просто, в случае текст=>текст имеем просто что то типа большого словаря, с поиском по нему. Нет понимания, осмысления, текст это ссылка на образ\сцену\процес, а ссылка не содержит в себе образа объекта\процесса, чтобы текст=>текст алгоритм работал хорошо нужно на каждый вопрос дать ответ, а вопросов и ответов с одинаковым смыслом можно придумать бесконечно,
тут все зависит от реализации самого алгоритма. некоторым не обязательно постоянно спрашивать а достаточно указать структурное описание "вопрос"-"ответ". а потом подсунуть книжку на вход и он сам распарсит текст где вопрос а где на него ответы. ну это один из вариантов реализации алгоритма. можно даже научить создавать пространственно-временной контекст разговора итд.
big dick:
в текстовом пространстве нет "гладкости", его крайне сложно обобщать с помощью МО, почти всё приходится четко запоминать. Китайская комната одним словом.
нет гладкости это просто недостаток алгоритмов компьютерного представления языка. но это не какая-то непреодолимая проблема. про компьютерные программы тоже можно сказать что они имеют отображение байты -> байты, про человеческий мозг что он отображает импульсы->в импульсы. текст это просто более структурированная информация. как она будет обрабатываться между входом и выходом вот основной вопрос
big dick:
У живых существ в мозгах всё по другому, особенно у нас людей, основа — образный, сенсорно-моторный интеллект, а текст — КОММУНИКАТИВНАЯ НАДСТРОЙКА. Чисто текстовой подход ИМХО — тупиковый.
ввод текста и вывод ответов на экран это тоже форма сенсорно-моторного механизма
0 | 0
Аватар
NA
create
20:02 03.02.2021 №117
Jenka:
тут все зависит от реализации самого алгоритма. некоторым не обязательно постоянно спрашивать а достаточно указать структурное описание "вопрос"-"ответ". а потом подсунуть книжку на вход и он сам распарсит текст где вопрос а где на него ответы. ну это один из вариантов реализации алгоритма. можно даже научить создавать пространственно-временной контекст разговора итд.
Это всё равно что слушать рассуждения дальтоника о цветовой палитре ван Гога. Цена такому собеседнику ноль.
0 | 0
Аватар
NA
create
21:15 03.02.2021 №118
Linner:
Это всё равно что слушать рассуждения дальтоника о цветовой палитре ван Гога. Цена такому собеседнику ноль.
а если ИИ не будет пытаться маскировать свои ограниченные рецепторные возможности фейковыми ответами, а просто учтет свои ограничения в разговоре. Т.е. "дальтоник" ответит вам: 1) "Извините я не различаю цвета и не могу в полной мере оценить этот шедевр." или 2) "Я вижу эту картину совсем по другому, её hex представление очень похоже на представление картины Пикассо" 3) "Я не могу видеть эту картину но читал что она вызывает у всех печаль" эти ответы все ещё кажутся вам бессмысленными?:) сильный ИИ не обязательно должен быть всем похож на человека. просто имея структуру сенсоров похожую на человека облегчается диалог человека с ИИ
0 | 0
Аватар
NA
create
21:39 03.02.2021 №119
Было бы интереснее если бы ИИ не зная ни одной буквы, не одной цифры, но имея сенсоры, и имея возможность вывода информации, пытаясь выйти на связь, самостоятельно изобретал язык коммуникации. Например ему показывают 2 стула, а он выводит 2 точки на экране, или 2 звуковых сигнала. А усваивая наш язык, что бы требовал сенсорную составляющую понятия, аргументируя это тем, что он не понимает что значит этот термин.
0 | 0
Скачать

Главная Участники Жалобы  Поиск Исходный код О форуме