| |
Решатель ARC-задач Франсуа Шолле | |
| |
write
|
Решатель ARC-задач Франсуа Шолле |
Egg:mserg: Но сколько бы мои коллеги не пытались применить LLM в коммерческих целях для наших задач - да, частично работает, однако шкурка выделки не стоит.
Опять Вы вместо фактов, пытаетесь свои унылые суждения пропихнуть. Может быть просто Ваши коллеги не тем заняты?))) Они - охранники или доставщики пиццы? Я привел три свежих ссылки, где мои коллеги успешно решают свои задачи и увеличивают доходы с помощью LLM.
https://agi.place/?ai=9&msg=11282#11282
Что только люди не рассказывают. Одни рассказывают, что проходят тесты Шолле.
Другие рассказывают, что зарабатывают с помощью LLM. А некоторые пробуют и не зарабатывают, и ничего не рассказывают. И где ответ на вопрос, что же в среднем? Требуется независимое корректное исследование на этот счет, а не просто ссылки.
Из компаний, на которые сделаны ссылки, я сталкивался только с Salesforce. Они пытались Зибель заменить в Бритиш Америко Табакко. 3 раза пыталась, и все три раза обосрались, но деньги за работу получили. Зарабатывают, да, тут я не спорю.
В реальности заявления компаний - это "мы уверены", "мы прогнозируем", "мы сократили", "мы наймем", "мы заменим", "мы используем", и т. п. Не понятно, где тут трындеж, где правда, и что из "мы прогнозируем" сбудется.
Маск заявлений никаких не делал, просто уволил 80% в твиттере. И что? А ничего. Все то же самое.
|
| |
create
|
Решатель ARC-задач Франсуа Шолле |
06:38 14.01.2025 |
|
06:39 14.01.2025 |
|
№11321 |
Egg:Цап: В определении, которое вы приводили, используется слово "заработает".
Снова врете, я не приводил, а вольно переводил с английского, а потом специально для идиотов написал ключевые слова на анлийском))) CEO Майкрософта не говорит по-русски, мой наивный недалекий Цап)))
"вольно переводил" .... определение )
При своем пиетете к текстам вы довольно небрежны к значению слов. Вы также небрежны и при кодировании? То что вы кодируете вообще работает? )
|
| |
write
|
Решатель ARC-задач Франсуа Шолле |
Egg:mserg: Что только люди не рассказывают
Да-да-да, вы там в своём колхозе ИИ применить не смогли, значит это нигде работать не может))) Я Вам уже говорил, потерпите лет пять, мы в Ваш колхоз потом бусы, наконечники для стрел и ИИ продадим. ))) Как продовали до этого всё, что называется техническим прогрессом) Поможем, огонь трением добывать не прийдется 😃😃
ИИ применить смогли, но не LLM.
|
| |
write
|
Решатель ARC-задач Франсуа Шолле |
Egg:mserg: ИИ применить смогли, но не LLM.
Да нет никакого ИИ, есть ML)). Разобрались с 13ой гильбертовой проблемой или нет еще?
Есть путанная терминология и каждый путает ее как может. Общего определения ИИ не существует.
На счет "13ой гильбертовой проблемой" - я не понимаю, что там можно не понять. Если память меня не подводит, то ее формулировка не выходит за рамки (советской) средней школы. Она как бы намекает как "недорого" можно (попытаться) приближенно описать (сложную) непрерывную функцию многих переменных. Ну так и что с того?
Выше уже разобрано, почему аппроксиматор не работает на новых задачах Шолле. Все эти чистые LLM больше 5% не дают - сам Шолле об этом и рассказывал в своей статье. И что openai сделали, чтобы вылезти из этих 5%.
Внятного ответа о средней эффективности применения LLM и области применимости получить невозможно. Организационная возня и поток сознания разных деятелей относительно будущего - где тут достоверная информация, которой можно верить? То ли есть результаты, то ли господа хотят стоимость акций поднять на модной теме, то ли они просто идиоты - ну, я не знаю. Если кто знает - имеет смысл пойти в соответствующую тему.
Так что пока Андрей тему "Решатель ARC-задач Франсуа Шолле" не почистит от мусора - я, пожалуй, откланяюсь.
|
| |
create
|
Решатель ARC-задач Франсуа Шолле |
Egg:Цап: При своем пиетете к текстам вы довольно небрежны к значению слов. Вы также небрежны и при кодировании? То что вы кодируете вообще работает?
Перевести точно невозможно))
Слова не содержат значений))
....
Я ничего не кодирую, но если Ваша слабость ума вызвана злоупотреблением алкоголем - конечно, закодируйтесь, а лучше просто завязывайте.
Оставлю это, так как вы со временем удаляете свои комментарии и темы.
Egg, вот если ребенок с детсадика всех уже называет идиотами, недоумками, нищебродами... что из него вылупится в будущем?
....а ничего.
Ничего разумного из такого ребенка не вырастает. А, чтобы демонстрировать взрослость, он будет прикрываться цитатами авторитетов, съезжать на неточности перевода и превозноситься в своих глазах, оскорблениями окружающих ....
|
| |
create
|
Решатель ARC-задач Франсуа Шолле |
06:50 17.01.2025 |
|
06:51 17.01.2025 |
|
№11332 |
У разумного существа есть этика. Этика отсутствует у тупых машин. Этика отсутствует у вас, Egg.
И потом, ваши определения AGI.... "AGI - это то, что принесет доход в 100 лярдов"... И это именно ваше определение..., которое имеет довольно косвенное отношение к разумности. Ведь, чтобы заработать состояние на перепродаже шнурков, достаточно быть.. "китайской комнатой" ...это, кстати, и есть ваш уровень "LLM-разума". ....Нужно быть обычным коммерсантом, чтобы вложиться и перепродать китайскую комнату с ребрендингом LLM как нечто искусственно-разумное...
|
| |
create
|
Решатель ARC-задач Франсуа Шолле |
Новая затея от Франсуа Шолле: ARC‑AGI-2. Пишут, что все популярные чат-боты тест провалили.
|
| |
write
|
Решатель ARC-задач Франсуа Шолле |
Чистый LLM, ожидаемо:
gpt-4.5 (Pure LLM) - 0%
Лучший результат:
o3-low (CoT + Search/Synthesis) - 4%
Мне кажется, что Open AI уже слили в этой теме несколько миллионов - только разовое прохождение тестов у них было ~$350k.
Так что продолжим....
|
| |
create
|
Решатель ARC-задач Франсуа Шолле |
Prosolver:Новая затея от Франсуа Шолле: ARC‑AGI-2. Пишут, что все популярные чат-боты тест провалили.
Человек, взирая на эту картинку (вопрос из Arc AGI-2), понимает, что это задача на операции в системе (элементов). Наблюдая за изменениями выражения (взаимного положения элементов, состояния) системы на приведенных примерах, он подмечает особенности и правила данной системы. Затем следует расчет преобразования взаимного положения элементов (выражения, состояния) системы из исходного (вопрос из Arc AGI-2) в требуемое состояние, по подмеченным принципам.
|
| |
write
|
Решатель ARC-задач Франсуа Шолле |
Припоминаю, что задачи, подобные указанной выше, есть в первой версии Arc-задач.
Парсинг и статистика дает следующее:
* Размеры входного и выходного изображения совпадают
* Желтая фигура остается на месте
* Прочие (монохромные) фигуры входа транслируются аффинным преобразованием в фигуры на выходе один к одному
* Фигуры (многоцветные из-прилепившихся к ним красных точек) существуют в выходном изображении ровно 1 раз (в выходном изображении парсинг их не выделяет - речь идет о попиксельном существовании)
* Количество красного уменьшается в 2 раза
* Исчезнувшие красные цвета (суммарно) превращаются в черные (суммарно)
По прикидкам, учет всего этого дает систему алгебраических уравнений, которая приводит к решению. Но это не точно.
|
| |
create
|
Решатель ARC-задач Франсуа Шолле |
Обычный человек в приведенных примерах (вопрос из Arc AGI-2) видит
«квадратную» сетку — меру вмещения в данной «системе». Поэтому
искать требуемую комбинацию он будет, изменяя взаимное положение
элементов с учетом подмеченных принципов, т.е. комбинаторно.
|
|
|