AGI.place

Форум создателей искусственных интеллектов


Логин (email) 
Пароль 
Настройки

шрифт+
шрифт-
Скачать
Вперёд
Назад
1
2
3
4
5
6
AGI
Аватар
create
AGI
09:28 07.07.2024 №9942
Prosolver:
Эти места я отдельно процитировал и выделил. Он не использует термин "норма", но использует синонимы. Можно назвать это fineлогия. За имена я не держусь, главное - механизм.
Я понял, что ты выделил и процитировал, я не увидел, например, в этом "It just gives you a headline of how things are going" ни нормы, ни механизмов)))
0 | 0
Аватар
create
AGI
09:54 07.07.2024 №9943
Egg:
я не увидел, например, в этом "It just gives you a headline of how things are going" ни нормы, ни механизмов
По-моему тут всё прозрачно. "things" - это ведь всё, а не что-то конкретное, исключительное.Поэтому в других местах он говорит "everything's running", "everything's going". А что это значит в свою очередь? Это значит, что для всего (всего!) у человека должно быть: 1) представление о том "как всё двигается правильно" 2) постоянный контроль над тем, всё ли двигается правильно или неправильно (ненормально). Т.е. постоянное сравнение того, как должно быть, с тем, как оно есть сейчас. Вот где норма. А механизм - это "are going". Всё, что работает правильно/неправильно, работает во времени, развиваясь, продолжаясь. Вот где механизм.
0 | 0
Аватар
create
AGI
10:07 07.07.2024 10:09 07.07.2024 №9944
Prosolver:
Т.е. постоянное сравнение того, как должно быть, с тем, как оно есть сейчас.
Не уверен, чтобы в слове things есть смысл "как это должно быть", а в глагольной форме "are going" - как оно есть сейчас. ))) На мой вкус, это образчик редкостного бреда, уже далеко за пределами добра и зла.
0 | 0
Аватар
create
AGI
10:20 07.07.2024 №9945
Egg:
это образчик редкостного бреда
Т.е. things are going wrong.
0 | 0
Аватар
create
AGI
10:27 07.07.2024 №9946
Prosolver:
Egg:
это образчик редкостного бреда
Т.е. things are going wrong.
Things are going differently, norma-logic is completely wrong))
0 | 0
create
AGI
14:17 07.07.2024 №9951
Egg:
Дэвид Иглман довольно внятно рассуждает о том, что такое сознание. Тем, кто как Цап не знает английский язык рекомендую воспользоваться средствами перевода от искусственного интеллекта...
Вот начал же правильно двигать мысль про то, как разворачивается сознание - но под занавес все опошлил: представьте, что мозг это приемник. Екарный бабай... Все пазлы были на руках, вместо того чтобы просто их сложить, взял их и раскидал.
0 | 0
Аватар
create
AGI
14:24 07.07.2024 №9952
AlexPar:
Екарный бабай...
Знакомы с Кузнецовым? Что он говорит про ваши теории сознания?
0 | 0
create
AGI
14:32 07.07.2024 №9953
Egg:
AlexPar:
Екарный бабай...
Знакомы с Кузнецовым? Что он говорит про ваши теории сознания?
Я про того, кто в видео объяснял, что такое сознание. Зачем было переходить на аналогию, что мозг это приемник, что объясняет потерю сознания при повреждении мозга.
0 | 0
Аватар
create
AGI
14:37 07.07.2024 №9955
AlexPar:
Я про того, кто в видео объяснял, что такое сознание. Зачем было переходить на аналогию, что мозг это приемник, что объясняет потерю сознания при повреждении мозга.
Я понял про кого вы, вы не поняли, про кого я. Я для вас веточку открыл. Про сознание. Расскажите нам как правильно программировать сознание. Код ваш на go я посмотрел, качество приемлемое, но имплементации сознания не нашел((((
0 | 0
Аватар
create
AGI
20:38 07.07.2024 20:39 07.07.2024 №9973
Довольно известная сетевая персона Lex Kravetski рассуждает на русском про искусственный интеллект и о том, насколько текущая имплементация LLM является AGI
0 | 0
Аватар
create
AGI
22:02 07.07.2024 22:04 07.07.2024 №9975
Ой, лошарик увидел себя в этом зеркале и понял, что его интеллект не дотягивает до chatGPT'шного... Даже мультик не досмотрел до конца, судя по времени сообщения)))) Это типично для лошариков: они пастернаков не читают, но докторов живагов осуждают... Да, дедуль, ваша троица (ты + Цап + Влад) - лучшая иллюстрация того, что средний человечек уступает примерно в 100500 раз средней реализации LLM
0 | 0
Аватар
create
AGI
00:28 08.07.2024 №9976
Подкаст с Dario Amodei - CEO of Anthropic, который начинал в OpenAI и еще не известно, кто автор самых ценных идей в имплментации))) Подкаст имеет транскрипт, если вы читаете на английском лучше, чем слушаете...
0 | 0
Аватар
create
AGI
14:01 08.07.2024 №9996
Попалось в ленте, выложу сюда, вдруг кто-то захочет освежить в памяти... Теория информации. Введение Математическая теория связи Шеннона определяет фундаментальные пределы того, сколько информации может передаваться между различными компонентами любой искусственной или биологической системы. Эта статья представляет собой неформальное, но строгое введение в основные идеи, заложенные в теории Шеннона. Для дальнейшего чтения предоставляется аннотированный список литературы. https://arxiv.org/abs/1802.05968
0 | 0
Аватар
create
AGI
15:34 08.07.2024 №10001
Patterns of synchronized clusters in adaptive networks Адаптивные сети с изменяющейся во времени связностью, часто называемые пластичностью, обеспечивают фундаментальную парадигму для моделирования сложных динамических систем. В этих системах разные группы элементов часто демонстрируют разную, но синхронизированную динамику внутри каждой группы. Здесь мы предлагаем структуру для изучения закономерностей синхронных решений в большом классе пластических сетей и выводим общий подход к анализу устойчивости этих решений. Этот подход отделяет роль сетевой топологии от роли динамической, что приводит к уменьшению размерности проблемы устойчивости и позволяет нам исследовать, как адаптация влияет на возникновение мультистабильных паттернов синхронизированной активности. Чтобы проиллюстрировать его возможности, мы применяем наш метод к трем сетям осцилляторов с различной топологией, динамикой и правилами адаптации. Наша рабочая среда охватывает большой класс гетерогенных многослойных динамических сетей, связанных (даже с задержками) через различные пластические связи, и может оказать широкое влияние на анализ сложных пластических сетей. https://www.nature.com/articles/s42005-024-01688-5
0 | 0
Аватар
create
AGI
11:00 10.07.2024 11:01 10.07.2024 №10065
Трогательная статья про поверженного машинным интеллектом человека... Defeated by A.I., a Legend in the Board Game Go Warns: Get Ready for What’s Next "Ли Сэдол был лучшим игроком в го своего поколения, когда он потерпел решающее поражение, потерпев поражение не от человека, а от искусственного интеллекта. Г-н Ли был избит AlphaGo, искусственным интеллектом, компьютерная программа, разработанная подразделением Google DeepMind. Потрясающее потрясение 2016 года попало в заголовки газет по всему миру и выглядело как явный признак того, что искусственный интеллект вступает в новую, глубоко тревожную эпоху. Победив г-на Ли, 18-кратного чемпиона мира, известного своим интуитивным и творческим стилем игры, AlphaGo решила одну из величайших задач информатики: научилась абстрактной стратегии, необходимой для победы в го, которая широко считается самой сложной доской в ​​мире. игра. «Я очень удивлен, потому что никогда не думал, что проиграю», — сказал тогда г-н Ли на послематчевой пресс-конференции. «Я не знал, что AlphaGo сыграет такое идеальное Го». Но последствия его поражения выходят далеко за рамки самой игры, в которой два игрока соревнуются за территорию, размещая черные и белые камни на доске с сеткой, состоящей из 19 линий на 19 линий. Победа AlphaGo продемонстрировала необузданный потенциал искусственного интеллекта. достичь сверхчеловеческого мастерства в навыках, которые когда-то считались слишком сложными для машин. Г-н Ли, которому сейчас 41 год, вышел на пенсию три года спустя, убежденный, что люди больше не могут конкурировать с компьютерами в Го. По его словам, искусственный интеллект изменил саму природу игры, зародившейся в Китае более 2500 лет назад." https://www.nytimes.com/2024/07/10/world/asia/lee-saedol-go-ai.html
0 | 0
Аватар
create
AGI
13:23 10.07.2024 №10083
Flexible multitask computation in recurrent networks utilizes shared dynamical motifs Гибкие вычисления — отличительная черта разумного поведения. Однако мало что известно о том, как нейронные сети контекстно перенастраиваются для различных вычислений. В настоящей работе мы определили алгоритмический нейронный субстрат для модульных вычислений посредством исследования многозадачных искусственных рекуррентных нейронных сетей. Анализ динамических систем выявил изученные вычислительные стратегии, отражающие модульную структуру подзадач набора обучающих задач. Динамические мотивы, которые представляют собой повторяющиеся шаблоны нейронной активности, реализующие определенные вычисления посредством динамики, такие как аттракторы, границы принятия решений и вращения, повторно использовались в разных задачах. Например, задачи, требующие запоминания непрерывной круговой переменной, перепрофилировали один и тот же кольцевой аттрактор. Мы показали, что динамические мотивы реализуются кластерами единиц, когда функция активации единицы ограничивается положительной. Кластерные поражения вызывали модульный дефицит производительности. Мотивы были переконфигурированы для быстрого переноса обучения после начальной фазы обучения. Эта работа устанавливает динамические мотивы как фундаментальную единицу композиционных вычислений, промежуточную между нейроном и сетью. Поскольку исследования всего мозга одновременно регистрируют активность множества специализированных систем, структура динамических мотивов будет определять вопросы специализации и обобщения. https://www.nature.com/articles/s41593-024-01668-6
0 | 0
Аватар
create
AGI
09:36 11.07.2024 №10121
Котенков послушал свежее интервью Microsoft CTO Kevin Scott и пишет: "Почти всё обсуждение строилось вокруг AI и дальнейшего развития. Microsoft вообще чем-то другим занимается? — вопреки мнению многих скептиков, пока не видно уменьшения эффективности масштабирования моделей. Делаешь больше, учишь дольше — получаешь модель лучше — к сожалению, людям это сложнее прочувствовать, так как вместо наблюдения за кривой развития мы лишь получаем одну точку (фронтир модель) раз в сколько-то месяцев или лет, так как датацентры нужно построить, инженерные задачи для масштабирования — решить — и несмотря на то, что размеры тренировочных кластеров и не думают уменьшаться, с ростом полезности моделей и проникновения их в экономику затраты на развёртывание и применение будут в разы больше оных на обучение. Тем более кластер для применения можно делать куда меньше, а инженерных задач хоть и больше (или скорее они разнообразнее, и позволяют креатив), но и скорость итераций выше — ведь обучение моделей занимает месяцы и стоит сотни миллионов долларов. — Scott снова рассказывает (прошлый раз был весной), что следующая фронтир модель OpenAI докажет тезисы выше, мол, развитие не замедляется, масштабирование как работало последние 6 лет, так и продолжает, и стоит рассчитывать на существенные улучшения по всем направлениям. Конечно, легко списать все подобные заявления на хайп или попытку втюхать что-то, и именно поэтому следующее поколение моделей будет важным (хотя даже там найдутся дурачки, которые будут говорить «не ну это то понятно, но вот ДАЛЬШЕ-то уже не будет развития!»). Хорошо, что хотя бы слова и дела Microsoft не расходятся — ведь они инвестируют десятки и сотни миллиардов долларов в инфраструктуру в расчёте получить с этого прибыль И как раз к вопросу про тренировочные кластера и вычислительные мощности: 1. Elon Musk говорит, что Grok 2 уже дотренировали и сейчас полируют, скоро должен выйти (мб в следующем месяце) 2. Grok 3 планируется на конец года, и по словам Elon будет тренироваться на кластере из 100'000 H100. Очень лихо Musk запрыгнул на поезд кластеров, карты-то в дефиците, а он смог раздобыть мощности. Для справки: GPT-4 в 2022м году тренировали на 25'000 карт прошлого поколения. 3. OpenAI и Microsoft не спят и тоже заключают партнёрство с Oracle, чтобы ко второй половине 25го года построить кластер на 100'000 GB200 — это уже карты следующего поколения, каждая состоит из двух чипов, а значит как минимум в два с копейками раз мощнее. Мысленно можете читать это как 200'000. Интересно, на нём нём ли будут тренировать GPT-6?"
0 | 0
Аватар
create
AGI
13:41 11.07.2024 №10122
Synchron Announces Brain Computer Interface Chat Feature Powered by OpenAI https://www.businesswire.com/news/home/20240711493318/en/Synchron-Announces-Brain-Computer-Interface-Chat-Feature-Powered-by-OpenAI Благодаря передовой системе генеративного искусственного интеллекта OpenAI Synchron еще больше расширяет возможности своей технологии BCI, позволяя людям с тяжелым параличом, потерявшим подвижность верхних конечностей, взаимодействовать с цифровым миром без помощи рук, только посредством мысли. Функция чата Synchron BCI, основанная на OpenAI, проста в использовании и в освоении. Теперь он может генерировать автоматические подсказки для текстовых сообщений и общения в чате, классифицированные по контексту, включая эмоции пользователя. Эта интеграция отражает приверженность компании инновациям в области нейротехнологий, ориентированным на пациентов. Synchron не передает данные мозга пользователя BCI OpenAI. «Как человек, который, скорее всего, потеряет способность общаться по мере прогрессирования моей болезни, эта технология дает мне надежду, что в будущем у меня все еще будет возможность легко общаться с близкими. Это изменит правила игры», — сказал Марк, человек, живущий с БАС и использующий платформу Synchron BCI.
0 | 0
Аватар
create
AGI
16:48 11.07.2024 №10125
Хорошо контролируемая компьютерная видеографика, ориентированная на применение в Холивуде, основанная на использовании генеративный моделей: https://odyssey.systems/
0 | 0
Аватар
create
AGI
19:09 12.07.2024 №10136
This is either a dream or a nightmare for Hollywood studios. An actor's performance can now be modified with realistic facial expressions (or exaggerated caricature ones). Acting performance can now be adjusted in post production, no more re-shooting. Will Oscars for acting performance become redundant in the future?
0 | 0
1
2
3
4
5
6
шрифт+
шрифт-
Скачать
Вперёд
Назад

Главная Участники Жалобы  Поиск Исходный код О форуме