Единственное, что меня беспокоило — это Ересь Хоруса. В галактике нет никого более беспомощного, безответственного и безнравственного, чем космодесантник под Ересью Хоруса. И я знал, что довольно скоро мы в это окунёмся.
Вот ты и попался, культист Тзинча.
Её надо вставить в мем return to monke, там ей самое место.
Было такое.
Вообще, сетевое общение - уникальная тема для изучения какими-нибудь психологами.

1. Мы не видим и не знаем нашего собеседника, поэтому часто часто заполняем пробелы своими личными проекциями (нам удобно и комфортно думать, что наши собеседники уступают нам). Люди часто начинают поучать, проявлять снисходительный тон, унижать и проявлять пассивную агрессию даже раньше, чем вообще поймут, о чём идёт разговор.
2. Мы не слышим голос нашего собеседника, и поэтому часто не воспринимаем иронии, дружелюбия, и многое воспринимаем как вызов лично себе.
3. Люди часто врут не стесняясь, потому что не думаю, что их слова можно проверить.
4. Люди часто ведут себя агрессивно из-за безнаказанности, да.

Самые потрясающие конфликты с полным непониманием противоположной стороны я видел именно в сети. Мне
>и Саня
- Ты зачем накринжил?
- Я думал, выйдет база!
"Хулиганы сожгли старому доброму дедушке садовый участок!"
Я в данном вопросе более скептичен и вот почему.

"Начиная с какого-то количества, простые ионные каналы начинают рассуждать про ваху на джое."

Я думаю, что это немного не так. Современные нейронные сети - это буквально математическая обработка исходных образцов и генерация новых образцов/распрознавание образов/распознавание признаков. И только.

Ничего другого данные алгоритмы не выполняют.

"Сейчас считается, что большие языковые модели путь к AGI (см. Scaling hypothesis)."

Думаю, что не получим. Джон Сёрль как раз написал на эту тему свою статью про "китайскую комнату": можно создавать правильные с точки зрения языка предложения, вообще не понимания смысла предложений.

Для сегодняшних реалий: нейронные сети генерируют относительно правильные изображения по определенным математическим правилам, но никакого "понимания" изображенного нигде в алгоритме нет.


"Добавь ещё миллиард, что миллиардов, триллион параметров, подкрути архитектуру и получишь, что нужно".

Не имеет значения, как будет масштабироваться данный алгоритм. Для решения проблемы семантики нужен другой алгоритм/другая технология.

Я понимаю, что в научной фантастике "искусственный интеллект" волшебным образом возникает из "чёрного ящика", когда "обретает самосознание". Но на практике, под сильным искусственным интеллектом понимается система, выполняющая ряд конкретных задач так же, как человек, но быстрее - Марвин Мински (ни про какое "самосознание" тут речи не идёт, так как термин не научный и даже не философский, а скорее художественно-бытовой - о чём тот же роман "Ложная слепота").

Конкретные задачи, которые перечислял тот же Мински, начинаются с распознавания образов (что хорошо решается современными алгоритмами), но дальше включают в себя другие задачи, для которых современные нейронные сети бесполезны.

Забегая в этом разговоре вперёд, я хочу оговориться, что не считаю человеческий интеллект обладающим каким-то невоспроизводимым метафизическим свойством. Это значит, что все способности человека можно так или иначе воспроизвести при помощи тех или иных структур, работающи по тем или иным правилам (примером такой структуры является человеческий мозг). То есть сильный искусственный интеллект возможен. Просто современные нейронные сети не являются таким сильным искусственным интеллектом (и об этом прямо говорят сегодня специалисты MIT: успех нейронных сетей как инструмента не имеет отношения к созданию сильного искусственного интеллекта).
"она ж вообще не понимает"
Она вообще ничего не понимает. Это математическая обработка отобранных исходников. Без семантики или цели.