Благодарю, совсем запамятовал
Я нормально отношусь к концовке ME3 (сомнительно, но окэй), но оба варианта довольно вторичные.

Официальная концовка - это одна из бесчисленных в культуре форм Максимизатора Скрепок (https://lesswrong.ru/wiki/%D0%9C%D0%B0%D0%BA%D1%81%D0%B8%D0%BC%D0%B8%D0%B7%D0%B0%D1%82%D0%BE%D1%80_%D1%81%D0%BA%D1%80%D0%B5%D0%BF%D0%BE%D0%BA). Это, конечно, лучше, чем Безусловно Злой ИИ (особенно после всей сюжетной арки гетов), но все же не ново.

А "сценарий Карпишена" - это одна из серий звёздного пути, где оказалась, что варп разрешает космос. Возможно, было раньше где-то тоже.
Ретранслятор на Илосе работает в одну сторону - на Цитадель.
Эти споры в том или ином виде старше, чем интернет. Star Trek vs Star Wars vs LEXX vs Babilon V vs Stargate vs Mass effect vs WH40 vs ...
Пресловутый более лучший сценарий, который так же трещит по швам.
> Использование нулевого элемент разрушает пространство
> Оставим артефакты прошлых циклов и наши технологии, чтобы все новые и новые циклы шли по пути использования нулевого элемента, миллиарды существ летали, использовали ретрансляторы итп
> Будем гонять туда-сюда огромный флот креветок на нулевом элементе и устраивать эпичные побоища
Душнить так душнить.
С циклами в 50 тысяч лет безопасно оставлять цивилизации не достигших даже уровня нашего палеолита (10 т. лет назад). Ошибка может быть фатальной. Если оставить цивилизацию на уровне, к примеру, земного 0 века (ну что такое две тысячи лет по меркам космоса?), то к следующему циклу, эта цивилизация (если не вымрет) будет уже как 48 тысяч лет как достигшая космической эры. И кто знает, чего они за это время смогу достичь, так что да, вполне может быть WH40.

З.Ы. С другой стороны, возможно, наблюдается предел развития. Азари нашли цитадель 2.5 тысячи лет назад, и с тех пор прогресс не сопоставим с аналогичным периодом для человеческой цивилизации.
Я и не вел речь ни о самосознании (self-awareness), ни о сознании (феноменологическое сознание, квалия и прочая хрень).

Гипотеза 1: для выполнения возлагаемых на ИИ задач, втч задач, связанных с пониманием семантики, втч для AGI (Artificial General Intelligence), сознание не требуется, и его наличие или отсутствие не принципиально для возможности создания такого ИИ-агента. (Да-да, та самая "Ложная слепота").

>Но на практике, под сильным искусственным интеллектом понимается система, выполняющая ряд конкретных задач так же, как человек, но быстрее.
Не соглашусь с этим определением. Я за другое. Сильный ИИ (или же AGI) - способность интеллеткуального агента справится с любой, в том числе новой, задачей, с которой мог бы справится человек. В отличие от конкретной узкой задачи, на которые заточены современные ИИ-агенты.

>"китайскую комнату": можно создавать правильные с точки зрения языка предложения, вообще не понимания смысла предложений.
Контр-агумент (гипотеза): человек в комнате не понимает смысл, но система "человек-комната" - понимает.
Альтернативный контр-аргумент: если система "человек-комната" проходит тест Тьюринга, т.е. внешний наблюдатель не видит никаких проблем в разговоре с комнатой, не видит проблем с пониманием семантики итп итд, то не важно, "понимает" ли система "человек-комната" семантику или нет. Главное, что она функционирует правильно.

Более того, я считаю, что вообще термины "понимает/не понимает", "знает/не знает" и так далее, которыми обсуждают ИИ - некорректные. Понимание - субъективный процесс, восприятие (только не внешнее, а внутреннее). Квалиа. Если Гипотеза 1 верна, то нам не нужно сознание и квалиа для интеллекта. И все эти рассуждения не имеют смысла.

> Я думаю, что это немного не так. Современные нейронные сети - это буквально математическая обработка исходных образцов и генерация новых образцов/распрознавание образов/распознавание признаков. Ничего другого данные алгоритмы не выполняют.
Это опять редукционизм. Вы говорите о принципах работы сетей, но не об эмерджентных свойствах, которые получает система.

> Думаю, что не получим.
> Не имеет значения, как будет масштабироваться данный алгоритм. Для решения проблемы семантики нужен другой алгоритм/другая технология.
Я бы не был так уверен. Я не знаю, может ли текущий подход путем масштабирования привести к AGI. Ряд авторов говорит, что да. Я не берусь со всей уверенностью утверждать, что современные сетки - это верный путь к AGI, ровно как и то, что это точно не приведет нас к AGI.
Поэтому мне интересно, на чем основывается ваше категоричное утверждение, что нужен иной подход? Я бы сам был более рад другому, более изящному подходу, чем скормить терабайты в сетку, которая предсказывает следующее слово. Но пока что практика говорит об обратном.

К сожалению, я пока не сильно подкован в вопросах масштабирования, анализа и перспектив языковых моделей. У меня в списке "почитать" лежит куча всего на тему. Как работают сетки, даже трансформеры и аттеншн, я понимаю, но не дальше.

Ссылочки
1. https://www.gwern.net/Scaling-hypothesis
2. https://habr.com/ru/users/leventov/
Этот автор немного пишет на эту тему. Особенно интересны его комментарии, где он дает много ссылок. Правда, он очень оптимистично (или пессимистично, тут с какой стороны посмотреть) настроен, и уверен, что языковые модели - путь к AGI, и путь уже почти пройден. Возможно, он не объективен и приводит лишь материалы в поддержку своих взглядов. Вы были предупреждены.
3. https://arxiv.org/abs/2110.09485
Эта статья отвечает на вопрос: занимаются ли нейросети интерполяцией или экстраполяцией обучающих данных. При больших размерностях, имеет место экстраполяция. Т.е. происходит не "смешивание" в различных пропорциях элементов обучающих выборок, а возможна обработка новых данных (за пределами "training convex hull"). Если я правильно интерпретирую этот результат, то, условный midjourney не просто делает "коллаж" из кусочков ранее виденных изображений, а может генерировать изображения, не похожие на то, что было в выборке.
Это редукционизм - сведение сложной системы к ее простым частям. Сведение ии к "умножению матриц" примерно то же самое, что сведение человека к калиевым каналам синапсов. Начиная с какого-то количества, простые ионные каналы начинают рассуждать про ваху на джое. Остаётся вопрос, сколько параметров нужно добавить моделям.

Сейчас считается, что большие языковые модели путь к AGI (см. Scaling hypothesis). Добавь ещё миллиард, что миллиардов, триллион параметров, подкрути архитектуру и получишь, что нужно.

Stable Diffusion построена на базе довольно простой модели CLIP. Если добавить более сложную языковую модель и достаточно большой объем данных, будет и семантика. Попадет этот тред в датасет, нейронка будет лучше "знать", что такое Ваха
Да, но в посте такого нет.
Тыжпрограммист спешит на помощь.
Сайты идентифецируют тебя с помощью специальной информации, которая хранится в браузере - cookies. Когда ты зашёл в инкогнито, браузер не передаёт этим данные сайтам, и они считают, что ты рандомный незалогиневшийся ноунейм. Как будто ты почистил браузер полностью. Надеюсь, ясно. В то же время в самом браузере куки остаются, поэтому за пределами инкогнито все работает, как раньше.