Первые модели истинного сверхразума появятся уже к концу 2028 года. Об этом заявил один из отцов первой в истории рыночной нейросети Сэм Альтман. «Наслаждайтесь своей работой, пока ещё можете. Время идёт», — сказал визионер. Разбираемся, кого уволят в первую очередь, когда сценарии фантастов станут реальностью.
На этой неделе на саммите India AI Impact Summit Сэм Альтман (глава OpenAI, создавшей ChatGPT) представил миру самый агрессивный таймлайн развития ИИ. По его словам, уже через два года «большая часть интеллектуальных мощностей мира будет сосредоточена в дата-центрах, а не за их пределами».
«Благодаря нашей нынешней траектории, мы верим, что находимся всего в паре лет от ранних версий истинного сверхразума», — заявил Альтман. Он подкрепил свои слова конкретными результатами: недавно модель OpenAI смогла решить семь из десяти исследовательских задач по математике, у которых ранее не было доказательств. Нейросеть даже получила новые результаты в области теоретической физики. Это означает, что ИИ уже начинает генерировать оригинальное знание, а не просто воспроизводить существующее.
ИИ изменит и мировой порядок: Альтман призвал создать международный орган по контролю за нейросетями по образцу МАГАТЭ. Это поможет быстро реагировать на опасные изменения ситуации.
Заявления Альтмана — не глас вопиющего в пустыне. Научное сообщество всё чаще сходится во мнении, что критический рубеж будет пройден в ближайшие 12–24 месяцев. То есть до конца 2028 года будет создан Artificial Super Intelligence (ASI) — искусственный сверхинтеллект.
Почему именно 2027 год? Ответ кроется в «железе». Именно на этот год намечен запуск чипов NVIDIA следующего поколения и ввод в строй новых суперкомпьютеров, которые будут в 100–1000 раз мощнее всего, что использовалось для обучения GPT-4.
Прогнозы относительно дальнейшей эволюции ИИ разнятся. Согласно проекту AI 2027, изначально «точкой сингулярности» называли 2027 год, однако позднее сроки были скорректированы в сторону 2030–2034 годов из-за естественного замедления темпов. Тем не менее направление движения сомнений не вызывает: мы стоим на пороге новой реальности.
После появления ASI мы должны будем признать: в решении цифровых задач человек больше не сможет быть лучше машины, комментирует эксперт в сфере ИИ Александр Жадан.
Однако это не конец, а начало нового этапа — люди смогут пользоваться этим благом, чтобы многократно повысить свою продуктивность
По мнению Жадана, рынок труда ждёт глубокая трансформация. Изменится само распределение внимания пользователей: они сократят использование множества разрозненных сервисов и сконцентрируются на ограниченном числе платформ, дающих доступ к ASI.
Однако Александр Жадан подчёркивает, что революция затронет прежде всего когнитивный сектор. Рынок труда ожидает тектонический сдвиг. Особенно это коснётся интеллектуальных специальностей.
Те, кто занят физическим трудом, перемены почувствуют гораздо меньше.
Специалисты с физической работой продолжат делать своё дело. Они, как и прежде, будут чинить водопровод, охранять здания и работать в шахтах. Для них сверхразум станет не конкурентом, а, возможно, помощником, но в меньшей степени, чем для офисных сотрудников
Эти слова находят своё подтверждение и в исследованиях самой Anthropic: их инженеры, использующие ИИ-помощника Claude Code, уже автоматизировали до 79% задач по программированию. Человек из «создателя» всё больше превращается в «контролёра».
Эта фраза из фильма «Терминатор» противопоставляет свободу воли человека року — запрограммированной предрешённости. Оборотная сторона медали развития ИИ — неотвратимое и стремительное исчезновение целых профессий. Научная работа, опубликованная на платформе arXiv и индексируемая Harvard University, рисует пугающую перспективу: широкое внедрение AGI-труда (общего искусственного интеллекта) с околонулевой стоимостью приведёт к тому, что зарплата людей будет падать.
Выход исследователи видят в пересмотре «общественного договора»: внедрении безусловного базового дохода, налога на «капитал AGI» и кооперативной собственности на искусственный интеллект. В то же время часть экспертов бьёт тревогу по другой причине. В открытом письме Future of Life Institute сотни учёных и общественных деятелей — от сооснователя Apple Стива Возняка до «крёстных отцов ИИ» Джеффри Хинтона и Йошуа Бенджио — требуют заморозить разработку сверхразума до тех пор, пока не будет доказана его безопасность. Опросы показывают, что 64% американцев поддерживают полный запрет на создание неконтролируемого ASI.