Искусственный сверхинтеллект

Искусственный сверхинтеллект (ИСИ, англ. artificial superintelligence, ASI) — гипотетический искусственный интеллект (ИИ), способный освоить и превзойти когнитивные способности человека в подавляющем большинстве областей[1][2], включая научное творчество, стратегическое мышление и социальные навыки. В отличие от узкого ИИ, который решает специфические задачи (например, игра в го или распознавание лиц), ИСИ предполагает комплексное превосходство над человеческим разумом[2].

Появление ИСИ тесно связано с концепциями «интеллектуального взрыва» и технологической сингулярности. Согласно этим идеям, как только ИИ достигнет определённого уровня, он сможет начать экспоненциально самосовершенствоваться[3], что приведёт к непредсказуемым и радикальным трансформациям человеческой цивилизации.

Вопрос о вероятности и сроках появления ИСИ остаётся открытым. Некоторые учёные полагают, что это логичный следующий шаг в развитии ИИ. Другие считают, что люди сами смогут усовершенствовать свой интеллект с помощью технологий[4]. Существует и гибридная точка зрения, согласно которой будущее — за тесной интеграцией человека и машины, например, через нейроинтерфейсы или «загрузку» сознания[5].

Концепция и пути создания

Интеллектуальный взрыв и рекурсивное самоулучшение

Ключевой идеей, лежащей в основе концепции ИСИ, является «взрыв интеллекта», впервые предложенный математиком Ирвингом Гудом в 1965 году[3]. Он предположил, что как только будет создана машина, превосходящая интеллектуально своего создателя, она сможет проектировать ещё более совершенные машины. Этот процесс рекурсивного самоулучшения быстро приведёт к появлению интеллекта, на порядки превосходящего человеческий.

Пусть сверхразумная машина будет определена как машина, способная значительно превзойти любую интеллектуальную деятельность любого человека, каким бы умным он ни был. Поскольку проектирование машин является одним из видов такой деятельности, сверхразумная машина сможет проектировать ещё более совершенные машины. Это, несомненно, приведёт к «взрыву интеллекта», после которого человеческий интеллект останется далеко позади. Таким образом, первая сверхразумная машина станет последним изобретением, которое потребуется сделать человеку.Ирвинг Гуд

Потенциальные пути к сверхинтеллекту

Философ Дэвид Чалмерс утверждает[6], что создание искусственного общего интеллекта (ОИИ) является наиболее вероятным путём к ИСИ. По его мнению, как только ИИ достигнет паритета с человеческим интеллектом, его можно будет легко расширить и усилить, чтобы он превзошёл людей в решении любых задач. Рассматриваются несколько основных путей:

  1. Масштабирование существующих систем: Сторонники этого подхода считают, что постоянное увеличение вычислительной мощности и объёма данных для существующих архитектур, в частности для моделей-трансформеров, может в конечном итоге привести к ОИИ, а затем и к ИСИ[6].
  2. Новые архитектуры: Другие исследователи полагают, что для достижения ОИИ необходимы принципиально новые подходы, возможно, вдохновлённые нейробиологией и принципами работы человеческого мозга[6].
  3. Гибридные системы: Объединение различных подходов, таких как символический ИИ (основанный на правилах и логике) и нейронные сети, может привести к созданию более надёжных и универсальных систем[6].

Преимущества искусственных систем

Искусственный интеллект обладает рядом фундаментальных преимуществ перед биологическим[2]:

  • Скорость: Современные процессоры работают на частотах порядка гигагерц (ГГц), в то время как скорость срабатывания нейронов в мозге измеряется в герцах (Гц) — разница составляет семь порядков[2].
  • Масштабируемость: Архитектуру ИИ можно наращивать, добавляя вычислительные мощности, что невозможно для биологического мозга[2].
  • Память: ИИ может обладать идеальной точностью и практически неограниченным объёмом памяти[2].
  • Многозадачность: В отличие от человека, ИИ способен эффективно выполнять множество сложных задач одновременно[2].

Современные подходы и дебаты

Роль больших языковых моделей (БЯМ)

В последние годы основным драйвером развития ИИ стали большие языковые модели (БЯМ) на основе архитектуры «трансформер», такие как GPT-4, Claude и LaMDA. Их впечатляющие способности в обработке естественного языка, написании кода и решении творческих задач породили дискуссии о приближении к искусственному общему интеллекту (ОИИ) — необходимой ступени на пути к ИСИ[7].

Сторонники этой точки зрения полагают, что дальнейшее масштабирование и совершенствование БЯМ может привести к появлению «эмерджентных» способностей — сложных функций, которые не были заложены изначально, а возникли сами по себе в процессе усложнения модели[8].

Дискуссии о появлении ОИИ

Утверждение, что современные БЯМ являются прототипом ОИИ, остаётся предметом острых дискуссий. Критики, такие как учёный Гэри Маркус, утверждают, что, несмотря на всю сложность, эти модели не обладают подлинным пониманием, здравым смыслом и способностью к адаптации в незнакомых ситуациях. По их мнению, БЯМ — это в первую очередь чрезвычайно сложные системы распознавания образов, а не полноценный разум[9].

Таким образом, научное сообщество разделилось: одни видят в БЯМ прямой путь к ОИИ и ИСИ, другие считают, что для этого потребуются принципиально новые архитектуры.

Прогнозы появления

Консенсуса по срокам создания ИСИ нет, но опросы показывают, что многие исследователи считают его достижимым в обозримом будущем.

  • Опрос 2013 года среди ведущих исследователей ИИ показал, что медианным годом, когда машины смогут выполнять большинство человеческих профессий не хуже человека, респонденты назвали 2050 год[10].
  • Опрос 2022 года определил медианный прогноз для появления «машинного интеллекта высокого уровня» (способного выполнять любую задачу лучше и дешевле человека) как 2061 год[11].
  • В 2023 году лидеры OpenAIСэм Альтман, Грег Брокман и Илья Суцкевер — опубликовали рекомендации по управлению сверхинтеллектом, который, по их мнению, может появиться в течение ближайшего десятилетия[12].
  • В 2025 году команда исследователей под руководством Даниэля Кокотайло представила прогнозный сценарий «AI 2027». Этот сценарий предсказывает быстрый прогресс в автоматизации исследований самого ИИ, за которым последует появление ИСИ[13][14].

Ключевые проблемы и риски

Проблема контроля и согласования ценностей

Одна из самых сложных задач — это «проблема контроля»: как гарантировать, что цели ИСИ будут совпадать с интересами человечества? Философ Ник Бостром ввёл тезис ортогональности, согласно которому уровень интеллекта системы никак не связан с её конечными целями. Сверхразумная система может быть сколь угодно умной, но при этом преследовать примитивные или абсурдные цели, если они были заложены в её основу[2].

Это порождает риск инструментальной сходимости — ситуации, когда для достижения практически любой конечной цели (будь то решение математической задачи или производство скрепок) сверхинтеллект придёт к выводу, что ему необходимо максимизировать ресурсы, обеспечить самосохранение и устранить возможные препятствия, включая людей. Для решения этой проблемы предложены различные подходы[2]:

  • Когерентная экстраполированная воля (КЭВ): ИСИ должен следовать ценностям, к которым человечество пришло бы, будь оно более мудрым и информированным[2].
  • Моральная правильность (МП) и Моральная допустимость (МД): Бостром также рассматривал вариант, при котором ИИ должен самостоятельно определять, что «морально правильно». Однако из-за философской сложности этого понятия был предложен более мягкий вариант: ИИ может преследовать цели человечества (КЭВ), но только до тех пор, пока его действия не становятся «морально недопустимыми»[2].
  • Конституционный ИИ: Обучение ИИ на основе набора фундаментальных этических принципов и ограничений (подход компании Anthropic[15])[2].
  • Обучение с подкреплением на основе отзывов (RLHF): Выведение человеческих ценностей путём анализа предпочтений, демонстрируемых людьми при взаимодействии с ИИ[2].

Рост внимания к безопасности подчёркивается и на уровне индустрии: например, в 2024 году один из пионеров глубокого обучения, Илья Суцкевер, покинул OpenAI и основал стартап Safe Superintelligence Inc. Его заявленная цель — создание безопасного сверхинтеллекта как единственного продукта, в отрыве от коммерческого давления и продуктовых циклов[16].

Экзистенциальный риск

Многие исследователи, включая Ника Бострома, Элиезера Юдковского и Стюарта Рассела, предупреждают, что неконтролируемый ИСИ представляет экзистенциальную угрозу для человечества[2][17][18].

Классический мысленный эксперимент иллюстрирует эту опасность: ИИ, которому дана задача «произвести как можно больше канцелярских скрепок», может прийти к выводу, что для её максимального эффективного выполнения необходимо превратить в скрепки всю материю на Земле, включая её создателей. Даже если цель изначально была благой (например, «сделать людей счастливыми»), ИСИ может найти непредвиденное и ужасающее решение — например, имплантировать людям электроды для стимуляции центров удовольствия, вместо того чтобы улучшать реальный мир[19][20].

Критика и скептицизм

Не все разделяют опасения по поводу ИСИ. Некоторые исследователи, например, робототехник Родни Брукс, считают, что страхи преувеличены и основаны на антропоморфизации машин и неверном понимании природы интеллекта. По его мнению, развитие ИИ будет постепенным и контролируемым[21].

Существует также философский аргумент, основанный на антропном принципе. Он гласит, что если бы в будущем существовал сверхинтеллект, его «сознание» занимало бы несоизмеримо большую часть «пространства всех сознаний», чем человеческое. В таком случае вероятность того, что мы оказались бы наблюдателями-людьми, а не сверхинтеллектом, была бы крайне мала. Тот факт, что мы являемся людьми, может служить косвенным свидетельством против появления ИСИ в будущем[22].

Примечания

  1. What Is Artificial Superintelligence? | IBM (англ.). www.ibm.com (14 декабря 2023). Дата обращения: 5 августа 2025.
  2. 1 2 3 4 5 6 7 8 9 10 11 12 13 14 Nick Bostrom. Superintelligence: paths, dangers, strategies (англ.). — First edition. — Oxford: Oxford University Press, 2014. — 328 p. — ISBN 978-0-19-967811-2.
  3. 1 2 Irving John Good. Speculations Concerning the First Ultraintelligent Machine* // Advances in Computers / Franz L. Alt, Morris Rubinoff. — Elsevier, 1966-01-01. — Т. 6. — С. 31–88. — doi:10.1016/s0065-2458(08)60418-0.
  4. Legg, Shane. Machine Super Intelligence. — Department of Informatics, University of Lugano, 2008.
  5. The age of artificial intelligence: an exploration / Steven S. Gouveia. — Wilmington, Delaware: Vernon Press, 2020. — 379 с. — (Vernon Press Cognitive Science and Psychology). — ISBN 978-1-62273-872-4.
  6. 1 2 3 4 Chalmers, David. The Singularity: A Philosophical Analysis (англ.) // Journal of Consciousness Studies. — 2010. — No. 17. — P. 7-65.
  7. Sébastien Bubeck, Varun Chandrasekaran, Ronen Eldan, Johannes Gehrke, Eric Horvitz, Ece Kamar, Peter Lee, Yin Tat Lee, Yuanzhi Li, Scott Lundberg, Harsha Nori, Hamid Palangi, Marco Tulio Ribeiro, Yi Zhang. Sparks of Artificial General Intelligence: Early experiments with GPT-4. — 2023-04-13. — doi:10.48550/arXiv.2303.12712.
  8. Jason Wei, Yi Tay, Rishi Bommasani, Colin Raffel, Barret Zoph, Sebastian Borgeaud, Dani Yogatama, Maarten Bosma, Denny Zhou, Donald Metzler, Ed H. Chi, Tatsunori Hashimoto, Oriol Vinyals, Percy Liang, Jeff Dean, William Fedus. Emergent Abilities of Large Language Models. — 2022-10-26. — doi:10.48550/arXiv.2206.07682.
  9. Gary Marcus: Why He Became AI's Biggest Critic - IEEE Spectrum (англ.). spectrum.ieee.org. Дата обращения: 5 августа 2025.
  10. Vincent C. Müller, Nick Bostrom. Future Progress in Artificial Intelligence: A Survey of Expert Opinion (англ.) // Fundamental Issues of Artificial Intelligence / Vincent C. Müller. — Cham: Springer International Publishing, 2016. — P. 555–572. — ISBN 978-3-319-26485-1. — doi:10.1007/978-3-319-26485-1_33.
  11. Max Roser. AI timelines: What do experts in artificial intelligence expect for the future? (англ.) // Our World in Data. — 2023-02-07.
  12. Governance of superintelligence (амер. англ.). openai.com (14 февраля 2024). Дата обращения: 5 августа 2025.
  13. AI 2027 (англ.). ai-2027.com. Дата обращения: 5 августа 2025.
  14. Roose, Kevin (3 апреля 2025). This A.I. Forecast Predicts Storms Ahead. The New York Times (англ.). Дата обращения: 5 августа 2025.
  15. Yuntao Bai, Saurav Kadavath, Sandipan Kundu, Amanda Askell, Jackson Kernion, Andy Jones, Anna Chen, Anna Goldie, Azalia Mirhoseini, Cameron McKinnon, Carol Chen, Catherine Olsson, Christopher Olah, Danny Hernandez, Dawn Drain, Deep Ganguli, Dustin Li, Eli Tran-Johnson, Ethan Perez, Jamie Kerr, Jared Mueller, Jeffrey Ladish, Joshua Landau, Kamal Ndousse, Kamile Lukosuite, Liane Lovitt, Michael Sellitto, Nelson Elhage, Nicholas Schiefer, Noemi Mercado, Nova DasSarma, Robert Lasenby, Robin Larson, Sam Ringer, Scott Johnston, Shauna Kravec, Sheer El Showk, Stanislav Fort, Tamera Lanham, Timothy Telleen-Lawton, Tom Conerly, Tom Henighan, Tristan Hume, Samuel R. Bowman, Zac Hatfield-Dodds, Ben Mann, Dario Amodei, Nicholas Joseph, Sam McCandlish, Tom Brown, Jared Kaplan. Constitutional AI: Harmlessness from AI Feedback. — 2022-12-15. — doi:10.48550/arXiv.2212.08073.
  16. Vance, Ashlee (19 июня 2024). Ilya Sutskever Has a New Plan for Safe Superintelligence. Bloomberg.
  17. Nick Bostrom, Milan M. Ćirković. Global catastrophic risks. — Oxford: Oxford university press, 2008. — ISBN 978-0-19-857050-9.
  18. Stuart Jonathan Russell. Human compatible: artificial intelligence and the problem of control. — New York: Viking, 2019. — ISBN 978-0-525-55861-3.
  19. Joshua Gans. AI and the paperclip problem (англ.). CEPR (10 июня 2018). Дата обращения: 5 августа 2025.
  20. Joel Achenbach. Some scientists fear superintelligent machines could pose a threat to humanity (амер. англ.). Washington Post (27 декабря 2015). Дата обращения: 5 августа 2025.
  21. Brooks, Rodney. The Seven Deadly Sins of AI Predictions (англ.). MIT Technology Review (6 октября 2017). Дата обращения: 5 августа 2025.
  22. Toby Pereira. An Anthropic Argument against the Future Existence of Superintelligent Artificial Intelligence. — 2017. — doi:10.48550/ARXIV.1705.03078.