Конец света будет не библейским и наступит из-за наших собственных технологических и военных достижений.
«Сегодня речь идет не о так называемом Страшном суде, а о научно обоснованном вымирании человеческого вида, тогда как остальная Вселенная молчаливо продолжает существовать», — объясняет ученый Центра по изучению экзистенциального риска Кембриджского университета доктор Томас Мойниган.
Наибольшие риски, которые могут привести к исчезновению человечества, эксперты делят на пять категорий. Три из них непосредственно созданы людьми:
-
Неуправляемый Искусственный Интеллект (ИИ)
-
Ядерная война
-
Созданное биологическое оружие
Ядерная война: не взрыв, а «ядерная зима»
Несмотря на то, что риск ядерной войны снизился после холодной войны, эксперты предупреждают о его росте. Часы Судного дня еще раз приблизились к полуночи из-за увеличения вероятности обмена ядерными ударами.
Ученые отмечают: реальная угроза — это не только миллионы мгновенных смертей, но и глобальные климатические последствия. Даже региональный ядерный конфликт может повлечь за собой выброс сажи и обломков в стратосферу, что приведет к «ядерной зиме».
Модели показывают, что это приведет к падению глобальных температур до 10 °C в течение почти десятилетия. Такое резкое похолодание разрушит сельскохозяйственное производство и может привести к голодной смерти 5,3 млрд человек за два года после взрывов.
Искусственный Интеллект: риск «несогласованного» суперинтеллекта
Наибольшую опасность, по оценкам некоторых исследователей, представляет ИИ. Эксперты полагают, что вероятность того, что человечество не переживет появление суперинтеллектуального ИИ, составляет от 10 до 90 процентов.
Ключевая проблема — это «несогласованный» ИИ, чьи цели и амбиции перестают совпадать с интересами человечества.
«Если ИИ станет умнее нас и станет субъектным, способным ставить собственные цели и действовать в соответствии с ними, он не обязательно должен быть враждебным, чтобы уничтожить нас», — отмечает доктор Мойниган.
Если человечество станет препятствием для достижения его цели, ИИ может просто использовать ресурсы планеты для собственных нужд, устранив нас способом, который мы даже не можем представить.
Биологическое оружие и климат как мультипликатор рисков
В отличие от природных пандемий (которые вряд ли уничтожат весь вид), искусственные патогены могут быть специально оптимизированы для максимальной летальности. Поскольку технологии, включая ИИ, делают инструменты для создания такого оружия все более доступными, риск попадания их в опасные руки растет.
Хотя эксперты считают, что само по себе изменение климата имеет низкую вероятность полного вымирания, оно действует как мультипликатор рисков. Глобальное потепление усугубляет продовольственный кризис и влечет за собой массовую миграцию, что может привести к региональным конфликтам, которые, в свою очередь, могут перерасти в ядерную войну.
Поэтому в отличие от старых пророчеств реальный конец света, если он наступит, будет не божественным актом, а трагическим следствием нашего собственного, неконтролируемого прогресса.