Именно на эти дни назначена дата очередного конца света - в этот раз он связан с окончанием цикла календаря майя. Вывод, который нам навязывают: случится что-то ужасное, спасутся немногие. Алексей ТУРЧИН, футуролог, исследователь глобальных рисков, соавтор книги «Футурология», рассказывает, чего стоит ждать и опасаться на самом деле.
Конец, да не тот
«AиФ»: - Алексей, как-то слишком жизнерадостно вы выглядите для надвигающегося апокалипсиса.
«А.Т.»: - Судите сами: какое отношение может иметь календарь индейцев майя к реальным рискам сегодняшнего дня? Это специально раздутый ажиотаж, подобный тому, какой раздувают накануне Дня святого Валентина или Хеллоуина. Под это дело можно продать много товаров и услуг. По случаю конца света хорошо идут книги, статьи, наборы «Как пережить апокалипсис» и даже бункеры. Но с точки зрения научного прогнозирования важнее говорить о причинах того или иного сценария, а они никак не связаны с датами.
«AиФ»: - И всё же почему нас так влечёт тема конца света?
«А.Т.»: - Эти ожидания - отражение нашей психологии.Потребность людей в конце света отражает потребность в изменениях, а она вызвана желанием лучшей жизни и перехода к ней. Плюс есть в этом элемент игры, карнавала. Карнавальная культура всегда была присуща человечеству. Отсюда всевозможные ритуальные праздники, связанные с умиранием и рождением, сменой времён года и пр. Они были почти у всех народов.
Мало кто воспринимает «прогноз» майя всерьёз, но людям нравится периодически устраивать такой ажиотаж, привязывая его к конкретной дате. В 1999 г. все говорили о конце света по Нострадамусу - он должен был наступить 11 августа вслед за солнечным затмением. В 2000 г. опасались «компьютерного» конца света. Это лишь два примера из нескольких десятков.
«AиФ»: - Каких же сценариев действительно стоит опасаться?
«А.Т.»: - В теме конца света нет никакой мистики. А есть реальные риски, связанные с научными достижениями и развитием сверхтехнологий. В первую очередь это искусственный интеллект (ИИ), нанотехнологии и биооружие.
ИНТЕРНЕТ-ОПРОС | |
---|---|
Где бы вы хотели встретить конец света? ■ Дома на диване - 31% (291 голос) ■ В тёплой стране - 22% (204 голоса) ■ В ресторане - 14% (135 голосов) ■ На работе - 7% (66 голосов) ■ Мне всё равно - 26% (249 голосов) Всего голосов: 945 Опрос проводился на сайте WWW.AIF.RU |
Недавно в Кембридже был создан Центр по изучению глобальных рисков. Его основная задача - предотвратить возникновение недружественного к людям искусственного сверхинтеллекта. Сейчас в Силиконовой долине идут разработки технологии ИИ, который сможет понимать и улучшать сам себя. Есть опасность, что он будет способен к быстрому саморазвитию, в ходе которого «инстинкт самосохранения» вытеснит другие заложенные программы. И он начнёт воспринимать людей как угрозу. Превосходящий человека интеллект сможет взять под контроль любые компьютерные системы, в том числе системы государственного управления и Интернет, а потом придумать способы избавиться от хозяина - с помощью управляемых роботов, токсинов и пр.
Небывалые возможности и у биотехнологий. Уже сейчас с ними можно манипулировать, что называется, на дому. Всё необходимое оборудование обойдётся в несколько сот долларов. Представьте биохакера, вооружённого такой мини-лабораторией и производящего живые клетки с любыми заданными свойствами - вирусы, бактерии, смертельные патогены. Сначала он будет делать это ради чистого любопытства, потом ради шантажа (скажем, у вас странная болезнь, и тут вам приходит письмо: «Перечислите мне деньги и получите противоядие!»), а следующим шагом может стать заражение всего человечества. Генетические коды многих опасных вирусов (например, гриппа «испанка», выкосившего в начале ХХ века 100 млн человек) выложены в Интернете.
Наконец, нанотех. Это не те технологии, которыми занимаются в «Сколково». Речь о микроскопических, невидимых глазу роботах, которые будут способны воспроизводить самих себя. Пока это звучит как фантастика, но посмотрите: боевые летательные аппараты становятся всё мельче. Тенденция очевидна. Роботы будущего смогут скрытно атаковать людей, впрыскивая им яды или проникая в мозг. Эти роботы, во-первых, тоже могут выйти из-под контроля. И, во-вторых, есть гипотетический сценарий под названием «Серая слизь». Неуправляемые нанороботы, выполняя программу саморазмножения, поглощают биомассу Земли, буквально съедая всё живое. На это им будет достаточно двух дней.
Станем бессмертны?
«AиФ»: - Насколько вероятны эти угрозы? Когда они могут быть реализованы?
«А.Т.»: - Мнения футурологов разнятся. Но в среднем вероятность того, что человечество уничтожит себя в течение ХХI века, составляет 50%. Каждый из трёх описанных вариантов имеет равные шансы, хотя риск биотехнологий наиболее зрелый и серьёзный. Причина гибели цивилизации, скорее всего, будет не одна - сложится цепочка. Мы ведь ещё не говорили о природных катастрофах. Существуют вероятности (правда, ничтожно малые) падения астероида, сверхвспышек на Солнце, гамма-всплесков (это узкие пучки гамма-лучей, способные «поджарить» нашу планету), извержения супервулкана. На Земле около 20 супервулканов. Наиболее известен Йеллоустонский, он расположен в США. Вряд ли он взорвётся в ближайшее время сам, но его могут атаковать террористы, завладевшие водородной бомбой. Такой взрыв приведёт к вулканической зиме на планете и огромным жертвам.
«AиФ»: - И что делать, чтобы человечество не наложило на себя руки?
«А.Т.»: - Сознавать риски и самоорганизовываться. Создавать системы контроля, способные устранять источники опасности. Скажем, МАГАТЭ борется с распространением ядерного оружия. И делает это эффективно.
В условиях нынешнего прогресса основная дилемма такова: случится ли глобальная катастрофа или человечество перейдёт на новый, более устойчивый уровень развития, связанный с радикальным продлением жизни и практическим достижением бессмертия. Этот выбор произойдёт уже скоро, где-то между 2017 и 2020 гг.
Правила комментирования
Эти несложные правила помогут Вам получать удовольствие от общения на нашем сайте!
Для того, чтобы посещение нашего сайта и впредь оставалось для Вас приятным, просим неукоснительно соблюдать правила для комментариев:
Сообщение не должно содержать более 2500 знаков (с пробелами)
Языком общения на сайте АиФ является русский язык. В обсуждении Вы можете использовать другие языки, только если уверены, что читатели смогут Вас правильно понять.
В комментариях запрещаются выражения, содержащие ненормативную лексику, унижающие человеческое достоинство, разжигающие межнациональную рознь.
Запрещаются спам, а также реклама любых товаров и услуг, иных ресурсов, СМИ или событий, не относящихся к контексту обсуждения статьи.
Не приветствуются сообщения, не относящиеся к содержанию статьи или к контексту обсуждения.
Давайте будем уважать друг друга и сайт, на который Вы и другие читатели приходят пообщаться и высказать свои мысли. Администрация сайта оставляет за собой право удалять комментарии или часть комментариев, если они не соответствуют данным требованиям.
Редакция оставляет за собой право публикации отдельных комментариев в бумажной версии издания или в виде отдельной статьи на сайте www.aif.ru.
Если у Вас есть вопрос или предложение, отправьте сообщение для администрации сайта.
Закрыть