Сейчас уже трудно найти сферу, где бы не применялись нейросети и алгоритмы машинного обучения. Между тем всё громче звучат голоса экспертов, предупреждающие об угрозах, которые несут человечеству широко внедряемые системы искусственного интеллекта. Главный страх связан с тем, что они развиваются слишком быстро и скоро будут окружать нас повсюду.
Тренд ближайшего будущего – коботы
За дверью с надписью «Бульвар ЦКП» открывается длинный коридор. Павел Кривозубов, руководитель направления «Робототехника и искусственный интеллект» фонда «Сколково», ведёт меня по этому «бульвару». Слева — офисы резидентов технопарка, справа — ряд цехов с 3D-принтерами, роботами, испытательными камерами и аппаратами, выглядящими, словно декорации к фантастическим фильмам.
ЦКП — это Центр коллективного пользования. «Такой хак-спейс, где наши резиденты разрабатывают свои продукты», — поясняет Кривозубов. В детстве он читал много фантастики, в том числе Айзека Азимова, чьё имя обычно упоминают, когда задаются вопросом, может ли искусственный интеллект нанести вред человеку. В 1942 году в рассказе «Хоровод» Азимов сформулировал знаменитые «Три закона роботехники» — своего рода нравственный кодекс поведения для машин. 79 лет спустя мы живём в мире, где эти три закона действуют в реальности: роботы и искусственный интеллект существуют с нами бок о бок.
«Изначально это был плод фантазии писателя, но современные разработчики в том или ином виде эти правила учитывают. Ведь робот — это то, что ты в него заложишь, — говорит Павел Кривозубов.— Теперь идеи, высказанные фантастами, тем же Азимовым, начинают сбываться, а роботы становятся всё более умными. Тренд ближайшего будущего — коллаборативные роботы, или коботы. Они оснащены таким программным обеспечением и датчиками, что, увидев человека в зоне своего действия, останавливаются или меняют траекторию. Либо совершают какие-то совместные действия с человеком, не нанося при этом ему вред».
Существует каноническое определение искусственного интеллекта: это программы и аппаратные компоненты, которые способны обучаться и базируются на сложных математических решениях. Но можно трактовать понятие шире: ИИ — это всё то, что думает за нас, то есть освобождает наши нейроны, реализуя мыслительный процесс на базе битов внутри вычислительных систем. Навигатор в вашем смартфоне, прокладывающий оптимальный маршрут, Алиса или любой другой голосовой помощник, пытающийся развлечь вас анекдотом, — это искусственный интеллект. И с каждым годом его вокруг нас будет становиться всё больше. Финансовые операции, шопинг, безопасность, системы распознавания — все это будет и дальше автоматизироваться и все больше наполняться «умными» алгоритмами.
Будет эволюционировать и размножаться
Системы, способные самообучаться и совершенствоваться без участия человека — это, конечно, здорово, но откуда мы знаем, что они будут совершенствоваться в нужном нам направлении? А точнее — том направлении, которое мы считаем «моральным»?
Примеров, когда ИИ ошибался или провоцировал сомнительные с точки зрения морали ситуации, накопилось немало, и АиФ.ru о них уже писал. Пока это больше похоже на недоразумения и поводы для шуток, тем не менее многие страны приняли у себя концепции развития ИИ, и одним из первых пунктов в них прописана необходимость этических ориентиров, которые позволят предотвращать ошибки. ЮНЕСКО в прошлом году разработало международные рекомендации по этике ИИ. Не исключено, что их ратифицируют уже до конца этого года.
Один из принципов действия ИИ — его постоянное обучение. Оно происходит автоматически: система анализирует огромный массив данных (например, опыт «предшественников»), за счёт чего растёт и развивается. Недавно учёные Эдинбургского университета объявили, что они создали ИИ, который способен эволюционировать в соответствии с теорией Дарвина. Он будет адаптироваться к меняющимся условиям и передавать новые навыки (знания) в следующие поколения, отбирая те из них, которые имеют больше шансов на выживание. Как сообщают исследователи, этот ИИ сможет «размножаться», производя себе подобных роботов без всякого участия человека. Процесс будет осуществляться с помощью 3D-принтера, к которому подключена система. Разработчики хотят добиться полной автономии в жизненном цикле роботов и предполагают, что они найдут применение на других планетах, которые человечество собирается колонизировать, или на дне океана, куда люди добраться тоже не могут.
Все идет к тому, что вскоре машины начнут превосходить человека не только по способности адаптироваться к экстремальным условиям, но и по интеллекту. Специалисты говорят о появлении так называемого «сильного» ИИ. Он фактически будет способен мыслить и осознавать себя отдельной личностью. А чтобы ему проще было добиться этого, учёные разрабатывают цифровой прототип психики для роботов. Суть в том, что они должны обучаться не отдельным действиям, а их наиболее полезным комбинациям. Такой механизм можно сравнить с реальным планированием поведения людей.
«Это огромный ложный бог»
В недавнем интервью The Guardian британский специалист в области искусственного интеллекта, профессор Стюарт Рассел заявил, что экспертное сообщество само напугано теми успехами, которых оно добилось в сфере ИИ. Он сравнил этот прогресс с созданием атомной бомбы.
«Сообщество ещё не привыкло к факту, что оно стало оказывать очень большое влияние на реальный мир, — говорит Рассел. — На протяжении большей части истории нашей отрасли такого не было: мы просто сидели в лабораториях, что-то разрабатывали, пытались сделать так, чтобы оно заработало, но чаще всего — впустую. Поэтому вопрос реального воздействия на мир был совершенно неуместным. И вот теперь мы видим, что искусственный интеллект проник во многие сферы жизни, от поисковиков до банков, и, похоже, ещё в этом веке будут изобретены машины, превосходящие человека по интеллекту. Так считают почти все эксперты в этой области».
По мнению Стюарта Рассела, необходимо срочно вводить контроль над разработками «сильного» ИИ. Да и с теми алгоритмами, что уже применяются, нужно быть осторожнее. Например, не стоит рассчитывать (и тем более ставить ему такую задачу), что ИИ вот-вот решит проблему диагностики и лечения онкологических заболеваний. «Наоборот, он, скорее всего, найдёт способ пересадить раковые клетки всему человечеству, чтобы провести миллионы экспериментов одновременно, используя всех нас для своего обучения, как подопытных свинок, — объясняет профессор. — А всё потому, что он будет стремиться решить задачу, которую мы перед ним поставили, но при этом забыли уточнить, что нельзя проводить эксперименты на людях и много чего ещё».
«Умные» алгоритмы уже вовсю заправляют в социальных сетях, решая, что и как могут писать люди, что им нужно читать и смотреть. А ведь этот ИИ нельзя назвать «сильным», его функции — контроль и выдача рекомендаций. Что же будет дальше?
Марк Цукерберг объявил о создании собственной метавселенной, в которой реальный мир сольётся с виртуальным. Но ведь и там распоряжаться всем будет искусственный интеллект, логика которого для нас может быть непонятна, а мораль — неприемлема. Эрик Шмидт, когда-то возглавлявший совет директоров Google, высказывает озабоченность по этому поводу на страницах The New York Times. Он предупреждает, что ИИ, который будет управлять вселенной Meta, может вступить с человеком в нездоровые, паразитические отношения и называет его «огромным ложным богом».
«Итак, через несколько лет люди предпочтут проводить больше времени в очках в метавселенной. Но кто там будет устанавливать правила? Это будет повсюду, но это необязательно будет лучшим для человеческого общества, — рассуждает Шмидт. — Как, например, будет выглядеть лучший друг с искусственным интеллектом внутри, особенно для ребёнка? Мы не знаем».
Правила комментирования
Эти несложные правила помогут Вам получать удовольствие от общения на нашем сайте!
Для того, чтобы посещение нашего сайта и впредь оставалось для Вас приятным, просим неукоснительно соблюдать правила для комментариев:
Сообщение не должно содержать более 2500 знаков (с пробелами)
Языком общения на сайте АиФ является русский язык. В обсуждении Вы можете использовать другие языки, только если уверены, что читатели смогут Вас правильно понять.
В комментариях запрещаются выражения, содержащие ненормативную лексику, унижающие человеческое достоинство, разжигающие межнациональную рознь.
Запрещаются спам, а также реклама любых товаров и услуг, иных ресурсов, СМИ или событий, не относящихся к контексту обсуждения статьи.
Не приветствуются сообщения, не относящиеся к содержанию статьи или к контексту обсуждения.
Давайте будем уважать друг друга и сайт, на который Вы и другие читатели приходят пообщаться и высказать свои мысли. Администрация сайта оставляет за собой право удалять комментарии или часть комментариев, если они не соответствуют данным требованиям.
Редакция оставляет за собой право публикации отдельных комментариев в бумажной версии издания или в виде отдельной статьи на сайте www.aif.ru.
Если у Вас есть вопрос или предложение, отправьте сообщение для администрации сайта.
Закрыть