Внимание! Эта статья была опубликована более 5 лет назад и относится к цифровому архиву издания. Издание не обновляет архивированное содержание, поэтому, возможно, вам стоит ознакомиться с более свежими источниками.
Хокинг: искусственный интеллект может погубить человечество
Известный британский физик Стивен Хокинг в соавторстве с другими учеными опубликовал в газете The Independent статью, в которой предостерегает против слишком быстрого развития искусственного интеллекта.
Статья была вдохновлена фильмом «Превосходство» (Transcendence) с Джонни Деппом в главной роли.
В публикации, написанной в соавторстве с профессором компьютерных наук Стюартом Расселлом из Калифорнийского университета в Беркли и профессорами физики Максом Тегмарком и Фрэнком Вильчеком из Массачусетского технологического института, Хокинг указывает на некоторые достижения в области искусственного интеллекта: это, например, самоуправляемые автомобили, персональный голосовой помощник Siri и суперкомпьютер, победивший человека в телевизионной игре-викторине Jeopardy.
Ученые пишут, что в ближайшие десятилетия нас ждет еще и не такое. Но создание искусственного интеллекта может оказаться губительным, если мы не научимся избегать рисков.
Возможно, никто и ничто не сможет препятствовать самосовершенствованию интеллектуальных машин. А это запустит процесс так называемой технологической сингулярности (т.е. чрезвычайно быстрого технологического развития), при которой технология сможет превзойти человека и начать управлять финансовыми рынками, научными исследованиями, людьми и разработкой оружия. Если краткосрочный эффект искусственного интеллекта зависит от того, кто им управляет, то долгосрочный эффект — от того, можно ли будет им управлять вообще, пишут ученые.