• OMX Baltic−0,03%317,85
  • OMX Riga−0,35%904,29
  • OMX Tallinn−0,05%2 075,55
  • OMX Vilnius0,38%1 412,03
  • S&P 500−0,17%6 824,89
  • DOW 30−0,09%49 456,29
  • Nasdaq −0,28%22 483,27
  • FTSE 1000,79%10 556,17
  • Nikkei 225−0,42%56 566,49
  • CMC Crypto 2000,00%0,00
  • USD/EUR0,00%0,84
  • GBP/EUR0,00%1,14
  • EUR/RUB0,00%90,4
  • OMX Baltic−0,03%317,85
  • OMX Riga−0,35%904,29
  • OMX Tallinn−0,05%2 075,55
  • OMX Vilnius0,38%1 412,03
  • S&P 500−0,17%6 824,89
  • DOW 30−0,09%49 456,29
  • Nasdaq −0,28%22 483,27
  • FTSE 1000,79%10 556,17
  • Nikkei 225−0,42%56 566,49
  • CMC Crypto 2000,00%0,00
  • USD/EUR0,00%0,84
  • GBP/EUR0,00%1,14
  • EUR/RUB0,00%90,4
  • 09.05.14, 18:54
Внимание! Этой статье более 5 лет, и она находится в цифировом архиве издания. Издание не обновляет и не модифицирует архивированный контент, поэтому может иметь смысл ознакомиться с более поздними источниками.

Хокинг: искусственный интеллект может погубить человечество

Известный британский физик Стивен Хокинг в соавторстве с другими учеными опубликовал в газете The Independent статью, в которой предостерегает против слишком быстрого развития искусственного интеллекта.
Статья была вдохновлена фильмом «Превосходство» (Transcendence) с Джонни Деппом в главной роли.
В публикации, написанной в соавторстве с профессором компьютерных наук Стюартом Расселлом из Калифорнийского университета в Беркли и профессорами физики Максом Тегмарком и Фрэнком Вильчеком из Массачусетского технологического института, Хокинг указывает на некоторые достижения в области искусственного интеллекта: это, например, самоуправляемые автомобили, персональный голосовой помощник Siri и суперкомпьютер, победивший человека в телевизионной игре-викторине Jeopardy.
Ученые пишут, что в ближайшие десятилетия нас ждет еще и не такое. Но создание искусственного интеллекта может оказаться губительным, если мы не научимся избегать рисков.

Статья продолжается после рекламы

Возможно, никто и ничто не сможет препятствовать самосовершенствованию интеллектуальных машин. А это запустит процесс так называемой технологической сингулярности (т.е. чрезвычайно быстрого технологического развития), при которой технология сможет превзойти человека и начать  управлять финансовыми рынками, научными исследованиями, людьми и разработкой оружия. Если краткосрочный эффект искусственного интеллекта зависит от того, кто им управляет, то долгосрочный эффект — от того, можно ли будет им управлять вообще, пишут ученые.

Похожие статьи

Сейчас в фокусе

Подписаться на рассылку

Подпишитесь на рассылку и получите важнейшие новости дня прямо в почтовый ящик!

На главную