Подписывайтесь на Газету.Ru в Telegram Публикуем там только самое важное и интересное!
Новые комментарии +

Назван способ ИИ уничтожить человечество

NYT: ИИ способен уничтожить человечество при доступе к жизненно важной инфраструктуре

Искусственный интеллект способен уничтожить человечество при определенном развитии событий в технологическом секторе ведущих стран мира. Об этом пишет газета The New York Times.

«Сегодняшние системы и близко не представляют экзистенциальный риск. Но через один, два, пять лет? Слишком много неопределенности. Вот в чем проблема. Нет уверенности, что мы осознаем этот момент, когда мы будем на грани катастрофы», — отметил профессор, научный сотрудник Монреальского университета Йошуа Бенжио.

По версии NYT, компании могут предоставить системам с ИИ все больше и больше автономии и подключать их к жизненно важной инфраструктуре, включая электрические сети, фондовые рынки и вооружению. Именно решение перейти эту черту и может вызвать проблемы, считают в издании.

«В какой-то момент станет ясно, что большая машина, управляющая обществом и экономикой, на самом деле не находится под контролем человека и не может быть отключена, как не может быть отключен S&P 500», — рассказал космолог из Калифорнийского университета в Санта-Крузе Энтони Агирре.

В NYT указали на то, что пока системы с ИИ склонны «застревать в бесконечных петлях» из повторяющихся данных, но со временем эти ограничения могут быть устранены, если разработчики доработают эти программы.

«Поскольку ИИ-системы учатся на большем количестве данных, чем способны понять даже их создатели, эти системы уже демонстрируют неожиданное поведение. Некоторые эксперты опасаются, что по мере того, как исследователи делают эти системы более мощными, обучая их на все больших объемах данных, они могут приобрести больше вредных и даже опасных привычек», — заключил автор.

В конце мая главы компаний в области ИИ опубликовали открытое письмо, в котором предупредили, что технологии искусственного интеллекта однажды могут представлять экзистенциальную угрозу для человечества и должны рассматриваться как риск наравне с пандемиями и ядерными войнами.

Один из них, глава OpenAI Сэм Альтман, пошел еще дальше и призвал идти по пути государственного регулирования всей индустрии. Во время поездки в ОАЭ он призвал создать международное агентство по аналогии с международным агентством по атомной энергии (МАГАТЭ) для контроля за подобными разработками.

Загрузка