ИНВУР - информационное агенство

Инновационный портал
Уральского Федерального округа

  
Расширенный поиск

подписка

Subscribe.Ru
Новости сайта инновационный портал УрФО
Рассылки@Mail.ru
Новости инноваций. Рассылка инновационного портала УрФО
 
важно!
 
полезно!
награды
 
 
 
 
 

партнеры
Официальный портал Уральского Федерального округа
Официальный портал
Уральского Федерального округа
Межрегиональный некоммерческий фонд наукоемких технологий и инвестиций
Межрегиональный некоммерческий фонд наукоемких технологий и инвестиций

Ежедневная газета ''Новости Сочи''.
Ежедневная газета
''Новости Сочи''
 
Институт Экономики УрО РАН
Инновации

» Наши партнеры »


Сейчас на сайте:
116 чел.

Новости



2019-09-04 Ненадежность "супермозга"

Красная кнопка с ошибкой

В США опасаются, что искусственный интеллект может развязать ядерный конфликт Текст: Александр Степанов Российская газета Американские военные опасаются, что искусственный интеллект может стать причиной возникновения глобального ядерного конфликта. Компьютерный "супермозг", неверно оценив полученные данные, способен дать команду на превентивный удар или даже самостоятельно запустить ядерные ракеты.  Фото: iStock Фото: iStock

В частности, экс-заместитель министра обороны США Роберт Уорк считает, что если военные будут использовать системы искусственного интеллекта при принятии решений о нанесении ядерного удара, то для человечества возникнет реальная опасность уничтожения.

Премьер Польши выступил за размещение ядерных ракет в Европе

В интервью изданию Breaking Defense он рассказал, что необходимо минимизировать применение компьютерного "супермозга" при контроле ядерного вооружения, так как он может выделить ряд неопасных факторов и посчитать, что они представляют угрозу. "И это является тревожной перспективой", - убежден Уорк.

В качестве примера он привел советскую систему "Периметр", которую на Западе называют "мертвая рука" или "рука из гроба". По мнению Уорка, эта система, которая может быть вновь принята на вооружение, внезапно примет сейсмические толчки за ядерные взрывы и если не получит приказ "отбой", автоматически даст команду на запуск межконтинентальных баллистических ракет.

Или представьте, рассказывает Уорк, что искусственный интеллект в командном центре китайской армии, проанализировав оперативные данные, заявляет, что США готовятся нанести удар по КНР, и рекомендует нанести превентивный удар.

В итоге бывший военный чиновник делает вывод о том, что системы искусственного интеллекта не должны участвовать в контроле ядерного вооружения, так как это может привести к плачевным последствиям.

В России к примерам и выводам американских аналитиков отнеслись достаточно скептично. В частности, по некоторым данным, системы под названием "Периметр" сейчас в России нет. Та система, которая пришла ей на смену, не стоит на боевом дежурстве и может быть активирована только в том случае, если возникнет серьезная угроза ядерного нападения.

В США считают, что компьютерный "супермозг", неверно оценив полученные данные, может сам запустить ядерные ракеты

В частности, военный эксперт Виктор Мураховский рассказал "РГ", что выводы, которые сделал бывший замминистра, говорят о том, что он ничего не знает о системе "Периметр" и алгоритмах его работы. "Не может эта система в силу своих алгоритмов принять сейсмические толчки за ядерные взрывы", - подчеркнул эксперт. По словам Мураховского, все специалисты понимают ограниченность использования искусственного интеллекта, а примеры, приведенные Уорком, - просто американские "пугалки".

Сейчас искусственный интеллект в армии применяется в тех системах, где человек не успевает принимать решения в силу скоротечности процессов. Например, в противоракетной обороне и в некоторых системах ПВО. Да и то они предлагают варианты принятия решений, а не сами запускают ракеты. Окончательное решение сейчас всегда принимает человек, и именно он нажмет "красную" кнопку, а не мифический компьютерный "супермозг".

ноябрь 11-18 << пн / вт / ср / чт / пт / сб / вс / >>
 
Индекс Цитирования Яndex Rambler's Top100
дизайн, программирование: Присяжный А.В.