Наука и технологии

Боевые роботы наступают! (5 фото)

Боевые роботы наступают! военные, война, наука, роботы, роботы убийцы, терминаторы, техника, технический прогресс

Настоящие роботы-убийцы, неумолимо выполняющие задачу и не требующие надзора человека, могут появиться на вооружении армий мира уже через год, говорят эксперты. Предвидя здесь опасность, специалисты обсуждают, не следует ли заранее запретить роботов-убийц и их использование на поле боя.

Боевые роботы наступают! военные, война, наука, роботы, роботы убийцы, терминаторы, техника, технический прогресс

Роботы-убийцы могут оказаться на вооружении в войсках уже через год, если ООН заранее не предпримет мер по ограничению их использования, утверждает профессор Шеффилдского университета Ноэль Шарки. По его мнению, эти машины неизбежно станут причиной массовых невинных смертей, поскольку не могут отличить военного человека от гражданского нонкомбатанта. Его заявление прозвучало как раз в то время, когда экспертное сообщество из 120 стран обсуждает в Женеве потенциальные риски, связанные с работой автономных систем вооружений. Профессор Шарки считает: обсуждений мало, необходимо срочно принимать документ об ограничении производства роботов! Иначе уже год спустя роботы буквально наводнят армии развитых стран.

Боевые роботы наступают! военные, война, наука, роботы, роботы убийцы, терминаторы, техника, технический прогресс

В эти дни в Женеве представители более чем 90 стран мира обсуждают опасность, которая исходит от «летальных автономных систем вооружений». Один из важных вопросов обсуждения — как обеспечить безопасность их применения в боевой обстановке? Многие эксперты, включая профессора Шарки, настаивают на том, что , несмотря на автономность систем, человек должен постоянно иметь возможность «принципиального контроля» над ними — ради безопасности человечества. «Робот все равно не в состоянии принимать решения, как человек, — говорит профессор Шарки. — Он не в состоянии полностью. постигнуть логику боевых действий, может не отличить союзника от противника и принимать решение о допустимости тех или иных действий. «Мы не можем позволить роботу решать, стоит ли жизнь, к примеру, Осамы бин Ладена того, чтобы вместе с ним погибли 50 старушек и 20 детей, — говорит Шарки. — Роботу это безразлично.

Принципиальные решения, к примеру, о выборе цели должен осуществлять человек». По мнению профессора Шарки, если такие решения будут отданы на откуп роботам, «последствия их применения будут не менее разрушительны, чем использование химического оружия».

Боевые роботы наступают! военные, война, наука, роботы, роботы убийцы, терминаторы, техника, технический прогресс

Профессор Шарки стал одним из 57 экспертов, подписавших открытое письмо, адресованное Южнокорейскому университету, в котором специалисты выражают протест против программы разработки интеллектуальных вооружений. Корейский институт наук и высоких технологий Кайст в настоящее время начинает запуск этой программы совместно с производителем военной техники компанией Hanwa Systems, и эта новость всколыхнула научное сообщество. «Университет, научное учреждение, не может заниматься этим с моральной точки зрения», — считает профессор Шарки, с которым полностью согласны остальные подписанты.

По мнению экспертов, автоматические роботы-убийцы откроют ящик Пандоры, произведя третью революцию в ведении войны.

Представители института Кайст уже откликнулись на открытое письмо, уверяя коллег, что вовсе не планируют создавать дроидов в стиле «Скайнет».

Боевые роботы наступают! военные, война, наука, роботы, роботы убийцы, терминаторы, техника, технический прогресс

Представители института Кайст заверили коллег, что они, как академическое учебное заведение, «высоко ценят общечеловеческие стандарты этики и морали» и не собираются разрабатывать роботов-солдат, работающих вне человеческого контроля. На сегодняшний день институт Кайст лишь проводит исследование в этой области. На этом авторы открытого письма успокоились и не стали подвергать коллег бойкоту.

Однако вопрос о том, удастся ли человечеству договориться об общих принципах тотального контроля над действиями боевых роботов, до сих пр остается открытым. Между тем, он сегодня важен отнюдь не в теории. На сегодня высокофункциональные роботы уже являются настолько сложными механизмами, что даже специалисты не до конца понимают, как работает их искусственный интеллект. А не понимая этого полностью, они не в состоянии предсказать, когда именно он может дать сбой.

«Если человечеству суждено быть уничтоженным, то, скорее всего, искусственный интеллект сыграет значительную роль в этом процессе», — говорит один из участников конференции в Женеве.

По мнению Илона Маска, искусственный интеллект сегодня несет с собой больше угроз человечеству, чем Северна Корея. Маск убежден, что роботы должны находиться под постоянным строгим контролем человека, и многократно обращался к правительствам разных стран с призывом разработать четкие правила контроля над системами, обладающими искусственным интеллектом.

источник

Реклама

Добавить комментарий

Заполните поля или щелкните по значку, чтобы оставить свой комментарий:

Логотип WordPress.com

Для комментария используется ваша учётная запись WordPress.com. Выход /  Изменить )

Google+ photo

Для комментария используется ваша учётная запись Google+. Выход /  Изменить )

Фотография Twitter

Для комментария используется ваша учётная запись Twitter. Выход /  Изменить )

Фотография Facebook

Для комментария используется ваша учётная запись Facebook. Выход /  Изменить )

Connecting to %s