Ср, 8 июня 2016, 9:06

УЧЕНЫЕ ЗАДУМАЛИСЬ О ТОМ, КАК УДЕРЖАТЬ ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ ОТ БУНТА

921b312008a82ff.jpg

Интеллектуальные машины становятся все сложнее и умнее. Фантастические сценарии про "восстание машин" существуют уже давно. Но по мере развития прогресса этот вопрос становится уделом не только писателей-фантастов, но и вполне практичных ученых-кибернетиков.

В последние годы появляются серьезные опасения относительно того, что в какой-то момент искусственный интеллект может выйти из-под контроля человека.

Ученые из Оксфордского университета считают, что самообучающиеся алгоритмы в перспективе способны обнаружить способ обхода или игнорирования штатной стоп-команды оператора. Чтобы предотвратить такие ситуации, исследователи совместно с лабораторией DeepMind, принадлежащей Google, начали работу над системой аварийного выключения для самообучающихся алгоритмов.

По словам исследователей, цель работы — создание фреймворка, который не позволит искусственному интеллекту найти способ игнорирования команды отключения. "Большая красная кнопка" должна гарантированно прервать текущую деятельность робота, максимально обезопасить его и окружающих от потенциально опасной ситуации, а также предотвратить совершение действий, которые могут привести к необратимым последствиям.

Возможный исход действий неконтролируемого искусственного интеллекта положен в основу многих сюжетов фантастических фильмов и книг. Ученые, исследователи, бизнесмены и специалисты в области робототехники уже поднимали вопросы безопасности, связанные с разработкой систем искусственного интеллекта.

Илон Маск, Стивен Хокинг, Ноам Хомский, Стив Возняк и многие другие ученые подписали открытое письмо, предостерегающее производителей оружия от создания полностью автономных боевых систем.

Благодаря дешевому и массовому производству боевая техника с искусственным интеллектом может стать "Калашниковым завтрашнего дня", полагают авторы текста.

Источник: 9 Канал

14595093748972