Интеллектуальные машины становятся все сложнее и умнее. Фантастические сценарии про "восстание машин" существуют уже давно. Но по мере развития прогресса этот вопрос становится уделом не только писателей-фантастов, но и вполне практичных ученых-кибернетиков.
В последние годы появляются серьезные опасения относительно того, что в какой-то момент искусственный интеллект может выйти из-под контроля человека.
Ученые из Оксфордского университета считают, что самообучающиеся алгоритмы в перспективе способны обнаружить способ обхода или игнорирования штатной стоп-команды оператора. Чтобы предотвратить такие ситуации, исследователи совместно с лабораторией DeepMind, принадлежащей Google, начали работу над системой аварийного выключения для самообучающихся алгоритмов.
По словам исследователей, цель работы — создание фреймворка, который не позволит искусственному интеллекту найти способ игнорирования команды отключения. "Большая красная кнопка" должна гарантированно прервать текущую деятельность робота, максимально обезопасить его и окружающих от потенциально опасной ситуации, а также предотвратить совершение действий, которые могут привести к необратимым последствиям.
Возможный исход действий неконтролируемого искусственного интеллекта положен в основу многих сюжетов фантастических фильмов и книг. Ученые, исследователи, бизнесмены и специалисты в области робототехники уже поднимали вопросы безопасности, связанные с разработкой систем искусственного интеллекта.
Илон Маск, Стивен Хокинг, Ноам Хомский, Стив Возняк и многие другие ученые подписали открытое письмо, предостерегающее производителей оружия от создания полностью автономных боевых систем.
Благодаря дешевому и массовому производству боевая техника с искусственным интеллектом может стать "Калашниковым завтрашнего дня", полагают авторы текста.
Источник: 9 Канал