Минтранс Якутии опроверг сообщения в соцсетях об открытии переправы
Якутские романсы прозвучали в Санкт-Петербурге
Директора красноярской филармонии уличили в растрате
Пресс-секретарем министра обороны РФ стала телеведущая
Два человека погибли при пожаре в Алданском районе

ИA SakhaNews. Решение о применении оружия должен принимать человек, а не искусственный интеллект, заявил военный эксперт Алексей Леонков в эфире радио Sputnik.

«Искусственный интеллект хорош при совершении других операций, например, конвейерных и сборочных, когда требуется точность и безошибочность при изготовлении той или иной детали. Здесь же, вопрос морально-этический, которым искусственный интеллект не обладает. Он выполняет четкий алгоритм «да-нет», простейшую логику. Из набора простейших признаков он принимает решения, но они могут быть ошибочными. Люди тоже совершают ошибки при применении оружия. Есть такое понятие "дружественный огонь", когда под огонь собственной артиллерии попадает дружественное подразделение, собственное подразделение, или подразделение союзников. Но, если мы посмотрим историю этих "дружественных огней", то ошибок все-таки, меньше по сравнению с теми, которые могут возникнуть при применении искусственного интеллекта. К тому же, если этот интеллект будет автономно действовать в той или иной области, то остановить его будет достаточно сложно. А если ему еще придумать средство обороны, которым он будет обороняться, чтобы его остановили, так мы получим то же самое, что показывали в фильме «Терминатор», - рассказал военный эксперт.

Ранее в Организацию Объединенных Наций поступило письмо с призывом запретить разработку и использование роботизированного оружия. Под обращением подписались 116 ученых из 26 стран мира. Ученые уверены, что роботы-убийцы, оснащенные искусственным интеллектом, несут в себе потенциальную угрозу для человечества. По мнению известного американского предпринимателя Илона Маска, если научить роботов убивать, однажды они направят пушки на своих же создателей. Подобные технологии в письме сравниваются с ящиком Пандоры. Предполагается, что однажды искусственный интеллект станет слишком «умным» и не захочет подчиняться создателю. Тогда роботы, скорее всего, устроят тотальное истребление людей, сообщает "Мир24".

Это уже не первое обращение в ООН. В 2015 году более тысячи ученых, экспертов и изобретателей написали письмо, в котором также содержалось предупреждение об опасности, которую несет в себе автономное оружие.

Спасибо за добавление статьи в:
Если вы стали очевидцем интересного события или происшествия, присылайте фото и видео на Whatsapp 8 909 694 82 83
23.08.2017 01:37 (UTC+9)

ЛЕНТА НОВОСТЕЙ