Выпуск: RU

Вход

Войти с помощью социальной сети:

Новость добавлена
9418.06.2019 01:15
< >
Безграничные кибервозможности
Безграничные кибервозможности

Успехи технологий машинного интеллекта и искусственных нейросетей открывают путь к созданию сверхмощной системы, которую принято называть искусственным интеллектом (ИИ). Ведущие мировые державы, в том числе и Россия, начали реализацию национальных стратегий развития ИИ. Но, как и любая технология двойного назначения, ИИ несет в себе не только выгоды, но и риски. Причем риски общепланетарного масштаба, особенно если произойдет монополизация ключевых технологий в одной из держав, если ИИ станет оружием психологической и информационной войны или кибервойны.

«Если кто-то сможет обеспечить монополию в сфере искусственного интеллекта, то последствия нам всем понятны: тот станет властелином мира», - заявил президент Владимир Путин на совещании по вопросам развития технологий ИИ.

Увы, но реалии таковы - современный мир объективно живет в состоянии гибридной войны, которая ведется за гегемонию, за ресурсы и за сохранение контроля над финансами, торговлей и технологиями с одной стороны и за многополярность и собственное будущее с другой.

В этой ситуации опора на ядерное сдерживание - спасение. На сегодняшний день, а это признано и нашими оппонентами, Россия в состоянии нанести неприемлемый для них ущерб, потому вероятность прямого «горячего» конфликта маловероятна. Но по этой же причине, основными «средствами поражения» для ослабления противника становятся торможение его технологического развития, экономические санкции, манипулирование информацией, кибервоздействие, а также создание разномасштабной нестабильности.

И одновременно развитие собственных технологий искусственного интеллекта и использование его в целях нацбезопасности и обороны позволяет компенсировать мощь противника на стратегических направлениях. Именно поэтому считается, что ИИ - это третья революционная инновация в военном деле после изобретения пороха и ядерного оружия.

США стремятся занять лидирующие позиции в исследовании ИИ и применении его для разработки кибероружия и автономных видов вооружений, которые можно использовать как для наблюдения за противником, так и для нападения. Активно работает в этом направлении и Китай.

Ряд экспертов, бизнесменов и представителей IT-компаний призывают запретить разработку любых видов вооружений и автономных технологий, использующих ИИ, рассказывая о том, что он в конечном итоге уничтожит человечество.

На самом деле бояться «военного» ИИ пока не нужно. Принятие стратегических решений и команды высокого уровня по-прежнему останутся в ведении людей, а робототехникой и автономным оружием будут укомплектованы оперативно-тактические звенья.

Искусственный интеллект - это не только роботы и автоматизированные системы, это еще и кибер-оружие и кибер-шпионаж. Безграничные кибервозможности - это сейчас основные риски таких технологий.

Учитывая повсеместный переход на цифровизацию, масштабы последствий кибератак будут постоянно расти, как и бюджеты на киберзащиту и противодействие. «Охота за уязвимостями» будет настолько хорошо автоматизирована, что условная «третья мировая война» может свершиться в течение нескольких секунд, если одно государство с помощью технологий ИИ возьмет под контроль все основные системы жизнеобеспечения стран-соперников.

Очевидно, что в сфере государственного управления, как и в области обороны, решения на высшем уровне - это компетенция политического руководства страны. Внедрение ИИ в систему управления существенно расширит возможности оперативного сбора и анализа информации общественного характера, что позволит принимать социально-экономические решения и формировать определенные аспекты во внутренней политике.

Однако надо понимать: ИИ может выступить не только как советник и помощник, но и как «цифровой Мефистофель». ИИ, включенный в технологии госуправления, становится инструментом внутренней политики и может привести как к укреплению госвласти, так и к ее разрушению. Неготовность к внедрению или ошибки при создании ИИ таят в себе серьезные угрозы. И во многом сегодня опасность машинного интеллекта сосредоточена в области компетенций, а вовсе не в использовании ИИ в беспилотниках или в танках.

Очевидны риски в сфере информации и в киберпространстве. ИИ уже скоро будет способен создавать «фейковые новости», размещать поддельные пресс-релизы на сайтах правительств и центробанков, формировать искусственную реальность в режиме онлайн, менять видеоконтент телепередач, чтобы влиять на сознание граждан и заставлять политиков принимать «нужные» решения. Инновационные достижения в области ИИ несут не только благо для экономик, но и риски спровоцировать реальный конфликт между странами. И в этом заключается серьезная опасность новых технологий.

И еще о рисках с сугубо российской спецификой. Объявленная в РФ программа тотальной цифровизации, местами, увы, очень напоминает гонку за бюджетами. Это порождает дополнительные риски нацбезопасности. Суть - в порочной практике, когда победы в тендерах госзакупок порой достаются не компетентным научно-производственным организациям, а тем компаниям, где «эффективный менеджмент» обладает связями и натренирован добежать до бюджетных денег быстрее всех остальных.

Необходима госэкспертиза как самих проектов, подразумевающих использование технологий ИИ, так и выстроенная система тестирования для обнаружения возможных ошибок, умышленных вкладок и сбоев.

Но самое главное, о чем сейчас должны задуматься российские политики, государство и бизнес, это о масштабах инвестиций в исследования, о стимулировании разработок в научных институтах РАН и исследовательских центрах, таких как, например «Курчатовский институт», в ведущих технических вузах, в частных корпорациях. Следует стимулировать и поддерживать взаимодействие промышленных предприятий с IT-компаниями и лабораториями, выстраивать международную кооперацию. И, конечно же, уделять максимальное внимание качественному школьному и высшему образованию.

Без всего этого Россия не сможет создать необходимые компетенции и укрепить свой потенциал в сфере кибербезопасности и национальной безопасности в целом.

Автор - советник министра обороны РФ, кандидат технических наук

В соавторстве с членом президиума Совета по внешней и оборонной промышленности Александром Лосевым

Мнение авторов может не совпадать с позицией редакции

Поделиться:
Комментарии (0)
Поделиться в социальных сетях:


Новости по теме