Злонамеренное использование искусственного интеллекта в Северо-Восточной Азии и угрозы международной информационно-психологической безопасности : Malicious Use of Artificial Intelligence in North-East Asia and Threats of International Psychological Security

В данной работе рассмотрены современные и перспективные угрозы международной информационно-психологической безопасности, обусловленные злонамеренным использованием искусственного интеллекта (ИИ) в Северо-Восточной Азии (СВА). В регионе не сложилась собственная система безопасности, которая бы охваты...

Full description

Bibliographic Details
Main Authors: Пашенцев Евгений Николаевич, Фан Као Ньат Ань, Дам Ван Ньить
Format: Report
Language:unknown
Published: Государственное управление. Электронный вестник 2020
Subjects:
Online Access:https://dx.doi.org/10.24411/2070-1381-2020-10069
http://cyberdoi.ru/doi/10.24411/2070-1381-2020-10069
Description
Summary:В данной работе рассмотрены современные и перспективные угрозы международной информационно-психологической безопасности, обусловленные злонамеренным использованием искусственного интеллекта (ИИ) в Северо-Восточной Азии (СВА). В регионе не сложилась собственная система безопасности, которая бы охватывала все страны СВА, удовлетворяя их интересам. Сохраняются конструкции, ориентированные на интересы США и их союзников. Негативные информационно-психологические воздействия, связанные с разнообразными факторами международного развития, все более влияют на систему межгосударственных отношений в СВА. В последнее время резко возросли темпы развития технологий ИИ в странах региона, особенно в Китае, Японии и Южной Корее. Исследования показывают, что ИИ поднимает угрозы международной информационно-психологической безопасности (МИПБ) на новый уровень. При этом использование ИИ для дестабилизации международных отношений путем целевого высокотехнологичного информационно-психологического воздействия на сознание граждан представляет очевидную и большую опасность. В статье в контексте основных конфликтов между странами СВА определены некоторые существующие и способные появиться в будущем методы злонамеренного использования искусственного интеллекта (ЗИИИ), представляющие угрозу для МИПБ. Чтобы избежать возможных угроз ЗИИИ, должны эффективно взаимодействовать не только государства, но и заинтересованные частные и некоммерческие организации, специалисты в области ИИ. Опасность ЗИИИ существенно повышается за счет комплексного применения этих технологий злоумышленниками. Однако не стоит забывать, что угроза ЗИИИ носит прежде всего антропогенный характер (по крайней мере, на современном этапе развития ИИ). Следовательно, чтобы избежать многих угроз, самому обществу необходимо повышать свои знания об ИИ, одновременно осознавая и принимая коллективную ответственность за общее будущее. : This article examines current and future threats to international psychological security caused by the malicious use of artificial intelligence (AI) in North-East Asia (NEA). There was no regional security system in this region that would encompass and satisfy all countries in the region. Structures that focus on the interests of the United States and its allies are preserved. Negative psychological influences associated with various factors of international development are increasingly affecting the system of interstate relations in NFA. Recently, the pace of AI technology development in the region has increased dramatically, especially in China, Japan, and South Korea. The current research shows that AI raises threats to international psychological security (IPS) to a new level. At the same time, the use of AI to destabilize international relations through targeted high-tech psychological influence on the minds of citizens is an obvious and great danger. In the context of the main conflicts between the NEA countries, some existing and prospective methods of malicious use of AI that pose a threat to the IPS are identified. In order to avoid possible threats from malicious use of AI not only states, but also interested private and non-profit organizations should effectively interact. The risk of malicious use of AI is significantly increased due to the complex use of these technologies by asocial actors. However, we should not forget that the threat of AI is primarily anthropogenic (at least at the current stage of AI development). Therefore, in order to avoid many threats, society itself needs to increase its knowledge of AI, while simultaneously recognizing and accepting collective responsibility for the common future.