Искусственный интеллект. Большие данные. Преступность - стр. 2
В качестве важнейших направлений развития ИИ, открывающих возможности и создающих угрозы в сфере национальной безопасности, эксперты выделяют три главных направления:
во-первых, системы ИИ станут интегральными платформами для развития различных секторов и отраслей экономики, финансов, общественной жизни, государственного управления и национальной безопасности. От мощи ИИ будет в решающей степени зависеть конкурентоспособность стран, корпораций и отдельных групп граждан. Соответственно, следует ожидать попыток аутсайдеров в этом соревновании уровнять шансы за счет кражи систем ИИ либо нарушения их работы у лидеров;
во-вторых, чем дальше, тем больше системы ИИ будут использовать многомерные математикостатистические программы, в том числе для решения оптимизационных задач, где люди-пользователи будут получать эффективные результаты при неясном характере вычислений и их последствий. В перспективе это может создать риски для национальной безопасности;
в-третьих, наличие или отсутствие ИИ проведет между странами, корпорациями и людьми еще более явную границу, чем обладание или необладание огнестрельным оружием в XVI веке или авиацией – в начале XX. Различия между обладателями ИИ и теми, кто не имеет к нему доступа, могут разделить страны, народы и отдельные группы населения сильнее, чем когда-либо в истории человечества. В этих условиях задачей номер один становится не просто создание и совершенствование ИИ, а ограничение числа его пользователей, прежде всего недопущение к нему террористических сетей и организованной преступностьI[3].
Как подчеркнуто в исследовании Центра новой американской безопасности «Искусственный интеллект: тенденции, угрозы, рекомендации по минимизации рисков» (февраль 2018 г.)[4], ИИ изменяет ландшафт рисков безопасности для граждан, организаций и государств. Злонамеренное использование ИИ может угрожать цифровой безопасности, а также непосредственной физической безопасности отдельных граждан, групп, юридических лиц и даже государств в целом. Злонамеренное использование ИИ может нанести существенный вред цифровой инфраструктуре общества, бизнеса и правительства. На сегодняшний день важнейшим вопросом является прогнозирование возможных угроз злонамеренного использования ИИ. Это позволит оценить вероятность угроз и планировать меры по их предотвращению. Эти вопросы рассматриваются в первом разделе книги.
Использование ИИ в борьбе с преступностью неразрывно связано с Большими данными (БД). Поэтому в нашей работе подробно рассматриваются проблемы, связанные с БД в деятельности правоохранительных органов. Этому посвящен второй раздел книги.
В третьем разделе работы подробно анализируются проект Европола SOCTA, а также система ePOOLICE, которая осуществляется международной командой ученых под эгидой Евросоюза. В ePOOLICE эффективно реализуются технологии прогноза организованной преступности на основе БД и ИИ.
Раздел I
Искусственный интеллект (ИИ), его использование преступниками и правоохранителями
§ 1. Сущность ИИ
Сегодняшний бум ИИ создает у многих иллюзию, что мы имеем дело с каким-то новейшим открытием. Это не так.
Попытки скопировать человеческий интеллект предпринимаются уже несколько веков.
ИИ часто связывают с роботами. Слово «робот» придумал чешский писатель