Защита личных данных

ИИ повысит количество и уровень кибератак

Сегодня искусственный интеллект (ИИ) используется примерно в 1% кибератак, но уже в ближайшие 10 лет этот показатель преодолеет 10%.

ИИ в атаке – это генерация dorks.

ИИ в атаке

Dorks — хакерский метод, при котором используется расширенная сеть запросов, чтобы добраться до какой-то скрытой информации.

Google Dork, например, позволяет находить информацию, которая может быть скрыта или недоступна для обычных пользователей. Можно найти пароли, личные данные, уязвимости в системах безопасности и другие интересные вещи.

ИИ научился эффективно строить дорки – порой, даже лучше, чем люди.

Также ИИ активно используется для генерации вредоносного кода.

Что хакеры делали раньше — добавляли паразитные кусочки кода, которые антивирусы не сразу, но блокировали. Сейчас появляются нейросети, которые позволяют переписывать и переупаковывать код и использовать его в атаках.

Таким образом, ИИ «скрывает» вредоносный код от средств защиты.


Применение искусственного интеллекта в социальной инженерии 

Социнженерия и ИИ

Применение искусственного интеллекта в социнженерии вырастет c 1% до 40% в ближайшие 10 лет.

Откуда ждать рост? Активное создание правдоподобных рекламных объявлений, электронных писем и других сообщений.

Помимо целевого фишинга, ИИ также способен генерировать документы, с помощью которых хакеры смогут выдавать себя за партнеров или коллег своей жертвы, имитируя их стиль. И автоматизировать шпионаж, например собирать данные об онлайн-активностях пользователя — публикациях в соцсетях, комментариях и собственных статьях.

Злоумышленники будут обрабатывать такую информацию и на ее основе создавать текстовые и аудио фейки, имитируя индивидуальный стиль и голос человека.

Большая проблема для этих 2 областей применения – этическая. А вот правовая часть для киберпреступлений прописана относительно неплохо. 

Искусственный интеллект 2023


Тенденции применения искусственного интеллекта

В киберзащите ИИ решает важные задачи и его применение будет только расти.

Через 10 лет ИИ будет применяться более чем в 70% случаев.

Тенденция использования ИИ

Уже сейчас поставщики, например, систем расширенного обнаружения и реагирования (extended detection and response, XDR) успешно используют ИИ для выявления и предотвращения угроз, что помогает киберзащитникам устранять различные проблемы, такие как анонимные хакерские атаки, и совершенствовать процессы защиты.

Проблема — отсутствие правовой базы для самостоятельной работы ИИ. Не хватает терминологии, системы правовых принципов, норм и правил, регламентирующих использование или взаимодействие с нейросетями.


Искусственный интеллект в экспертизах

Что касается направления судебных экспертиз, ждем роста применения более чем в 40% через несколько лет.

Применения ИИ в расследованиях

ИИ, с его способностью быстро и точно анализировать огромные объемы данных, способен сильно изменить рынок судебных экспертиз. Искусственный интеллект может применяться для идентификации отпечатков пальцев и распознавания лиц.  Это не только быстрее ручной работы, но и снижает вероятность человеческой ошибки.

Более того, он будет играть решающую роль в цифровой криминалистике, в исследованиях цифровых устройств и сетей.

ИИ может помочь обнаружить закономерности и аномалии в больших объемах цифровых данных, упрощая выявление потенциальных доказательств.

Например, проанализировать историю подозреваемого в Интернете или его активность в социальных сетях, чтобы найти улики, которые могут быть упущены следователями-людьми.

Проблема — воспроизводимость результатов. Если эксперт проводит исследование и получает определенный результат, то другой эксперт, используя те же методы и материалы, должен получить тот же результат. Это гарантирует точность и объективность исследований и уменьшает вероятность ошибок.

И этого невозможно ожидать от ИИ, который непрерывно учится и совершенствуется. Результаты экспертиз, проводимых при помощи искусственного интеллекта, будут постоянно улучшаться.

И тут придется не просто править правовое регулирование, его придется полностью переделывать.

Законодательная база должна сформулировать принципы принятия и оценки окончательного решения, основанного на результатах применения алгоритмов ИИ.  Только в таком случае мы придем к экспертизам, проводимым с помощью искусственного интеллекта, и, наконец, нагоним преступников в этой битве снаряда и брони.

Предоставлю подробную консультацию

Предложу актуальное и наиболее выгодное решение Вашей проблемы.