Big Data и искусственный интеллект: мошенники уже освоили новые технологии

Автор: Azattyq Rýhy

Рассмотрим риски, связанные с внедрением в Казахстане передовых финансовых технологий

В последние годы казахстанские финансовые институты активно внедряют в свои процессы современные технологии. Сегодня мы расскажем, что такое финтех (FinTech), и как с его приходом меняется жизнь казахстанцев, а также на что стоит обратить внимание, чтобы уберечь себя от мошенников, передает Azattyq Rýhy.

К финансовым технологиям (FinTech) относятся Big Data, искусственный интеллект, роботизация, биометрия и другое.

«Большие данные», или Big Data

Данный инструмент используется для анализа сотен и тысяч источников, чтобы собрать наиболее полную информацию о клиенте, а также проанализировать все значимые факторы и принять правильное решение, сделать прогнозы и вести статистику.  «Большие данные» включают такие источники, как интернет, включая соцсети и блоги; данные компаний (транзакции, заказы товаров и услуг, поездки на такси и каршеринге, профили клиентов), разного рода статистику и многое другое. Для хранения всех данных используются специальные дата-центры с мощными серверами, а также облачные хранилища, «озера данных» и Hadoop — фреймворк, состоящий из набора утилит для разработки и выполнения программ распределенных вычислений.

При предоставлении финансовых услуг онлайн, в том числе микрокредитовании, страховании и т.д., Big Data позволяет не только оценить платежеспособность человека, но и удаленно идентифицировать его личность, проверить онлайн его документы. В базе компаний может храниться информация о сотнях тысяч клиентов, и каждая новая заявка анализируется с учетом этих данных примерно по сотням параметров, учитывая множество факторов и выдавая готовое решение на основе анализа.  

Какие риски существуют?

Сбор «больших данных» часто связан с проблемой приватности: ваше каждое действие может отслеживаться, и есть возможность передачи этих данных третьим лицам. Никогда не публикуйте свои персональные данные в интернете, особенно в соцсетях, где, к примеру, вас просят заполнить анкету, передать или запомнить ваш пароль, одноразовый SMS-код и т.д. Никто не может гарантировать, что вашими данными не воспользуются мошенники.  

Искусственный интеллект (artificial intelligence)

Еще одна технология, которая активно применяется крупными компаниями, в том числе финансового сектора. Это система, которая может имитировать человеческое поведение для выполнения определенных задач. Также она способна изучать человеческое поведение и постепенно обучаться, используя полученную информацию. Например, к искусственному интеллекту можно отнести камеры видеоконтроля на дорогах, системы безопасности в метро и аэропортах, которые находят преступников в толпе.

Машинное обучение – подраздел искусственного интеллекта, изучающий методы построения алгоритмов, способных обучаться. Оба направления нацелены на то, чтобы минимизировать участие человека в процессе получения услуг, в том числе финансовых. Появление всевозможных чат-ботов, виртуальных помощников, персонализация рекламы – результат работы искусственного интеллекта. С помощью машинного обучения искусственный интеллект может анализировать данные, запоминать информацию, строить прогнозы, воспроизводить готовые модели и выбирать наиболее подходящий вариант из предложенных.

В маркетинге и электронной коммерции машинное обучение помогает настроить сервисы и приложения так, чтобы они выдавали персональные рекомендации. В сфере инвестиций алгоритмы на базе машинного обучения анализируют рынок, отслеживают новости и подбирают активы, которые выгоднее всего покупать именно сейчас.

Какие риски существуют?

Существует вид мошенничества, в котором используется технология искусственного интеллекта, которая позволяет оживить несуществующих людей или создать поддельное видео, подделать любой голос, мимику, добавить в речь слова, которые человек никогда не произносил.

Дипфейки – это фото, видео или аудиозапись, обработанные с помощью искусственного интеллекта.

Какой вред могут принести дипфейки

С момента появления дипфейков в 2017 году их часто использовали в преступных целях. Вот в чем была замешана эта технология.

Порно и кибербуллинг

Дипфейки часто использовали для создания фальшивого порно с «участием» известных людей. Получившимся видео их могли шантажировать или просто пытаться скомпрометировать. Лица женщин вырезали из фотографий, найденных в сети, и интегрировали в порнографические видео. Эксперт по технологии Генри Аждер приводит конкретные данные: 96% дипфейков в Интернете — порнография, причем в абсолютном большинстве из них используются женские лица и образы.

Политические манипуляции

Весной 2019 года в интернете опубликовали дипфейк со спикером Палаты представителей США демократкой Нэнси Пелоси. В видео она медленно говорила, за счет чего создавалась иллюзия, что она сильно пьяна. Республиканские эксперты и политики немедленно принялись критиковать спикера, почти начался скандал. Лишь через несколько дней оказалось, что речь Пелоси была сгенерирована ИИ.

Во время выборов в Великобритании в 2019 году художник Билл Постерс выпустил фейковое видео, в котором Борис Джонсон (тогдашний глава Консервативной партии Великобритании) говорил, что британцы должны голосовать за Джереми Корбина (в то время — лидера соперничающей с консерваторами Лейбористской партии).

Ну и разумеется, данную технологию освоили и мошенники.

Аферисты при использовании данной технологии редко уделают должное внимание качеству своего «продукта», будь то видео, фото или аудио. Поэтому странное моргание человека, либо его отсутствие, слова невпопад, легкое заикание или роботизированный тон должны вас насторожить. Ко всему, что кажется вам неестественным, относитесь с подозрением. 

Справедливости ради, стоит упомянуть и о другой стороне медали, пусть и к рассматриваемой теме рисков и финтеха она относится опосредованно.  

Чем полезны дипфейки

Несмотря на все скандалы, не стоит клеймить технологию как абсолютно зло. Это всего лишь инструмент, который можно использовать и во вред, и во благо. Вот какую пользу могут приносить дипфейки.

Помогать людям с отсутствием воображения

Инженеры-исследователи Кейт Глазко и Ивэй Чжэн используют дипфейки для помощи людям с афантазией. В этом состоянии у человека нет воображения, и он не может создавать абстрактные образы в своей голове. Ученые с помощью дипфейков воспроизводят разные жизненные обстоятельства, в которые может попасть такой человек. Это помогает людям с афантазией прорепетировать потенциально стрессовую ситуацию и за счет этого снизить тревогу.

Способствовать политическим и общественным преобразованиям

Политические дипфейки способны быть инструментом позитивных преобразований в обществе. Например, родители Хоакина Оливера, погибшего из-за стрельбы в школе во Флориде в 2018 году, использовали эту технологию и внедрили образ мальчика в эмоциональное видео, призывающее к контролю за ношением оружия в США.

Рассказывать об искусстве

В музее Дали во Флориде дипфейковая версия сюрреалиста встречает посетителей, рассказывая о художнике и его искусстве. Исследователь Михаэла Михайлова отмечает, что это дает посетителям ощущение непосредственности, близости и персонализации. Deepfake Dali даже предлагает сделать с ним селфи.

Повышает концентрацию студентов

Дипфейки могут помогать лучше учиться. В Шанхае доцент Цзян Фэй заметил, что во время онлайн-пар внимание его студентов ослабло. Чтобы помочь им сосредоточиться, он использовал аниме-версию себя для цифрового обучения. Цзян Фэй подчеркивает: «Энтузиазм студентов на занятиях и улучшение качества домашних заданий говорят о том, что удалось добиться очевидного прогресса».