Яркий скачок в развитии индустрии искусственного интеллекта (ИИ) произошел осенью 2022 года с появлением ChatGPT — приложения на основе генеративного ИИ, которое приобрело огромную популярность среди обычных потребителей. Число пользователей чат-бота всего через несколько месяцев достигло небывалых отметок, опередив известные на весь мир Uber, Instagram и Twitter, таким образом, ChatGPT стал самым быстрорастущим приложением в мире.

ЧЕМ ПОЛЕЗЕН?

В основе лежат технологии нейронных сетей, которые обучаются с помощью анализа массива данных. Генеративный ИИ называется так потому, что способен создавать по запросу пользователей собственные творческие произведения: тексты (вплоть до стихов и научно-популярных статей), рисовать изображения, и даже аудио-видео контент.

В финансовой отрасли ИИ в основном используется:

  • для расчета кредитного рейтинга клиентов, основанных на данных о его кредитной истории, доходах и других факторах,
  • в чат-ботах и голосовых помощниках, 
  • в системах противодействия мошенничеству, AML-контроля, помогая выявлять необычное поведение пользователя,
  • в персонализированных маркетинговых стратегиях, определяя предпочтения и релевантные товары для каждого клиента, 
  • в сфере инвестиций для оптимизации инвестиционных стратегий, 
  • для аналитики данных и прогнозирования тенденций в финансовой сфере,
  • для обслуживания банкоматов, прогнозируя загрузку терминалов.

Платформа SOLAR использует современную архитектуру и предлагает широкие возможности встроенных пакетов интеграции для быстрого подключения ИИ-решений.

ГДЕ КРОЕТСЯ ОПАСНОСТЬ?

ИИ преобразует финансовый мир, но вместе с изменениями таит в себе новые вызовы для организаций и регуляторных процессов, которые сейчас находятся на стадии формирования — необходимо ограничить уязвимости и найти оптимальный баланс между сдерживанием рисков, и подготовкой почвы для дальнейшего развития.

Риски ИИ для финансового сектора обусловлены, во-первых, вопросами информационной безопасности — возможными утечками данных, которые могут использоваться для обучения ИИ мошенническим атакам; во-вторых  — возможными ошибками в работе ИИ, такими как «галлюцинации» — когда генерируется правдоподобная, но ложная по сути информация, состоящая из непроверенных либо вымышленных данных. Такие ошибки непросто обнаруживать уже сейчас, и с ростом возможностей ИИ задача еще усложнится.

ПРАВОВОЕ УРЕГУЛИРОВАНИЕ

Скачок в развитии ИИ вынуждает регуляторов принимать законодательные меры. На основе рекомендаций ОЭСР от 2019 года, осенью 2023 страны «Большой семерки» согласовали принципы и кодекс поведения для разработчиков в сфере ИИ. На практике существуют различные подходы к их реализации: выделяют жесткое (принятие законодательных норм), мягкое (предоставление рекомендаций) и саморегулирование. 

Ограничительный подход, то есть преимущественно жесткие меры регулирования использования ИИ, внедряются в Европе и Бразилии. В этих регионах будут запрещены технологии ИИ, реализующие социальный рейтинг и биометрическую идентификацию в режиме реального времени в публичных местах. Гибридный подход, сочетающий инструменты жесткого, мягкого и саморегулирования, реализуют в Китае, Канаде и США. Стимулирующий подход подразумевает применение методов мягкого регулирования или вовсе отсутствие ограничительных мер в отношении ИИ. К такому подходу близки Великобритания и Сингапур.

Вероятно, что в дальнейшем международное правовое регулирование ИИ станет адаптивным, поскольку технологии продолжают развиваться. Постоянно появляются новые применения ИИ, и требуется соотносить каждый вариант использования ИИ с законодательными, культурными, моральными нормами общества.

Одним из ключевых вызовов ближайшего будущего является выравнивание условий регулирования между разными странами и формирование сложившихся практик работы с ИИ, что будет способствовать повышению общего доверия к технологии.