Яркий скачок в развитии индустрии искусственного интеллекта (ИИ) произошел осенью 2022 года с появлением ChatGPT — приложения на основе генеративного ИИ, которое приобрело огромную популярность среди обычных потребителей. Число пользователей чат-бота всего через несколько месяцев достигло небывалых отметок, опередив известные на весь мир Uber, Instagram и Twitter, таким образом, ChatGPT стал самым быстрорастущим приложением в мире.
ЧЕМ ПОЛЕЗЕН?
В основе лежат технологии нейронных сетей, которые обучаются с помощью анализа массива данных. Генеративный ИИ называется так потому, что способен создавать по запросу пользователей собственные творческие произведения: тексты (вплоть до стихов и научно-популярных статей), рисовать изображения, и даже аудио-видео контент.
В финансовой отрасли ИИ в основном используется:
- для расчета кредитного рейтинга клиентов, основанных на данных о его кредитной истории, доходах и других факторах,
- в чат-ботах и голосовых помощниках,
- в системах противодействия мошенничеству, AML-контроля, помогая выявлять необычное поведение пользователя,
- в персонализированных маркетинговых стратегиях, определяя предпочтения и релевантные товары для каждого клиента,
- в сфере инвестиций для оптимизации инвестиционных стратегий,
- для аналитики данных и прогнозирования тенденций в финансовой сфере,
- для обслуживания банкоматов, прогнозируя загрузку терминалов.
Платформа SOLAR использует современную архитектуру и предлагает широкие возможности встроенных пакетов интеграции для быстрого подключения ИИ-решений.
ГДЕ КРОЕТСЯ ОПАСНОСТЬ?
ИИ преобразует финансовый мир, но вместе с изменениями таит в себе новые вызовы для организаций и регуляторных процессов, которые сейчас находятся на стадии формирования — необходимо ограничить уязвимости и найти оптимальный баланс между сдерживанием рисков, и подготовкой почвы для дальнейшего развития.
Риски ИИ для финансового сектора обусловлены, во-первых, вопросами информационной безопасности — возможными утечками данных, которые могут использоваться для обучения ИИ мошенническим атакам; во-вторых — возможными ошибками в работе ИИ, такими как «галлюцинации» — когда генерируется правдоподобная, но ложная по сути информация, состоящая из непроверенных либо вымышленных данных. Такие ошибки непросто обнаруживать уже сейчас, и с ростом возможностей ИИ задача еще усложнится.
ПРАВОВОЕ УРЕГУЛИРОВАНИЕ
Скачок в развитии ИИ вынуждает регуляторов принимать законодательные меры. На основе рекомендаций ОЭСР от 2019 года, осенью 2023 страны «Большой семерки» согласовали принципы и кодекс поведения для разработчиков в сфере ИИ. На практике существуют различные подходы к их реализации: выделяют жесткое (принятие законодательных норм), мягкое (предоставление рекомендаций) и саморегулирование.
Ограничительный подход, то есть преимущественно жесткие меры регулирования использования ИИ, внедряются в Европе и Бразилии. В этих регионах будут запрещены технологии ИИ, реализующие социальный рейтинг и биометрическую идентификацию в режиме реального времени в публичных местах. Гибридный подход, сочетающий инструменты жесткого, мягкого и саморегулирования, реализуют в Китае, Канаде и США. Стимулирующий подход подразумевает применение методов мягкого регулирования или вовсе отсутствие ограничительных мер в отношении ИИ. К такому подходу близки Великобритания и Сингапур.
Вероятно, что в дальнейшем международное правовое регулирование ИИ станет адаптивным, поскольку технологии продолжают развиваться. Постоянно появляются новые применения ИИ, и требуется соотносить каждый вариант использования ИИ с законодательными, культурными, моральными нормами общества.
Одним из ключевых вызовов ближайшего будущего является выравнивание условий регулирования между разными странами и формирование сложившихся практик работы с ИИ, что будет способствовать повышению общего доверия к технологии.