Эксперты одного из крупнейших российских банков рассказали, как отличить тексты и изображения, созданные нейросетями. Это важно, чтобы не стать жертвами обмана.
Генеративные нейросети используются сегодня практически во всех сферах – от финансов до индустрии развлечений. Вместе с ростом возможностей искусственного интеллекта увеличиваются и риски: с помощью ИИ создаются правдоподобные фейковые тексты, изображения и видео, которые всё сложнее отличить от реальных. В таких условиях особое значение приобретает системный подход к проверке достоверности информации и развитию цифровой грамотности, отметил Алексей Пустынников, Team Lead DS департамента анализа данных и моделирования ВТБ.
«Главное правило выявления фейковых изображений – это внимание к деталям. Наиболее частыми признаками нейросетевой генерации становятся анатомические ошибки, например, лишние или деформированные пальцы, а также искажения перспективы, неестественные тени, отражения и артефакты или бессмысленные надписи. Кроме того, стоит насторожиться, если в кадре присутствуют предметы, которые нарушают законы физики или не соответствуют здравому смыслу. Такой подход позволяет вовремя распознать подделку, даже если на первый взгляд изображение кажется реалистичным», – подчеркнул Алексей Пустынников.
Наряду с визуальным контентом широко распространяются и тексты, созданные нейросетями. Такие материалы можно встретить в самых разных форматах – от пользовательских комментариев и отзывов до новостных заметок и аналитики. Они выглядят грамотными, структурно выверенными и лексически богатыми. При этом сгенерированные тексты зачастую отличаются повторяемостью формулировок, однотипной интонацией, избыточными пояснениями, чрезмерной вежливостью и оптимизмом, а также расплывчатым выражением мнения. Как отмечают эксперты ВТБ, ключ к распознаванию ИИ-контента – в понимании типичных особенностей его структуры и правильном подходе к оценке самой информации.
«Принципиально отличить текст, созданный нейросетью, от авторского сегодня невозможно – любые тексты могут быть сгенерированы искусственно. Важно всегда критически оценивать контент: насколько он полезен, сколько усилий вложено в его создание, используется ли в тексте личный опыт автора и можно ли проверить полученную информацию по независимым источникам», – подчеркнул ведущий специалист управления партнерств и ИТ-процессов ВТБ Виктор Булатов.
По мере распространения ИИ-контента востребованными становятся инструменты, которые позволяют проверять его достоверность как в повседневной практике, так и на уровне корпоративных решений. Наиболее активно развиваются модели-детекторы, способные автоматически определять, были ли текст или изображение сгенерированы нейросетью, а также оценивать достоверность и корректность информации. По мнению экспертов, такие подходы становятся особенно актуальными при работе с базами знаний и клиентскими интерфейсами, где важно исключить риск дезинформации или некорректных формулировок.
«Сейчас все больше компаний используют ИИ-модели, в том числе для интеллектуального поиска по базам знаний. И здесь особенно важно убедиться, что система не допускает искажений, а формирует ответы на основе достоверных источников. Например, в ближайших планах ВТБ – обучение специальных моделей-детекторов, чтобы отслеживать наличие токсичных или чувствительных тем в сгенерированном контенте и проверять достоверность выдачи. А для обычных пользователей главное правило остаётся прежним: перепроверяйте информацию по надёжным источникам», – пояснил руководитель направления разработки ИИ-решений ВТБ Лев Меркушов.
Эксперты ВТБ уверены: развитие технологий должно сопровождаться и развитием механизмов защиты – как на уровне бизнеса, так и в повседневной практике пользователей. Внедрение инструментов для распознавания ИИ-контента, повышение цифровой грамотности и системный подход к проверке данных позволяют минимизировать риски и использовать возможности искусственного интеллекта с максимальной эффективностью.
Реклама. ПАО «ВТБ», Генеральная лицензия Банка России №1000. ИНН 7702070139