Получайте Бонусы за статьи
15 августа 2025
Когда роботы сочиняют симфонии: как проверить текст и контент на ИИ
2 3 0 1 374 21 мин

Когда роботы сочиняют симфонии: как проверить текст и контент на ИИ

Консультировал эксперт
Андрей Сиденко
Андрей Сиденко
Работаю в «Лаборатории Касперского» руководителем направления по детской онлайн-безопасности и ведущим веб-контент-аналитиком с 2018 года. Занимаюсь анализом контента и разработкой решений для противодействия онлайн-мошенничеству: фишингу, скаму, спаму.

За последние несколько лет нейросети настолько преуспели в создании контента, что люди, кажется, уже не способны отличить работу ИИ от работы человека. Зачастую ИИ-контент генерируется для развлечений, но может создаваться и злоумышленниками для негативных целей, в том числе для кражи персональной информации, денег или просто чтобы очернить медийную личность. В этой статье мы расскажем, как проверить, написал ли текст искусственный интеллект, а также поговорим про видео- и аудиоконтент.

Содержание

Сразу обозначим важную мысль, которая, возможно, расстроит поклонников технологий: универсального детектора ИИ (пока) не существует. Даже лучшие сервисы для проверки часто ошибаются и записывают тексты классиков в нейросетевой контент. Так что основной фильтр — это пока все еще обычный человеческий мозг и чутье. Можно — и даже нужно — использовать проверку специальными программами. Но опираться только на них — путь небезопасный. Впрочем, давайте не забегать вперед. Сейчас подробно разберем, по каким признакам можно заподозрить сгенерированный текст, как проверить контент на ИИ разными способами и почему в итоге человеческий опыт все равно остается самым надежным.

Где используется сгенерированный контент

Повсеместно.

Вы не ослышались. Нейронные модели развиваются быстро. На AI делают ставки крупные корпорации, соответственно, в развитие технологий вкладываются немалые суммы. Вот несколько историй об использовании искусственного интеллекта в реальной жизни, безобидных и не очень.

Диджей на радио

В Австралии на протяжении шести месяцев музыкальную программу The Workdays на радиостанции CADA вел искусственный интеллект — полностью сгенерированная нейросетью девушка Тай.

Источник изображения: The Verge

Внешность ведущей была скопирована с сотрудницы финансового отдела, а голос — сгенерирован с помощью нейросети. Радиослушатели не заметили обмана.

Новостная газета

Более безобидная новость, на этот раз из Италии. Никакого обмана: читателей сразу же предупредили, что четырехстраничный экземпляр газеты Il Foglio полностью сгенерирован ИИ. Нейросеть написала статьи, заголовки и даже цитаты. Шуточную газету планируют выпускать и дальше, но не взамен обычных новостных материалов.

Источник изображения: Guardian

Реклама Microsoft

Зимой 2025 года корпорация Microsoft выпустила рекламу Surface Pro и Surface Laptop, кадры для которой были сгенерированы с помощью искусственного интеллекта. Весной компания рассказала об использовании нейросетей. Однако за все время, пока рекламный ролик был размещен на YouTube, никто из зрителей не заметил подмены.

Чем может быть опасен контент от ИИ

Еще по теме

Почему нейросети врут? Разбираемся с экспертом

14.08.2025

Почему нейросети врут? Разбираемся с экспертом

Опасным сгенерированный контент становится тогда, когда он может нанести вред здоровью человека или его состоянию. Речь может идти об ошибках, допущенных в ходе генерации текстов. Когда алгоритмы не обладают всей полнотой информации, они могут придумать и дополнить недостающие места произвольным текстом, близким по смыслу и значению. Например, это может быть использовано в ходе приготовления блюда из имеющихся ингредиентов или при трактовке врачебного диагноза. Ни в коем случае не стоит доверять составленному алгоритмом тексту, если речь идет о риске для здоровья человека.

Кроме того, алгоритмы генерации голоса или изображения могут вводить в заблуждение просьбами перевести деньги или отправить необходимый документ. Стоит всегда относиться настороженно к любого рода просьбам, даже если вы думаете, что получили их от ваших знакомых.

Как определить нейросетевой текст

Есть несколько главных признаков, на которые можно обратить внимание еще до использования специальных сервисов.

Странные метафоры

Нейросети любят использовать в текстах странные метафоры и сравнения, которые смотрятся инородно и не «по-человечески». Для примера текста подобного рода мы предложили ChatGPT написать небольшое введение для этой статьи. В первом же ответе нейросеть использовала странную метафору.

Человек, возможно, и мог бы написать нечто подобное. Но если странные метафоры массово встречаются на протяжении всего текста — стоит насторожиться.

Притяжательные местоимения

Фишка, доставшаяся русскоязычному сегменту от англоязычных ИИ-моделей. В английском языке распространены конструкции с притяжательными местоимениями. Посмотрите, сколько тут слов «свой» и «ваш»! А по-русски мы так не говорим. Это частый паттерн ИИ-текстов, особенно если модель не генерирует новый текст, а переводит с английского.

Деепричастные обороты и отглагольные существительные

Тяжеловесные обороты — еще один маркер, что текст написан ИИ. Обилие конструкций вроде «рассматривая данный вопрос», «учитывая вышесказанное», «проанализировав предоставленные данные» — это звоночек. Также нейросети могут использовать отглагольные существительные — «применение», «рассмотрение», «анализирование».

А уж если каждая новая строка начинается с отглагольного существительного и заканчивается двоеточием, то это явный признак нейросетевого текста.

Языковые несоответствия

Даже если попросить нейросеть написать текст в литературном стиле, избегая машинных конструкций, есть риск получить грамматически несогласованную абракадабру. Человек сразу заподозрит неладное: странные предложения, необычный порядок слов, хоть и грамотные, но неестественные словосочетания. Люди так не говорят и не пишут.

Много повторов

Нейронки любят переформулировать одну и ту же мысль (иногда даже в одном абзаце) несколько раз. Конечно, и люди иногда грешат тавтологией, но у ИИ это заметно особенно сильно. Для создания контента нейросеть по сути переписывает сотни уже готовых статей в единый текст. Ничего нового ИИ не привносит и ориентируется на принцип построения фраз, поэтому вертит одну и ту же мысль по кругу.

Безопасный текст

Нейросети по всем правилам робототехники Азимова стремятся помогать человеку, поэтому очень стараются никого не обидеть. Отсюда — безопасный и очень сухой текст, не имеющий внутренней авторской позиции. Если тема спорная и обширная, а текст — осторожный и по сути ни о чем, то, скорее всего, его писал ИИ.

Сложности с фактами

Иногда в сгенерированном тексте появляются несуществующие книги, ссылки на выдуманные статьи, некорректные даты, даже придуманные ученые. ИИ любит слегка «пофантазировать».

Галерея

Иногда я прибегаю к помощи нейросетей: когда нужно проверить текст, быстро проанализировать информацию из англоязычного источника или перевести интервью. В качестве эксперимента я просила нейронку отвечать на простенькие вопросы. Обычно ответы были более-менее сносными. Машинный стиль письма, языковые несоответствия и повторы, конечно, ожидаемо присутствовали. Но в одном из запросов ChatGPT выдал фразу, которую я запишу в фонд золотых цитат.

Как распознать вмешательство ИИ в создание контента

Если в случае с текстами можно подключать критическое мышление, ориентироваться на перечисленные признаки и анализировать текст самостоятельно, то с аудио и видео все намного сложнее. В случае видео — одна крупная выборка показала, что лишь 0,1% людей смогли точно определить дипфейки среди реального контента. Другое исследование показывает, что людям в принципе тяжело отличать сгенерированное от настоящего. Причем наибольшие сложности вызывают именно аудио- и видеоформаты.

Все потому, что в аудио и видео есть невербальный слой восприятия информации: интонации, текстура голоса, мимика. ИИ отлично копирует эти слои, а мозг быстрее доверяет визуальной или звуковой информации, особенно если она хорошо отрендерена. Если говорить по-простому, то мы часто доверяем глазам и ушам, поэтому так нас обмануть гораздо проще. Попробуем разобраться, как вычислить машинное участие в мультимедийных материалах.

Изображения и видео

Если раньше вмешательство нейросети в визуальный контент можно было распознать по лишним пальцам и отсутствию мимики на лице, то теперь дела с дипфейками обстоят иначе.

В последнее время тренд на AI-интервью захватил соцсети. Возможно, и вам в шортсах, клипах или TikTok встречались такие короткие юмористические видео, в которых не сразу замечаешь подвох.

С визуальными подделками необходима особая внимательность. И если примеры выше не стесняются откровенно заявлять о том, что созданы с помощью искусственного интеллекта, то вот с настоящими дипфейками все иначе. В интернете можно найти немало видео, которые выдают себя за правдивый контент. Вот, например, новость, которую многие СМИ выдавали за правдивую: маленький кенгуру хочет улететь на самолете, но его и хозяйку не пускают на борт.

Если жестикуляция и странный липсинк (синхронизация движений губ с аудиодорожкой) не вызвали подозрений, то присмотритесь к знаку бесконечности на стене, который не сразу можно заметить. Особенно при быстром просмотре.

Главное правило для определения реальности медиаконтента — обращать внимание на детали. Странное моргание (синхронное или частое), неправильная мимика, искажения деталей (особенно на заднем плане), неправильная синхронизация губ и речи — все это может указывать на вмешательство ИИ. Также обращайте внимание на мелкие детали: количество пальцев, визуальные артефакты, наличие морщин. Особенно плохо нейросети пока удаются задники. Либо сами контентмейкеры уделяют им не слишком большое внимание, делая ставку именно на передний план.

Яркий пример пренебрежительного отношения к заднему плану — дипфейки Кэти Перри с Met Gala 2024 и Билли Айлиш с Met Gala 2025.

Еще по теме

Готовимся получать нейро-Оскар: 10 мощных нейросетей для создания видео

09.07.2025

Готовимся получать нейро-Оскар: 10 мощных нейросетей для создания видео

Галерея

Источник изображения: PEOPLETALK
Источник изображения: PEOPLETALK
Источник изображения: PEOPLETALK
Источник изображения: PEOPLETALK

Хотя в 2025 году виден очевидный прорыв нейросетей, визуальную мазню и лишние руки у фотографов на заднем плане можно увидеть даже под блюром, если хорошо присмотреться.

Аудио

Синтетический голос — одна из самых заметных областей применения искусственного интеллекта. Причем современные голосовые нейросети настолько убедительны, что легко копируют не только голос, но и интонации, акценты и паузы. Особенно популярными такие аудиофейки стали у телефонных мошенников.

Стоит обратить внимание на слишком чистую дикцию. У реальных людей в речи присутствуют оговорки, паузы и слова-паразиты. Также вас должна насторожить неестественная эмоциональность. Нейронки умеют менять тембр голоса и громкость, но часто эмоции звучат слишком наигранно.

Не забывайте обращать внимание на контекст. Как и в случае с текстами, смотрите на сложность темы. Если политик рассуждает о глобальных вопросах, но говорит банальностями или предлагает быстро заработать миллион — стоит заподозрить вмешательство нейронной сети.

Сервисы для проверки наличия ИИ в текстах

Проверка искусственного интеллекта искусственным интеллектом — пока еще странная, но все же действенная альтернатива самостоятельному анализу. Человеческую насмотренность проверка ИИ не заменит (почему — мы расскажем позже), но задачу по анализу большого количества текстов выполнит.

Как работают детекторы

Большинство популярных сервисов анализирует структуру предложений, частоту употребления канцеляризмов и речевых штампов, сложность текста, естественность стиля, количество повторов — характерные маячки, которые обычно оставляют нейросети. При этом велика вероятность ошибки сервиса. Если текст просто «плохой» и попадает под маркеры «машинности», то детектор наверняка определит его как сгенерированный. Работать с сервисами максимально просто: вставьте текст, запустите проверку.

Для тестирования сервисов мы отобрали пять разных отрывков. Русский перевод «Джейн Эйр» Шарлотты Бронте, «Записки юного врача» Булгакова, сгенерированный в ChatGPT текст в стиле Булгакова, перевод простой английской статьи на русский язык с помощью ChatGPT и отрывок из рассказа автора статьи, написанного еще в 2020 году.

Text.Ru

Ссылка: https://text.ru/neuro/detector
Стоимость: 2 рубля за 1000 символов.

Детектор ИИ от Text.ru в процентах определяет вероятность того, что текст сгенерирован нейросетевыми языковыми моделями. Сам сервис заявляет, что, по данным внутренних тестов, нейропомощник определяет сгенерированный текст с точностью около 75%. При этом велика вероятность ошибки, если проверяемый текст длиной менее 1000 символов, содержит речевые штампы, канцеляризмы, много «воды» и одинаков по структуре предложений. Программа проверяет до 50 000 символов за один раз.

Галерея

Отрывок из «Джейн Эйр» Шарлотты Бронте Text.ru посчитал частично сгенерированным.
В отрывке из «Записок юного врача» Булгакова Text.ru не нашел вмешательства ИИ.
Полностью сгенерированный с помощью ChatGPT текст в стиле Булгакова Text.ru также посчитал человеческим.
В переводе английской статьи на русский язык с помощью ChatGPT Text.ru смог распознать сгенерированный текст.

GPTZero

Ссылка: https://gptzero.me/
Стоимость: до 5000 символов — бесплатно, больше — за подписку ($15 в месяц)

Принцип работы — как и у любого детектора. Но есть дополнительные фишки. У GPTZero есть функция продвинутого сканирования, с помощью которой детектор подсвечивает потенциально сгенерированные места и дает краткое объяснение выбора.

Галерея

Отрывок из «Джейн Эйр» Шарлотты Бронте показался GPTZero слишком подозрительным — 73% текста, по его мнению, оказались сгенерированы.
«Записки юного врача» Булгакова набрали чуть меньше — по мнению GPTZero, всего 56% текста было написано при помощи ИИ.
Полностью сгенерированный ChatGPT текст в стиле Булгакова — по мнению GPTZero, 67% текста написано при помощи ИИ.
А вот перевод английской статьи на русский язык с помощью ChatGPT набрал всего 41% сгенерированного текста.

Предполагаю, что GPTZero больше подходит для англоязычных текстов. Пока что результаты его работы с русскоязычными текстами не впечатляют.

PR-CY

Ссылка: https://pr-cy.ru/tools/ai-content-detector/
Стоимость: за регистрацию получаете 10 лимитов (их хватит примерно на 9000 символов). 7 дней — бесплатно, далее — 2499 рублей в месяц.

Отечественный детектор, обученный преимущественно на русскоязычных текстах. Судя по отзывам, должен намного лучше других проверять и анализировать тексты на нейросетевое вмешательство. Проверяем.

Галерея

Отрывок из «Джейн Эйр» Шарлотты Бронте по результатам оказался почти человеческим.
«Записки юного врача» Булгакова тоже оказались почти делом рук человека.
Полностью сгенерированный ChatGPT текст в стиле Булгакова и в этот раз обманул детектор.
Перевод английской статьи на русский язык с помощью ChatGPT пусть и показался детектору самым подозрительным, но все равно по итогу отметился как человеческий текст.
Текст автора статьи — написан человеком.

Почему так происходит

Проблема в том, что нейросети обучаются быстро и создают тексты, которые все чаще визуально похожи на настоящие, созданные человеком. А многие поисковые системы и инструменты анализа все еще ориентируются на ранние паттерны старых моделей вроде GPT-3. Детекторы ИИ опираются на вероятностную оценку — они не знают наверняка, они только вычисляют вероятность. Поэтому одни и те же фрагменты текста разные системы оценивают по-разному.

В качестве вспомогательного инструмента или для предварительной оценки большого количества текстов сервисы действительно могут быть полезны. Но полноценно опираться на их результаты нельзя. Человек по-прежнему лучший детектор. Даже самая продвинутая нейросетевая модель (пока) не заменит опыта и насмотренности обычного человека.

Понравилась статья?

Комментарии

Авторизуйтесь, чтобы иметь возможность писать комментарии:

Спасибо, что вам есть что сказать

Попробуйте расширить свою мысль и написать статью — и получите за это Бонусы.

Написать статью Подробнее