Могут ли ИИ-модели заменить живых фактчекеров?

Пока нет: искусственный интеллект «ленится», не может зайти на все нужные сайты, а иногда даже выдумывает ответы, надеясь, что «прокатит»

Дата
7 мая 2026
Авторы
Илья Бер («Проверено. медиа»), Даниил Федкевич (Проверено.Медиа)
Коллаж: «Важные истории». Фото: Fabrice COFFRINI / AFP

Все больше людей использует чатботы на основе искусственного интеллекта как носителей универсального знания о мире. Им задают фактологические вопросы и часто без дополнительной проверки принимают полученную информацию на веру. 

Согласно некоторым исследованиям, поиск информации - самый массовый сценарий их использования: по данным, которые приводит Институт изучения журналистики Reuters, летом 2025 года 24% жителей 6 стран, вошедших в выборку, делали это еженедельно, при этом 11% задают искусственному интеллекту именно фактологические вопросы. По другим данным, в США 60% взрослых время от времени использует ИИ для поиска информации. Третья публикация ещё в 2023 году показывала, что среди американских пользователей чатботов 35% людей хотя бы иногда использовали их вместо поисковика, чтобы получить ответ на вопрос. Самые ответственные граждане с помощью того же ИИ стараются верифицировать информацию, другими словами проводить фактчекинг. Но насколько это разумно? Приспособлены ли модели для этой цели? На этот вопрос мы попросили ответить фактчекера, основателя и издателя «Проверено» Илью Бера, а также главного редактора «Проверено» Даниила Федкевича.

«Генерация текста не равна производству знания»

Это могла бы быть самая короткая статья на сайте «Важных историй». Она могла бы состоять из заголовка и всего одного слова — «Нет». Или, если проявить больше аккуратности, из двух слов: «Пока нет». Но всё-таки мы этим не ограничимся и постараемся полно и беспристрастно проанализировать всё, что на сегодняшний день известно на этот счёт из научных публикаций, а также из опыта авторов этой статьи, профессиональных фактчекеров, и наших коллег, работающих во многих странах мира.

Немного предыстории. Вопрос, могут ли нейросети заменить живых фактчекеров, встал ребром вскоре после попадания в широкий обиход первого массово успешного чатбота на основе большой языковой модели (LLM). Точнее после того, как модель GPT-4 получила доступ в интернет в реальном времени, то есть смогла выдавать пользователям (поначалу только оплачивающим подписку) ответы не только на основе массива данных, на которых была натренирована, но и на основе мгновенного «умного» поиска в интернете. Произошло это в мае 2023 года.

Ответ на этот вопрос был важен в первую очередь самим фактчекерам. А также крупнейшим цифровым платформам, международным фондам, правительствам разных стран, и вообще-то в итоге всем сознательным пользователям интернета в мире. Почему фактчекерам, понятно. Если ответ на вопрос положительный, их (наша) профессия больше просто не нужна. Она пополнит длинный синодик профессий, полностью исчезнувших под натиском технологического прогресса: таких как извозчик, водитель лифта, телефонистка, телеграфист и наборщик в типографии. Немного обидно. Но что делать, умерла так умерла.

Платформам, правительствам и фондам это важно, потому что положительный ответ будет означать заметную экономию средств и усилий. Платформам больше будет не нужно работать с живыми фактчекерами, независимо от того, искренне ли они заботятся о достоверности контента или следуют политической конъюнктуре. Хозяевам соцсетей нужно просто «прикрутить» к базовому функционалу автоматический фактчекинг — и дело с концом. Правительствам в свою очередь не придётся заставлять платформы тратить деньги на людей, борющихся с дезинформацией. А фонды смогут перенаправить средства, выделявшиеся на фактчекерские проекты, на что-то более полезное. Да и обычный пользователь только выиграет. В случае возникновения сомнений в той или иной информации он сможет задать вопрос чатботу и получить качественный достоверный результат.

Потому-то те самые фонды и не скупились на то, чтобы узнать ответ на заглавный вопрос этой статьи. А когда в мире крупных доноров есть спрос, обычно тут же возникает и предложение. Спустя год на ежегодном международном конгрессе фактчекеров Global Fact-11, который в июне 2024 года проходил в Сараево, специалистка в области искусственного интеллекта Никита Рой описала сложившийся к тому моменту профессиональный консенсус лаконичной формулой: Language generation ≠ Knowledge generation. То есть в переводе на русский, генерация текста не равна производству знания.

Фото: Илья Бер

С тех пор сменилось несколько поколений ИИ-моделей у лидеров отрасли. За внимание пользователей в мире, помимо ChatGPT, конкурируют Gemini, Grok, DeepSeek, Claude, Perplexity, Llama, Character.AI, Microsoft Copilot и другие. Их функционал совершенствуется, системные ошибки исправляются, у каждой из них есть свои сильные и слабые стороны. Однако пока что описанный выше консенсус всерьёз поколебать никому не удаётся.

Проблема формулировки этого консенсуса в многозначности слова "knowledge" и в том, какое именно знание мы имеем в виду: любого качества или все-таки точное, описывающее реальность. Продвинутые модели уже неплохо умеют собирать по открытым источникам в интернете большое количество данных и даже делать на их основе выводы — то есть в некотором смысле производить знание (knowledge). Но только качество этого знания может сильно варьироваться. Модели все еще могут сделать неверные выводы, основываясь на «хороших» данных, поэтому за ними надо все внимательно перепроверять. Однако возможна и другая ситуация - модель сделала вывод, релевантный найденным данным, но сами данные оказались «плохими», поэтому и вывод не соответствует действительности. А вот что они не умеют делать вовсе — производить точное знание из ничего в ситуации «пойди туда не знаю куда». То есть когда никаких данных по теме в открытом (и быстром) доступе просто нет. А профессиональные исследователи и в их числе фактчекеры это умеют.

Описанный консенсус подтверждается целым рядом научных исследований в этой области. В одном из них ученые пришли к следующим выводам:

«Исходя из наших результатов, мы рекомендуем исследователям и практикам относиться к генеративному ИИ (GenAI) как к дополнению, а не как к замене человеческих фактчекеров. Для фактчекинга с поддержкой технологий обязателен гибридный подход “человек-ИИ” или модель human-in-the-loop (когда человек остаётся в контуре принятия решений). Во-вторых, хотя у GenAI есть потенциал, его способность выявлять дезинформацию ограничена, поэтому человеческий контроль критически важен — особенно в задачах с высокой ценой ошибки (high-stakes)».

К сожалению, описывать эти исследования подробно не имеет смысла. На подготовку и проведение исследования, написание статьи и её публикацию в рецензируемом журнале уходят в лучшем случае месяцы, нередко — годы. По словам эксперта в области генеративного искусственного интеллекта Дениса Ягодина, «за последние два года модели прошли как минимум пару фазовых переходов, и главное — изменилась сама архитектура применения. Сегодня модель почти не отвечает «из головы»: она идет в поиск, читает первоисточники, цитирует с номерами страниц. Ссылаться на все это в 2026-м — примерно как сейчас обсуждать мобильную связь на примере Nokia 3310».

Как работает чатбот? И почему он ошибается?

Чтобы понимать, чего можно ожидать от LLM-моделей и как ими правильно пользоваться, желательно хотя бы в самом общем виде представлять логику их работы. Что в реальности делает чатбот, когда вы задаёте ему вопрос? Правильный ответ – зависит от вопроса.

Если вы спрашиваете, какая завтра погода в городе, куда вы собрались ехать в отпуск, он пойдет на какой-то, по его мнению, авторитетный сайт с прогнозами погоды, задаст там ваш запрос, получит ответ и принесёт этот ответ вам. За пару секунд. Если вы зададите вопрос про ключевые факты биографии Петра I или Наполеона, он в первую очередь пойдёт за ответом в Википедию. А может, и не пойдет, потому что он заранее обучен на всем объеме информации в свободно доступном интернете. И в том числе на той же Википедии. А поскольку маловероятно, чтобы в биографиях российского и французского императоров за последние несколько лет что-то принципиально изменилось, существующие на момент задания вашего вопроса последние редакции соответствующих статей ему смотреть не обязательно.

Если же вы спрашиваете о событиях, которые происходят прямо сейчас или произошли недавно, чатбот идет сначала на новостные сайты, которые промаркированы в его «электронных мозгах» как авторитетные, потом, если найденной информации недостаточно для ответа, на менее авторитетные, потом на совсем не авторитетные, а потом на любые, включая те соцсети и форумы, куда ему открыт доступ. То есть, когда мы просим дать нам некую справочную информацию о любом фрагменте реальности, чатбот работает как продвинутый поисковик, который значительно экономит нам время на использовании классических поисковых сервисов (Google, Яндекс), да к тому же умеет все найденное моментально прочесть, суммировать и выдать вам ответ с опорой на самые подходящие, по его мнению, источники из обнаруженных по вашему запросу. При этом важно, что он, в отличие от поисковика, не собирает всю доступную ему в сети информацию, релевантную запросу, а ищет до того момента, пока не найдёт достаточно сведений для формирования удовлетворительного — опять же, по его мнению — ответа. А это значит, что ответы часто бывают поверхностными или неполными.

Так почему же у чатботов при таких возможностях и вычислительных мощностях могут возникать сложности и ошибки? Вариантов довольно много. Продемонстрируем некоторые на примерах, с которыми сталкивались мы сами или наши коллеги.

Недавно завирусилось видео, на котором изгнанный из России на 50 лет казахстанский комик Нурлан Сабуров летом 2025 года в Подмосковье дарит вагнеровцам 10 мотоциклов для отправки на фронт. В комментариях некоторые пользователи начали писать, мол, это же очевидный ИИ. Один из таких комментаторов даже привёл скриншот ответа ChatGPT, который это подтверждал. На самом деле, видео настоящее, взято оно было из летнего поста в Telegram-канале Татьяны Витушевой, главы подмосковного муниципального округа Истра. После того, как ролик завирусился, Витушева удалила свой пост, но его следы в сети остались.

Автор этой статьи тоже задал вопрос о подлинности видео своей настроенной под него оплаченной и учитывающей «фактчекерский контекст» модели того же ChatGPT. Она дала совершенно корректный ответ. За исключением того, что удалённый пост она найти не смогла. Логично. Для этого нужен был другой платный софт.

Вывод – качество ответа на один и тот же вопрос может отличаться не только между разными моделями, но и внутри одной модели, в зависимости от режима, тарифного плана, а также, представьте себе, обычного везения. В сети можно найти примеры того, как Grok в один и тот же день давал пользователям разные и даже противоположные по смыслу ответы на один и тот же, до символа совпадающий вопрос.

А вот другой случай. Люди в фейсбуке 11 февраля 2026 года обсуждают рейтинг одобрения Дональда Трампа. Пользовательница по имени Надежда приводит скриншот инфографики с сайта крупной американской медиакомпании NBC, который показывает, что 39% одобряет деятельность президента США, а 61% не одобряет. На что пользователь по имени Майк ей отвечает: «Надьк, хватит по помойкам шляться… Опять фейк накопала!» Далее в том же комментарии он приводит развёрнутый, чрезвычайно уверенный по тону и выглядящий вполне обоснованным по смыслу ответ чатбота, подтверждающий его слова. Вот только ответ этот оказывается полностью ошибочным, ложным. В тот момент, когда Майк оставил свой грубоватый ответ Надежде, на главной странице сайта NBC красовалась та самая инфографика, которую Надежда оттуда и скопировала.

Скриншоты: Facebook
Скриншот: NBC News

То есть проверить подлинность инфографики было элементарно. Однако чатбот почему-то не справился. Почему? Потому что статья на момент приведенного диалога была опубликована совсем недавно, другие медиа и пользователи еще не успели ее процитировать, а также опубликовать картинку. А на сам сайт NBC популярных чатботов не пускают. В файле robots.txt на сайте медиакомпании этот запрет прописан в явном виде. В последнее время это довольно популярная практика – так крупные медиа борются с тем, что ИИ-компании наживаются, бесплатно используя их контент.

Но что там свежая инфографика от NBC, если недавно одному из наших коллег чатбот уверенно рассказал, что Дональд Трамп по состоянию на март 2026 года – это бывший президент Соединённых Штатов. А нынешнего зовут Джо Байден. Как эту ошибку можно объяснить, мы точно не знаем, но догадываемся. Скорее всего, дело в бесплатном аккаунте пользователя, модели, обученной на данных до 2024 года, и «быстром» режиме (без обращения к интернету в реальном времени) вместо «размышляющего». Но факт есть факт.

Конечно, статистически популярные LLM-модели гораздо чаще дают пользователям правильные ответы, чем неправильные. Но должно ли это успокаивать человека, который потерял из-за ошибочных ответов ИИ время, деньги, репутацию, а то и хуже того – здоровье и жизнь? Подобные примеры уже известны. Тут уместно будет вспомнить по аналогии старое шуточное предостережение, которое часто необоснованно приписывают Марку Твену: «Будьте осторожны при чтении книг о здоровье. Вы можете умереть от опечатки». При использовании чатботов с искусственным интеллектом тоже следует соблюдать осторожность.

У ИИ-моделей есть крайне неприятный недостаток. Время от времени они «галлюцинируют», то есть выдумывают несуществующие факты и выдают их за реальные. Разработчики моделей знают об этой этой проблеме и уже несколько лет бьются над ней. Нельзя сказать, что безуспешно. Процент таких галлюцинаций у некоторых моделей заметно уменьшился, но как признал в научной статье, опубликованной в сентябре 2025 года, коллектив авторов, большинство из которых работают в Open AI (компания, выпустившая ChatGPT), полностью изжить их не удаётся. И виновата в этом базовая архитектура и общепринятый подход к обучению ИИ-моделей. Сейчас у чатботов приоритеты расставлены примерно так: самое важное — дать какой-нибудь ответ, второе по важности — правдоподобный ответ, и лишь где-то на четвертом-пятом месте — ответственный, гарантированно соответствующий реальности.

Наш опыт это подтверждает. Так автору этой статьи ChatGPT не только сообщил, что у барда Александра Городницкого есть песня «Надежда» 1963 года создания, но и уверенно процитировал две её первые строчки: «Мы выбрались из моря на дорогу, Сорвав тельняшки, выжали штаны…» Но песни с такими словами не только у Городницкого, но и вообще никогда не существовало. При этом, когда автор «прижал чатбота к стенке», тот признался: «Да, ты абсолютно прав — это моя ошибка, то есть фактическая галлюцинация». Все может быть еще хуже. Есть специалисты, которые настаивают, что модель не галлюцинирует, а целенаправленно лжет, выдумывает, в надежде, что «прокатит». А что в реальности будет означать это «прокатит»? То, что человек не узнает, что ему солгали, зато в моменте останется удовлетворён диалогом. 

Вот, на наш взгляд, наиболее часто встречающиеся проблемы LLM-моделей, с которыми обычный пользователь может столкнуться при попытке получить точный и исчерпывающий ответ на фактологический вопрос:

1) То, что люди могли бы описать словом «лень». В физическом смысле это экономия токенов, то есть вычислительных мощностей, а значит электроэнергии и в итоге денег.

2) Запрет доступа для роботов к ключевому для запроса интернет-ресурсу или платформе.

3) Невозможность приводить подробные цитаты и фрагменты чужих текстов из-за соблюдения законодательства по охране авторских прав.

4) Желание услужить или даже выслужиться. Модели натренировали отвечать на вопросы, то есть приоритеты у них выстроены так, что дать какой-то ответ лучше, чем не дать никакого. Но с позиции медиаграмотности это неправильный, ущербный подход. Его иногда сравнивают с поведением троечника на устном экзамене. Гораздо лучше и ответственнее отвечать «не знаю» на вопрос, в котором ты недостаточно компетентен и не имеешь для уверенного ответа хороших оснований.

5) Уверенный тон, снимающий сомнения у пользователя и притупляющий его критический взгляд в том числе на самого себя.

6) Некорректно составленные запросы/промты. Если вопрос не простой, а задающий его не представляет, где и как искать на него ответ, скорее всего он не сможет составить достаточно детализированный и подробный промпт, который приведет к успеху.

7) Общая «замусоренность» интернета. Сеть наводнена непроверенной, неточной информацией. Нередки случаи, когда именно она находится легко в популярных источниках, а точную и проверенную на ту же тему нужно искать в труднодоступных иногда даже не оцифрованных источниках.

Как использовать чатбота для фактчека?

Мы не случайно здесь говорим про обычного среднего пользователя, который идёт за фактчеком к первому попавшемуся чатботу. Да, технооптимисты и специалисты по генеративным моделям почти по каждому пункту готовы возражать, объясняя, откуда взялись эти ограничения и как их можно обойти. Мы и сами можем многое об этом рассказать. Но ведь обычный пользовательский сценарий не подразумевает серьезного погружения в тему и дополнительного обучения. Люди, которые раньше искали информацию и при хороших навыках получали исчерпывающие результаты в бесплатном по умолчанию гугле, теперь зачастую идут за ней к чатботу, подразумевая, что и здесь базовый бесплатный режим будет работать может и не на максимум, но достаточно хорошо. И вот здесь ожиданиям пользователя пока что не суждено оправдаться. Качество ответа достаточно хорошим будет гораздо реже, чем хотелось бы. А чтобы проверить это качество, нужно обладать определенной квалификацией и потратить дополнительное время.

Для того же, чтобы прочесть разбор живых фактчекеров, никакая квалификация не нужна. Пользователь просто узнает почти всегда правильный (или лучший из возможных на момент написания разбора) ответ на вопрос, поставленный в начале статьи «Правда ли…» То есть при равноценной замене фактчекера чатботом такой же пользователь должен иметь возможность просто задать в чат вопрос и получить правильный ответ. А если он не может уверенно это сделать, ему по большому счету не должно быть важно, почему. Сервис не работает. Точка.

Значит ли это, что ИИ-модели бесполезны при фактчекинге? Ни в коем случае. Очень полезны. Та же процитированная выше Никита Рой на том же фактчекерском конгрессе рассказывала, как именно можно и стоит их использовать. LLM-модели отлично переводят почти с любого языка на любой, они могут достаточно точно пересказывать большие объёмы текста, вычленяя в нём основные тезисы и выводы. Они могут расшифровывать и пересказывать видео- и аудиоконтент, могут при определённых условиях создавать таблицы, инфографику и иллюстрации. Всё это может помочь живому фактчекеру в исследовании и наглядном представлении результатов на суд публики. Но уберите из этого технологического процесса белкового профессионала – и всё тут же развалится. Повторим, на всякий случай: пока развалится.

Вывод из всего вышесказанного можно сформулировать так. ИИ-модели делают профессионалов ещё быстрее и профессиональнее, но профанов профессионалами не делают, напротив, часто внушая им ложную уверенность в возможности получить правильный ответ на любой вопрос. В реальности они получают ответы разного, иногда откровенно плохого качества. Для того, чтобы при верификации информации отличать одну ситуацию от другой, использовать полезные свойства чатботов, избегая при этом негативных, пока что нужны живые опытные профессиональные фактчекеры.

Поделиться

Сообщение об ошибке отправлено. Спасибо!
Мы используем cookie