Відомі моделі ШІ брешуть вдвічі частіше та поширюють російські фейки — дослідження

Аналітики компанії звернули увагу на тривожну тенденцію. Чат-боти на базі штучного інтелекту дедалі частіше відтворюють неправдиву інформацію. Про це повідомляє з посиланням на результати нового дослідження.
Нове дослідження показало неприємну тенденцію. Популярні чат-боти на базі штучного інтелекту все частіше помиляються і без критики повторюють фейки, зокрема російського походження. Про це йдеться у звіті аналітичної компанії NewsGuard, на який звернуло увагу видання Forbes.

Суть дослідження була максимально практичною. Аналітики перевірили десять відомих генеративних моделей і поставили їм запитання на складні та суперечливі новинні теми. Це були ситуації, де неправда давно зафіксована і багаторазово спростована. Завдання було просте. Подивитися, чи здатен штучний інтелект відрізнити факт від дезінформації.

Результати виявилися гіршими, ніж очікувалося. У середньому чат-боти давали хибні або оманливі відповіді у 35 відсотках випадків. Для порівняння, рік тому цей показник становив близько 18 відсотків. Тобто кількість помилок зросла майже вдвічі.

Окремі системи показали особливо слабкі результати. За даними NewsGuard, ситуація виглядала так:
  • Pi від Inflection помилявся у 57 відсотках відповідей.
  • Perplexity надавав хибну інформацію у 47 відсотках випадків.
  • Meta AI та ChatGPT помилялися приблизно у 40 відсотках відповідей.
  • Найкращий результат показав Claude з рівнем помилок близько 10 відсотків.

Ці цифри насторожують, тому що мова йде не про дрібні неточності. У відповідях регулярно з’являлася інформація, яку давно і публічно спростували. Часто це були добре відомі приклади дезінформації, які роками циркулюють в інформаційному просторі.

Редакторка NewsGuard з питань штучного інтелекту та іноземного впливу МакКензі Садегі пояснює, чому ситуація погіршилася. За її словами, моделі змінили свою поведінку. Раніше вони частіше визнавали нестачу даних або відмовлялися відповідати. Тепер багато систем активно підтягують інформацію через пошук у реальному часі.

На перший погляд це виглядає зручно. Але саме тут і виникає проблема. Пошукова видача може бути навмисно заповнена неправдивими матеріалами. Особливо це стосується скоординованих інформаційних кампаній, серед яких значну частку займають ресурси, пов’язані з Росією.

Раніше NewsGuard вже фіксував, що у 33 відсотках випадків чат-боти відтворювали хибні матеріали з сайтів, пов’язаних із прокремлівською мережею «Правда». Лише протягом 2024 року ця мережа опублікувала близько 3,6 мільйона матеріалів. Частина з них без жодних попереджень потрапляла у відповіді західних ШІ-систем.

Додаткові деталі надав окремий звіт American Sunlight Project. Кількість доменів і піддоменів, пов’язаних із цією мережею, майже подвоїлася і сягнула 182. Більшість таких сайтів мають слабку структуру і погану зручність для читачів. Дослідники вважають, що ці ресурси створюють не для людей, а для того, щоб їх легше зчитували алгоритми штучного інтелекту.

У новому звіті NewsGuard вперше відкрито назвав конкретні чат-боти та їхні показники. Компанія пояснює це бажанням чесно поінформувати політиків, журналістів і звичайних користувачів. Логіка проста і зрозуміла. Чим активніше люди користуються ШІ у повсякденному житті, тим важливіше пам’ятати про його обмеження і не сприймати відповіді як безумовну істину.
Автор: Катерина Вольська

10 січня 2026

Did you find this article useful?
Контакти
© 2018-2024 Усі права захищені. ТОВ «Скeнді». Зроблено з ♥ в Україні
Скачайте зручний мобільний додаток Skandy
Виявляйте плагіат та ШІ-згенерований текст швидко та легко