Исследование канадских лингвистов из Университета Ватерлоо показало, что искусственный интеллект (ИИ) на основе больших языковых моделей, таких как GPT-3, может допускать ошибки, противоречить себе и распространять дезинформацию, включая конспирологические гипотезы. Об этом сообщает Газета.ru.
Специалисты изучали устойчивость чат-бота ChatGPT, выявив, что нейросеть подтверждает до 26% ложных утверждений в зависимости от категории, а изменения в формулировке вопросов существенно влияют на ее ответы. Эти проблемы вызывают тревогу, поскольку уязвимость ИИ перед дезинформацией и неспособность отличать правду от вымысла подрывают доверие к таким системам, особенно при широком распространении.