ИИ производит наибольшее количество дезинформационного контента
Они отметили, что генеративные ИИ-модели, такие как ChatGPT, способны создавать качественный контент, но также имеют недостатки, включая возможность генерации любого контента и ошибки. Это увеличивает возможности для мошенничества.
Сотрудники Google проанализировали более 200 статей в СМИ за период с января 2023 года по март 2024 года, где описывались случаи неправомерного использования ИИ. Они обнаружили, что злоумышленники часто используют ИИ для создания фальшивых изображений и доказательств, стремясь повлиять на общественное мнение и получить легкий доход. Большинство таких мошенничеств можно осуществить без глубоких знаний о работе нейросетей.
Исследователи подчеркнули этическую опасность таких инцидентов и отметили, что большинство чат-ботов не отвечают на бестактные вопросы, но их можно обойти, сформулировав запрос иначе. Они считают, что это "размывание границ" между правдой и ложью.
Несмотря на ограничения, связанные с использованием информации из СМИ, исследование помогло расширить понимание проблемы влияния ИИ на информацию в интернете и её качество.