ИИ производит наибольшее количество дезинформационного контента

ИИ производит наибольшее количество дезинформационного контента

26
Ученые из компании Google провели исследование, посвященное влиянию искусственного интеллекта на интернет и проблему дезинформации.

Они отметили, что генеративные ИИ-модели, такие как ChatGPT, способны создавать качественный контент, но также имеют недостатки, включая возможность генерации любого контента и ошибки. Это увеличивает возможности для мошенничества.

Сотрудники Google проанализировали более 200 статей в СМИ за период с января 2023 года по март 2024 года, где описывались случаи неправомерного использования ИИ. Они обнаружили, что злоумышленники часто используют ИИ для создания фальшивых изображений и доказательств, стремясь повлиять на общественное мнение и получить легкий доход. Большинство таких мошенничеств можно осуществить без глубоких знаний о работе нейросетей.

Исследователи подчеркнули этическую опасность таких инцидентов и отметили, что большинство чат-ботов не отвечают на бестактные вопросы, но их можно обойти, сформулировав запрос иначе. Они считают, что это "размывание границ" между правдой и ложью.

Несмотря на ограничения, связанные с использованием информации из СМИ, исследование помогло расширить понимание проблемы влияния ИИ на информацию в интернете и её качество.

Поделиться: