Искусственный интеллект, несмотря на свои впечатляющие возможности, иногда склонен к "галлюцинациям" – то есть к генерации ложной или выдуманной информации. Это явление стало предметом обсуждения и критики в последнее время.
Например, в прошлом году инструмент от Google, предназначенный для создания изображений, вызвал нарекания, сгенерировав образы, которые не соответствовали действительности, такие как женщины-папы или чернокожие викинги. Кроме того, система искусственного интеллекта от Google, известная как AI Overviews, давала весьма сомнительные советы. В одном из случаев она рекомендовала добавлять клей в соус для пиццы для лучшего сцепления сыра, а в другом – выдумала несуществующую поговорку "Барсука дважды не лизнешь", представив ее как общеизвестную идиому.
Одной из причин таких ошибок является использование ИИ неавторитетных источников. Системы искусственного интеллекта обрабатывают информацию из различных веб-сайтов, суммируют ее и представляют пользователю в виде собственного ответа, сопровождая его ссылками на источники. Однако, если исходные данные ненадежны, это напрямую влияет на качество генерируемого контента.
Существует мнение, что Google может недооценивать масштабы проблемы. Хотя сам ИИ заявляет о частоте галлюцинаций в пределах 0,7-1,3%, данные платформы Hugging Face указывают на более высокий показатель в 1,8% для последней модели Gemini.
Однако, эта проблема не ограничивается только Google. Компания OpenAI также признала, что ее последние модели, o3 и o4-mini, демонстрируют более высокий уровень галлюцинаций по сравнению с предыдущими версиями. Внутренние тесты показали, что модель o3 выдумывала информацию в 33% случаев, а o4-mini – в 48%, особенно при ответах на вопросы, касающиеся реальных людей.
Комментарии (0)