Искусственный интеллект становится всё умнее, но до идеала ему ещё далеко. В частности, модели ИИ иногда сталкиваются с так называемыми «галлюцинациями» — ситуациями, когда они уверенно дают неверные или абсурдные ответы. Один из таких случаев произошёл с голосовым помощником «Алиса», который предложил пользователю рецепт приготовления… «свиных крылышек». Почему так происходит и как обучают ИИ? Рассказываем в этой статье.
Что такое «галлюцинации» ИИ и почему они возникают
Суть проблемы
- ИИ может выдавать заведомо неверную информацию
- Модели иногда принимают абсурдные запросы за реальные
- Полностью исключить такие случаи пока невозможно
Пример с «Алисой»
Голосовой помощник «Алиса» не только не отрицал существование «свиных крылышек», но и предоставил рецепт их приготовления. «Она ссылается на существующие источники, не выдумывает это сама», — пояснил представитель «Яндекса».
Как обучают искусственный интеллект
Этап 1: Обработка данных
- Модель анализирует десятки терабайт информации
- Исключаются явно бессмысленные источники
Этап 2: Экспертная подготовка
- Модель получает сотни тысяч вопросов и ответов
- Это помогает ИИ понять, на какие запросы стоит отвечать
Этап 3: Оценка работы
- Подключается дополнительная нейросеть для проверки основной
- Мониторинг качества ответов в реальном времени
Почему ошибки ИИ не так страшны
Баланс точности и «человечности»
Пользователи ценят в ИИ не только точность фактов, но и естественность общения. «Алиса» должна быть приятным собеседником, что иногда допускает небольшие погрешности.
Постоянное улучшение
- Количество ошибок ИИ постоянно снижается
- Разработчики работают над устранением «галлюцинаций»
- Системы самообучения делают ИИ умнее с каждым днём
Несмотря на некоторые недочёты, искусственный интеллект продолжает развиваться, становясь всё более полезным инструментом в повседневной жизни. А случаи вроде «свиных крылышек» лишь подчёркивают сложность задачи создания идеального ИИ.