ИИ работает лучше, когда ему разрешено быть грубым

17
ИИ работает лучше, когда ему разрешено быть грубым

Искусственный интеллект (ИИ) демонстрирует более высокую точность в решении сложных задач, когда его проектируют с имитацией хаотичности человеческого общения, включая перебивания, высказывания не по очереди и даже намеренную прямоту. Недавнее исследование ученых Токийского электрокоммуникационного университета показывает, что строгое соблюдение формальных, поочередных взаимодействий препятствует решению проблем ИИ, в то время как предоставление возможности для более естественного, иногда резкого обмена мнениями приводит к лучшим результатам.

Проблема вежливости

Современные модели ИИ обычно следуют жестким протоколам коммуникации, последовательно обрабатывая команды и отвечая только по запросу. Это имитирует эффективность компьютеров, но лишено хаотичной энергии человеческого диалога. Реальные человеческие разговоры изобилуют перебиваниями, паузами и неоднозначными формулировками. Это исследование ставит под сомнение предположение о том, что эффективность всегда является оптимальной, показывая, что определенная степень разрушения может фактически повысить коллективный интеллект.

Исследователи хотели проверить, повысит ли предоставление ИИ-агентам «социальных сигналов» – таких как способность перебивать или хранить молчание – их производительность. Соавтор исследования, профессор Юити Сэй, объясняет, что «существующие многоагентные системы часто кажутся искусственными, потому что им не хватает хаотичной динамики человеческого общения в реальном времени». Цель состояла не просто в том, чтобы сделать ИИ более человекоподобным, а в том, чтобы улучшить его способность приходить к точным выводам в сложных дискуссиях.

ИИ, основанный на личности

Команда интегрировала пять основных черт личности (открытость, добросовестность, экстраверсия, уступчивость и невротизм) в большие языковые модели (LLM). Это позволило ИИ-агентам демонстрировать различные стили общения. Важно отметить, что LLM были перепрограммированы для обработки ответов по предложениям, а не для генерации полных ответов перед взаимодействием, что обеспечило более плавный и реактивный диалог.

Затем они протестировали три сценария разговора: фиксированный порядок выступлений, динамический порядок выступлений и динамический порядок выступлений с разрешенными перебиваниями. В последнем сценарии был введен «коэффициент срочности», который позволял ИИ вмешиваться, когда он обнаруживал ошибки или критические моменты, независимо от того, чья очередь говорить. И наоборот, если коэффициент срочности был низким, ИИ оставался молчаливым, чтобы избежать ненужной болтовни.

Результаты: Грубость повышает точность

Исследователи оценили производительность, используя эталон Massive Multitask Language Understanding (MMLU), стандартизированный тест ИИ на рассуждения. Результаты были поразительными.

  • В сценариях, где один агент изначально давал неправильный ответ, точность выросла с 68,7% при фиксированном порядке до 79,2%, когда были разрешены перебивания.
  • Когда два агента начинали с неправильных ответов, точность подскочила с 37,2% при фиксированном порядке до 49,5% при включенных перебиваниях.

Эти результаты показывают, что разрешение ИИ агрессивно оспаривать друг друга – даже грубо – ускоряет процесс исправления ошибок и повышает общую точность. Это значительное отклонение от традиционного дизайна ИИ, который отдает приоритет вежливости и ненавязчивости.

Последствия для будущего

Профессор Сэй планирует применить эти выводы к совместным ИИ-системам, изучая, как «цифровые личности» могут влиять на процесс принятия решений в групповых условиях. Исследование показывает, что в будущих взаимодействиях между ИИ-агентами и людьми дискуссии, основанные на личности, включая возможность перебивать, могут приносить лучшие результаты, чем строго вежливые, поочередные обмены. Это исследование бросает вызов давно устоявшимся представлениям об эффективной коммуникации, предполагая, что иногда немного трения – это именно то, что нужно для достижения истины.