Мультиагентные системы на базе LLM почти всегда строятся вокруг текстовой коммуникации. Агенты объясняют друг другу планы, уточняют шаги, формируют выводы — всё это через генерацию токенов. Такой подход кажется естественным, но он порождает фундаментальные проблемы: текст генерируется медленно, ошибки формулировок на ранних этапах распространяются вниз по цепочке, а количество токенов растёт лавинообразно.
Исследователи из Принстона, Стенфорда и Иллинойса предлагают другой путь: Читать полностью »
