Архитектура MoE в больших языковых моделях — кто такие «эксперты»?
Что такое архитектура Mixture of Experts в больших языковых моделях (LLM), кто такие «эксперты», как они устроены и почему этот подход становится всё более актуальным в современных моделях