Большие скидки
За подарками
  1. Журнал Gerwin
  2. LLM

LLM

LLM (Large Language Models) — добро пожаловать в раздел, посвященный большим языковым моделям

Кейс OpenAI: Разработка Android-приложения Sora на Codex и GPT-5.1
13 декабря 2025 г.

Кейс OpenAI: Разработка Android-приложения Sora на Codex и GPT-5.1

85% кода написал ИИ Codex, а команда из 4 инженеров выпустила продукт за месяц
Примеры промтов и запросов для DeepSeek-v3.2
10 декабря 2025 г.

Примеры промтов и запросов для DeepSeek-v3.2

Обзор возможностей DeepSeek-V3.2 — модели с открытым кодом уровня GPT-5. Подборка промтов для режима рассуждения (CoT)
Илья Суцкевер: конец эпохи масштабирования ИИ
27 ноября 2025 г.

Илья Суцкевер: конец эпохи масштабирования ИИ

Сверхинтеллект через 5 лет? Илья Суцкевер назвал сроки и предсказал, когда текущие ИИ-модели «заглохнут»
 DeepSeek — секреты и лайфхаки для работы с китайской нейросетью
27 ноября 2025 г.

DeepSeek — секреты и лайфхаки для работы с китайской нейросетью

Все о работе с DeepSeek: как писать запросы, какие функции скрыты, как улучшить ответы и использовать режим DeepThink. Полная инструкция для новичков
Татарский язык для GPT-3: файнтюнинг DaVinci. История из эпохи «до ChatGPT»
28 июня 2025 г.

Татарский язык для GPT-3: файнтюнинг DaVinci. История из эпохи «до ChatGPT»

Небольшой технический отчет о файнтюнинге LLM для генерации текстов на татарском языке в 2022 году
Архитектура MoE в больших языковых моделях — кто такие «эксперты»?
7 апреля 2025 г.

Архитектура MoE в больших языковых моделях — кто такие «эксперты»?

Что такое архитектура Mixture of Experts в больших языковых моделях (LLM), кто такие «эксперты», как они устроены и почему этот подход становится всё более актуальным в современных моделях
Llama 4 — Scout, Maverick и Behemoth
5 апреля 2025 г.

Llama 4 — Scout, Maverick и Behemoth

Первыми стали доступны для использования Llama 4 Scout и Llama 4 Maverick — новые открытые мультимодальные модели, разработанные на базе архитектуры Mixture-of-Experts (MoE)