От общего к частному – от AI к GEO
AI (искусственный интеллект) → ML (машинное обучение) → Generative AI (генеративный ИИ) → LLM (большие языковые модели) → GEO (оптимизация под генеративный поиск).
ИИ-/AI -модели и LLM – это не одно и то же.
Существует множество моделей искусственного интеллекта. Часть из них является машинным обучением (ML), часть не является. Почти все модели машинного обучения используют нейросети различной архитектуры.
Значимым, но не единственным семейством моделей является семейство LLM.
Правильно ли называть LLM-модели нейросетями?
Отчасти да. Все LLM – нейросети, но не все нейросети – LLM.
«Нейросеть» — это общий термин для моделей, вдохновлённых устройством мозга (узлы-«нейроны», связи-«веса»). Нейросети — универсальный инструмент в ML, но LLM — лишь одна ветвь, которая работает с текстами. Другие типы (CNN, RNN, GAN, Diffusion) применяются в изображениях, аудио, видео, науке и бизнесе.
Так что, когда речь идет о собирательном термине, описывающем GPT, DeepSeek, Gemini, точнее будет говорить «большие языковые модели».
Семейство моделей |
Примеры |
Основная задача |
Архитектура |
Тип данных |
Относится к ML |
LLM (large language models) |
GPT-5, Claude, DeepSeek, ЯндексGPT, LLaMA |
Генерация и обработка текста, ответы на вопросы |
Transformer (нейросеть) |
Текст |
Да |
CNN (convolutional neural networks) |
AlexNet, ResNet, EfficientNet |
Анализ изображений и видео |
Свёрточная нейросеть |
Изображения, видео |
Да |
RNN (recurrent neural networks) |
LSTM, GRU |
Обработка последовательностей (текст, аудио, временные ряды) |
Рекуррентная нейросеть |
Текст, звук, временные ряды |
Да |
GAN (generative adversarial networks) |
StyleGAN, BigGAN |
Генерация изображений, deepfake |
Генеративно-состязательная нейросеть |
Изображения, видео |
Да |
Diffusion models |
Stable Diffusion, Imagen, Runway |
Генерация изображений, видео, аудио |
Диффузионная нейросеть (U-Net) |
Изображения, видео, звук |
Да |
Vision Transformers (ViT) |
ViT, CLIP |
Классификация и мультимодальные задачи (текст + картинка) |
Transformer (нейросеть) |
Изображения, текст |
Да |
Reinforcement Learning (RL) |
AlphaGo, DQN, PPO |
Обучение стратегическому поведению |
Policy network (нейросеть) + среда |
Игры, робототехника, оптимизация |
Да |
Байесовские модели |
Naive Bayes, Bayesian Networks |
Классификация, вероятностное моделирование |
Вероятностные графовые модели |
Табличные, текст |
Да |
Символьный AI (GOFAI) |
Prolog-системы, экспертные системы |
Логические выводы, экспертные знания |
Символы и правила |
Знания, базы данных |
Нет |
Фаззи-логика (Fuzzy logic) |
Системы управления (авто, техника) |
Работа с неточными данными |
Нечёткие множества |
Сенсорные данные, управление |
Нет |
Поисковые и оптимизационные алгоритмы |
A*, Genetic algorithm |
Оптимизация, планирование |
Графовые алгоритмы, эволюция |
Комбинаторные данные |
Частично |
Правильно ли называть все LLM-модели чатом GPT?
Нет, не правильно. Не все подгузники – это Pampers, и не все генеративные модели – это GPT.
GPT (generative pre-trained transformer) — это продвинутая нейросетевая модель для генерации текста, разработанная компанией OpenAI.
Что означают термины в аббревиатуре GPT?
Итого: GPT = генеративная модель на архитектуре трансформеров, предварительно обученная на огромном массиве данных, а потом донастроенная под задачи.
Но есть много других LLM-моделей кроме GPT.
Название модели |
Расшифровка |
Компания/автор |
Страна |
Год запуска |
Тип данных |
Архитектура |
GPT |
Generative Pre-trained Transformer |
OpenAI |
США |
2018 (GPT-1) |
Текст |
Transformers (LLM) |
LLaMA |
Large Language Model Meta AI |
Meta (Facebook) |
США |
2023 (LLaMA-1) |
Текст |
Transformers (LLM) |
Claude |
В честь Клода Шеннона, «отца» информационной теории |
Anthropic |
США |
2022 |
Текст |
Transformers (LLM) |
Gemini |
Google DeepMind Gemini (аллюзия на созвездие Близнецов) |
Google DeepMind |
США/Великобритания |
2023 (Gemini 1) |
Мультимодальная (текст, изображения, код) |
Transformers + Multimodal extensions |
Mistral |
Названа в честь сильного холодного ветра в Средиземноморье |
Mistral AI |
Франция |
2023 |
Текст |
Transformers (LLM) |
PaLM |
Pathways Language Model |
Google Research |
США |
2022 |
Текст |
Transformers (Pathways) |
Falcon |
Названа в честь быстрого и сильного сокола |
Technology Innovation Institute |
ОАЭ |
2023 |
Текст |
Transformers (LLM) |
ERNIE |
Enhanced Representation through Knowledge Integration (Baidu) |
Baidu |
Китай |
2019 (ERNIE 2.0) |
Текст |
Transformers (LLM) |
YaLM/ЯндексGPT |
Языковая модель от Яндекса |
Яндекс |
Россия |
2022 |
Текст |
Transformers (LLM) |
DeepSeek |
Китайская LLM от DeepSeek AI (название: «глубокий поиск») |
DeepSeek AI |
Китай |
2024 |
Текст |
Transformers (LLM) |
Copilot |
Название отражает назначение: помощник-разработчик |
Microsoft + OpenAI |
США |
2021 |
Код (в основе — текст) |
Transformers (LLM), интегрированный в IDE |
Perplexity |
Название от математического термина «perplexity» (меры неопределённости модели) |
Perplexity AI |
США |
2022 |
Текст + поиск (AI Search Engine) |
Transformers (LLM) + retrieval (RAG) |
Мы используем файлы cookie, а также сервис веб-аналитики "Яндекс.Метрика" Продолжая использовать наш сайт, вы даете согласие на обработку данных. Подробнее здесь |
Я согласен |