Образование

Эволюция ИИ-агентов: От Теста Тьюринга (1950) до Эры LLM (с 2017)

Андрей Вишняков — генеральный директор нейро-артели «Полезные цифры», эксперт по искусственному интеллекту и цифровому развитию.

Представьте, что вы пытаетесь объяснить коту высшую математику, пользуясь только шахматными фигурами. Примерно так выглядели первые попытки создать искусственный интеллект. Эволюция ИИ — это не просто история более мощных компьютеров. Это смена философии: от попыток запрограммировать разум строгими логическими правилами к его статистическому «извлечению» из океана данных.

Мы прошли путь от систем, которые не могли отличить кота от шахматной фигуры, до агентов, которые способны обсудить с вами нюансы квантовой физики, а потом забронировать столик в ресторане.

Всё началось с вопроса Алана Тьюринга: «Могут ли машины думать?». Чтобы избежать философских споров, в 1950 году он предложил простой и элегантный мысленный эксперимент — тест Тьюринга. Если человек, общаясь вслепую с компьютером, не может отличить его от живого собеседника, значит, машина мыслит.

Первые исследователи восприняли интеллект как сложную логическую головоломку. Их подход, «символьный ИИ», был похож на сборку модели вселенной из кубиков Lego. Мир дробился на символы (например, «кошка», «ковер», «сидит») и отношения между ними («сидит-на»). Создавались сложные правила манипуляции этими символами, чтобы машина могла «рассуждать».

Яркий пример раннего успеха — программа ELIZA, созданная в 1966 году Джозефом Вейценбаумом. Она использовала простые шаблоны, чтобы имитировать диалог психотерапевта. Например, на фразу «У меня болит голова» она могла ответить:

«Расскажите подробнее о вашей головной боли». Некоторые пользователи всерьез верили, что общаются с человеком. Но это была лишь иллюзия, маска из хитро составленных правил, под которой не было понимания. К концу 1970-х стало ясно: мир слишком сложен и неопределен, чтобы его можно было описать вручную всеми необходимыми правилами. Наступил кризис, известный как «зима ИИ».

Эра экспертных систем (1970-е – 1980-е): Агенты как узкие специалисты

Поскольку создать универсальный разум не удалось, инженеры решили клонировать не интеллект вообще, а интеллект эксперта в узкой области. Так родились экспертные системы. Это были первые настоящие «агенты» в бизнес-смысле: программы, которые заменяли или помогали человеку в конкретных задачах, например, в диагностике болезней или настройке сложного оборудования.

В их основе лежала база знаний — набор фактов и правил, скрупулезно собранных у лучших специалистов, и механизм логического вывода, который по этим правилам находил решение. Это был огромный шаг вперед в практическом применении ИИ.

Однако у таких систем было два фатальных недостатка: они были невероятно дорогими в создании (нужно было платить экспертам) и хрупкими. Стоило проблеме выйти за рамки прописанных правил, система терялась. Они напоминали великого виолончелиста, который, как выяснилось, умеет играть только одну симфонию.

Кризис и поворот к сбору и накоплению данных (1980-е – 2000-е): Статистическое машинное обучение

Кризис экспертных систем заставил ученых искать новые пути. Ключевой идеей стал отказ от ручного программирования «ума». Вместо этого решили позволить машинам самим находить закономерности в данных. На смену логике пришла статистика, а символы начали заменяться числовыми векторами.

Наступила эра машинного обучения. Появились алгоритмы, которые могли, анализируя тысячи примеров, научиться отличать спам от полезного письма, распознавать рукописный текст или рекомендовать фильм. Это был сдвиг парадигмы: мы перестали говорить машине «как» решать задачу, а начали показывать ей «что» нужно распознать, позволяя ей самой найти способ. Агенты стали обучаемыми.

Глубокое обучение (2010-е): большие данные, более мощные GPU, новые архитектуры нейронных сетей.

Прорыв стал возможен благодаря трем факторам: появлению огромных массивов данных (Big Data), развитию мощных графических процессоров (GPU) и изобретению новых архитектур нейронных сетей.

Идея нейронных сетей, вдохновленных устройством мозга, существовала давно. Но только в 2010-х годах стало возможным создавать глубокие сети — с десятками и сотнями слоев. Каждый слой учился распознавать все более сложные признаки: от краев на картинке до целых объектов и даже сцен. Это позволило совершить рывок в компьютерном зрении, распознавании речи и машинном переводе.

Агенты на основе глубокого обучения уже не просто классифицировали данные, а генерировали их: создавали изображения, писали простые тексты, синтезировали голос. Однако для полноценного диалога и работы с языком им все еще не хватало гибкости и «понимания» контекста.

Революция Transformer и Эра LLM. Новая философия.

Переломный момент наступил в 2017 году, когда исследователи из Google опубликовали статью «Attention Is All You Need», представив архитектуру Transformer. Ее ключевое изобретение — механизм внимания — позволило модели анализировать взаимосвязи между всеми словами в предложении одновременно, независимо от расстояния между ними.

На этой архитектуре были построены Большие Языковые Модели (LLM), такие как GPT от OpenAI и BERT от Google. Их принцип радикально прост: обучиться предсказывать следующее слово в любом тексте, проанализировав триллионы слов из интернета.

В процессе такого обучения модель выявляет не только грамматические правила, но и логические связи, факты о мире, стилистические приемы — всю скрытую структуру человеческого языка.

Выпуск ChatGPT в 2022 году стал культурным шоком. Внезапно у всех появился доступ к агенту, способному на осмысленный диалог, написание кода, творческие задачи и сложные рассуждения. Современные LLM-агенты, такие как Operator от OpenAI или Project Jarvis от Google, эволюционировали дальше: они не просто отвечают, а действуют — бронируют билеты, анализируют таблицы, управляют ПО по инструкции.

LLM — это не смоделированный разум, а своего рода гипер-интуиция, выращенная на данных. Они подобны гениальному социопату, который выучил все правила человеческого общества по книгам и может безупречно имитировать участие, не испытывая настоящих эмоций. Такой агент — это универсальный собеседник и исполнитель, чьи возможности определяются не зашитыми правилами, а масштабом его обучения и архитектурой.

Взгляд в будущее: что дальше?

Сегодня мы стоим на пороге, возможно, самого важного вопроса: куда дальше? Приведут ли нас гигантские языковые модели к Искусственному Общему Интеллекту (AGI) — системе, способной на уровне человека решать любые интеллектуальные задачи?

Путь масштабирования: Многие лидеры индустрии, как Сэм Альтман (OpenAI), верят, что AGI достижим уже к 2027-2030 годам путем дальнейшего увеличения масштаба моделей и данных.

Архитектурный прорыв: Другие, как Демис Хассабис (Google DeepMind), считают, что нынешним LLM не хватает планирования, воображения и настоящего рассуждения. Нужны новые архитектуры, возможно, нейро-символические, сочетающие мощь нейросетей с логикой. Создатель теста ARC-AGI, Франсуа Шолле, настаивает, что истинный интеллект — это не запоминание паттернов, а способность адаптироваться к принципиально новым задачам, чем современные LLM почти не обладают.

Главный вызов текущей эры — преодоление ограничений LLM: их склонность к вымыслу («галлюцинациям»), отсутствие истинного понимания причинно-следственных связей и зависимости от колоссальных энергетических ресурсов (ИИ уже потребляет как целые страны).

Эволюция продолжается. Следующий виток, вероятно, будет связан не с созданием еще одной большой модели, а с созданием системы из множества узкоспециализированных агентов, которые, подобно отделу в компании, будут кооперироваться для решения сложных задач.

Мы движемся от универсального «сотрудника»-LLM к целой «организации» ИИ-агентов, где каждый отвечает за свое, но все работают на общую цель под контролем человеческого разума. И в этом, возможно, и есть наш следующий шаг от имитации интеллекта к созданию принципиально новых форм разумного взаимодействия.

Редакция сайта

Игорь Сумин - генеральный директор ООО "Типичная Москва". Главный редактор сетевого издания "Типичная Москва". Председатель Совета журналистов и медиаэкспертов РФ.

Похожее

Back to top button