Искусственный интеллект (ИИ) — компьютерная репликация возможностей человеческого интеллекта. С начала 2020-х годов чаще всего используется для обозначения технологий на базе машинного обучения и нейронных сетей.
История ИИ
Термин «искусственный интеллект» появился в 1955 году благодаря Джону Маккарти (John McCarthy). А в 1956 году состоялся Дартмутский семинар, на котором ученые, интересующиеся темой моделирования человеческого разума, утвердили основные положения этой области науки. Однако точкой отсчета в исследованиях в области искусственного интеллекта можно считать 1950 год, когда Алан Тьюринг сформулировал способ определения того, обладает ли машина интеллектом («Вычислительные машины и разум», Computing Machinery and Intelligence, 1950 г.). Позже этот метод получил название «тест Тьюринга». Согласно ему, компьютер считается обладающим интеллектом, если способен демонстрировать разумное поведение, неотличимое от человеческого.
Исследования в области искусственного интеллекта активно велись в 50–60-е годы XX века. Например, в 1950-х появились первые нейросети, а в 1960-х — первый чат-бот. В середине 1970-х годов развитие ИИ замедлилось из-за недостаточности финансирования, существовавших вычислительных мощностей, а также общего разочарования в его возможностях — этот период истории ИИ называется «зимой искусственного интеллекта». В 1980-х интерес к теме на короткое время возник вновь на фоне развития экспертных систем, которые потенциально могли заменить специалистов-экспертов в решении определенных вопросов. Однако возможности таких систем на тот момент не оправдали ожиданий, и «зима» вернулась.
Интерес к области возродился на рубеже XX–XXI вв. Одним из ключевых факторов стала победа компьютера Deep Blue над чемпионом мира по шахматам Гарри Каспаровым. Другим — значительный рост вычислительных мощностей и появление крупных массивов данных, необходимых для машинного обучения. В 10-е годы XXI века появился ряд новых технологий, называемых «генеративным ИИ»: генеративно-состязательные сети, благодаря которым стала возможной генерация фотореалистичных изображений, и нейросети-трансформеры, на основе которых начали строить большие языковые модели, способные получать запросы и возвращать ответы на естественных языках.
Сильный и слабый ИИ
Выделяют сильный и слабый искусственный интеллект.
Сильный ИИ, или AGI (artificial general intelligence), способен выполнять любые задачи, которые традиционно считаются доступными только разумным существам, такие как построение причинно-следственных связей и принятие решений. По состоянию на октябрь 2025 года AGI остается гипотетической концепцией. При этом некоторые эксперты считают, что только сильный ИИ можно называть искусственным интеллектом.
Слабый искусственный интеллект решает ограниченный набор задач, под которые он обучен, например генерирует текст или изображения по запросу. Как правило, такой ИИ тренируется на больших массивах однородных обучающих данных (например, миллионах размеченных фотографий кошек и собак) и выстраивает закономерности на их основе. Обученный ИИ может выносить вердикт в ответ на входные данные такого же формата (например, отвечать «кошка» или «собака» в ответ на фотографию питомца) или генерировать новые данные по аналогии (создавать фотореалистичные изображения несуществующих собак и кошек).
Примеры ИИ и их применение
На 2025 год среди технологий, использующих ИИ, можно выделить следующие крупные категории:
- Модели для работы с текстом — ИИ, основной функцией которых является обработка естественного языка, такие как большие языковые модели (LLM). Такие модели получили широкое распространение в ИИ-ассистентах (ChatGPT, Siri, Alexa), автоматических переводчиках (Google Adaptive Translation, DeepL), инструментах генерации кода (GitHub Copilot, Amazon CodeWhisperer) и многих других популярных инструментах.
- Системы для работы с визуальным контентом — ИИ, в задачи которых входит обработка или генерация изображений и видео. К ним относятся системы компьютерного зрения, которые используются, например, для поиска по картинкам, а также для распознавания объектов в автомобильных автопилотах и системах видеонаблюдения. К этой же категории можно отнести нейросетевые генераторы изображений (Dall-E, Midjourney, Stable Diffusion) и видео (Sora, Luma).
- Системы для работы с аудиоконтентом — ИИ, способные обрабатывать звук. Это могут быть, например, биометрические системы аутентификации по голосу, инструменты нейросетевой озвучки и генераторы музыки.
Возможности ИИ по обобщению информации также могут использоваться для анализа любых больших данных. Например, на ИИ основаны системы рекомендаций ряда стриминговых сервисов, анализирующие интересы пользователей и предлагающие похожий контент. Аналогичные системы получили распространение в медицине для анализа симптомов и постановки предварительного диагноза.
Искусственный интеллект в кибербезопасности
Развитие ИИ привело к появлению новых угроз кибербезопасности.
- Дипфейки. Генеративные нейронные сети позволяют создавать правдоподобные поддельные изображения, видео- и аудиозаписи реальных людей. Такие материалы злоумышленники могут использовать для шантажа или фишинга.
- Генерация вредоносного кода. Как правило, ИИ-ассистенты, разработанные известными компаниями, не могут генерировать вредоносный код из-за встроенных механизмов защиты. Однако в даркнете распространяются «взломанные» версии таких ассистентов, способные обходить установленные ограничения, в том числе создавать вредоносное ПО.
- Генерация фишинговых страниц и рассылок. Мошенники используют большие языковые модели для написания текстов фишинговых рассылок на разных языках и наполнения фишинговых страниц.
Кроме того, злоумышленники могут атаковать ИИ, например пытаться обойти встроенные ограничения легитимных моделей — это называется джейлбрейк (как и получение неограниченных прав в iOS). Также атакующие могут искать уязвимости в моделях машинного обучения, чтобы в дальнейшем использовать их в атаках, например на защитные решения.
В свою очередь, специалисты по безопасности применяют ИИ для оптимизации ресурсоемких задач и повышения эффективности защиты.
- Обнаружение вредоносных программ. Современные защитные решения обрабатывают файлы при помощи ИИ, чтобы детектировать новейшие угрозы, а также полиморфические вредоносные программы, у которых каждый образец имеет уникальный хэш файла.
- Выявление мошенничества. ИИ способен выявлять аномальную активность пользователей (например, транзакции в нестандартное время или из нестандартного места, которые потенциально могут указывать на утечку данных карты). С такой целью ИИ применяется, например, в интернет-банкинге и онлайн-играх.
- Выявление почтовых атак. ИИ анализирует почтовый трафик по множеству параметров и помогает выявлять фишинговые письма, в том числе целевые и тщательно составленные.
- Обнаружение аномальной активности в корпоративных сетях. ИИ может обрабатывать телеметрию и журналы операций как в цифровых, так и в физических системах (например, в составе SIEM-решений) и выявлять аномальную активность, которая может быть индикатором компрометации или атаки.
- Активный поиск угроз. ИИ может обнаруживать неизвестные ранее индикаторы компрометации в исторических данных, выявляя новые сложные угрозы.