Пентагон все же передаст под контроль ИИ летальное оружие, используя модель от Palantir

 Иллюстрация
Below the Sky/Shutterstock.com

В мире 21 марта 2026, 19:04

Замминистра обороны США Стив Файнберг распорядился присвоить системе искусственного интеллекта Maven Smart System, разработанной компанией Palantir, статус официальной программы Пентагона. 

Таким образом модель именно от этой компании станет основой для построения технологии наведения вооружений на основе ИИ. Искусственный интеллект станет контрольным элементом боевого управления всех видов вооруженных сил США.

В письме от 9 марта, отправленном высшему руководству Пентагона и командующим вооруженными силами, Файнберг заявил, что использование Maven даст военным «новейшие инструменты для обнаружения, сдерживания и подавления противников во всех сферах».

Maven - платформа боевого управления, которая в режиме реального времени анализирует множество данных со спутников, дронов, радаров и сводок разведки, автоматически выявляя потенциальные цели, будь это техника врага, здания, склады вооружений. 

По словам руководителя ИИ-подразделения Пентагона Кэмерона Стэнли, единая система заменит восемь или девять отдельных программ, которые раньше использовались для поиска целей. Статус официальной программы Пентагона обеспечивает постоянное финансирование и делает внедрение намного проще. 

Это большая победа для Palantir. Прошлым летом ему достался 10-миллиардный контракт с армией США. Курс акций компании за последний год удвоился, рыночная капитализация приблизилась к 360 млрд долларов.

Есть правда одна загвоздка. Maven использует ИИ-модель Claude, разработанную компанией Anthropic. А глава Anthropic Дарио Амодеи говорил, что его компания скорее разорвет все связи с государством, чем позволит превратить свою нейросеть в инструмент программного применения оружия. В ответ Пентагон присвоил Anthropic статус «риска для цепочки поставок», тем самым закрыл ей доступ к госзакупкам.

ООН предупреждает, что использование ИИ для наведения оружия без участия человека создает этические и правовые риски, поскольку все ИИ допускают ошибки. Palantir же утверждает, что её софт не принимает никаких решений о применении оружия, окончательный выбор целей всегда остаётся за человеком.

Роман Перл

Будьте всегда в курсе главных событий:

Telegram-канал «Новости Израиля»

Еще новости по теме: ии пентагон сша

Заметили ошибку в тексте?
Выделите текст мышью и нажмите Ctrl + Enter

Еще в разделе В мире