Внимание!На сайте ведутся работы в связи с обновлением, приносим извинения за причиненные неудобства

Внимание!На сайте ведутся работы в связи с обновлением, приносим извинения за причиненные неудобства

Внимание!На сайте ведутся работы в связи с обновлением, приносим извинения за причиненные неудобства

lori-0041611970-a7.jpg

Искусственный интеллект: теперь и для войны

29 Января 2024г. в 11:02

Компания OpenAI, создатель ChatGPT, разрешила использование чат-бота и других инструментов искусственного интеллекта в военных целях и уже работает с Министерством обороны США.


Текст: Марина Живулина

Иллюстрация: Кирилл Чемезов & AI / Фотобанк Лори

Dailymail.com пишет, что произошло это незаметно: на прошлой неделе компания просто убрала из своей ключевой документации положение о том, что «компания не разрешает использование моделей для деятельности, которая сопряжена с высоким риском причинения физического вреда, включая разработку оружия и военные действия».

OpenAI – американская научно-исследовательская организация, занимающаяся разработками в области искусственного интеллекта, создатель больших языковых моделей, в том числе GPT-4 и ChatGPT, а также моделей для генерации изображений, таких как DALL-E. К концу 2023 г. объем ее выручки превысил $1,6 млрд, показав рост на 23% по отношению к октябрю этого же года ($1,3 млрд).

Как сообщил Dailymail представитель OpenAI, сегодня компания ведет множественные переговоры о привлечении средств на сумму 100 млрд долл. и работает с Министерством обороны США над инструментами кибербезопасности: «Например, мы уже работаем с Агентством перспективных исследовательских проектов в области обороны (DARPA), чтобы стимулировать создание новых инструментов кибербезопасности для защиты программного обеспечения с открытым исходным кодом, от которого зависят критически важные инфраструктуры и промышленность».

В прошлом году 60 стран, включая США и Китай, подписали призыв к ограничению использования искусственного интеллекта по военным соображениям. Однако этот «призыв» не имеет юридической силы.

Вице-президент OpenAI по глобальным вопросам Анна Маканджу заявила в интервью Bloomberg на Всемирном экономическом форуме в Давосе: «Поскольку ранее у нас был полный запрет на военные действия, многие люди думали, что это запретит многие из реализуемых сейчас вариантов использования AI». Также она сообщила, вероятно, желая добавить позитива, что разработчик ChatGPT провел переговоры с Правительством США о внедрении специальной программы с инструментами ИИ по методам предотвращения самоубийств ветеранов войн.

Тем не менее, какие бы оправдания ни звучали, опасений в мире по этому поводу все больше.

Согласно отчету ООН, в 2020 г. ливийские правительственные силы запустили автономный турецкий беспилотник Kargu-2, который атаковал отступающих солдат-повстанцев, что стало первой атакой такого рода в истории. Беспилотник был запрограммирован на атаку без подключения к данным оператора.

Как сообщает Dailymail, в 2018 г. тысячи сотрудников Google протестовали против проекта Пентагона Project Maven, в рамках которого инструменты искусственного интеллекта компании использовались для анализа видеозаписей с беспилотников. Также и работники Microsoft протестовали против контракта стоимостью 480 млн долларов на обеспечение солдат гарнитурами дополненной реальности, а более 1500 сотрудников Amazon и Google подписали письмо с протестом против совместного многолетнего контракта стоимостью 1,2 млрд долл. с израильским правительством и военными, в соответствии с которым технологические гиганты будут предоставлять услуги облачных вычислений, инструменты искусственного интеллекта и центры обработки данных, пишет CNBC.

В 2017 г. технологические лидеры, включая Илона Маска, обратились в ООН с призывом запретить автономное оружие, так как оно «угрожает привести к третьей революции в военном деле, тогда как первыми двумя являются порох и ядерное оружие».

Тем не менее, будущее очевидно наступает по определенному сценарию. Бывший агент МИ-6 и писатель Карлтон Кинг уверен, что машинное обучение для управления боевыми аппаратами весьма заманчиво для военачальников. Но опасность в том, что «когда вы начинаете обучать независимого робота , вы постепенно теряете контроль над ним. Сейчас БПЛА в США и Великобритании управляют пилоты, но у военных руководителей может возникнуть соблазн исключить человека из уравнения».

The Intercept цитирует представителя OpenAI Нико Феликса, ответившего на запрос издания в электронном письме:

«Мы стремились создать набор универсальных принципов, которые легко запомнить и применять, тем более что наши инструменты теперь используются во всем мире обычными пользователями, которые теперь также могут создавать GPT. Такой принцип, как «Не причиняй вреда другим», широк, но легко усваивается и актуален во многих контекстах. Кроме того, мы специально привели оружие и причинение вреда другим в качестве наглядных примеров. Любое использование наших технологий, в том числе военными, для разработки или применения оружия, причинения вреда другим лицам или уничтожения собственности, или участия в несанкционированных действиях, нарушающих безопасность любой службы или системы, запрещено». Следом он добавил, что «OpenAI хочет использовать определенные варианты использования для национальной безопасности, которые соответствуют нашей миссии», сославшись на план создания инструментов кибербезопасности совместно с DARPA и на то, что«цель обновления нашей политики – обеспечить ясность и возможность проведения этих обсуждений».

The Intercept там же приводит цитату Хейди Хлааф, технического директора компании по кибербезопасности Trail of Bits и эксперта по машинному обучению и безопасности автономных систем: «OpenAI хорошо осведомлена о рисках и вреде, которые могут возникнуть из-за использования ее технологий и сервисов в военных целях. Новая политика, по-видимому, делает акцент на законности, а не на безопасности. Существует явная разница между этими двумя политиками, поскольку в первой четко указано, что разработка оружия, военные действия запрещены, в то время как во второй подчеркиваются гибкость и соблюдение закона. Потенциальные последствия для безопасности ИИ значительны. Учитывая хорошо известные случаи предвзятости и галлюцинаций, присутствующих в больших языковых моделях (LLM), и их общую неточность, их использование в военных действиях может привести к неточным и предвзятым операциям, которые, вероятно, усугубят ущерб и жертвы среди гражданского населения».

Обзор пользовательских ботов на базе ChatGPT, предлагаемых OpenAI, показывает, что военнослужащие США уже применяют технологию Opens in a new tab для ускорения оформления документов. Национальное агентство геопространственной разведки, которое непосредственно помогает боевым усилиям США, использует информацию об использовании ChatGPT для оказания помощи своим специалистам-аналитикам. Bloomberg пишет также, что Microsoft, крупнейший инвестор OpenAI, предоставляет несколько контрактов на программное обеспечение вооруженным силам США и другим правительственным структурам. OpenAI, Anthropic, Google и Microsoft помогают Агентству перспективных исследований Министерства обороны США в рамках проекта AI Cyber Challenge найти программное обеспечение, которое автоматически исправит уязвимости и защитит инфраструктуру от кибератак.

Люси Сушман, почетный профессор антропологии науки и техники в Ланкастерском университете, специалист по искусственному интеллекту с 1970-х годов и член Международного комитета по контролю над вооружениями роботов, рассуждает: «Идея о том, что вы можете вносить свой вклад в боевые платформы, не участвуя при этом в разработке или использовании оружия, звучит неискренне». Сушман указывает также на тесное партнерство OpenAI с Microsoft, крупным оборонным подрядчиком, который на сегодняшний день инвестировал 13 млрд долл. в производителя LLM и перепродает программные средства компании.

Некоторые эксперты придерживаются точки зрения, что программы искусственного интеллекта требуются Пентагону, чтобы управлять гигантскими базами данных и анализировать их – человеческого ресурса на эти цели уже не хватает. Ведь языковые модели вроде ChatGPT могут оперативно генерировать сложные текстовые данные. Однако эти модели часто страдают от так называемых галлюцинаций (искажений), которые создают проблему точности и фактуальности

В ноябрьском обращении заместитель министра обороны Кэтлин Хикс заявила, что искусственный интеллект является ключевой частью комплексного подхода к инновациям, ориентированного на военных, хотя предупредила, что большинство текущих предложений «еще недостаточно зрелые, чтобы соответствовать нашим этическим требованиям к AI».

Между тем, Илон Маск объявил в своем аккаунте в (экс-твиттере) X о запуске новой модели искусственного интеллекта Grok. Grok догнал в тестах предыдущую модель от OpenAI (ChatGPT 3.5). Главное отличие Grok от конкурентов – доступ к базе Х здесь и сейчас и возможность распределенной работы на электромобилях Tesla. Маск позиционирует свою свежесозданную компанию xAI как конкурента OpenAI, Inflection, Anthropic и другим производителям искусственного интеллекта. Ранее визионер заявлял, что «сегодняшние производители искусственного интеллекта слишком сильно склоняются к политкорректным системам, а миссия xAI заключается в создании ИИ для людей любого происхождения и политических взглядов».