06:00 03/09/2023 0
Анонимно
В Пентагоне создана оперативная группа "Лима" (Task Force Lima) для изучения применения генеративного искусственного интеллекта в военных целях. "Лима" войдет в состав Главного управления цифровых технологий и искусственного интеллекта Пентагона (CDAO), ее возглавит член управления алгоритмической войны CDAO капитан Ксавьер Луго.
Как заявили в Минобороны США созданная группа "будет оценивать, синхронизировать и использовать генеративные возможности искусственного интеллекта, гарантируя, что министерство останется на переднем крае передовых технологий, одновременно обеспечивая национальную безопасность".
"Создание оперативной группы "Лима" подчеркивает непоколебимую приверженность министерства обороны лидерству в области инноваций в области искусственного интеллекта", – заявила заместитель госсекретаря Кэтлин Хикс.
"Хотя технология генеративного искусственного интеллекта не является новой, популярность генеративного искусственного интеллекта за последние несколько месяцев резко возросла в технологическом пространстве из-за его применения в таких проектах, как ChatGPT. Эта технология обучена на огромных наборах данных и может генерировать аудио, текст, изображения и другие типы контента. Сейчас министерство обороны ищет способы использования генеративного искусственного интеллекта для сбора разведывательной информации и будущих военных действий. Но хотя эта технология может предложить новые возможности для министерства обороны, министерство также должно учитывать риски, которым технология может его подвергнуть", – отмечает военный портал Breaking Defence.
В июне министр ВВС США Фрэнк Кендалл объявил, что попросил научно-консультативный совет ВВС изучить потенциальное воздействие технологии ChatGPT. "Я попросил свой научно-консультативный совет сделать с ИИ две вещи. Взглянуть на генеративные технологии искусственного интеллекта, такие как ChatGPT, и подумать об их военном применении, и собрать небольшую команду, чтобы сделать это довольно быстро", – сказал Кендалл.
Генеративный ИИ относится к категории алгоритмов ИИ, генерирующих новые результаты на основе данных, на которых они были обучены, чем они и отличаются от гораздо более простых алгоритмов машинного обучения, которые просто берут структурированные данные и выдают наиболее вероятный статистический результат. Публичные инструменты генеративного ИИ включают в себя так называемые большие языковые модели типа ChatGPT, которые могут сгенерировать новый текст, практически неотличимый от написанного человеком. Эти модели уже используются для написания эссе, бизнес-планов и даже научных статей.
"Но эти языковые модели иногда лгут или, как выражаются аналитики ИИ, галлюцинируют", – отмечает известный военный обозреватель Патрик Такер.
Объяснять, чем чреваты галлюцинации ИИ в случае его применения в военных целях, нет необходимости.
Один из пионеров этого направления Джеффри Хинтон в мае этого года уволился с работы в Google, чтобы выразить свою озабоченность по поводу рисков, связанных с генеративным искусственным интеллектом.
"В 2012 году доктор Хинтон и двое его аспирантов из университета Торонто создали технологию, которая стала интеллектуальной основой для создания искусственного интеллекта – системы, которую крупнейшие компании технологической отрасли считают ключом к их будущему. Однако… он официально присоединился к растущему хору критиков, которые говорят, что эти компании приближаются к опасной черте со своей агрессивной кампанией по созданию продуктов, основанных на генеративном искусственном интеллекте, технологии, которая лежит в основе популярных чат-ботов, таких как ChatGPT", – сообщила The New York Times.
"Трудно понять, как вы можете помешать плохим парням использовать его _
Связь с редакцией:
mahalya@list.ru