Когда ваш товарищ по команде — машина: 8 вопросов, которые директора по информационной безопасности должны задать об ИИ

Новости

ДомДом / Новости / Когда ваш товарищ по команде — машина: 8 вопросов, которые директора по информационной безопасности должны задать об ИИ

Jul 07, 2023

Когда ваш товарищ по команде — машина: 8 вопросов, которые директора по информационной безопасности должны задать об ИИ

Неизбежность появления ИИ заставляет многих руководителей кибербезопасности решать, друг он или враг. Относиться к нему как к товарищу по команде может быть окончательным решением, но есть ряд острых вопросов, директора по информационной безопасности.

Неизбежность появления ИИ заставляет многих руководителей кибербезопасности решать, друг он или враг. Относиться к нему как к товарищу по команде может быть окончательным решением, но существует ряд острых вопросов, которые следует задать директорам по информационной безопасности.

Искусственный интеллект меняет то, как мы делаем практически все: куда бы мы ни обратились, машины выполняют задачи, которые в прошлом мог бы выполнить человек. Эти экземпляры на базе искусственного интеллекта охватывают широкий спектр возможностей: от автономных транспортных средств до ботов для обслуживания клиентов, которыми необходимо управлять до того, как на линии появится человек. В сфере кибербезопасности ИИ быстро стал одновременно другом и усилителем силы для противников. Нравится вам это или нет, но рассматривать машину как товарища по команде стало реальностью, которую директорам по информационной безопасности придется научиться принимать, но им следует задать ряд вопросов, прежде чем брать напарника с искусственным интеллектом.

Концепция не нова. В 2019 году международная группа из 65 ученых-сотрудничеств сформулировала 819 исследовательских вопросов по этой теме с намерением «предоставить программу исследований, которую исследователи сотрудничества могут использовать для изучения ожидаемых эффектов созданных товарищей по команде машин на основе квалифицированных мнений исследователей сотрудничества». Без сомнения, некоторые из исследовательских идей, разработанных командой совместных ученых, нашли отражение в принципах и рекомендациях Министерства обороны США по ответственному ИИ, в которых отражены пять показателей, которыми должен обладать любой ИИ, прежде чем его можно будет использовать: ответственный, справедливый, прослеживаемые, надежные и управляемые.

Чтобы представить себе концепцию ИИ как товарища по команде в действии, достаточно взглянуть на план ВВС США по повышению эффективности многоцелевого боевого самолета F-35 путем объединения его с боевыми дронами, которые действуют как автономные ведомые. Работая с дронами, оснащенными искусственным интеллектом, самолет может собирать информацию со скоростью, превосходящей человеческие возможности. По словам Дж. Р. Сигера, бывшего офицера ЦРУ и писателя, это делает «движение по петле наблюдения, ориентации, решения, действия (OODA) быстрым и маневренным, что, в свою очередь, позволяет получателю информации в реальном времени быть более ловким». .

По словам генерального директора StrikeReady Анурага Гурту, ИИ фактически станет продолжением процессов автоматизации и сможет раскрывать значительно более широкий спектр информации, помогая оценивать сложности со все большей и большей скоростью. «ИИ работает лучше всего, когда директор по информационной безопасности стремится повысить свою производительность, расширить возможности квалифицированного аналитика, разгрузить часть рабочей нагрузки и удержать сотрудников», — говорит Гурту.

Хотя часто может возникнуть ощущение, что мы держим ногу на «педали до упора и не тормозим», говорит Гурту, «ИИ также помогает в возможности выполнять процесс на высокой скорости, улучшает работу по обнаружению и может быть настроен для обеспечения аналитик с вероятностью события стать мишенью или атакой».

В прошлом деревья решений и модели, основанные на правилах, делали обнаружение угроз и уязвимостей довольно трудоемким процессом, но «с помощью ИИ мы можем получать разрозненные наборы данных и улучшать «объяснимость» аналитика», — говорит Гурту, добавляя, что локальная интерпретируемая модель — И агностические объяснения (LIME), и SHAP (аддитивные объяснения Шепли) помогают в работе по объяснению.

«Все больше и больше сущностей используют генеративный ИИ, и они должны быть готовы к всплеску «галлюцинаций», и чем больше это произойдет, тем масштабнее будут галлюцинации», — говорит Гурту. По его словам, средством избежать галлюцинаций в результатах генеративного ИИ является использование графовой языковой модели ИИ.

Чтобы проиллюстрировать эту мысль, достаточно взглянуть на недавнюю записку адвоката, представленную в суд, написанную с помощью чат-бота с искусственным интеллектом, который «галлюцинировал» несуществующую прецедентную практику, хотя не мог найти примеров из реальной жизни. В результате судья издал постоянное постановление, согласно которому любое задание, созданное с использованием ИИ, должно идентифицироваться и проверяться человеком. «Используя графическую методологию, ИИ дает пользователю огромные возможности для понимания контекста», — говорит Гурту. «Без такового, как отмечается, [результатом становятся] массовые галлюцинации».